En el artículo titulado ZERO-SHOT SYNTHESIS WITH GROUP-SUPERVISED LEARNING, firmado por Yunhao Ge, Sami Abu-El-Haija, Gan Xin y Laurent Itti; de la University of Southern California; explican cómo han logrado que una inteligencia artificial logre desarrollar una imaginación similar a la humana, es decir, logre utilizar diversos conocimientos previos para hacerse una composición de lugar de lo que podría resultar al aplicar variantes.
Tuve noticia de este gran avance a través del artículo de Tendencias, que recomiendo leer, porque aquí solo quiero apuntar por qué me parece tan importante este avance o en qué veo una posible aplicación relacionada con la accesibilidad y la inteligencia artificial.
La cuestión está clara: Se trata de la diversidad y su importancia para evitar sesgos en la inteligencia artificial. Vengo proponiendo, escribiendo [1] y dando charlas [2], desde hace algunos años, sobre la importancia de formar en accesibilidad y aceptación de la diversidad para conseguir eliminar los sesgos en las inteligencias artificiales que están llegando, incluso, a causar graves perjuicios a algunas personas.
Si una inteligencia artificial puede imaginar, tal como muestra la imagen que ilustra esta entrada y que ha sido extraída del artículo original, distintos rostros con distintos colores de piel, por ejemplo, conseguiríamos eliminar sesgos asociados al género y a la procedencia étnica.
Es decir, los sesgos existentes actualmente debidos a las imágenes con las que se entrena a robots de búsqueda e indización desaparecerían porque podrían imaginar diversas características y, por tanto, ofrecer resultados más variados. Por ejemplo, en el caso de la búsqueda de imágenes mediante el término woman o mujer.
Evidentemente, para el caso que pongo siempre del DJ al que le fue rechazada la renovación de su pasaporte porque el sistema creía que tenía los ojos cerrados en la foto que proporcionaba, pero él no tenía los ojos cerrados, simplemente es de ascendencia asiática; seguirá siendo necesario entrenar a la inteligencia artificial con una amplia variedad de ojos para que pueda detectar cuándo están cerrados y cuándo es una característica natural del sujeto. Pero solo eso, porque ahora ellas pondrán imaginar mil posibilidades, cosa que antes no podían hacer.
Pero se me ocurre una aplicación más, la posibilidad de una inteligencia artificial de apoyo a la creación o a la revisión de contenidos que, utilizando su imaginación, pueda prever los muy diversos tipos de usuario y las muy diversas barreras que podrían presentárseles a menos que se apliquen las pautas de accesibilidad. Porque, al fin y al cabo, eso exactamente hacemos los diseñadores cuando trabajamos desde la perspectiva de la accesibilidad: tener en cuenta las necesidades y preferencias de muy diversos tipos de usuarios a los que realmente no conocemos pero que somos capaces de imaginar percibiendo, comprendiendo, manejando y utilizando nuestro contenido en muy diversos tipos de dispositivos y agentes de usuario.
Seguro que si lo pensamos un poco, esta nueva capacidad de la inteligencia artificial resultará realmente muy útil tanto para la accesibilidad como para la propia evolución de las inteligencias artificiales de manera ética y confiable.
———
[1] E. Gutiérrez y Restrepo, M. Baldassarre, J. G. Boticario (2019) <a href=»https://library.iated.org/view/GUTIERREZYRESTREPO2019ACC»>ACCESSIBILITY, BIASES AND ETHICS IN CHATBOTS AND INTELLIGENT AGENTS FOR EDUCATION</a>, EDULEARN19 Proceedings, pp. 8824-8833.
Gutiérrez y Restrepo, E., Baldassarre, M. and G. Boticario, J., 2021. <a href=»https://fondoeditorial.continental.edu.pe/innovacion-disruptiva-para-la-educacion-superior/»>Impacto ético del modelo de Centros Acacia en el desarrollo de inteligencias artificiales y de software en general</a>. In: E. Barrios Ipenza, E. Gutiérrez y Restrepo, M. Kadar and E. Marcelino-Jesús, ed., Innovación disruptiva para la educación superior. Implementación en América Latina, 1st ed. [online] Lima: Universidad Continental, pp.255 a 267.
[2] Tolerancia y aceptación de la diversidad, factores clave para una sana inteligencia artificial. Conferencia inaugurla de la Línea 4 del <a href=»http://www.det2018.red-alternativa.org/»>Congreso Internacional de Educación y Tecnología en y para la Diversidad (DiverEduTec) 2018</a>.
Me impulsa a escribir esta entrada en mi blog, un mensaje enviado por Ignacio Agulló a la lista del capítulo español de la Internet Society (ISOC) con el asunto: Robots periodistas. En el mensaje alude al primer robot periodista utilizado por la Lusa, agencia de noticias portuguesa, que diariamente redacta dos nociticias relativas a la apertura y cierre de la bolsa de ese país ibérico.
Es el primer ejemplo que conozco de periodistas automáticos, pero con certeza no será el último. A partir de ahora la profesión periodística pasa a formar parte de un conjunto de profesiones como la atención al cliente, los cajeros bancarios, la difusión de publicidad encubierta en Twitter o la venta de bebidas, donde la labor profesional se reparte entre humanos y máquinas.
Ciertamente no será el último y desde luego no es el primero, quizás sea el primero en trabajar en Portugal, pero en el mundo desde hace tiempo ya vienen trabajando varios bots en la generación de noticias.
La Associated Press (AP) fue una de las primeras en adoptar un bot en 2014 al llegar a un acuerdo con Automated Insights, empresa especializada en software de generación de lenguaje que produce miles de millones de historias al año generadas por máquina.
Pero quizás el primer periodista robot con nombre propio fue Cyborg, que trabaja para Bloomberg News, especializado en información financiera. Nadie más rápido, preciso e incansable, permitiendo a sus dueños competir con otras agencias de noticias e incluso con los fondos de inversión que compiten por ofrecer a sus clientes nuevos datos constantemnte.
Sobre dichos fondos Ignacio Agulló plantea que:
Sabemos desde hace años que el manejo de fondos a cortísimo plazo (lo que en inglés llaman «daytrading«) está en manos de inteligencias artificiales, pues nadie puede reaccionar ante los vaivenes del mercado más rápido que una máquina. A partir de ahí podemos imaginar que llegue a haber máquinas inversoras que lean lo escrito por la máquina periodista para tomar sus decisiones. Máquinas hablando con máquinas.
Volveré sobre ello más adelante, pero sigamos con la relación de bots periodistas y hasta dónde hemos llegado.
Heliograf es el nombre del bot que utiliza The Washintong Post y que en su primer año, 2016, produjo nada más y nada menos que 850 artículos. Artículos extensos y tweets, si bien, sobre cuestiones basadas en datos (fútbol americano) y de los que una inteligencia artificial puede destacar los principales hechos y las cifras más relevantes. El siguiente trino, por ejemplo:
Tanto hemos avanzado ya en el uso de robots redactores que incluso existe un premio que ganó el año pasado, precisamente, Heliograf o mejor dicho, el Post. Se trata de la categoría de Excelencia en el uso de Bots, de los premios anuales Biggies, que reconocen los logros en el uso de big data e inteligencia artificial.
Por su parte Forbes viene usando a Bertie, que no es una robot sino un gestor de contenidos (CMS por sus siglas en inglés) dotado de inteligencia artificial y que proporciona a sus redactores una especie de traje biónico, sugiriéndoles temas de tendencia, metáforas para enriquecer sus escritos y recomendaciones para que sus titulares sean más atractivos y convincentes.
En términos generales los robots están siendo usados más como un apoyo para el periodista que como un ente que pueda reemplazarle, al menos por el momento. Los robots pueden ser más rápidos a la hora de extraer información y alertar sobre determinadas cuestiones como las subidas y bajadas de la bolsa, un terremoto o un asesinato, que es por ejemplo para lo que se usa en The LA Times. Pero un buen periodista es mucho más que un extractor de datos y cifras. Un buen periodista es capaz de contar una historia que emociona, que llega al lector o espectador. Un buen periodista analiza, critica, saca conclusiones personales.
Además, aún es necesario entrenar a los bot para que nos se dejen engañar. Por ejemplo en Bloomberg los reproteros y editores han de dedicar tiempo a impedir que Cyborg caiga en las tácticas de las empresas que presentan sus datos de una manera «creativa».
Aunque, por otra parte, la inteligencia artificial está ayudando también a detectar los llamados «deep fakes», esas imágenes de personas que no son realmente ninguna persona o esos vídeos, por ejemplo el de Obama que hemos visto todos, que no son realmente esa persona, creadas por alguna otra inteligencia artificial. A ello está contribuyendo otro grande del periodismo, The Wall Street Journal.
La inteligencia artificial se está usando en algunos diarios de todo el mundo para otras tareas también, tareas administrativas o de gestión de usuarios, para búsqueda e indización, etc.; como lo hace, por ejemplo, The New York Times que la utiliza para generar boletines personalizados, ayudar en la moderación de comentarios y para la localización de imágenes. Pero esa es otra historia. Historia que abordaré en otra entrada porque en realidad llevo meses, muchos meses, pensando hacerla.
Las investigaciones futuras sobre periodismo automatizado no solo deben abordar preguntas sobre la calidad de los textos automatizados en relación con los textos escritos por humanos (el software NLG ─Natural language generation─ ya es de calidad comparable (ver Graefe et al. 2016)), sino que también deben examinar cómo los periodistas y las organizaciones de medios pueden deliberadamente modelar los datos estructurados utilizados por el software NLG para avanzar en la sofisticación del periodismo automatizado. Del mismo modo, las preguntas éticas que se hacen actualmente sobre aspectos de los datos en el periodismo, como el origen, la selección y el uso de los datos (Zion y Craig 2014), el sesgo y la objetividad (Gillespie 2014), y la transparencia algorítmica y la responsabilidad (Diakopoulos 2015), pueden necesitar ser ampliadas para incluir preguntas sobre los modelos de datos utilizados para capturar esos datos periodísticos.
Automated Journalism 2.0: Event-driven narratives. From simple descriptions to real stories
Para mí una cuestión fundamental es cómo se están generando los modelos de datos y qué tienen o no en cuenta. Qué prejuicios y sesgos les estamos transmitiendo a los robot periodistas y qué debemos hacer para evitar la generación de sesgos y discriminaciones. En definitiva ¿les estamos enseñando accesibilidad, tolerancia y aceptación de la diversidad?
Pero aquí, además, hablamos de que esos robots generan contenidos que han de se publicados y, por tanto, han de presentarse cumpliendo con los requisitos de accesibilidad, así que deben aprenderlo también.
En el caso de ese trino del Washington Post la imagen que lo acompaña parecer ser estándar, es decir, una imagen que identifica al diario pero que no ha sido elegida por estar relacionada con el conetenido de la noticia. Pero imaginemos que el bot puede ir más alá y puede elegir la imagen adecuada para acompañar e ilustrar el artículo que acaba de redactar. En ese caso ha de proporcionar a los lectores el correspondiente texto alternativo, que ha de redactar también. Para la cuál necesita no sólo ser capaz de expresar de la mejor manera posible en qué consiste la imagen sino seguir las reglas sobre creación de textos alternativos. USA Today ha usado ya una inteligencia artificial para generar vídeos cortos. Debería, por tanto, ser capaz de generar también el texto alternativo, los subtítulos y la transcripción si son necesarias.
Pero es más, sin irnos a tal sofisticación que supone el uso o la generación de imágenes, en cualquier texto, en este mismo, es necesario aplicar ciertas reglas de accesibilidad. Cosas tan simples como indicar el idioma de textos que se incluyan en otro distinto a principal de la página o crear los títulos y subtítulos de manera que se aniden correctamente.
Por tanto, creo que es imprescindible que enseñemos a todos esos robots y no sólo a los humanos que los crean los principios y criterios de accesibilidad para contenidos digitales.
En esta entrada he hecho referencia a los bot que usan diarios de Estados Unidos, pero ocurre también en otros países. En China, por supuesto, desde 2017; pero no es objeto del articulo hacer una estudio de la historia del uso de bot en el periodismo mundial sino hacer una llamado esa necesidad de formar a los bot en la creación de artículos y contenidos que cumplan con los criterios de accesibilidad de manera que resulten útiles para todos, incluyendo a las personas mayores y con discapacidad.
Referencias
Para la elaboración de este artículos me he basado en las siguientes publicaciones:
Al continuar utilizando este sitio aceptas el uso de cookies. más información
Los ajustes de cookies de esta web están configurados para "permitir cookies" y así ofrecerte la mejor experiencia de navegación posible. Si sigues utilizando esta web sin cambiar tus ajustes de cookies o haces clic en "Aceptar" estarás dando tu consentimiento a esto.