Los robots reporteros necesitan aprender accesibilidad

Robot escribiendo un artículo en un portátil.

Me impulsa a escribir esta entrada en mi blog, un mensaje enviado por Ignacio Agulló a la lista del capítulo español de la Internet Society (ISOC) con el asunto: Robots periodistas. En el mensaje alude al primer robot periodista utilizado por la Lusa, agencia de noticias portuguesa, que diariamente redacta dos nociticias relativas a la apertura y cierre de la bolsa de ese país ibérico.

La noticia la publicaba, antes de ayer, Sapo: Robôs também já escrevem notícias em Portugal. Estão a estagiar na Lusa y al hacerse eco de ella, Ignacio, reflexionaba:

Es el primer ejemplo que conozco de periodistas automáticos, pero con certeza no será el último. A partir de ahora la profesión periodística pasa a formar parte de un conjunto de profesiones como la atención al cliente, los cajeros bancarios, la difusión de publicidad encubierta en Twitter o la venta de bebidas, donde la labor profesional se reparte entre humanos y máquinas.

Ciertamente no será el último y desde luego no es el primero, quizás sea el primero en trabajar en Portugal, pero en el mundo desde hace tiempo ya vienen trabajando varios bots en la generación de noticias.

La Associated Press (AP) fue una de las primeras en adoptar un bot en 2014 al llegar a un acuerdo con Automated Insights, empresa especializada en software de generación de lenguaje que produce miles de millones de historias al año generadas por máquina.

Pero quizás el primer periodista robot con nombre propio fue Cyborg, que trabaja para Bloomberg News, especializado en información financiera. Nadie más rápido, preciso e incansable, permitiendo a sus dueños competir con otras agencias de noticias e incluso con los fondos de inversión que compiten por ofrecer a sus clientes nuevos datos constantemnte.

Sobre dichos fondos Ignacio Agulló plantea que:

Sabemos desde hace años que el manejo de fondos a cortísimo plazo (lo que en inglés llaman «daytrading«) está en manos de inteligencias artificiales, pues nadie puede reaccionar ante los vaivenes del mercado más rápido que una máquina. A partir de ahí podemos imaginar que llegue a haber máquinas inversoras que lean lo escrito por la máquina periodista para tomar sus decisiones. Máquinas hablando con máquinas.

Volveré sobre ello más adelante, pero sigamos con la relación de bots periodistas y hasta dónde hemos llegado.

Heliograf es el nombre del bot que utiliza The Washintong Post y que en su primer año, 2016, produjo nada más y nada menos que 850 artículos. Artículos extensos y tweets, si bien, sobre cuestiones basadas en datos (fútbol americano) y de los que una inteligencia artificial puede destacar los principales hechos y las cifras más relevantes. El siguiente trino, por ejemplo:

Tanto hemos avanzado ya en el uso de robots redactores que incluso existe un premio que ganó el año pasado, precisamente, Heliograf o mejor dicho, el Post. Se trata de la categoría de Excelencia en el uso de Bots, de los premios anuales Biggies, que reconocen los logros en el uso de big data e inteligencia artificial.

Por su parte Forbes viene usando a Bertie, que no es una robot sino un gestor de contenidos (CMS por sus siglas en inglés) dotado de inteligencia artificial y que proporciona a sus redactores una especie de traje biónico, sugiriéndoles temas de tendencia, metáforas para enriquecer sus escritos y recomendaciones para que sus titulares sean más atractivos y convincentes.

En términos generales los robots están siendo usados más como un apoyo para el periodista que como un ente que pueda reemplazarle, al menos por el momento. Los robots pueden ser más rápidos a la hora de extraer información y alertar sobre determinadas cuestiones como las subidas y bajadas de la bolsa, un terremoto o un asesinato, que es por ejemplo para lo que se usa en The LA Times. Pero un buen periodista es mucho más que un extractor de datos y cifras. Un buen periodista es capaz de contar una historia que emociona, que llega al lector o espectador. Un buen periodista analiza, critica, saca conclusiones personales.

Además, aún es necesario entrenar a los bot para que nos se dejen engañar. Por ejemplo en Bloomberg los reproteros y editores han de dedicar tiempo a impedir que Cyborg caiga en las tácticas de las empresas que presentan sus datos de una manera «creativa».

Aunque, por otra parte, la inteligencia artificial está ayudando también a detectar los llamados «deep fakes», esas imágenes de personas que no son realmente ninguna persona o esos vídeos, por ejemplo el de Obama que hemos visto todos, que no son realmente esa persona, creadas por alguna otra inteligencia artificial. A ello está contribuyendo otro grande del periodismo, The Wall Street Journal.

La inteligencia artificial se está usando en algunos diarios de todo el mundo para otras tareas también, tareas administrativas o de gestión de usuarios, para búsqueda e indización, etc.; como lo hace, por ejemplo, The New York Times que la utiliza para generar boletines personalizados, ayudar en la moderación de comentarios y para la localización de imágenes. Pero esa es otra historia. Historia que abordaré en otra entrada porque en realidad llevo meses, muchos meses, pensando hacerla.

Centrándonos en la generción de contenido lo que a mí me preocupa va en la línea de lo que Caswell apunta en las conclusiones de su artículo Automated Journalism 2.0: Event-driven narratives From simple descriptions to real stories :

Las investigaciones futuras sobre periodismo automatizado no solo deben abordar preguntas sobre la calidad de los textos automatizados en relación con los textos escritos por humanos (el software NLG ─Natural language generation─ ya es de calidad comparable (ver Graefe et al. 2016)), sino que también deben examinar cómo los periodistas y las organizaciones de medios pueden deliberadamente modelar los datos estructurados utilizados por el software NLG para avanzar en la sofisticación del periodismo automatizado. Del mismo modo, las preguntas éticas que se hacen actualmente sobre aspectos de los datos en el periodismo, como el origen, la selección y el uso de los datos (Zion y Craig 2014), el sesgo y la objetividad (Gillespie 2014), y la transparencia algorítmica y la responsabilidad (Diakopoulos 2015), pueden necesitar ser ampliadas para incluir preguntas sobre los modelos de datos utilizados para capturar esos datos periodísticos.

Automated Journalism 2.0: Event-driven narratives. From simple descriptions to real stories

Para mí una cuestión fundamental es cómo se están generando los modelos de datos y qué tienen o no en cuenta. Qué prejuicios y sesgos les estamos transmitiendo a los robot periodistas y qué debemos hacer para evitar la generación de sesgos y discriminaciones. En definitiva ¿les estamos enseñando accesibilidad, tolerancia y aceptación de la diversidad?

Mi teoría es que es imprescindible enseñar accesibilidad a los humanos para que adquieran la empatía necesaria para no transmitir sesgos dañiños a los robots que ellos crean. Así lo expuse en Tolerancia y aceptación de la diversidad, factores clave para una sana inteligencia artificial, conferencia que impartí en DiverEduTec 2018 y en los artículos científicos: Responsive and responsible higher education through advanced technology y Accessibility, biases and ethics in chatbots and intelligent agents for education.

Pero aquí, además, hablamos de que esos robots generan contenidos que han de se publicados y, por tanto, han de presentarse cumpliendo con los requisitos de accesibilidad, así que deben aprenderlo también.

En el caso de ese trino del Washington Post la imagen que lo acompaña parecer ser estándar, es decir, una imagen que identifica al diario pero que no ha sido elegida por estar relacionada con el conetenido de la noticia. Pero imaginemos que el bot puede ir más alá y puede elegir la imagen adecuada para acompañar e ilustrar el artículo que acaba de redactar. En ese caso ha de proporcionar a los lectores el correspondiente texto alternativo, que ha de redactar también. Para la cuál necesita no sólo ser capaz de expresar de la mejor manera posible en qué consiste la imagen sino seguir las reglas sobre creación de textos alternativos. USA Today ha usado ya una inteligencia artificial para generar vídeos cortos. Debería, por tanto, ser capaz de generar también el texto alternativo, los subtítulos y la transcripción si son necesarias.

Pero es más, sin irnos a tal sofisticación que supone el uso o la generación de imágenes, en cualquier texto, en este mismo, es necesario aplicar ciertas reglas de accesibilidad. Cosas tan simples como indicar el idioma de textos que se incluyan en otro distinto a principal de la página o crear los títulos y subtítulos de manera que se aniden correctamente.

Por tanto, creo que es imprescindible que enseñemos a todos esos robots y no sólo a los humanos que los crean los principios y criterios de accesibilidad para contenidos digitales.

En esta entrada he hecho referencia a los bot que usan diarios de Estados Unidos, pero ocurre también en otros países. En China, por supuesto, desde 2017; pero no es objeto del articulo hacer una estudio de la historia del uso de bot en el periodismo mundial sino hacer una llamado esa necesidad de formar a los bot en la creación de artículos y contenidos que cumplan con los criterios de accesibilidad de manera que resulten útiles para todos, incluyendo a las personas mayores y con discapacidad.

Referencias

Para la elaboración de este artículos me he basado en las siguientes publicaciones:

5 maneras en las que la Inteligencia Artificial cambia la cara a la Accesibilidad Web.

Tengo pendiende, desde el día en que se publicó, comentar una entrada de Denis Boudreau, @dboudreau, en el blog de la empresa Deque, que lleva por título en inglés:
Five Ways in Which Artificial Intelligence Changes the Face of Web Accessibility; pero no encuentro el tiempo para ello. Así que dejo apenas la nota y enlace a la entrada que me parece interesante.

Habla sobre cinco procesos que si no ya, en muy poco tiempo, serán llevados a cabo de manra automática mediante la aplicación de sistemas de inteligencia artificial, lo que simplificará algunas cuestions relativas a la accesibilidad web. Se trata de:

  • Reconocimiento automático de imágenes,
  • Reconocimiento automático de rostros,
  • Lectura labial automática,
  • Generación automática de resúmenes,
  • Traducciones automáticas en tiempo real.

Una pena no tener tiempo para analizar en detalle la entrada, pero ahí dejo el enalce y quizás más adelante… si el tiempo y los elementos lo permiten

Al continuar utilizando este sitio aceptas el uso de cookies. más información

Los ajustes de cookies de esta web están configurados para "permitir cookies" y así ofrecerte la mejor experiencia de navegación posible. Si sigues utilizando esta web sin cambiar tus ajustes de cookies o haces clic en "Aceptar" estarás dando tu consentimiento a esto.

Cerrar