Inteligencia artificial capaz de imaginar como lo hacemos los humanos

Ejemplos de resultados obtenidos por la imaginación de la IA a partir de unos parámetros dados.

En el artículo titulado ZERO-SHOT SYNTHESIS WITH GROUP-SUPERVISED LEARNING, firmado por Yunhao Ge, Sami Abu-El-Haija, Gan Xin y Laurent Itti; de la University of Southern California; explican cómo han logrado que una inteligencia artificial logre desarrollar una imaginación similar a la humana, es decir, logre utilizar diversos conocimientos previos para hacerse una composición de lugar de lo que podría resultar al aplicar variantes.
Tuve noticia de este gran avance a través del artículo de Tendencias, que recomiendo leer, porque aquí solo quiero apuntar por qué me parece tan importante este avance o en qué veo una posible aplicación relacionada con la accesibilidad y la inteligencia artificial.
La cuestión está clara: Se trata de la diversidad y su importancia para evitar sesgos en la inteligencia artificial. Vengo proponiendo, escribiendo [1] y dando charlas [2], desde hace algunos años, sobre la importancia de formar en accesibilidad y aceptación de la diversidad para conseguir eliminar los sesgos en las inteligencias artificiales que están llegando, incluso, a causar graves perjuicios a algunas personas.
Si una inteligencia artificial puede imaginar, tal como muestra la imagen que ilustra esta entrada y que ha sido extraída del artículo original, distintos rostros con distintos colores de piel, por ejemplo, conseguiríamos eliminar sesgos asociados al género y a la procedencia étnica.
Es decir, los sesgos existentes actualmente debidos a las imágenes con las que se entrena a robots de búsqueda e indización desaparecerían porque podrían imaginar diversas características y, por tanto, ofrecer resultados más variados. Por ejemplo, en el caso de la búsqueda de imágenes mediante el término woman o mujer.
Captura de pantalla del mensaje de rechazo de actualización del pasaporte.Evidentemente, para el caso que pongo siempre del DJ al que le fue rechazada la renovación de su pasaporte porque el sistema creía que tenía los ojos cerrados en la foto que proporcionaba, pero él no tenía los ojos cerrados, simplemente es de ascendencia asiática; seguirá siendo necesario entrenar a la inteligencia artificial con una amplia variedad de ojos para que pueda detectar cuándo están cerrados y cuándo es una característica natural del sujeto. Pero solo eso, porque ahora ellas pondrán imaginar mil posibilidades, cosa que antes no podían hacer.

Pero se me ocurre una aplicación más, la posibilidad de una inteligencia artificial de apoyo a la creación o a la revisión de contenidos que, utilizando su imaginación, pueda prever los muy diversos tipos de usuario y las muy diversas barreras que podrían presentárseles a menos que se apliquen las pautas de accesibilidad. Porque, al fin y al cabo, eso exactamente hacemos los diseñadores cuando trabajamos desde la perspectiva de la accesibilidad: tener en cuenta las necesidades y preferencias de muy diversos tipos de usuarios a los que realmente no conocemos pero que somos capaces de imaginar percibiendo, comprendiendo, manejando y utilizando nuestro contenido en muy diversos tipos de dispositivos y agentes de usuario.

Seguro que si lo pensamos un poco, esta nueva capacidad de la inteligencia artificial resultará realmente muy útil tanto para la accesibilidad como para la propia evolución de las inteligencias artificiales de manera ética y confiable.

———

[1] E. Gutiérrez y Restrepo, M. Baldassarre, J. G. Boticario (2019) <a href=»https://library.iated.org/view/GUTIERREZYRESTREPO2019ACC»>ACCESSIBILITY, BIASES AND ETHICS IN CHATBOTS AND INTELLIGENT AGENTS FOR EDUCATION</a>, EDULEARN19 Proceedings, pp. 8824-8833.

Gutiérrez y Restrepo, E., Baldassarre, M. and G. Boticario, J., 2021. <a href=»https://fondoeditorial.continental.edu.pe/innovacion-disruptiva-para-la-educacion-superior/»>Impacto ético del modelo de Centros Acacia en el desarrollo de inteligencias artificiales y de software en general</a>. In: E. Barrios Ipenza, E. Gutiérrez y Restrepo, M. Kadar and E. Marcelino-Jesús, ed., Innovación disruptiva para la educación superior. Implementación en América Latina, 1st ed. [online] Lima: Universidad Continental, pp.255 a 267.

[2] Tolerancia y aceptación de la diversidad, factores clave para una sana inteligencia artificial. Conferencia inaugurla de la Línea 4 del <a href=»http://www.det2018.red-alternativa.org/»>Congreso Internacional de Educación y Tecnología en y para la Diversidad (DiverEduTec) 2018</a>.

El concepto de esfuerzo indebido (revisitado)

Mujer intentando correr lastrada por un paracaidas.

El concepto de esfuerzo indebido está hoy más vigente aún que cuando lo acuñé allá por el 2005.

Me piden unas amigas, Paula Maciel y Pamela Molina, quienes están escribiendo «una nota técnica», que les de la referencia de la publicación de ese concepto que Paula, especialmente, recuerda muy bien y suele mencionar a menudo.

Buscando en Internet descubro que su publicación inicial la menciona Carlos Neri, tristemente ya fallecido, en su blog Moebius:

Cuando el esfuerzo es indebido

Emmanuelle Gutiérrez y Restrepo ha publicado en su bitácora un provocativo artículo sobre el concepto de «esfuerzo indebido». Narra allí las peripecias que los usuarios pasan al navegar sitios web. Y nos deja interesantes observaciones com: «Y viendo las cosas que algunos usuarios están obligados a hacer duando interactúan con algunos sitios web, se me ocurre que podríamos acuañar el concepto de «esfuerzo indebido» como requisito de accesibilidad…»

Imperdible la lectura del artículo completo [Este texto va enlazado a la entrada en mi bitácora, que ya no funciona]

Feliz Día del Padre, me retiro a ser homenajeado.

Moebius. Carlos Neri. 19 de junio de 2005

Lamentablemente, la bitácora que llevaba en el espacio de bitácoras del SIDAR (Seminario Internacional de Discapacidad y Accesibilidad en la Red) está deshabilitada desde hace algunos años por exigencias de nuestro excelente, pero implacable, Administrador de Sistemas, Héctor Romojaro. Mea culpa el no haberla rehabilitado cumpliendo los requisitos de seguridad que él requiere.

Pero gracias a algunos seres inteligentes, contamos con el maravilloso archivo web del que podemos recuperar casi cualquier cosa que se haya publicado en la red y he podido recuperar la página que copio y pego a continuación:

Vista de la entrada en la bitácora de Sidar.
Captura de pantalla de la entrada «El concepto de esfuerzo indebido» recuperada.

El concepto de esfuerzo indebido.

De cómo los usuarios a pesar de los pesares, son capaces de alcanzar su objetivo y sobrepasar barreras que nunca tendrían por qué estar ahí.

Especialmente en la legislación norte americana, y de otros países como Inglaterra, por ejemplo, se utiliza con profusión el concepto de «carga indebida» o «carga inapropiada» para limitar algunos requerimientos.

Así, en la Sección 508, podemos leer:

(A) DEVELOPMENT, PROCUREMENT, MAINTENANCE, OR USE OF ELECTRONIC AND INFORMATION TECHNOLOGY.–When developing, procuring, maintaining, or using electronic and information technology, each Federal department or agency, including the United States Postal Service, shall ensure, unless an undue burden would be imposed on the department or agency, that the electronic and information technology allows, regardless of the type of medium of the technology–

Y viendo las cosas que algunos usuarios están obligados a hacer cuando interactúan con algunos sitios web, se me ocurre que podríamos acuñar el concepto de «esfuerzo indebido» como requisito de accesibilidad.

Me explico: Cuando participé en la 2ª Jornada de Usabilidad en Sistemas de Información, tuve el placer de poder asistir a todas las charlas que se dieron. David Maniega (del Programa de Usabilidad de la UOC) expuso, con razón, que el usuario se suele culpar de los errores. Por ejemplo, si a un usuario se le pide que localice una determinada información en un sitio web, si no consigue hacerlo o tarda mucho en hacerlo, lo achaca a su torpeza, nunca lo achacará a carencias en el diseño del sitio. Esto quedó claramente demostrado, mediante un vídeo tomado durante una prueba de usuario.

Al visionar el vídeo sufrí muchísimo por el pobre usuario, porque tenía que localizar una información en una biblioteca virtual y, aparte de que el sistema de búsqueda no le facilitaba mucho el acceso a ella, encima le aparecían, una detrás de otra, nuevas ventanas que, además, tenía que recolocar en la pantalla pues aparecían siempre desplazadas hacia la derecha.

Gestos como ese, el de tener que recolocar ventanas en la pantalla, es lo que considero un esfuerzo indebido para el usuario. Y es que no hay ninguna razón que justifique que el usuario tenga que estar recolocando objetos en la pantalla. Pero los usuarios, debido a que tienden a culparse de los errores, se habitúan enseguida a hacer esfuerzos más allá de lo razonable para conseguir su objetivo.

Es el caso también de muchos usuarios ciegos que consiguen, por narices, navegar por ciertos sitios web, pero con un sobre esfuerzo indebido. Esto hace que, algunas veces, se alegue que un sitio es «accesible» para las personas ciegas, pero a costa de ese sobre esfuerzo personal.

La accesibilidad, precisamente, lo que pretende es que todos podamos utilizar la Web con la misma comodidad, que nuestra limitaciones personales, circunstanciales, o técnicas, no signifiquen una limitación para acceder a los contenidos de la Web.

Imagino que ese «esfuerzo indebido«, ese no quejarse o achacar a las propias limitaciones las dificultades encontradas gracias al mal diseño de una sede web, será con el tiempo cada vez menor, pues los usuarios serán cada vez mejores conocedores de lo que le es exigible a una página o servicio y, serán más exigentes, en el buen sentido de la palabra, algo así como un buen gourmet.

Gracias a la insistencia de Paula quien, como he dicho, recuerda el concepto y lo menciona a menudo, es su mayor fan y difusora, probablemente; he descubierto que hay otros que también lo han recogido en diversas publicaciones:

Claramente, al revisitar el escrito ahora veo que me equivocaba en cuanto a que ese esfuerzo indebido sería con el tiempo cada vez menor y que los usuarios serían cada vez mejores conocedores de lo que le es exigible a un sitio web o a un servicio o aplicación y, por tanto, se harían más exigentes, requiriendo una buena cocción y un buen emplatado, por hacer un símil con la alta cocina ya que esperaba que todos fuéramos algo así como un buen gourmet. Pero no, seguimos prácticamente igual. Es más, creo que el esfuerzo indebido es cada vez mayor, porque se ponen de moda y se admiten como «normales» e incluso deseables efectos y formas de funcionar de una web que dificultan la navegación para algunos grupos de usuario.

Necesitamos más cultura de accesibilidad y para conseguir esa cultura, como vengo diciendo desde hace muchos años ya, necesitamos enseñar accesibilidad a todas las personas, empezando desde niños, pero muy especialmente a los maestros y profesores universitarios. Si quienes enseñan no saben de accesibilidad, crearán contenido educativos inaccesibles y perpetuarán en sus enseñanzas el esfuerzo indebido para muchos.

Los robots reporteros necesitan aprender accesibilidad

Robot escribiendo un artículo en un portátil.

Me impulsa a escribir esta entrada en mi blog, un mensaje enviado por Ignacio Agulló a la lista del capítulo español de la Internet Society (ISOC) con el asunto: Robots periodistas. En el mensaje alude al primer robot periodista utilizado por la Lusa, agencia de noticias portuguesa, que diariamente redacta dos nociticias relativas a la apertura y cierre de la bolsa de ese país ibérico.

La noticia la publicaba, antes de ayer, Sapo: Robôs também já escrevem notícias em Portugal. Estão a estagiar na Lusa y al hacerse eco de ella, Ignacio, reflexionaba:

Es el primer ejemplo que conozco de periodistas automáticos, pero con certeza no será el último. A partir de ahora la profesión periodística pasa a formar parte de un conjunto de profesiones como la atención al cliente, los cajeros bancarios, la difusión de publicidad encubierta en Twitter o la venta de bebidas, donde la labor profesional se reparte entre humanos y máquinas.

Ciertamente no será el último y desde luego no es el primero, quizás sea el primero en trabajar en Portugal, pero en el mundo desde hace tiempo ya vienen trabajando varios bots en la generación de noticias.

La Associated Press (AP) fue una de las primeras en adoptar un bot en 2014 al llegar a un acuerdo con Automated Insights, empresa especializada en software de generación de lenguaje que produce miles de millones de historias al año generadas por máquina.

Pero quizás el primer periodista robot con nombre propio fue Cyborg, que trabaja para Bloomberg News, especializado en información financiera. Nadie más rápido, preciso e incansable, permitiendo a sus dueños competir con otras agencias de noticias e incluso con los fondos de inversión que compiten por ofrecer a sus clientes nuevos datos constantemnte.

Sobre dichos fondos Ignacio Agulló plantea que:

Sabemos desde hace años que el manejo de fondos a cortísimo plazo (lo que en inglés llaman «daytrading«) está en manos de inteligencias artificiales, pues nadie puede reaccionar ante los vaivenes del mercado más rápido que una máquina. A partir de ahí podemos imaginar que llegue a haber máquinas inversoras que lean lo escrito por la máquina periodista para tomar sus decisiones. Máquinas hablando con máquinas.

Volveré sobre ello más adelante, pero sigamos con la relación de bots periodistas y hasta dónde hemos llegado.

Heliograf es el nombre del bot que utiliza The Washintong Post y que en su primer año, 2016, produjo nada más y nada menos que 850 artículos. Artículos extensos y tweets, si bien, sobre cuestiones basadas en datos (fútbol americano) y de los que una inteligencia artificial puede destacar los principales hechos y las cifras más relevantes. El siguiente trino, por ejemplo:

Tanto hemos avanzado ya en el uso de robots redactores que incluso existe un premio que ganó el año pasado, precisamente, Heliograf o mejor dicho, el Post. Se trata de la categoría de Excelencia en el uso de Bots, de los premios anuales Biggies, que reconocen los logros en el uso de big data e inteligencia artificial.

Por su parte Forbes viene usando a Bertie, que no es una robot sino un gestor de contenidos (CMS por sus siglas en inglés) dotado de inteligencia artificial y que proporciona a sus redactores una especie de traje biónico, sugiriéndoles temas de tendencia, metáforas para enriquecer sus escritos y recomendaciones para que sus titulares sean más atractivos y convincentes.

En términos generales los robots están siendo usados más como un apoyo para el periodista que como un ente que pueda reemplazarle, al menos por el momento. Los robots pueden ser más rápidos a la hora de extraer información y alertar sobre determinadas cuestiones como las subidas y bajadas de la bolsa, un terremoto o un asesinato, que es por ejemplo para lo que se usa en The LA Times. Pero un buen periodista es mucho más que un extractor de datos y cifras. Un buen periodista es capaz de contar una historia que emociona, que llega al lector o espectador. Un buen periodista analiza, critica, saca conclusiones personales.

Además, aún es necesario entrenar a los bot para que nos se dejen engañar. Por ejemplo en Bloomberg los reproteros y editores han de dedicar tiempo a impedir que Cyborg caiga en las tácticas de las empresas que presentan sus datos de una manera «creativa».

Aunque, por otra parte, la inteligencia artificial está ayudando también a detectar los llamados «deep fakes», esas imágenes de personas que no son realmente ninguna persona o esos vídeos, por ejemplo el de Obama que hemos visto todos, que no son realmente esa persona, creadas por alguna otra inteligencia artificial. A ello está contribuyendo otro grande del periodismo, The Wall Street Journal.

La inteligencia artificial se está usando en algunos diarios de todo el mundo para otras tareas también, tareas administrativas o de gestión de usuarios, para búsqueda e indización, etc.; como lo hace, por ejemplo, The New York Times que la utiliza para generar boletines personalizados, ayudar en la moderación de comentarios y para la localización de imágenes. Pero esa es otra historia. Historia que abordaré en otra entrada porque en realidad llevo meses, muchos meses, pensando hacerla.

Centrándonos en la generción de contenido lo que a mí me preocupa va en la línea de lo que Caswell apunta en las conclusiones de su artículo Automated Journalism 2.0: Event-driven narratives From simple descriptions to real stories :

Las investigaciones futuras sobre periodismo automatizado no solo deben abordar preguntas sobre la calidad de los textos automatizados en relación con los textos escritos por humanos (el software NLG ─Natural language generation─ ya es de calidad comparable (ver Graefe et al. 2016)), sino que también deben examinar cómo los periodistas y las organizaciones de medios pueden deliberadamente modelar los datos estructurados utilizados por el software NLG para avanzar en la sofisticación del periodismo automatizado. Del mismo modo, las preguntas éticas que se hacen actualmente sobre aspectos de los datos en el periodismo, como el origen, la selección y el uso de los datos (Zion y Craig 2014), el sesgo y la objetividad (Gillespie 2014), y la transparencia algorítmica y la responsabilidad (Diakopoulos 2015), pueden necesitar ser ampliadas para incluir preguntas sobre los modelos de datos utilizados para capturar esos datos periodísticos.

Automated Journalism 2.0: Event-driven narratives. From simple descriptions to real stories

Para mí una cuestión fundamental es cómo se están generando los modelos de datos y qué tienen o no en cuenta. Qué prejuicios y sesgos les estamos transmitiendo a los robot periodistas y qué debemos hacer para evitar la generación de sesgos y discriminaciones. En definitiva ¿les estamos enseñando accesibilidad, tolerancia y aceptación de la diversidad?

Mi teoría es que es imprescindible enseñar accesibilidad a los humanos para que adquieran la empatía necesaria para no transmitir sesgos dañiños a los robots que ellos crean. Así lo expuse en Tolerancia y aceptación de la diversidad, factores clave para una sana inteligencia artificial, conferencia que impartí en DiverEduTec 2018 y en los artículos científicos: Responsive and responsible higher education through advanced technology y Accessibility, biases and ethics in chatbots and intelligent agents for education.

Pero aquí, además, hablamos de que esos robots generan contenidos que han de se publicados y, por tanto, han de presentarse cumpliendo con los requisitos de accesibilidad, así que deben aprenderlo también.

En el caso de ese trino del Washington Post la imagen que lo acompaña parecer ser estándar, es decir, una imagen que identifica al diario pero que no ha sido elegida por estar relacionada con el conetenido de la noticia. Pero imaginemos que el bot puede ir más alá y puede elegir la imagen adecuada para acompañar e ilustrar el artículo que acaba de redactar. En ese caso ha de proporcionar a los lectores el correspondiente texto alternativo, que ha de redactar también. Para la cuál necesita no sólo ser capaz de expresar de la mejor manera posible en qué consiste la imagen sino seguir las reglas sobre creación de textos alternativos. USA Today ha usado ya una inteligencia artificial para generar vídeos cortos. Debería, por tanto, ser capaz de generar también el texto alternativo, los subtítulos y la transcripción si son necesarias.

Pero es más, sin irnos a tal sofisticación que supone el uso o la generación de imágenes, en cualquier texto, en este mismo, es necesario aplicar ciertas reglas de accesibilidad. Cosas tan simples como indicar el idioma de textos que se incluyan en otro distinto a principal de la página o crear los títulos y subtítulos de manera que se aniden correctamente.

Por tanto, creo que es imprescindible que enseñemos a todos esos robots y no sólo a los humanos que los crean los principios y criterios de accesibilidad para contenidos digitales.

En esta entrada he hecho referencia a los bot que usan diarios de Estados Unidos, pero ocurre también en otros países. En China, por supuesto, desde 2017; pero no es objeto del articulo hacer una estudio de la historia del uso de bot en el periodismo mundial sino hacer una llamado esa necesidad de formar a los bot en la creación de artículos y contenidos que cumplan con los criterios de accesibilidad de manera que resulten útiles para todos, incluyendo a las personas mayores y con discapacidad.

Referencias

Para la elaboración de este artículos me he basado en las siguientes publicaciones:

5 maneras en las que la Inteligencia Artificial cambia la cara a la Accesibilidad Web.

Tengo pendiende, desde el día en que se publicó, comentar una entrada de Denis Boudreau, @dboudreau, en el blog de la empresa Deque, que lleva por título en inglés:
Five Ways in Which Artificial Intelligence Changes the Face of Web Accessibility; pero no encuentro el tiempo para ello. Así que dejo apenas la nota y enlace a la entrada que me parece interesante.

Habla sobre cinco procesos que si no ya, en muy poco tiempo, serán llevados a cabo de manra automática mediante la aplicación de sistemas de inteligencia artificial, lo que simplificará algunas cuestions relativas a la accesibilidad web. Se trata de:

  • Reconocimiento automático de imágenes,
  • Reconocimiento automático de rostros,
  • Lectura labial automática,
  • Generación automática de resúmenes,
  • Traducciones automáticas en tiempo real.

Una pena no tener tiempo para analizar en detalle la entrada, pero ahí dejo el enalce y quizás más adelante… si el tiempo y los elementos lo permiten

A %d blogueros les gusta esto:

Al continuar utilizando este sitio aceptas el uso de cookies. más información

Los ajustes de cookies de esta web están configurados para "permitir cookies" y así ofrecerte la mejor experiencia de navegación posible. Si sigues utilizando esta web sin cambiar tus ajustes de cookies o haces clic en "Aceptar" estarás dando tu consentimiento a esto.

Cerrar