La creciente aplicación de la inteligencia artificial al periodismo ha sido uno de los grandes temas en congresos de este año como el Global Editors Network (GEN, 21–23 de junio en Viena), el International Journalism Festival (IJF, 5–9 de abril en Perugia) o el International Symposium on Online Journalism (ISOJ, 21–22 de abril en Austin). En esta serie recopilamos los principales casos de uso que hemos detectado hasta ahora (vol. 1) y analizamos en profundidad los retos e implicaciones (vol. 2). Llegan los robots a las redacciones… y no les tenemos miedo.
Si en el primer artículo hablamos de las aplicaciones al periodismo de las tecnologías de la inteligencia artificial y recopilamos los ejemplos más destacados, en esta segunda entrega revisamos dos aspectos que marcarán la agenda de la IA en la profesión: los riesgos y los desafíos que plantea, presentes y venideros.
Pasamos del benchmark a la filosofía. O de la práctica a la ética, que es lo que que quiere hacer Deep Mind, la rama de robótica de Google. La empresa, con sede en Londres, anunciaba a primeros de octubre la creación de un grupo de reflexión sobre las implicaciones éticas de la inteligencia artificial, del que formarán parte expertos en desarrollo como Jeffrey Sachs, de la universidad de Columbia, o la activista medioambiental Christiana Figueres, según recogía The Guardian.
Riesgos
En nuestro campo, la inteligencia artificial (IA, a partir de ahora) transforma el periodismo porque abre nuevos caminos. Y lo hace, según analiza un extenso informe de Associated Press (AP), “de una forma que quizá nadie hubiese predicho, incluso, hace no muchos años”. Como toda tecnología innovadora e incipiente, viene acompañada de una serie de riesgos para la profesión.
Así lo atestiguan, y de ello nos hacemos eco en este post, las investigaciones de AP y del Pew Research Center, los artículos del profesor Nick Diakopoulosasí como las afirmaciones realizadas en el contexto del International Journalism Festiva(IJF), celebrado del 5–9 de abril en Perugia, entre otras fuentes que repasamos.
1. Riesgos “humanos” por errores o sesgo
La IA es una tecnología diseñada por humanos; y los humanos cometemos (muchos) errores. Por este motivo, para AP una conclusión es obvia: “Los algoritmos son susceptibles de cometer los mismos errores y sesgos que las personas”. Y sigue: “Un sistema de IA es tan bueno como los datos que entren en él”.
En ocasiones, los algoritmos “dependen de datos limitados, deficientes o incorrectos”, aseguran en el informe del Pew Research Center. Y es lo que le ocurrió a Los Angeles Times (LA Times), el primer medio en implementar noticias automatizadas (sobre terremotos).
En mayo de 2015 (algo más de un año después de su implementación), el algoritmo de LA Times publicó información sobre un terromoto que nunca se produjo. Según la CBS, la United States Geological Survey (USGS) registró una alerta errónea. Si bien esta fuente la eliminó de su web, el algoritmo de LA Times la mantuvo. Un dato incorrecto que pasó factura.
Los algoritmos también pueden incurrir en sesgos por culpa de los propios programadores o de la base de datos (de la que beben). Un ejemplo estadístico clásico sería “enseñar” al algoritmo a ver una relación de causalidad (causa-efecto) allí donde no hay más que una mera correlación.
2. Riesgos éticos: transparencia, difamación y pérdida de valores
Las consideraciones éticas también tienen cabida, como no podía ser de otra manera, en el análisis de la relación entre periodismo e IA.Captura de pantalla de un artículo del diario local de la CBS de San Francisco donde se comenta el error del
- Cuestiones relacionadas con la ausencia de transparencia. Según el profesor Diakopoulos, que ha escrito diferentes artículos de investigación sobre periodismo, algoritmos y transparencia, esta última brilla por su ausencia. En este sentido, un reciente informe de Tow Center for Digital Journalism (Universidad de Columbia) recalca la importancia de indicar claramente cuando una noticia se ha generado con IA: “Esta descripción debe realizarse en términos no técnicos y de manera concisa, de forma que los lectores entiendan cómo se usó la IA y cómo se tomaron decisiones”.
- Cuestiones difamatorias. Durante su intervención en el panel ‘Rethinking algorithms and metrics in the newsroom’, en Perugia (Italia), el profesor Seth C. Lewis habló de la posibilidad de que un robot publique una noticia difamatoria (una información negativa sobre alguien que es falsa): “Las difamaciones en el periodismo automatizado pueden sonar ridículas, pero también era ridícula la escritura automatizada”, explica.
- Cuestiones de valores. Las herramientas de IA no se originaron en el entorno de los medios de comunicación y, por ello, sus creadores suelen no entender bien el contexto periodístico. Por eso, como destacan en el citado estudio de la Universidad de Columbia, la IA no suele tener en cuenta los valores editoriales de los medios. “Parece que muchas de estas cuestiones no nos llegan a los ingenieros, ya que no entendemos los valores editoriales a un nivel profundo y no podemos modelizarlos. Los ingenieros no piensan necesariamente que los sistemas que están desarrollando van a contener valores editoriales, y eso es un problema”.
3. Disrupción en los flujos de trabajo
Esta conclusión de AP es clara: la implementación de la IA traerá consigo cambios en la forma de trabajar de las redacciones. Y los datos en los que se basa el informe parecen demostrarlo:
- Con la producción automática de informaciones financieras, los redactores de la agencia estadounidense han liberado un 20% de su tiempo.
- Igualmente, se han pasado de generar 300 noticias financieras cada cuatrimestre a generar unas 3.700.
Según la reciente recopilación de un debate sobre inteligencia artificial y periodismo organizado por el Tow Center, los robots y los datos nos pueden ayudar a los periodistas en tres sentidos:
- a “encontrar agujas en el pajar”, al permitirnos encontrar cosas en los datos que los humanos no pueden percibir
- a identificar tendencias o comportamientos atípicos gracias al análisis avanzado de estadísticas y bases de datos
- a servir de tema para hacer periodismo, dado el interés social que generan hoy día el comportamiento, y los errores, de los algoritmos (#fakenews en Facebook, ¿hello? :).
A pesar de los beneficios en cuanto a la liberación de tiempo de trabajo, la automatización también puede afectar de forma negativa a los periodistas. Los ‘deberes’ para los profesionales serán diferentes. Las transcripciones y el análisis de bases de datos de forma manual requerirán menos tiempo y éste se empleará en supervisar y mantener las rutinas de automatización. “Los cambios en el flujo de trabajo cambiarán para mejor y de forma significativa”, añaden en AP. El futuro dictará si es así, y el cómo.
4. ¿Periodismo o Marketing?
La Inteligencia Artificial facilita conocer a fondo lo que gusta y lo que no a los usuarios al monitorizar el uso que hacen éstos de los medios y las plataformas de difusión. Gracias a ello, la probabilidad de acertar a la hora de elegir uno u otro contenido se incrementa exponencialmente. Pero la excesiva personalización puede acabar convirtiendo el Periodismo en Marketing.
“Tenemos que ser muy conscientes de que personalizar demasiado supone cruzar la línea hacia una actividad diferente”, indican los autores del informe del Tow Center. Y añaden que también se corre el riesgo de perder autoridad: “Cuando todo el mundo ve una diferente versión de la historia, no hay una versión oficial a la que citar”. Así de claro es el informe de Tow al respecto:
5. Aumento de la brecha de habilidades
Como si de la teoría de la evolución de Darwin se tratase, desde AP apuestan por la supervivencia de las especies (periodísticas) que consigan adaptarse al entorno (automatizado). Con las modificaciones en los flujos de trabajo también se observarán cambios en las habilidades exigidas a los profesionales.
Además de un mayor conocimiento en determinadas áreas -como el mantenimiento de algoritmos, por ejemplo-, desde AP recalcan la importancia de la colaboración: “Los periodistas que mejor trabajen con los científicos de datos y periodistas computacionales estarán mejor posicionados para prosperar en una redacción donde la IA sea total”.
En este sentido, el papel de los científicos de datos -“individuos con capacidades técnicas para implementar sistemas de IA necesarios para el periodismo aumentado”- y de los periodistas computacionales -“periodistas que entienden cómo funciona la IA”- será cada vez más esencial. Y no porque sean mejores que el resto. Según AP, la diferencia reside en “el medio que utilizan para contar historias”.
¿Está preparada la profesión para estos cambios?
Desafíos
Los riesgos siempre va acompañada de desafíos que surgen de la incertidumbre y el miedo a lo desconocido… o poco conocido, como la IA y los algoritmos.
Para el director de audience engagement de The Boston Globe, Matt Karalian, no existan dudas: “Las redacciones deben abrazar la IA, tal y como hicieron con otras herramientas tecnológicas”. Pero, para lograrlo la profesión periodística debe enfrentarse y superar los riesgos y errores. Sólo así la automatización seguirá la dirección adecuada.
1. Menos errores
Como en el caso de Los Angeles Times -su error al publicar automáticamente un terremoto que no se produjo- los algoritmos también cometen fallos. Siempre hay un lado oscuro en la tecnología; y en toda tecnología hay personas detrás.
Para evitar este tipo de errores, los datos deben ser revisados y chequeados “como si fuesen afirmaciones dentro de una historia”, afirma Dan Keyserling, jefe de Comunicación de Jigsaw, en el informe de AP. Es el juego del ‘garbage in, garbage out’ o ‘Basura dentro, basura fuera’, en español.
Para doblegar el (posible) ruido del contenido automatizado, el profesor Pierluigi Perri -Universidad de Milán, Italia- aboga por cinco intervenciones. Y así las enumeró durante su intervención (‘Rethinking algorithms and metrics in the newsroom’) en la última edición del International Journalism Festival (Perugia, Italia).
- Hacer una lista de fuentes fiables
- Llevar un control de los datos
- Verificar la información por diferentes vías
- Auditar el código utilizado
- Corroborar la información aleatoriamente con diferentes personas.
2. Más ética
Las personas detrás de los algoritmos no sólo deben preocuparse por posibles errores en los datos. Deben tener siempre presente la ética periodística. Las reglas del oficio no cambian por el hecho de entrar en un mundo automatizado, y la IA debe ajustarse a los estándares deontológicos que rigen el trabajo en las redacciones.
Tom Kent, editor en AP, enumera en esta lista las preguntas que deben hacerse los editores de medios de comunicación al de trabajar con los robots: “¿Puedes defender cómo ‘está escrita’ la historia?”, “¿Quién está vigilando el ‘ordenador’?, “¿Desvelarás lo que estás haciendo?” (os recomendamos leer la lista completa en el enlace).
Las vicisitudes éticas no acaban ahí. Evitar las difamaciones resulta, también en este campo, una tarea muy complicada. El éxito dependerá del país (la legislación no es igual en Estados Unidos que en España o Reino Unido, por ejemplo) y del tipo de publicación (no es lo mismo un artículo de opinión que una noticia). “Los medios deberían considerar las implicaciones legales de una noticia automatizada que cometa difamaciones”, nos advierte Seth C. Lewis.
3. Más transparencia algorítmica
“Los algoritmos incrustados en multitud de servicios y aplicaciones son opacos de cara a los individuos y la sociedad”, denuncia Daniel Menasce, profesor en la Universidad George Mason (EEUU), en el extenso informe del Pew Research Center. En la actualidad, el nivel de transparencia de los algoritmos aplicados al periodismo se sitúa, por ahora, en el lado oscuro de la fuerza si pensamos en cómo distribuyen contenido de noticias Facebook o Google.
Varios artículos de Nicholas Diakopoulos, que aúnan periodismo y algoritmos, tratan el tema de la transparencia. Aboga por una mayor transparencia en el periodismo automatizado y plantean una serie de preguntas:
- ¿Qué se debe hacer público?
- ¿Cuáles son los límites?
- ¿Cuáles son los mecanismos para una mejor divulgación?
En su artículo ‘Algorithmic Accountability’, el propio Diakopoulos ofrece cinco dimensiones que permitirían establecer una política estándar de transparencia algorítmica:
- Seguir una serie de criterios para priorizar, categorizar, enfatizar o editorializar los contenidos de los algoritmos (definiciones, operaciones e, incluso, posibles alternativas).
- Tener en cuenta los datos que actúan de entrada en los algoritmos. Es decir, a qué “prestan atención” los algoritmos y qué otros parámetros están siendo utilizados para iniciarlos.
- Ser precisos. Incluir falsos positivos y falsas tasas de errores negativos cometidos en la clasificación, incluyendo cómo se establece el punto de equilibrio entre ambos errores.
- Describir los datos y sus sesgos potenciales, incluyendo las dinámicas del algoritmo mientras se aprende los propios datos.
- Incluir las definiciones, operaciones y umbrales utilizados por los algoritmos de clasificación.
4. Más comprensión algorítmica en los humanos
La incomprensión y el desconocimiento van de la mano de la inteligencia artificial, los algoritmos y el periodismo automatizado; sobre todo ahora que nos encontramos todavía en los albores del fenómeno. Pero los periodistas estamos de suerte: no nos pasará como a los trabajadores de la central nuclear de Springfield, que son sustituidos en su trabajo por robots.
De hecho, una investigación de la Universidad de Oxford recalca que el periodismo se encuentra entre los trabajos donde es menos probable que las personas sean reemplazados por máquinas.
Este hecho, por otro lado, supone una señal de advertencia. La era del algoritmo se encuentra en plena ebullición y debemos ponernos las pilas. En su intervención, Pierluigi Perri insistía en la necesidad de “entrenar a los periodistas en cómo automatizar contenidos, en periodismo de datos y en gestión de proyectos basados en campos computacionales”. Igualmente, destacaba la importancia del “diálogo entre periodistas, editores, ordenadores y científicos de datos”.
De la misma forma, la sociedad todavía desconoce qué es la IA o qué puede aportar al periodismo. Resulta básico el papel de periodistas, científicos, desarrolladores y demás expertos a la hora de crear conciencia de la relación entre periodismo y algoritmos (potencialidad e implicaciones sociales, éticas y legales).
“A menos que se incremente el esfuerzo para promover una verdadera alfabetización de la información como una parte de la educación básica, habrá una clase de personas que utilizará los algoritmos y otra clase que será utilizada por los algoritmos”, se aventura a afirmar David Lankes, profesor en la Universidad de Carolina del Sur (EEUU), en el informe del Pew Research Center.
5. Más periodismo
No sólo no podrán quitarnos el trabajo a los periodistas, sino que los algoritmos ni si quiera serán capaces de ejercerlo. “El juicio de los periodistas es más importante que nunca”, dijo Justin Myers durante una de sus intervenciones en Perugia (Italia). Los robots mejorarán la eficiencia y reducirán la carga de trabajo de las redacciones, pero no matarán al periodismo: sigue importando, y lo seguirá haciendo. El escritor Leonard Bordy da con la clave en una conversación con el periodista Nikolay Malyarov:
“Los periodistas tienen muchísimas oportunidades de asumir tareas que los algoritmos no pueden desempeñar, como situar las cifras en su contexto, realizar análisis en profundidad, contar lo que ocurre entre bambalinas o realizar entrevistar a personajes clave”, defiende el especialista Andreas Graede, de la Macromedia University, en este reciente artículo.
Lo resumió perfectamente el director de The Washington Post, Martin Baron, en una conferencia en Madrid este año: “hay muchas formas de contar historias, pero ninguna herramienta podrá sustituir al buen periodismo”.