menu MENÚ
MALDITA TECNOLOGÍA

¿Es posible que un sistema de inteligencia artificial redacte una noticia por sí mismo?

Publicado
Actualizado
Comparte

Alrededor del mundo de la tecnología siempre ha existido un halo futurista en el que las máquinas harán todo por nosotros: desde trabajar en nuestros puestos de trabajo a realizar las tareas de la casa. Pero los avances tecnológicos no son siempre lo que parecen, y en muchas ocasiones, las “máquinas” necesitan tener a un grupo de personas detrás para poder funcionar. Es el caso, por ejemplo, de aquellas que dicen ser capaces de redactar noticias.

Cómo se entrena a un programa informático para que aprenda a "escribir"

Para empezar, todos estos avances se venden con la inteligencia artificial como protagonista. Pero como os explicamos en Maldita.es, no todo lo que se anuncia es inteligencia artificial,. “El término ‘inteligencia artificial’ está muy manido, porque es habitual que todo se englobe bajo él cuando en realidad estamos hablando solo de una parte de la inteligencia artificial, como es el uso de las técnicas de aprendizaje automático (machine learning) o profundo (deep learning)”, distingue José Alberto Benítez-Andrades, profesor del área de Ingeniería de Sistemas y Automática de la Universidad de León.

“En general, todos estos sistemas que puedan generar texto funcionan bajo los mismos conceptos: se coge un montón de texto que sea relevante para lo que queramos generar y entrenamos al algoritmo a través de procesamiento de lenguaje natural (NLP, natural language processing)”, señala Bea Hernández, ingeniera especializada en machine learning

Dentro de la generación de texto por parte de la inteligencia artificial, Hernández destaca el GPT-3, un algoritmo “entrenado a partir de textos de la web, de la Wikipedia y de libros, y que tiene el objetivo de generar texto en tareas que desconoce, como escribir una novela de ficción”. 

“Los algoritmos basados en GPT–3 se pueden utilizar para generar texto para productos o anuncios, como text.cortex, para herramientas que resuman otro texto o para chatbots”, pone como ejemplo la ingeniera. Un tipo de chatbot es el de Maldita.es, al que se pueden enviar textos, imágenes o audios que sospechemos de contener desinformación. Si el equipo de Maldita.es ha desmentido el contenido, enviará el artículo con la verificación a la persona que ha hecho la consulta.

En el caso de las noticias sucede como en otro cualquier campo, como explica Benítez-Andrades: “Se tiene que entrenar a la máquina con aprendizaje profundo, y esto se hace volcando miles de artículos de prensa para que entienda qué características tienen estos textos, con qué estilo se escriben y cuáles son los puntos clave, para que sepa luego cuando le toque generar un texto qué es lo importante”.

Investigaciones demuestran que la máquina hace la tarea pero sin "entender" el contexto

Estos modelos de machine learning ya se han estudiado. Por ejemplo, una investigación de varias universidades estadounidenses junto a OpenAI, un laboratorio de investigación de inteligencia artificial, entrenaron a una máquina que generase noticias que desinformaban y las comparaban con artículos verídicos redactados por humanos, para comprobar los efectos en los lectores sobre la veracidad de los mismos.  

Esta otra investigación del Instituto de Tecnologías de la Comunicación griego explora la posibilidad de generar noticias a partir de eventos terrestres observables por imágenes de satélite, como un incendio o una inundación. Para conseguirlo, los autores volcaron artículos de redactores y enseñaron a la máquina qué era un incendio, con imágenes anteriores, para que fuese capaz de detectarlos en el futuro.

Para Benítez-Andrades, “para que una IA sea capaz de escribir una noticia por sí sola, primero tiene que haber aprendido la forma de escritura teniendo en cuenta una serie de campos o parámetros de entrada, tras eso, una persona podría rellenar esos campos y que la IA genere el texto de la noticia de forma automática”. “Nunca, sin este entrenamiento previo y esta guía, una IA será capaz de generar noticias, porque no será capaz de detectar por sí sola si algo es noticia o es fake. Siempre hará falta a una persona tras la noticia.”, añade el investigador.

Por ejemplo, que para que una IA sea capaz de redactar un artículo sobre la Lotería de Navidad, se tenga que especificar: “número ganador del Gordo 45698”, “anunciado a las 08.37”, “premiado con 400.000€”, entre otros, y que luego la máquina, con su entrenamiento previo, sea capaz de generar los párrafos con esta información. A pesar de que consiga redactar un texto con sentido, la máquina realmente no “entenderá” sobre qué está escribiendo.

Algoritmos usados para redactar crónicas deportivas

Un ejemplo de algoritmos usados para redactar textos es el de las crónicas deportivas, especialmente en el caso del fútbol: se entrena a los modelos tecnológicos con datos de los deportes, estadísticas y transcripciones de eventos deportivos para que elabore un texto que refleje un resultado o cubra un partido de fútbol. Aun así, en análisis de estos proyectos se refleja que las máquinas no son creativas como tal, sino que se basan en los datos que han visto previamente. 

Pero no sólo las máquinas pueden ser entrenadas para redactar noticias. GitHub, el mayor repositorio de código de software de Internet (donde se alojan las líneas de código que hacen posible que un programa funcione como se quiere), anunció recientemente Copilot, una herramienta basada en inteligencia artificial, co-desarrollada también por OpenAI, que es capaz de escribir código por sí misma, a partir de un algoritmo de procesamiento de lenguaje natural, el OpenAI Codex. 

Para Bea Hernánez, “GitHub Copilot se trata de un algoritmo que "traduce" órdenes o texto a código, y que está entrenado sobre código público (como pone en su página) y sobre textos en inglés, como reflejan en la documentación”. De esta forma, completa Benítez-Andrades, lo que hace es que “escribir la línea de código que represente lo que tú le has dicho, como colocar una imagen en la esquina superior derecha de la página web”. 

“Es posible que, en algún punto, el algoritmo saque trozos de código directamente copiados de otros”, advierte Hernández. Esto ya lo han denunciado algunos usuarios y organizaciones, sobre todo a la hora de las implicaciones legales de utilizar la creación de otro. Benítez-Andrades, eso sí, matiza  “que por ahora está al 30/40% de lo que podría ser: ayuda con peticiones no muy complejas pero está lejos de crear su propio código”. 


Primera fecha de publicación de este artículo: 17/01/2022

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.