En el océano de internet hay de todo, contenidos utilísimos pero también otros de poca calidad. En este cajón están las granjas de contenido, webs que se dedican a publicar de forma masiva artículos para atraer a los usuarios y generar ingresos publicitarios con miles de anuncios, ingresos que se basan en el número de visitas. Muchas se disfrazan de medios de comunicación y publican artículos con contenido falso o impreciso.
Además, la inteligencia artificial ha hecho que sea más fácil y rápido crear este tipo de contenidos y que se “mierdifique” internet. Así, en los últimos años, las granjas de contenidos han incorporado IA, en especial chatbots como ChatGPT, para producir más contenidos de forma más barata y en muchos casos sin ninguna supervisión humana (y, de nuevo, con contenido falso o impreciso).
Los expertos consultados por Maldita.es advierten que este tipo de webs contribuyen a la desinformación y potencian la creciente desconfianza en los medios. Frente a ellos, se vuelve vital contrastar lo que leemos y estar atentos a algunos patrones en la escritura y el diseño para descubrir si estamos frente a un medio fiable o una de estas granjas.
Las granjas de contenido utilizan chatbots de IA para crear más artículos, de forma más rápida y barata
Las granjas de contenido no son algo nuevo, solo han perfeccionado sus técnicas con ayuda de los avances tecnológicos. Estas páginas webs, que se dedican a publicar artículos de poco valor de forma masiva para generar ingresos a través de la publicidad automatizada, utilizan la IA para “crear más contenido a un ritmo más rápido y más barato”, detalla a Maldita.es Mckenzie Sadeghi, editora de IA e influencia extranjera en NewsGuard, servicio de herramientas para combatir la desinformación.
Con ayuda de chatbots, como ChatGPT, pueden crear artículos en segundos, lo que les permite mantener un ritmo de publicación de cientos o miles de artículos al día y aumentar así su tráfico. Algunos de estos sitios cogen el trabajo publicado de periodistas y piden a la IA que cambie algunas palabras para evitar la detección de plagio, como descubrió ABC Australia. Otros intentan imitar a medios populares, como reveló una investigación de BleepingComputer, que descubrió una granja de contenido que operaba con más de 60 dominios que llevaban nombres como la BBC, CNN y Reuters, entre otros.
Generar más contenido permite atraer a más usuarios y, por lo tanto, generar más ingresos publicitarios. Además, los costos son bajos: datos de NewsGuard revelan que solo se necesitan 105 dólares (alrededor de 94 euros) y una conexión a internet para crear uno de estos sitios. Un negocio redondo que hace que las cifras vayan en aumento: a la fecha de publicación, el registro de NewsGuard ha identificado 1.075 sitios de “noticias e información” generados con IA que funcionan con poca o nula supervisión humana.
Estos sitios que aparentan ser webs de noticias publican contenido falso que puede engañar fácilmente a los usuarios y provocar desinformación
Sadghegi advierte que estos sitios publican contenido falso, “como muertes, hechos inventados y obituarios falsos”. Esto puede ser de forma intencional o resultado de los errores que presentan los chatbots de IA, que no son fuentes fiables de información.
Al disfrazarse de medios reales, pueden engañar más fácilmente a los usuarios. “Con el lanzamiento público de poderosas herramientas de IA, hemos visto proliferar sitios de noticias de baja calidad difíciles de distinguir de una fuente confiable para el consumidor promedio, lo que reduce aún más la confianza en los medios”, analiza la editora de NewsGuard.
“Los grandes modelos de lenguaje [LLM] y la IA introducen una gran distorsión en nuestros ecosistemas informativos, aunque parece que el fenómeno aún no ha explotado, es cuestión de tiempo”, advierte a Maldita.es Javi Cantón, investigador del Departamento de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Granada.
En este contexto, se vuelve esencial “inculcar la necesidad de contrastar noticias que, a priori, nos suenan extrañas”, sugiere Tamara Antona, investigadora de Historia de la Comunicación Social de la Universidad Complutense de Madrid y maldita que nos ha prestado sus superpoderes. Para ello, la experta recomienda hacernos las siguientes preguntas ¿de dónde sale esa información? ¿Por qué están contando esto? ¿Quién puede estar interesado en que yo lea esto?
Otro problema es que como las granjas de contenido publican más, atraen más tráfico, lo que hace que “el dinero publicitario que normalmente se envía a organizaciones de noticias legítimas y medios periodísticos de calidad se destine a estas granjas de contenido”, detalla Sadeghi. Esto fortalece sus negocios y debilita el de los medios tradicionales.
Los avances tecnológicos hacen más difícil detectar el contenido generado, pero podemos poner atención a los patrones de escritura y de diseño
A medida que la IA avanza, se vuelve más difícil detectar el contenido generado con ella, especialmente el texto. Carmen Torrijos, lingüista computacional especializada en Inteligencia Artificial en Prodigioso Volcán y maldita que nos ha prestado sus superpoderes, señala que “no existe ningún software fiable que pueda detectar que un texto está generado con un chatbot como ChatGPT. Estas herramientas nos atraen y aparentan funcionar, pero no tienen ninguna base real detrás”.
Sin embargo, hay algunos patrones en los textos a los que podemos estar pendientes y que no varían mucho según la herramienta que se haya usado para crear el texto. Ojo, Torrijos advierte de que “estos patrones no afloran tanto cuando el modelo tiene una tarea muy concreta, como imitar el estilo de una noticia”. Algunas banderas rojas (que nos deben llamar más la atención si se dan todas a la vez) son:
Un tono ceremonioso y con un registro demasiado elevado o poco natural.
El abuso de enumeraciones y listas, como “10 consejos para…” o “Las 5 cosas que debes saber…”.
Un positivismo excesivo, es decir, que todo le parezca estupendo.
Los cierres muy redondos que concluyen el texto similar a como arranca, parafraseando el contenido con un “en definitiva”, “en resumen” o “en conclusión”.
Los calcos lingüísticos del inglés, como mayúsculas iniciales en las palabras de los títulos o frases traducidas literalmente.
Por su parte, Cantón añade algunos aspectos generales de este tipo de sitios que pueden encender nuestras alarmas para que sepamos que estamos ante una granja de contenidos:
La apariencia de un medio de comunicación con un nombre de cabecera genérico, por ejemplo, que incluya palabras como “News”, “Sun”, “Times”.
Una saturación de anuncios y publicidad, intercalada entre párrafos de contenido.
La ausencia de una autoría clara, como la falta de información sobre los autores o propietarios de la web. Esto también puede reflejarse en el uso de nombres falsos con fotos de perfil robadas o generadas.
En este artículo han colaborado con sus superpoderes las malditas Carmen Torrijos, lingüista computacional especializada en IA, y Tamara Antona, experta en Historia de la Comunicación Social.
Carmen Torrijos y Tamara Antona forman parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.