menu MENÚ
MALDITA TECNOLOGÍA

Webs con miles de artículos de baja calidad en forma de noticia y llenas de anuncios: cómo las granjas de contenido usan la inteligencia artificial y promueven la desinformación

Publicado
Claves
  • Las granjas de contenidos son webs que publican artículos de baja calidad de forma masiva para llegar a más usuarios y generar ingresos publicitarios. En los últimos años, han comenzado a usar IA para crear contenido rápido y barato
  • Algunas de estas webs se disfrazan de medios de comunicación y comparten contenido falso o impreciso, lo que promueve la difusión de desinformación y la desconfianza en el periodismo
  • Los expertos sostienen que la IA genera una distorsión de los ecosistemas informativos en donde se vuelve esencial contrastar el contenido que consumimos
  • Advierten de que es cada vez más difícil detectar estas granjas, pero que podemos tener en cuenta algunos patrones de escritura y de la web para discernirlas de medios oficiales
Comparte
Etiquetas

En el océano de internet hay de todo, contenidos utilísimos pero también otros de poca calidad. En este cajón están las granjas de contenido, webs que se dedican a publicar de forma masiva artículos para atraer a los usuarios y generar ingresos publicitarios con miles de anuncios, ingresos que se basan en el número de visitas. Muchas se disfrazan de medios de comunicación y publican artículos con contenido falso o impreciso. 

Además, la inteligencia artificial ha hecho que sea más fácil y rápido crear este tipo de contenidos y que se “mierdifique” internet. Así, en los últimos años, las granjas de contenidos han incorporado IA, en especial chatbots como ChatGPT, para producir más contenidos de forma más barata y en muchos casos sin ninguna supervisión humana (y, de nuevo, con contenido falso o impreciso)

Los expertos consultados por Maldita.es advierten que este tipo de webs contribuyen a la desinformación y potencian la creciente desconfianza en los medios. Frente a ellos, se vuelve vital contrastar lo que leemos y estar atentos a algunos patrones en la escritura y el diseño para descubrir si estamos frente a un medio fiable o una de estas granjas. 

La web world-today-news.com publicó alrededor de 8.600 artículos, con una media de 1.200 diarios, según datos de NewsGuard.

Las granjas de contenido utilizan chatbots de IA para crear más artículos, de forma más rápida y barata

Las granjas de contenido no son algo nuevo, solo han perfeccionado sus técnicas con ayuda de los avances tecnológicos. Estas páginas webs, que se dedican a publicar artículos de poco valor de forma masiva para generar ingresos a través de la publicidad automatizada, utilizan la IA para “crear más contenido a un ritmo más rápido y más barato”, detalla a Maldita.es Mckenzie Sadeghi, editora de IA e influencia extranjera en NewsGuard, servicio de herramientas para combatir la desinformación. 

Con ayuda de chatbots, como ChatGPT, pueden crear artículos en segundos, lo que les permite mantener un ritmo de publicación de cientos o miles de artículos al día y aumentar así su tráfico. Algunos de estos sitios cogen el trabajo publicado de periodistas y piden a la IA que cambie algunas palabras para evitar la detección de plagio, como descubrió ABC Australia. Otros intentan imitar a medios populares, como reveló una investigación de BleepingComputer, que descubrió una granja de contenido que operaba con más de 60 dominios que llevaban nombres como la BBC, CNN y Reuters, entre otros. 

Generar más contenido permite atraer a más usuarios y, por lo tanto, generar más ingresos publicitarios. Además, los costos son bajos: datos de NewsGuard revelan que solo se necesitan 105 dólares (alrededor de 94 euros) y una conexión a internet para crear uno de estos sitios. Un negocio redondo que hace que las cifras vayan en aumento: a la fecha de publicación, el registro de NewsGuard ha identificado 1.075 sitios de “noticias e información” generados con IA que funcionan con poca o nula supervisión humana. 

Número de sitios webs generados con IA según fecha de identificación. Fuente: NewsGuard

Estos sitios que aparentan ser webs de noticias publican contenido falso que puede engañar fácilmente a los usuarios y provocar desinformación  

Sadghegi advierte que estos sitios publican contenido falso, “como muertes, hechos inventados y obituarios falsos”. Esto puede ser de forma intencional o resultado de los errores que presentan los chatbots de IA, que no son fuentes fiables de información

Al disfrazarse de medios reales, pueden engañar más fácilmente a los usuarios. “Con el lanzamiento público de poderosas herramientas de IA, hemos visto proliferar sitios de noticias de baja calidad difíciles de distinguir de una fuente confiable para el consumidor promedio, lo que reduce aún más la confianza en los medios”, analiza la editora de NewsGuard.

“Los grandes modelos de lenguaje [LLM] y la IA introducen una gran distorsión en nuestros ecosistemas informativos, aunque parece que el fenómeno aún no ha explotado, es cuestión de tiempo”, advierte a Maldita.es Javi Cantón, investigador del Departamento de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Granada. 

En este contexto, se vuelve esencial “inculcar la necesidad de contrastar noticias que, a priori, nos suenan extrañas”, sugiere Tamara Antona, investigadora de Historia de la Comunicación Social de la Universidad Complutense de Madrid y maldita que nos ha prestado sus superpoderes. Para ello, la experta recomienda hacernos las siguientes preguntas ¿de dónde sale esa información? ¿Por qué están contando esto? ¿Quién puede estar interesado en que yo lea esto?

Otro problema es que como las granjas de contenido publican más, atraen más tráfico, lo que hace que “el dinero publicitario que normalmente se envía a organizaciones de noticias legítimas y medios periodísticos de calidad se destine a estas granjas de contenido”, detalla Sadeghi. Esto fortalece sus negocios y debilita el de los medios tradicionales

Los avances tecnológicos hacen más difícil detectar el contenido generado, pero podemos poner atención a los patrones de escritura y de diseño

A medida que la IA avanza, se vuelve más difícil detectar el contenido generado con ella, especialmente el texto. Carmen Torrijos, lingüista computacional especializada en Inteligencia Artificial en Prodigioso Volcán y maldita que nos ha prestado sus superpoderes, señala que “no existe ningún software fiable que pueda detectar que un texto está generado con un chatbot como ChatGPT. Estas herramientas nos atraen y aparentan funcionar, pero no tienen ninguna base real detrás”. 

Sin embargo, hay algunos patrones en los textos a los que podemos estar pendientes y que no varían mucho según la herramienta que se haya usado para crear el texto. Ojo, Torrijos advierte de que “estos patrones no afloran tanto cuando el modelo tiene una tarea muy concreta, como imitar el estilo de una noticia”. Algunas banderas rojas (que nos deben llamar más la atención si se dan todas a la vez) son:

  • Un tono ceremonioso y con un registro demasiado elevado o poco natural.

  • El abuso de enumeraciones y listas, como “10 consejos para…” o “Las 5 cosas que debes saber…”.

  • Un positivismo excesivo, es decir, que todo le parezca estupendo.

  • Los cierres muy redondos que concluyen el texto similar a como arranca, parafraseando el contenido con un “en definitiva”, “en resumen” o “en conclusión”.

  • Los calcos lingüísticos del inglés, como mayúsculas iniciales en las palabras de los títulos o frases traducidas literalmente.

Por su parte, Cantón añade algunos aspectos generales de este tipo de sitios que pueden encender nuestras alarmas para que sepamos que estamos ante una granja de contenidos

  • La apariencia de un medio de comunicación con un nombre de cabecera genérico, por ejemplo, que incluya palabras como “News”, “Sun”, “Times”.

  • Una saturación de anuncios y publicidad, intercalada entre párrafos de contenido.

  • La ausencia de una autoría clara, como la falta de información sobre los autores o propietarios de la web. Esto también puede reflejarse en el uso de nombres falsos con fotos de perfil robadas o generadas. 

Captura de un artículo publicado en www.world-today-news.com donde se ven los aspectos generales de este tipo de sitios. 

En este artículo han colaborado con sus superpoderes las malditas Carmen Torrijos, lingüista computacional especializada en IA, y Tamara Antona, experta en Historia de la Comunicación Social.

Carmen Torrijos y Tamara Antona forman parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.