Cada vez es más difícil distinguir si lo que vemos, escuchamos o leemos frente a la pantalla es real o ha sido creado con inteligencia artificial. Para imágenes y vídeos hay varios consejos, aunque la IA evoluciona rápidamente y siempre logra dejar atrás algunos de los errores que nos solían hacer sospechar. En el caso de los textos, también hay escenarios en los que puede llegar a hacernos dudar y es posible que necesitemos saber si la carta de motivación que hemos recibido para una oferta de empleo, la tarea de nuestro estudiante o el artículo web que estamos leyendo han sido escritos por una persona o un programa de IA.
Los expertos consultados por Maldita.es explican que, a día de hoy, los chatbots de inteligencia artificial como ChatGPT, que redactan textos en segundos a partir de una instrucción de texto (prompt), no dejan una marca en los resultados que producen. Las opciones para detectarlos son limitadas: no existen softwares 100% fiables en los que nos podamos apoyar para esto. Solo nos queda observar y analizar con nuestros propios ojos algunos de los errores o patrones de escritura que presentan estos textos (que ojo, no siempre aparecerán).
Aún no existen softwares fiables para detectar que un texto ha sido generado con IA
“El desarrollo actual de la IA hace que se haya podido refinar más su proceso generativo”, explica a Maldita.es Javi Cantón, investigador del Departamento de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Granada. En este sentido, se ha vuelto más difícil detectar el contenido generado con esta tecnología, especialmente el texto.
En internet abundan las herramientas que prometen verificar si un texto ha sido generado con un chatbot de IA o no, como ZeroGPT o AI Detector. Sin embargo, los expertos señalan que no existe ningún software capaz de hacer esto con un 100% de fiabilidad, independiente del idioma en el que el texto esté escrito. Incluso OpenAI lo intentó en 2023 lanzando su propio detector, AI Classifier, que tuvieron que retirar del mercado por falta de precisión.
“Estas herramientas son productos-cebo que nos atraen y aparentan funcionar pero no tienen ninguna base real detrás”, sostiene Carmen Torrijos, lingüista computacional especializada en Inteligencia Artificial en Prodigioso Volcán y maldita que nos ha prestado sus superpoderes. La experta advierte que no nos podemos fiar de este tipo de softwares, ya que los modelos de lenguaje no dejan ninguna marca detectable en los textos que generan.
“Hay que tener en cuenta que son modelos probabilísticos que, ante una misma petición, pueden arrojar distintos resultados, por lo que es muy difícil crear un software capaz de detectar los textos generados por estos modelos”, señala Cantón.
Por otro lado, Mckenzie Sadeghi, editora de IA e influencia extranjera en NewsGuard, servicio de herramientas para combatir la desinformación, sostiene que estas herramientas pueden proporcionar algún contexto adicional sobre la calidad del contenido, pero que debemos ser siempre “conscientes sobre sus limitaciones y no utilizarlas como única solución”.
También lo confirma una investigación de Mozilla Foundation, que determinó que “el texto generado con IA no es lo suficientemente diferente al generado por humanos como para diferenciarlo de forma consistente”. Los investigadores detallaron que pueden ser útiles para algunos fines, pero siempre teniendo en cuenta que tienen sesgos que pueden dañar desproporcionadamente a comunidades marginalizadas. Por ejemplo, la Universidad de Standford reveló que algunos detectores etiquetan equivocadamente las tareas de los estudiantes extranjeros como creadas con IA. “Los políticos y la sociedad no deberían apurar soluciones simples para problemas complejos como este”, concluyeron.
Algunos patrones de escritura pueden revelar que un texto ha sido generado con IA, aunque en ocasiones son difíciles de detectar
Sin herramientas fiables, nos queda hacer uso de nuestro propio análisis para intentar detectar algunos elementos extraños en los textos. Torrijos sostiene que hay algunos patrones de escritura que no varían mucho de herramienta en herramienta a los que podemos estar atentos. Algunas banderas rojas (que nos deben llamar más la atención si se dan todas a la vez) son:
Un tono ceremonioso y con un registro demasiado elevado o poco natural.
El abuso de enumeraciones y listas, como “10 consejos para…” o “Las 5 cosas que debes saber…”.
Un positivismo excesivo, es decir, que todo le parezca estupendo.
Los calcos lingüísticos del inglés, como mayúsculas iniciales en las palabras de los títulos o frases traducidas literalmente.
La ausencia de citas o, si las hay, referencias con errores, ya que los chatbots como ChatGPT pueden insertarlas, pero se ha comprobado que no son fiables, tienen enlaces incorrectos o el formato es inadecuado.
Inconsistencias o repeticiones, como frases sin sentido, cambios abruptos en el tono, estilo o tema o la repetición de frases o la estructura de estas.
Falta de originalidad y personalización que se traduce en textos básicos y formulados de la misma manera.
Exceso de vocabulario genérico y una gramática demasiado perfecta, un escritor humano puede cometer errores o romper intencionalmente las reglas gramaticales o fórmulas establecidas para enfatizar una idea.
Los cierres muy redondos que concluyen el texto similar a como arranca, parafraseando el contenido con un “en definitiva”, “en resumen” o “en conclusión”.
Ojo, algo que tenemos que tener en cuenta es que “estos patrones no afloran tanto cuando el modelo tiene una tarea muy concreta, como imitar el estilo de una noticia”, según Torrijos. Por lo tanto, no todo es blanco o negro. Es posible que un texto que sea resultado de un prompt muy elaborado no muestre estos signos, o que uno que tenga, por ejemplo, un exceso de enumeraciones haya sido creado por un humano.
No solo es el contenido, también es el lugar. Por ejemplo, los textos generados con IA abundan en las granjas de contenido
Más allá de un correo del trabajo que parece redactado con IA o el resumen de un libro para una tarea de clase, existen lugares en internet donde los textos generados abundan y, por el camino, provocan desinformación: las granjas de contenido. En estos casos, no solo es el contenido lo que nos hace sospechar, sino también el lugar en el que está publicado. Son páginas que imitan el aspecto de webs de noticias para publicar cientos o miles de artículos diarios de baja calidad, muchas veces generados con IA, para atraer tráfico y generar ingresos publicitarios.
Para identificarlos, podemos fijarnos en los patrones de escritura que ya comentamos y en algunos aspectos generales que comparten este tipo de webs. Cantón sugiere estar atento a:
La apariencia de un medio de comunicación con un nombre de cabecera genérico, por ejemplo, que incluya palabras como “News”, “Sun”, “Times”.
Una saturación de anuncios y publicidad, intercalada entre párrafos de contenido.
La ausencia de una autoría clara, como la falta de información sobre los autores o propietarios de la web. Esto también puede reflejarse en el uso de nombres falsos con fotos de perfil robadas o generadas.
En este artículo ha colaborado con sus superpoderes la maldita Carmen Torrijos, lingüista computacional especializada en Inteligencia Artificial.
Carmen Torrijos forma parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.