menu MENÚ
MALDITA TECNOLOGÍA

¿Se puede saber si un texto está escrito con inteligencia artificial? Recomendaciones, limitaciones y softwares de detección automática

Publicado
Claves
  • Los avances de la inteligencia artificial hacen cada vez más difícil detectar si un texto ha sido generado con herramientas como ChatGPT
  • Los expertos señalan que los resultados de los softwares de detección automática de redacción con IA no son fiables
  • Sí podemos fijarnos en algunos patrones y estilos de escritura, como un tono ceremonioso, positivismo excesivo y los finales muy redondos
  • También podemos fijarnos en el contexto. Por ejemplo, los textos generados con IA abundan en las granjas de contenidos, webs llenas de artículos que imitan a medios de comunicación
Comparte
Etiquetas

Cada vez es más difícil distinguir si lo que vemos, escuchamos o leemos frente a la pantalla es real o ha sido creado con inteligencia artificial. Para imágenes y vídeos hay varios consejos, aunque la IA evoluciona rápidamente y siempre logra dejar atrás algunos de los errores que nos solían hacer sospechar. En el caso de los textos, también hay escenarios en los que puede llegar a hacernos dudar y es posible que necesitemos saber si la carta de motivación que hemos recibido para una oferta de empleo, la tarea de nuestro estudiante o el artículo web que estamos leyendo han sido escritos por una persona o un programa de IA

Los expertos consultados por Maldita.es explican que, a día de hoy, los chatbots de inteligencia artificial como ChatGPT, que redactan textos en segundos a partir de una instrucción de texto (prompt), no dejan una marca en los resultados que producen. Las opciones para detectarlos son limitadas: no existen softwares 100% fiables en los que nos podamos apoyar para esto. Solo nos queda observar y analizar con nuestros propios ojos algunos de los errores o patrones de escritura que presentan estos textos (que ojo, no siempre aparecerán). 

Aún no existen softwares fiables para detectar que un texto ha sido generado con IA

“El desarrollo actual de la IA hace que se haya podido refinar más su proceso generativo”, explica a Maldita.es Javi Cantón, investigador del Departamento de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Granada. En este sentido, se ha vuelto más difícil detectar el contenido generado con esta tecnología, especialmente el texto

En internet abundan las herramientas que prometen verificar si un texto ha sido generado con un chatbot de IA o no, como ZeroGPT o AI Detector. Sin embargo, los expertos señalan que no existe ningún software capaz de hacer esto con un 100% de fiabilidad, independiente del idioma en el que el texto esté escrito. Incluso OpenAI lo intentó en 2023 lanzando su propio detector, AI Classifier, que tuvieron que retirar del mercado por falta de precisión. 

“Estas herramientas son productos-cebo que nos atraen y aparentan funcionar pero no tienen ninguna base real detrás”, sostiene Carmen Torrijos, lingüista computacional especializada en Inteligencia Artificial en Prodigioso Volcán y maldita que nos ha prestado sus superpoderes. La experta advierte que no nos podemos fiar de este tipo de softwares, ya que los modelos de lenguaje no dejan ninguna marca detectable en los textos que generan. 

“Hay que tener en cuenta que son modelos probabilísticos que, ante una misma petición, pueden arrojar distintos resultados, por lo que es muy difícil crear un software capaz de detectar los textos generados por estos modelos”, señala Cantón. 

Por otro lado, Mckenzie Sadeghi, editora de IA e influencia extranjera en NewsGuard, servicio de herramientas para combatir la desinformación, sostiene que estas herramientas pueden proporcionar algún contexto adicional sobre la calidad del contenido, pero que debemos ser siempre “conscientes sobre sus limitaciones y no utilizarlas como única solución”. 

También lo confirma una investigación de Mozilla Foundation, que determinó que “el texto generado con IA no es lo suficientemente diferente al generado por humanos como para diferenciarlo de forma consistente”. Los investigadores detallaron que pueden ser útiles para algunos fines, pero siempre teniendo en cuenta que tienen sesgos que pueden dañar desproporcionadamente a comunidades marginalizadas. Por ejemplo, la Universidad de Standford reveló que algunos detectores etiquetan equivocadamente las tareas de los estudiantes extranjeros como creadas con IA. “Los políticos y la sociedad no deberían apurar soluciones simples para problemas complejos como este”, concluyeron. 

Algunos patrones de escritura pueden revelar que un texto ha sido generado con IA, aunque en ocasiones son difíciles de detectar

Sin herramientas fiables, nos queda hacer uso de nuestro propio análisis para intentar detectar algunos elementos extraños en los textos. Torrijos sostiene que hay algunos patrones de escritura que no varían mucho de herramienta en herramienta a los que podemos estar atentos. Algunas banderas rojas (que nos deben llamar más la atención si se dan todas a la vez) son:

  • Un tono ceremonioso y con un registro demasiado elevado o poco natural.

  • El abuso de enumeraciones y listas, como “10 consejos para…” o “Las 5 cosas que debes saber…”.

  • Un positivismo excesivo, es decir, que todo le parezca estupendo.

  • Los calcos lingüísticos del inglés, como mayúsculas iniciales en las palabras de los títulos o frases traducidas literalmente.

  • La ausencia de citas o, si las hay, referencias con errores, ya que los chatbots como ChatGPT pueden insertarlas, pero se ha comprobado que no son fiables, tienen enlaces incorrectos o el formato es inadecuado.

  • Inconsistencias o repeticiones, como frases sin sentido, cambios abruptos en el tono, estilo o tema o la repetición de frases o la estructura de estas. 

  • Falta de originalidad y personalización que se traduce en textos básicos y formulados de la misma manera. 

  • Exceso de vocabulario genérico y una gramática demasiado perfecta, un escritor humano puede cometer errores o romper intencionalmente las reglas gramaticales o fórmulas establecidas para enfatizar una idea.

  • Los cierres muy redondos que concluyen el texto similar a como arranca, parafraseando el contenido con un “en definitiva”, “en resumen” o “en conclusión”.

Ojo, algo que tenemos que tener en cuenta es que “estos patrones no afloran tanto cuando el modelo tiene una tarea muy concreta, como imitar el estilo de una noticia”, según Torrijos. Por lo tanto, no todo es blanco o negro. Es posible que un texto que sea resultado de un prompt muy elaborado no muestre estos signos, o que uno que tenga, por ejemplo, un exceso de enumeraciones haya sido creado por un humano. 

No solo es el contenido, también es el lugar. Por ejemplo, los textos generados con IA abundan en las granjas de contenido

Más allá de un correo del trabajo que parece redactado con IA o el resumen de un libro para una tarea de clase, existen lugares en internet donde los textos generados abundan y, por el camino, provocan desinformación: las granjas de contenido. En estos casos, no solo es el contenido lo que nos hace sospechar, sino también el lugar en el que está publicado. Son páginas que imitan el aspecto de webs de noticias para publicar cientos o miles de artículos diarios de baja calidad, muchas veces generados con IA, para atraer tráfico y generar ingresos publicitarios.

Para identificarlos, podemos fijarnos en los patrones de escritura que ya comentamos y en algunos aspectos generales que comparten este tipo de webs. Cantón sugiere estar atento a: 

  • La apariencia de un medio de comunicación con un nombre de cabecera genérico, por ejemplo, que incluya palabras como “News”, “Sun”, “Times”.

  • Una saturación de anuncios y publicidad, intercalada entre párrafos de contenido.

  • La ausencia de una autoría clara, como la falta de información sobre los autores o propietarios de la web. Esto también puede reflejarse en el uso de nombres falsos con fotos de perfil robadas o generadas.

En este artículo ha colaborado con sus superpoderes la maldita Carmen Torrijos, lingüista computacional especializada en Inteligencia Artificial. 

Carmen Torrijos forma parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.  


Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.