menu MENÚ
MALDITA TECNOLOGÍA

Por qué no debemos fiarnos de gráficos de intención de voto supuestamente creados con IA

Publicado
Claves
  • En TikTok circulan gráficos supuestamente creados con IA que representan la intención de voto en España en situaciones hipotéticas: si no votaran inmigrantes, si solo lo hicieran personas con un cociente intelectual alto o gente con ingresos mensuales mayores a 3.000 € 
  • La cuenta que los comparte afirma que dos de ellos han sido creados con ChatGPT-4, pero incluso utilizando varias veces la misma instrucción, esta tecnología arrojó gráficos distintos cada vez
  • Esto sucede porque los chatbots no son una fuente de información fiable y cometen errores. El mismo ChatGPT dice que los gráficos generados “no reflejan datos reales ni existentes” y nos ofrece la posibilidad de modificarlos libremente
Comparte
Etiquetas

“¿Qué pasaría si en España no votasen los inmigrantes?”, “¿Qué pasaría si en España solo votaran las personas con un Cl superior a 110?”, “¿Que pasaría en España si solo votasen las personas que ganan más de 3000€ al mes?”. Estas son las preguntas que algunos contenidos en TikTok intentan responder con gráficos supuestamente creados con inteligencia artificial (IA), específicamente con ChatGPT-4. 

En Maldita.es hemos intentado recrear los resultados con esta tecnología, pero hemos obtenido resultados diferentes. Incluso utilizando varias veces la misma instrucción, los porcentajes variaban cada vez. Esto sucede porque los chatbots de IA no son fuentes fiables de información, ya que pueden mezclar los datos y cometer errores. El mismo ChatGPT señala que los gráficos generados se basan en supuestos que “no reflejan datos reales ni existentes” y nos ofrece modificar los datos representados libremente, por lo que no debemos fiarnos de ellos

Los gráficos supuestamente han sido creados con IA, dos de ellos con ChatGPT-4

Los tres gráficos detectados por Maldita.es que ilustran la intención de voto en situaciones hipotéticas provienen de cuentas de TikTok que están vinculadas: @patriotasrevolucionarios y @patriotasrevolucionario0 (que identifica a la otra como su cuenta principal). Al momento de publicación de este artículo, estos contenidos acumulan 162.800 visualizaciones en total en la red social. 

Según las publicaciones, estos gráficos han sido creados con IA. De hecho, dos de ellos son identificados directamente como hechos con ChatGPT-4, la versión del chatbot de OpenAI conectado a internet. Así lo dice la publicación en TikTok del gráfico sobre la intención de voto de personas con un coeficiente intelectual (CI) superior a 110 y el artículo en la web vinculada en los perfiles sobre el gráfico de los votantes con ingresos mensuales mayores a 3.000 euros brutos. 

Dos de estos gráficos son identificados como hechos con ChatGPT-4. 

Incluso con la misma instrucción, ChatGPT-4 arroja porcentajes distintos cada vez. Además, nos permite modificar los datos a nuestro antojo

En Maldita.es hemos pedido a ChatGPT-4 que cree los gráficos (de anillos o barras, dependiendo del original) para estas mismas situaciones hipotéticas. Aunque no tenemos la instrucción o prompt exacto utilizado para producir los originales, hemos utilizado el texto incluido en las publicaciones en nuestras solicitudes. 

Todos los resultados arrojados por ChatGPT-4 han sido distintos a los gráficos originales. De hecho, los porcentajes varían incluso cuando ingresamos el mismo prompt en repetidas ocasiones. Por ejemplo, la misma instrucción “crea un gráfico de anillos que represente la intención de voto para elecciones presidenciales en España si sólo votaran las personas con un Cl superior a 110. Los partidos son Podemos, Sumar, PSOE, PP, Vox y otros” arrojó tres resultados con porcentajes diferentes, lo que podemos ver en la cifra del PSOE que cambia de 30% a 25% y después a 28% (y que en el original daba la victoria al PP y Vox).  

Comparativa de tres gráficos generados por ChatGPT a partir del mismo prompt con distintos resultados 

Además de cambiar los porcentajes en cada resultado sin pedirlo, ChatGPT nos recuerda que podemos “ajustar los datos o el diseño del gráfico”. Por lo que, sumado a resultados inventados, se pueden manipular estas imágenes para que muestren lo que queramos. 

Pedimos a ChatGPT que cree un gráfico que compare la intención de votos del total de votantes con la de los descendientes directos de españoles.

Los chatbots de IA no son fuentes fiables de información y ChatGPT dice que estos gráficos “no reflejan datos reales” 

Pero, ¿por qué pasa todo esto? Como explicamos en este artículo, los chatbots de IA como ChatGPT no son fuentes fiables de información, aunque estén conectados a internet. Los modelos de lenguaje aprenden a hacer asociaciones a partir de los datos con los que fueron entrenados, pero al elaborar sus respuestas, pueden mezclar y desordenar la información de forma incorrecta.

Si están conectados a la web, pueden consultar otras fuentes pero estas también pueden no ser fiables. En el caso de los gráficos generados para este artículo, ChatGPT dice haberlos preparado basándose en supuestos que “no reflejan datos reales ni encuestas existentes”. 

La respuesta de ChatGPT cuando le preguntamos cómo obtiene los datos para los gráficos. 

De hecho, al solicitarle si puede crear el mismo gráfico pero consultando fuentes externas, en los tres casos nos ha respondido que no existen datos específicos que correlacionen factores como el origen, cociente intelectual y el salario superior a 3.000 euros a la intención de voto. 

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.