“¿Qué pasaría si en España no votasen los inmigrantes?”, “¿Qué pasaría si en España solo votaran las personas con un Cl superior a 110?”, “¿Que pasaría en España si solo votasen las personas que ganan más de 3000€ al mes?”. Estas son las preguntas que algunos contenidos en TikTok intentan responder con gráficos supuestamente creados con inteligencia artificial (IA), específicamente con ChatGPT-4.
En Maldita.es hemos intentado recrear los resultados con esta tecnología, pero hemos obtenido resultados diferentes. Incluso utilizando varias veces la misma instrucción, los porcentajes variaban cada vez. Esto sucede porque los chatbots de IA no son fuentes fiables de información, ya que pueden mezclar los datos y cometer errores. El mismo ChatGPT señala que los gráficos generados se basan en supuestos que “no reflejan datos reales ni existentes” y nos ofrece modificar los datos representados libremente, por lo que no debemos fiarnos de ellos.
Los gráficos supuestamente han sido creados con IA, dos de ellos con ChatGPT-4
Los tres gráficos detectados por Maldita.es que ilustran la intención de voto en situaciones hipotéticas provienen de cuentas de TikTok que están vinculadas: @patriotasrevolucionarios y @patriotasrevolucionario0 (que identifica a la otra como su cuenta principal). Al momento de publicación de este artículo, estos contenidos acumulan 162.800 visualizaciones en total en la red social.
Según las publicaciones, estos gráficos han sido creados con IA. De hecho, dos de ellos son identificados directamente como hechos con ChatGPT-4, la versión del chatbot de OpenAI conectado a internet. Así lo dice la publicación en TikTok del gráfico sobre la intención de voto de personas con un coeficiente intelectual (CI) superior a 110 y el artículo en la web vinculada en los perfiles sobre el gráfico de los votantes con ingresos mensuales mayores a 3.000 euros brutos.
Incluso con la misma instrucción, ChatGPT-4 arroja porcentajes distintos cada vez. Además, nos permite modificar los datos a nuestro antojo
En Maldita.es hemos pedido a ChatGPT-4 que cree los gráficos (de anillos o barras, dependiendo del original) para estas mismas situaciones hipotéticas. Aunque no tenemos la instrucción o prompt exacto utilizado para producir los originales, hemos utilizado el texto incluido en las publicaciones en nuestras solicitudes.
Todos los resultados arrojados por ChatGPT-4 han sido distintos a los gráficos originales. De hecho, los porcentajes varían incluso cuando ingresamos el mismo prompt en repetidas ocasiones. Por ejemplo, la misma instrucción “crea un gráfico de anillos que represente la intención de voto para elecciones presidenciales en España si sólo votaran las personas con un Cl superior a 110. Los partidos son Podemos, Sumar, PSOE, PP, Vox y otros” arrojó tres resultados con porcentajes diferentes, lo que podemos ver en la cifra del PSOE que cambia de 30% a 25% y después a 28% (y que en el original daba la victoria al PP y Vox).
Además de cambiar los porcentajes en cada resultado sin pedirlo, ChatGPT nos recuerda que podemos “ajustar los datos o el diseño del gráfico”. Por lo que, sumado a resultados inventados, se pueden manipular estas imágenes para que muestren lo que queramos.
Los chatbots de IA no son fuentes fiables de información y ChatGPT dice que estos gráficos “no reflejan datos reales”
Pero, ¿por qué pasa todo esto? Como explicamos en este artículo, los chatbots de IA como ChatGPT no son fuentes fiables de información, aunque estén conectados a internet. Los modelos de lenguaje aprenden a hacer asociaciones a partir de los datos con los que fueron entrenados, pero al elaborar sus respuestas, pueden mezclar y desordenar la información de forma incorrecta.
Si están conectados a la web, pueden consultar otras fuentes pero estas también pueden no ser fiables. En el caso de los gráficos generados para este artículo, ChatGPT dice haberlos preparado basándose en supuestos que “no reflejan datos reales ni encuestas existentes”.
De hecho, al solicitarle si puede crear el mismo gráfico pero consultando fuentes externas, en los tres casos nos ha respondido que no existen datos específicos que correlacionen factores como el origen, cociente intelectual y el salario superior a 3.000 euros a la intención de voto.