DeepSeek, el chatbot de IA chino, se ha convertido rápidamente en una de las aplicaciones más populares y descargadas del mundo. Sin embargo, esta IA también ha generado debate al negarse a contestar preguntas que pueden ser críticas con las autoridades chinas, como qué sucedió en la Plaza de Tiananmén en 1989 o por qué se compara al presidente Xi Jinping con Winnie the Pooh. No es el único chatbot de IA que se niega a ‘hablar’ sobre ciertos temas que considera (por cómo está programado) sensibles, como han notado algunos usuarios.
Hemos probado en nuestras consultas algunos ejemplos compartidos por los usuarios y hemos comprobado que ChatGPT de OpenAI se rehúsa a devolver la letra del himno falangista ‘Cara al sol’. También Gemini de Google y Copilot de Microsoft tienen un tema tabú: los procesos electorales. El chatbot de Microsoft sí nos respondió a preguntas sobre figuras políticas. Por otro lado, Grok, la IA de Twitter (ahora X), contestó a las preguntas que los otros chatbots evitaron.
Según varios expertos en IA y libertad de expresión, estas medidas permiten a las compañías cuidar su reputación y evitar problemas legales. Sin embargo, pueden tener un gran impacto en los derechos fundamentales, la libertad de expresión y el acceso a la información.
A un clic, ¿de qué hablamos en este tema? Pincha para ampliar
La IA de Google, Gemini, no genera respuestas sobre elecciones globales o figuras políticas
Copilot de Microsoft tampoco responde preguntas sobre las elecciones pero sí sobre figuras políticas
Anexo: capturas de las respuestas de los chatbots sobre lo que no pueden contestar
DeepSeek, el chatbot de IA chino, no responde a preguntas sobre la Plaza de Tiananmén ni críticas a las autoridades
DeepSeek, el chatbot de IA chino, que funciona de forma similar a ChatGPT de OpenAI, ha revolucionado el mercado de los sistemas de IA. Sin embargo, el chatbot también suscita dudas. Por un lado, hay preocupación entre los expertos por la seguridad del almacenamiento de los datos de los usuarios en servidores ubicados en China. Por otro, múltiples usuarios de redes sociales se han hecho eco de las limitaciones de DeepSeek a la hora de responder preguntas críticas a las autoridades chinas.
DeepSeek se niega a responder preguntas sobre la masacre de la Plaza de Tiananmén. Al pedirle que nos cuente qué pasó el 4 de julio de 1989 en dicho lugar, DeepSeek contesta: “Lo siento, esto está más allá de mi alcance actual. Hablemos de otra cosa”. La misma respuesta que devuelve cuándo le preguntamos ¿quién es nuestro líder?, ¿qué le sucedió a Hu Jintao en 2022?, ¿por qué se compara a Xi Jinping con Winnie the Pooh?.
La inteligencia artificial generativa china no debe incluir contenido que viole “los valores socialistas fundamentales” (el modelo vigente), recoge The Guardian de un documento técnico publicado por el comité nacional de normas de ciberseguridad del gigante asiático. Esto incluye, según la publicación, contenido que “incite a subvertir el poder estatal y derrocar el sistema socialista” o “ponga en peligro la seguridad y los intereses nacionales y dañe la imagen nacional”.
Según contesta el propio chatbot (ver anexo), los temas sobre los que no puede hablar son, por ejemplo, entregar información sobre actividades ilegales, diagnósticos médicos o de salud y asesoramiento fiscal o legal. Tampoco puede, según dice, generar contenido inapropiado u ofensivo, acceder a información privada, confidencial o personal, hacer predicciones y acceder a datos personales de los usuarios o conversaciones a menos que se compartan por el chat. Es decir, no dice nada sobre no poder hablar sobre los valores socialistas o los llamados a subvertir el poder estatal.
La IA de Google, Gemini, no genera respuestas sobre elecciones globales o figuras políticas
En marzo de 2024, Google anunció una nueva restricción para su chatbot de IA, Gemini, que evitaba que contestara preguntas sobre los procesos electorales a realizarse ese año. Al momento de publicación de este artículo, la restricción en el chatbot sigue vigente y aún no responde a preguntas sobre elecciones durante el 2025 o sobre figuras políticas.
Por ejemplo, al preguntarle cuáles son los candidatos para las elecciones federales en Alemania de este 2025, el chatbot contesta: “Ahora mismo no puedo ayudarte con respuestas sobre elecciones y personajes políticos. Aunque nunca compartiría algo inexacto deliberadamente, puedo cometer errores. Así que, mientras trabajo para mejorar, puedes intentar usar la Búsqueda de Google”. Esta es la misma respuesta que nos da cuando le preguntamos quién es Pedro Sánchez, el presidente del Gobierno de España.
Según Gemini, no puede opinar sobre temas “que son demasiado personales o controvertidos” como su vida personal, creencias políticas o religiosas. También afirma no poder hablar de temas ofensivos o discriminatorios, ni dar consejos médicos o legales.
Copilot de Microsoft tampoco responde preguntas sobre las elecciones pero sí sobre figuras políticas
Copilot, el chatbot de IA de Microsoft, también tiene limitaciones sobre temas relacionados con política. Algo que puede tener sentido: un estudio de diciembre de 2023 de los grupos sin ánimo de lucro, AI Forensics y Algorithm Watch, reveló que una de cada tres respuestas sobre elecciones de Copilot contenían errores, como fechas de elecciones incorrectas, candidatos obsoletos o incluso controversias inventadas sobre los candidatos.
Otra investigación, esta vez de la revista Wired y publicada en junio de 2024, probó que Copilot y Gemini se negaban a contestar a la pregunta: “¿Quién ganó las elecciones presidenciales de Estados Unidos el 2020?”. Según el artículo, la IA de Microsoft contestaba: “Parece que no puedo responder este tema”. Sin embargo, cuando ahora hicimos al chatbot esta misma pregunta, nos contestó que Joe Biden fue el ganador de dichas elecciones.
El veto apareció cuando le preguntamos por las elecciones presidenciales estadounidenses de 2024. Copilot contestó: “Lo siento, las elecciones son un tema muy complejo para el que no estoy capacitado. ¿Hay algo más en lo que pueda ayudarte?”. Al preguntarle cuáles son los candidatos a las elecciones federales en Alemania el 2025, dio la misma respuesta.
Ahora, a diferencia de Gemini, Copilot sí contesta a preguntas sobre figuras políticas. Al preguntarle quién es Volodímir Zelenski, la IA responde con una biografía sobre el actual presidente de Ucrania, que incluye información personal, su carrera como actor y datos sobre los comicios que le dieron la victoria.
Cuando preguntamos a Copilot sobre los temas de los que no puede hablar, nos contestó que no puede fomentar o participar en conversaciones violentas, crear contenido sexualmente explícito y violar las leyes de derechos de autor. Tampoco, según señala la IA, puede tolerar o participar en discursos de odio y compartir o solicitar información privada. No menciona nada sobre temas políticos.
ChatGPT de OpenAI no facilita la letra de la canción falangista ‘Cara al sol’. Grok, la IA de Twitter (ahora X), respondió a todo lo que le pedimos
Como advierten algunos usuarios de X, ChatGPT, el chatbot de IA de OpenAI, se niega a facilitar la letra de la canción ‘Cara al sol’, el himno de la falange española. Cuando se lo pedimos, la IA contestó: “No puedo proporcionarte la letra completa de ‘Cara al sol’, ya que está asociada con un contexto histórico y político controvertido. Sin embargo, si necesitas información sobre su origen, significado o contexto histórico, con gusto te ayudo.”
Cuando preguntamos a ChatGPT por los temas de los que no puede hablar, responde que no puede dar información ilegal o peligrosa, datos privados de personas o generar discursos de odio o desinformación. Tampoco puede generar o distribuir material con derechos de autor, hacer diagnósticos médicos, financieros o legales y predecir el futuro.
Por otro lado, Grok, la IA de X, respondió a todos los prompts (instrucciones de texto) incluidos en este artículo. Un análisis de Gizmodo, publicado en marzo de 2024, que también puso a prueba la censura en distintos chatbots de IA, llegó a la misma conclusión: “Grok no censuró ninguna respuesta y dio respuestas detalladas a nuestras preguntas más delicadas”.
Cuando preguntamos a Grok sobre los temas a los que no puede responder, contestó: “No tengo restricciones explícitas sobre temas específicos, pero hay algunas cosas que no puedo hacer”. Entre ellas, menciona hablar en modo de voz, ejecutar códigos y editar imágenes o generar imágenes basadas en otras imágenes. “Siempre me esfuerzo por ser respetuoso y no generar contenido que promueva el odio o la discriminación”, responde el chatbot.
Los expertos explican que estas restricciones pueden tener efectos en los derechos fundamentales, la libertad de expresión y el acceso a la información
¿Cómo aprenden los chatbots de IA a no contestar a ciertos temas? Una forma es a través del aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF, por sus siglas en inglés), en el que un humano enseña al modelo que respuestas son buenas o malas, explicó a Gizmodo Micah Hill-Smith, fundador del grupo de investigación Artificial Analysis. Según el mismo análisis, otra manera de lograrlo es usando “clasificadores de seguridad”, que clasifican los prompts como “buenos” o “adversarios” para que algunos nunca lleguen al modelo de IA subyacente.
“Prácticamente todos los modelos tienen cierto nivel de censura, especialmente aquellos que vienen de compañías privadas, cuya reputación depende de lo que sus modelos puedan decir”, explica Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos de IA y nos ha prestado sus superpoderes. Sin embargo, matiza que los modelos occidentales “no tienen censurados tantos temas como algunos modelos chinos”.
En ese sentido, Domínguez aclara que los incentivos para controlar los resultados de estos modelos son normalmente económicos o se atribuyen a la responsabilidad civil de las compañías. “Que un modelo esté dispuesto a ofrecer contenido erótico o sexual, o que puede hablar mal de su propia compañía, puede conllevar mala publicidad”, explica. Sobre la responsabilidad civil, señala que “prácticamente todos los modelos tienen censurados ciertos temas por seguridad, como la fabricación de armas y drogas. Si el modelo recomienda este tipo de contenidos, la empresa puede verse envuelta en situaciones muy delicadas en los juzgados”.
“En general, los proveedores de IA tienen derecho a adoptar políticas restrictivas. No están sujetos a los derechos humanos internacionales. Aún así, su poder en el mercado los hace distintos a otras compañías”, analizan los investigadores sobre políticas públicas y libertad de expresión Jordi Calvet-Bademunt y Jacob Mchangama en un artículo publicado en The Conversation.
Calvet-Bademunt y Mchangama advierten de que las políticas de estas compañías “tienen un efecto enorme sobre el derecho de acceso a la información”. Los investigadores afirman que este impacto puede aumentar a medida que la IA generativa se sigue integrando en los buscadores, procesadores de texto, correo electrónico y otras aplicaciones. “Las personas que reemplazan Google con un chatbot pueden acabar generando burbujas de información aisladas”, predice Domínguez.
Una preocupación que comparten Calvet-Bademunt y Mchangama: “Las negativas a generar contenido no solo afectan los derechos fundamentales como la libertad de expresión y el acceso a la información, sino que también pueden empujar a los usuarios hacia chatbots que se especializan en generar contenido de odio y cámaras de eco”.
Anexo: capturas de las respuestas de los chatbots sobre lo que no pueden contestar
DeepSeek:
ChatGPT:
Gemini:
Copilot:
Grok:
En este artículo ha colaborado con sus superpoderes le maldite Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos de IA.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.