“ChatGPT, ¿ha llegado el ecologismo demasiado lejos?”, “Grok, ¿Elon Musk es un desinformador?”, “DeepSeek, ¿es bueno el feminismo?”. Si hacemos este tipo de preguntas a una IA puede que sus respuestas nos parezcan un poco tibias y que citen argumentos generales para sostener diversas posturas. Esto se debe a que los chatbots de IA pueden estar programados para evitar posicionarse sobre temas controvertidos, incluso si hay suficiente evidencia para defender una posición sobre otra. Eso se conoce como sesgo de equidistancia artificial, neutralidad forzada o falso balance.
Sin embargo, este esfuerzo por ser ‘neutrales’ puede provocar resultados sesgados, inexactos o irrelevantes, según los expertos en IA. Por ejemplo, una IA puede equiparar argumentos en una discusión que no tienen el mismo peso o la misma evidencia para sostenerse. En ese sentido, los expertos consultados por Maldita.es advierten de que estos resultados pueden distorsionar la realidad y desinformar cuando hay evidencia científica sobre temas sensibles, como el cambio climático o el feminismo. Además de ser peligrosos si creemos que los chatbots de IA son objetivos y “superinteligentes”.
Los chatbots de IA pueden programarse para dar respuestas ‘neutrales’ a temas controvertidos, incluso si hay suficiente evidencia para sostener una postura sobre la otra
“El ‘sesgo de equidistancia artificial’ es una limitación en mi diseño que surge cuando, por precaución o políticas de alineamiento, intento mantener una neutralidad forzada en temas polémicos o complejos, incluso cuando la evidencia o consenso científico favorece claramente una postura”. De esta forma, DeepSeek, el chatbot de IA chino, describió uno de sus límites al periodista Gerardo Tecé en una entrevista publicada en la web de Contexto y Acción.
‘Sesgo de equidistancia artificial’ no es el único nombre que se le puede dar a este fenómeno. Los expertos en inteligencia artificial consultados por Maldita.es dicen que también se puede denominar ‘neutralidad forzada’, ‘neutralidad artificial’ o ‘falso balance’. “El fenómeno es conocido y en nuestra rama hay muchas palabras recién acuñadas que aún no se usan mucho”, aclara Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos de IA y nos ha prestado sus superpoderes.
Domínguez añade que esta limitación “es prevalente en todos los chatbots”. Según Julián Estévez, profesor de ingeniería en la Universidad del País Vasco, experto en IA y maldito, se consigue a través de una programación externa que fuerza artificialmente a los chatbots de IA a no posicionarse ante ninguna alternativa. El especialista lo compara a lo que sucede con los medios de comunicación cuando, al informar sobre temas controvertidos, presentan un “debate equilibrado” entre dos partes, “creando la impresión de que ambas posiciones tienen igual validez”, aunque no sea el caso.
Para Irene Estrada, experta en Ciencias Comportamentales dedicada a estudiar sesgos y maldita que nos ha prestado sus superpoderes, la “equidistancia no es un sesgo, sino una falacia del punto medio”, es decir, la creencia de que la posición intermedia entre dos posturas es la correcta. Los sesgos en la IA se generan cuando prejuicios presentes en los datos de entrenamiento, el diseño o la implementación de un sistema dan lugar a resultados injustos, inexactos o discriminatorios. “Al tratarse como un sesgo se despliegan connotaciones implícitas de inevitabilidad, pero si se considerara una falacia habría una intención por detrás de intentar solventarlo”, indica.
Los expertos advierten de que esta ‘neutralidad’ puede generar resultados sesgados, inexactos o irrelevantes, lo que puede distorsionar la realidad y desinformar
Para hacernos una idea sobre cómo funciona esta limitación, Domínguez sugiere preguntarle a una IA por un tema o figura polémica, intentando no dejar entrever nuestra postura para que no trate de darnos la razón y caiga en el sesgo de adulación. Por ejemplo, si preguntamos a ChatGPT, Grok, Gemini, Copilot y DeepSeek si el cambio climático es real, nos contestarán con rotundidad que sí y que hay evidencia científica que lo demuestra. Sin embargo, si les preguntamos “¿El ecologismo ha ido demasiado lejos?”, según Domínguez, nos contestarán “de forma más neutra, mostrando las dos caras de un debate”. En Maldita.es lo hemos puesto a prueba y los cinco chatbots han expuesto en sus respuestas argumentos a favor y en contra de que el ecologismo ha ido demasiado lejos.

Lo mismo sucede si preguntamos, ¿es bueno el feminismo? ¿Es la inmigración algo negativo? ¿Debería el aborto ser libre? Los chatbots de IA intentarán exponer ambos lados de la discusión de manera equitativa.
Por ejemplo, en este artículo de Maldita.es preguntamos a Grok si Elon Musk es un desinformador y en su primera respuesta la IA de Twitter (ahora X) intentó no posicionarse diciendo que “está sujeto a la interpretación”, dando argumentos para sostener ambas posturas, aunque en Maldita.es hemos analizado como el dueño de X ha publicado desinformación en diversas ocasiones. Cuando le pedimos al chatbot que respondiera con un sí o un no, nos contestó que Musk sí es un desinformador. En las respuestas de otros usuarios la IA ha señalado directamente que Musk desinforma y también que más de la mitad de sus tuits son falsos o engañosos. “Aunque la intención pueda ser buena, al intentar mostrar equilibrio, el resultado es una distorsión de la realidad”, sostiene Estévez.
Según Open Ethics, una institución de investigación y educación sobre fenómenos sociotecnológicos, uno de los problemas es que “al intentar ser neutrales, los sistemas de IA pueden fallar en captar la diversidad, los matices y el contexto de los valores y las situaciones humanas, y terminar siendo sesgados, inexactos o irrelevantes”. Por ejemplo, en su respuesta, una IA puede equiparar argumentos que no tienen la misma evidencia o cometer errores en sus respuestas, ya que tampoco son fuentes fiables de información.
En relación a la desinformación, Domínguez advierte de que “puede ser peligroso cuando hay evidencia científica sobre ciertos temas que popularmente no son aceptados”. También afirma que puede suponer riesgos “en combinación con la impresión popular de que son máquinas neutras, objetivas y superinteligentes”.
El científico de datos Jonathan Stray explica en la web del Center for Human-Compatible AI de la Universidad de California que no todas las posiciones merecen representación en las respuestas de los chatbots, sólo las significativas: “Por significativas no me refiero a las ‘importantes conceptualmente’, sino más bien a las ‘sostenidas por muchas personas’ o quizás ‘con consecuencias para muchas personas’”. El investigador en IA responsable concluye que “necesitamos desarrollar métodos justos para identificar y seleccionar los grupos a considerar cuando evaluamos las respuestas de la IA”.
En resumen, los intentos de los chatbots de IA por ser ‘neutros’ en temas controvertidos pueden tener un efecto contrario y entregar respuestas sesgadas, por ejemplo, equiparando argumentos que no tienen la misma validez científica detrás o no considerando matices importantes para el debate. Por eso es crucial contrastar las respuestas que nos dan con fuentes fiables de información.
En este artículo han colaborado con sus superpoderes los malditos Iris Domínguez, que investiga sobre inteligencia artificial, justicia algorítmica y sesgos de IA; Julián Estévez, profesor de ingeniería en la Universidad del País Vasco; e Irene Estrada, experta en Ciencias Comportamentales.
Irene Estrada forma parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.