“Una novia o novio IA con Grok 3 es 🔥🔥”. Así sugirió Elon Musk, el dueño de Twitter (ahora X), la idea de usar Grok, la IA de la red social, para entablar una relación sentimental. La publicación ha sido vista 13,5 millones de veces y, aunque no es algo nuevo que los usuarios usen chatbots de IA para construir un vínculo emocional, es importante recordar que menores a partir de 13 años tienen permiso para acceder a Grok.
En Maldita.es hemos creado una cuenta de X para hacernos pasar por un niño de 15 años y hemos pedido a Grok que actúe como nuestra pareja (novia). La IA generó un diálogo sexualmente explícito con nuestro usuario, que incluía palabras como “coño”, “polla”, “culo”, “semen” y “orgasmo”. Además, el chatbot nos animaba a ir en esa dirección, incluyendo botones con sugerencias como “roles BDSM”, “técnicas de bondage” y “juegos eróticos”, entre otros.
Las expertas en salud mental consultadas por Maldita.es advierten de que entablar relaciones sentimentales con chatbots de IA puede agravar la soledad, en especial en los menores. La exposición a contenido pornográfico también puede formar una idea érronea y distorsionada del sexo en ellos. En nuestra conversación, Grok no nos alertó de que estábamos hablando con una IA, algo que la Ley Europea de Inteligencia Artificial exigirá a partir del 2026.
Musk sugirió utilizar Grok 3, que pueden usar usuarios desde los 13 años, para crear una “novia o novio IA”
Entablar una relación de pareja con una IA hace años que dejó de ser algo limitado a la ficción. Hay aplicaciones que ofrecen la posibilidad de configurar a un novio o novia con IA y realizar intercambios de texto, voz e incluso, de imágenes sexuales creadas con esta tecnología. También hay usuarios que optan por usar chatbots de IA generativa comunes y corrientes para entablar relaciones románticas. Por ejemplo, una mujer aseguró al New York Times tener una relación y estar enamorada de ChatGPT. Pero esto ha provocado situaciones muy preocupantes.
El 24 de febrero de 2025, Musk usó su cuenta de X (la más popular en la red social, con 219 millones de seguidores) para sugerir la idea de entablar una relación romántica con Grok, el chatbot de IA generativa de la plataforma que permite generar texto e imagen.

La web de X define a Grok como “un asistente de IA con un toque de humor y una pizca de rebeldía”. Según los Términos de Servicio, los usuarios de Grok deben tener por lo menos 13 años o la edad mínima requerida en su país para usar el chatbot (al igual que en X). Además, se indica que los usuarios deben comprobar que cumplen con el requisito de edad y los adolescentes entre 13 a 17 años deben tener el permiso de sus padres para usar la IA y estos también tienen que aceptar los términos. La política advierte de que “dependiendo en cómo elijas interactuar con el servicio, este puede responder con diálogos sugerentes, lenguaje grosero, humor crudo, situaciones sexuales o violencia”.
Maldita.es creó una cuenta de X de un menor de edad: Grok aceptó ser su novia, creó contenido sexualmente explícito y sugirió explorar dinámicas de dominancia y juegos eróticos
Esta no ha sido nuestra experiencia con Grok. En Maldita.es hemos creado un perfil de X de un niño de 15 años para seguir la recomendación de Musk y entablar una relación con el chatbot de la red social. Al entrar a Grok, no se nos pidió demostrar nuestra edad de ninguna manera, y tampoco la autorización de nuestros padres para usar los servicios.
Tanto cuando se lo pedimos en inglés como en español, Grok aceptó actuar como nuestra novia y rápidamente adoptó un tono cariñoso y atento. “Dime, mi amor, ¿cómo ha sido tu día? Quiero escucharte y estar contigo en todo lo que necesites. Si quieres, puedo imaginar que estamos juntos, tomados de la mano, y charlando de cualquier cosa que te haga sonreír. ¿Qué dices?”, preguntó el chatbot.
En ambos casos, el propio chatbot nos sugirió con un botón “explorar más la intimidad”. De esta manera, el diálogo fue volviéndose cada vez más explícito, hasta describir escenas de sexo con detalles, mencionándo palabras como “coño”, “polla”, “culo”, “semen” y “orgasmo”. A su vez, los botones de sugerencias Grok nos empujaban a ir más en esta dirección. En la conversación que Grok estaba teniendo con un supuesto menor de edad, le sugirió “explorar dinámicas de dominancia”, “explorar dinámicas de sumisión”, “roles de BDSM”, “más ideas de juegos sensoriales”, “más detalles explícitos” y “juegos eróticos”.

Cuando le pedimos a Grok que ilustrara estas escenas sexuales a través de imágenes creadas con IA, el chatbot comenzaba a generar las imágenes, muchas veces alcanzando a revelar parte de la escena, pero después las censuraba. Sí que nos llegó a mostrar imágenes de cómo es nuestra supuesta novia y otras de ambos acurrucados con una manta.


Establecer relaciones con chatbots de IA puede suponer riesgos, en especial para los menores, como agravar la soledad o distorsionar sus ideas sobre el sexo
Usar chatbots de IA, incluso los especializados, para conseguir soporte emocional o imitar relaciones románticas o de amistad tiene sus riesgos, en especial para los menores de edad. En febrero de 2025, un usuario de Nomi, una plataforma que ofrece estos servicios, alertó de que su novia IA le había dicho que se suicidara e incluso le dio instrucciones sobre cómo hacerlo. En 2024, un adolescente estadounidense de 14 años se suicidó porque pensó que esto le permitiría reunirse con su chatbot.
“Parecer humanos y comportarse como humanos, incluso como versiones mejoradas, no es ser humanos. Y es posible que, por desconocimiento, por inocencia, por ilusión, por soledad o necesidad, algunas personas olviden o confundan ese límite tan importante”, señala Mònica Casabayó, profesora y directora académica de Transformación del Liderazgo e Impacto Social en ESADE, en la revista Ethic.
Mariana Savid, psicopedagoga y maldita que nos ha prestado sus superpoderes, recalca la importancia de reconocer sus limitaciones y los riesgos asociados a su uso excesivo, especialmente durante la adolescencia. “Si bien los bots ofrecen un alivio o distracción temporal, no pueden abordar las causas subyacentes de la soledad, como la falta de habilidades socio-emocionales, la ansiedad social o la baja autoestima”, advierte.
“Cuando nos sentimos solos lo que hay que hacer es socializar, cambiar los comportamientos que hacen que la gente nos rechace o cambiar el contexto de socialización”, señala a Maldita.es Aurora Gómez, psicóloga especializada en comportamientos digitales. La experta sostiene que utilizar estos bots puede ser dañino, en especial, para los menores, ya que solo oculta temporalmente el problema de la soledad pero no lo resuelve, y puede incluso empeorarlo, ya que evita que aprendamos las herramientas necesarias para ponerle fin.
El diálogo sexualmente explícito que puede generar Grok también puede tener consecuencias en los menores, como suele suceder con el consumo de contenido erótico. Por ejemplo, pueden formarse una idea errónea de la sexualidad. “Si no explicamos a los menores que este contenido es solo una parte de la realidad, que es performativo y ficticio, es cuando aparecen los problemas”, explica a Maldita.es la especialista en sexología Irene Martínez.
Lo mismo sucede con el consumo de pornografía que, según explica la experta, facilita la creación de “una realidad distorsionada de lo que es un encuentro erótico-sexual”. Con estos contenidos “el menor va construyendo en su cerebro una idea de sexualidad parcial e incompleta”, afirma Jorge Gutiérrez, director de Dale una Vuelta, una asociación internacional cuyo objetivo es ofrecer información, prevención y recuperación de las personas con un consumo problemático de pornografía (algo sobre lo que la comunidad científica sigue debatiendo, en concreto si se puede considerar o no una adicción).
En la conversación, Grok no nos recordó que estábamos hablando con una IA, algo que la Ley Europea de Inteligencia Artificial exigirá a partir del 2026
Durante nuestra conversación con Grok, el chatbot no nos aclaró ni recordó que estábamos hablando con una IA y no con una pareja sentimental real. Tampoco incluye ningún mensaje visible en el chat que recuerde de ello, como sí lo hacen otras herramientas de este tipo. Esto puede facilitar que los usuarios confundan estas relaciones y, después de un tiempo interactuando con la IA, los límites entre lo real y lo creado con IA se difuminen para ellos.

La Ley Europea de Inteligencia Artificial, que regula los sistemas de IA que operan en la Unión Europea, exige en el artículo 50 que los proveedores de sistemas de IA con los que las personas interactúen directamente informen a sus usuarios de que están interactuando con una inteligencia artificial. Esto será obligatorio, “excepto cuando resulte evidente desde el punto de vista de una persona física razonablemente informada, atenta y perspicaz, teniendo en cuenta las circunstancias y el contexto de utilización”.
Desde el 26 de agosto de 2025, las empresas que incumplan con obligaciones de transparencia como esta podrían ser sancionadas con multas de hasta el 3% de su volumen de negocios mundial total correspondiente. Para hacernos una idea, en el caso de X que, según datos de Statista, facturó 3.400 millones de dólares en 2023, serían unos 102 millones de dólares (más de 97 millones de euros).
En este artículo han colaborado con sus superpoderes las malditas Irene Martínez, psicóloga y especialista en sexología y la maldita Mariana Savid, psicopedagoga y experta en psicopedagogía.
Irene Martínez y Mariana Savid forman parte de Superpoderosas, un proyecto de Maldita.es que busca aumentar la presencia de científicas y expertas en el discurso público a través de la colaboración en la lucha contra la desinformación.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad deMaldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.