¡Feliz sábado, malditas y malditos! Hoy te hablamos de cómo hay bots con IA en Telegram que se usan de mala manera, y de por qué no es buena idea elegir a ChatGPT o Grok como médico o psicólogo. Si es que… la IA te puede devolver cualquier cosa. Como cuando le pides que te ilustre a la Madre Teresa de Calcuta luchando contra la pobreza.
Bots de Telegram con IA que desnudan a mujeres y crean porno (una vez más, sin consentimiento)
Sí, otra vez este tema (ojalá fuera porque hoy es 8M, pero no). Estamos hartas de encontrarnos una y otra vez ejemplos en los que la tecnología se usa contra las mujeres para sexualizarlas, evidentemente, sin su permiso. Es el caso de la inteligencia artificial.
La IA se está utilizando constantemente para crear imágenes y vídeos porno de mujeres, muchas de ellas famosas, como Scarlett Johansson, Emma Watson y Alexandria Ocasio-Cortez, sin su consentimiento. Taylor Swift es una de las víctimas habituales. Por ejemplo, hemos visto cómo Grok se utiliza para generar imágenes sexualizadas de políticas, actrices, deportistas… Hay más cifras y formatos: alrededor del 96% de los deepfakes, vídeos manipulados con IA para mostrar a una persona haciendo o diciendo algo que nunca hizo o dijo, se usan para crear contenidos sexuales de mujeres famosas.
Lo último que nos hemos encontrado son bots en Telegram que permiten fácilmente crear contenido sexual con IA, como quitar la ropa de imágenes de gente o poner a personas en situaciones sexuales sin su consentimiento. Ay, el consentimiento, tan importante y tan olvidado por los que desarrollan estas ‘estupendas’ herramientas de IA.
Hay análisis que han detectado hasta 50 de estos bots en la app de mensajería, una tendencia preocupante. ¿Por qué hay tantos y qué se puede hacer? Hemos analizado dos y hemos descubierto que hacen sorteos y regalan créditos por invitar a amigos o crear imágenes. Esto hace que los usuarios vuelvan a usar sus servicios, además de aumentar sus audiencias e ingresos. Lo de que proliferen precisamente en Telegram se puede deber a la falta de moderación de la plataforma. Aquí tienes más información.
Y, en el 8M y cualquier día, aquí tienes una guía de seguridad digital para mujeres: cómo identificar si estás sufriendo violencia en espacios online y cómo hacerle frente, y aquí qué hacer si te encuentras tu cara en una imagen sexual creada con IA (o con cualquier otra tecnología). También puedes escribirnos 💜 a [email protected].
Oiga, doctor Grok, que estoy haciendo terapia con ChatGPT
De un mal uso de la IA, a otro. Que no, que la tecnología no es mala en sí misma, que depende de cómo la usemos. Lo que pasa es que hay gente, como Elon Musk, sugiriendo que lo hagamos mal. El dueño de Twitter (ahora X) ha recomendado en varias ocasiones compartir imágenes y documentos médicos con Grok, la IA de la red social, para obtener un diagnóstico de salud. Es gracioso porque contradice su propia Política de Privacidad. Bueno, no es gracioso, porque usar una IA así tiene varias pegas.
Por un lado, los chatbots de IA pueden cometer errores y dar diagnósticos equivocados, lo que puede resultar en tratamientos inadecuados y riesgos para la salud. También pueden tener un sesgo de adulación que haga que nos den sólo respuestas que queremos escuchar. Sí, los sistemas de IA pueden apoyar y ser muy útiles para el trabajo de los médicos, pero como una herramienta de apoyo para los profesionales, no como un sustituto, como explican aquí.
Por otro lado, está el tema de la privacidad de nuestros datos. Hemos visto que hay personas que comparten documentos médicos, que contienen datos sanitarios sensibles y especialmente protegidos, con Grok y otros chatbots como ChatGPT para recibir diagnósticos de salud. Nuestra información puede usarse para entrenar estos chatbots, acabar en manos de terceros o verse comprometida si las plataformas sufren un ciberataque. Hemos hablado con expertos y con la Agencia Española de Protección de Datos: mejor no hacerlo.
Y de la salud física, a la mental. También hay usuarios que usan chatbots de IA como los mencionados, o Claude, o Gemini, como si fueran psicólogos. Hemos recogido varios testimonios y parece que se decantan por ellos porque responden rápido, se sienten más comprendidos, y es fácil y gratis acceder. Entiendo perfectamente que es carísimo ir a psicólogos privados y que las listas de espera en la sanidad pública están fatal, y ojalá todo esto cambie pronto, pero acudir a un chatbot genérico no parece ser una buena solución.
Aquí analizamos por qué: como en lo físico, pueden dar diagnósticos erróneos, retrasar que las personas que lo necesitan mejoren, contestar cosas sin sentido o inexactas y reforzar ideas al darnos la razón. Sus resultados son impredecibles y están diseñados para aprender del usuario, por lo que reflejan y amplifican sus creencias. Al final, son modelos de IA que asocian datos y responden imitando a un humano, pero los chatbots no tienen la empatía, autenticidad, experiencia ni escucha activa de un profesional. Que una persona vulnerable los use puede incluso llevarla a hacerse daño. Por eso, si lo necesitas o tienes a alguien cerca que lo haga, siempre (si se puede) mejor acudir a un psicólogo o psicóloga profesional.
En tres bits
TikTok y salud mental, mal. Igual que te decimos que no es buena idea usar una IA como psicólogo, tenemos que añadir que tampoco lo es informarse sobre salud mental en TikTok. Así se concluye de un estudio científico ha analizado los 1.000 vídeos de la plataforma más virales que contienen la etiqueta #mentalhealth. Los resultados apuntan a que el 33% de vídeos sobre “consejos e información sobre salud mental” comparten información engañosa (desinfo alert), y que estos son los tienen más impacto en la plataforma. Tienes aquí el análisis y la posible explicación de por qué ocurre esto.
Ciberataques prorrusos. Esta semana supimos que hay un grupo de hackers prorrusos dando follón a distintas web en España. TwoNet se atribuyen presuntos ataques a las webs del Ministerio de Defensa, el Ministerio de Inclusión, el de Seguridad Social y Migraciones, el Centro Criptológico Nacional, el Real Instituto Elcano y Newtral. El objetivo del ciberataque, según los hackers, es que España cese su apoyo a Ucrania. Hablamos con el Instituto Nacional de Ciberseguridad (INCIBE) y esto es lo que sabemos del tema.
Trrrrrrrrump. Y hablando de Rusia, Grok dice que hay posibilidades de que Donald Trump sea "un activo ruso", es decir, un agente político trabajando a favor de los intereses de Rusia. Así lo ha afirmado en conversaciones con distintos usuarios, y nosotros también hemos probado a ver qué respondía el chatbot de X. Lo paradójico es que, según Elon Musk, su modelo de IA “es el mejor dando respuestas que requieren información actualizada”, pero los contenidos que dicen que presidente de EEUU es un agente ruso llamado Krasnov (en los que seguramente se base Grok) no aportan pruebas y se basan solo en testimonios.
¿Tienes dudas sobre el día a día online? ¿Hay algún tema del mundo de la tecnología que te genere curiosidad y sobre el que te gustaría que ampliáramos información? ¿Quieres compartir algún tema interesante con la comunidad maldita? ¡Escríbenos a [email protected]! Y no olvides suscribirte.