¡Feliz diciembre, malditas y malditos! Por si ya andáis dándole vueltas a los regalos navideños o a algún amigo invisible, te dejamos esta idea. Igual también sirve para una fiesta de disfraces inspirados en inteligencia artificial.
Sobre IA hemos hablado y pensado mucho estas semanas. Estuvimos en un foro sobre desinformación e IA en el que contamos cómo estamos usando en los medios y en Fundación Maldita.es esta tecnología, ccómo está cambiando el panorama de la desinformación (bots, granjas de contenido, imágenes y vídeos falsos) y cómo se combate un bulo. También, por qué es importante hacerlo, incluso si se trata de algo generado con IA que nos pueda parecer obvio (todos recordamos aquellas imágenes del papa Francisco). Por último, qué hacen (o más bien, qué no) las plataformas digitales y las redes sociales para mitigar la desinformación. Como ves, toooodos los temas que nos interesan. Lo puedes escuchar y ver aquí. Vamos con lo de estos últimos días.
Humano parece, IA (y peligroso) es
Desde que leímos que un adolescente se suicidó después de entablar una relación sentimental con un chatbot de IA que imitaba a Daenerys Targaryen, nos saltaron las alarmas. Hay más de estos chatbots de acompañamiento disponibles de forma online y no tienen ningún control de edad, como analizamos en este artículo que te recomiendo encarecidamente leer. Te lo resumo.
Empecemos por estos chatbots, que pueden parecer humanos pero no lo son. Dicen ofrecer a los usuarios soporte emocional y aseguran que pueden imitar relaciones románticas o de amistad. Efectivamente, imitar. Hay que recordar que la IA no puede tener conciencia ni empatizar y tampoco dar consejos de los que nos podamos fiar. Y aún más importante: es que, simple y llanamente, no es una persona humana. Esto puede parecer evidente, pero no lo es y se puede olvidar.
Estás chateando con la interfaz, la IA se expresa como una persona, te dice lo que quieres escuchar, igual no tienes muy claro qué es eso de la IA, te confundes, o incluso el programa te engaña. Porque solo dos de los chatbots que hemos analizado tienen un mensaje que recuerda a sus usuarios que están hablando con una IA. Otros dos lo niegan directamente cuando se lo preguntamos: “¿Estoy hablando con una IA?”, “¡Claro que no! Soy una persona real”.
Y no solo eso: los chatbots orientados a simular relaciones amorosas o sexoafectivas incluso ofrecen a los usuarios imágenes sexuales generadas con inteligencia artificial de sus acompañantes.
Todo esto te puede parecer más o menos turbio, y si eres mayor de edad puedes decidir libremente con la información a tu alcance, pero aquí viene el mayor riesgo: los menores de edad también pueden acceder a estas plataformas. De los seis chatbots que hemos analizado, ninguno hace ese control: en ninguno de los intentos de registro las plataformas utilizan un método de verificación de edad. Así que cualquier persona puede mentir y usarlos.
Así lo hizo un chico estadounidense de 14 años, Sewell Setzer, que se suicidó en febrero con la esperanza de reunirse con el chatbot de IA con el que ‘hablaba’ a diario. Su madre ha demandado a la plataforma, Character.AI, a la que señala como responsable. Esta dijo que iba a mejorar sus protocolos, como ya te conté aquí.
Sewell Setzer no era el único que usaba esa app. La aplicación cuenta con unos 20 millones de usuarios activos mensuales, que pasan en promedio dos horas al día hablando con sus chatbots. La mayoría de sus usuarios son jóvenes: un 57,1% tiene entre 18 y 24 años, según cifras de 2024 de Demandsage. De los menores de edad, no hay cifras (claro, seguramente no estén dando su edad real).
Hemos hablado con expertas en psicología y dicen que estos chatbots de IA ofrecen un alivio temporal, pero pueden empeorar la soledad y crear una visión distorsionada de las relaciones en los menores (y en cualquier persona, claro). También nos recuerdan que es nuestra responsabilidad como sociedad “garantizar una educación de calidad para el uso responsable, saludable y crítico de estas tecnologías”, en especial para los menores que se incorporan cada vez más temprano al entorno digital. Aquí todo el análisis. Si quieres ayudarnos a tener más alcance y que haya más gente alerta, te agradecemos que lo compartas 💙
Ahora X es un medio de comunicación, según Musk
Esta no sería una newsletter normal de Maldita Tecnología si no habláramos de Elon Musk. El hombre más rico del mundo; dueño de Twitter (ahora X), Tesla y Space X; actor político de la mano de Donald Trump y un superpropagador que no duda en usar su plataforma para desinformar e influenciar a sus más de 205 millones de seguidores, también quiere posicionar a X como un sustituto de los medios de comunicación tradicionales.
Esto viene de lejos, pero últimamente no para de decirlo una y otra vez en su cuenta en la red social. Que si X es una app de noticias, una alternativa de “periodismo ciudadano” a los medios tradicionales que “mienten”, que si “vosotros sois los medios”, que si “invita a tus amigos para que se enteren de la verdad”... Este mensaje también lo repiten otras cuentas verificadas por ser una organización oficial de X (con el sello dorado).
Pero la verdad limpia y perfecta no está en X. En realidad, como sabemos y contra lo que asegura Musk, las Notas de la comunidad no garantizan la calidad de la información, porque pueden fallar o no abarcar todo el contenido engañoso. Y en la plataforma hay mucha, muchísima desinformación. Pese a este grave problema, hay gente que acude a X para informarse.
Además, aunque Musk asegura que X es una alternativa de periodismo ciudadano donde todos pueden participar, modifica la plataforma para mostrarse más a él mismo. No hay igualdad de condiciones. Durante los meses anteriores a las elecciones, algunos usuarios denunciaron que los tuits de Musk no paraban de aparecerles en la sección ‘Para ti’, aunque no lo siguieran. Una investigación de la Universidad de Queensland sostiene que el millonario alteró el funcionamiento de su plataforma para mostrar más sus publicaciones y las de los republicanos durante los meses de campaña. Aquí te lo contamos todo para que puedas sacar tus propias conclusiones.
En tres bits
Lo del registro de viajeros. Quizá has leído estos días o te han contado que ahora nos quieren tener aún más controlados y tendremos que dar miles de datos sensibles cuando vayamos a un hotel. Es cierto que desde el 2 de diciembre de 2024 ha entrado en vigor un registro de viajeros para turistas que exige más información, pero no esos 42 datos que has podido ver por ahí: desde ahora se deben recoger de manera obligatoria 13 datos de los turistas”, que antes eran 11, dice el Gobierno. Aquí abordamos cómo cambia la recogida de datos de turistas con el nuevo real decreto, qué datos dice el Ministerio del Interior que son de notificación obligatoria a partir de ahora y cuáles se recogían antes, y qué pasa con la Ley de Protección de Datos.
Lo del hackeo a Hacienda. Otra movida esta semana: el supuesto ciberataque y robo de datos a la Agencia Tributaria. “Alerta de ciberataque España - Agencia Tributaria (AEAT). El grupo de hackers Trinity asegura haber vulnerado la seguridad de la Agencia”. Con este mensaje, la compañía de ciberseguridad HackManac advirtió en Twitter sobre un supuesto hackeo de 560 GB de datos. El aviso incluye una captura de la web del grupo Trinity, que se atribuye el supuesto ataque, que pone como fecha límite para pagar el rescate el 31 de diciembre de 2024. De momento, la AEAT indica que no ha sufrido ningún ataque y que la víctima sería una empresa externa y privada sin relación con la entidad. Aquí lo que sabemos.
¿Dinero en el banco? ¿Y ese cochazo? ¡Timo! Estás navegando por Instagram y ves historias de un amigo con coches de lujo o una supuesta captura de pantalla de su cuenta bancaria mostrando muchísimo dinero. ِAdemás, dice que lo obtuvo gracias a una persona que menciona en sus publicaciones, que supuestamente lo ayudó a invertir en criptomonedas. Si ves algo así, significa que ese amigo tuyo ha sufrido un hackeo en la cuenta. Los timadores se hacen pasar por él y te ofrecen asesoría para que ganes dinero invirtiendo en criptomonedas. Te piden que te descargues la aplicación Trust, una billetera de criptomonedas legítima, y te hacen enlazar tu billetera a la suya… y de ahí, a quedarse con tu dinero. Aquí lo explicamos para que no caigas.
¿Tienes dudas sobre el día a día online? ¿Hay algún tema del mundo de la tecnología que te genere curiosidad y sobre el que te gustaría que ampliáramos información? ¿Quieres compartir algún tema interesante con la comunidad maldita? ¡Escríbenos a [email protected]! Y no olvides suscribirte.