menu MENÚ
MALDITA TECNOLOGÍA

Tech en un clic: cómo los chatbots alucinan e inventan, la nueva vista creada con IA de Google, el DNI digital y Signal

Publicado
Comparte
Etiquetas

¡Feliz sábado, malditos y malditas! ¿Qué tal? Nosotros a la caza del bulo con voces sintéticas: en la última semana llevamos dos audios que no son reales y que, según hemos analizado, estarían manipulados con inteligencia artificial. Estos audios en los que supuestamente el vicepresidente estadounidense, JD Vance, insulta y critica a Elon Musk, y este audio donde se escucha al empresario decir a Donald Trump que "Tesla se hunde". No son reales, así que, ya sabes, cuidado con lo que vemos y escuchamos en internet.

Cómo alucinas e inventas, IA

La semana pasada te contamos que hay quien busca manipular las respuestas de los chatbots de IA para que difundan desinformación. El ‘LLM grooming’ es una técnica que fuerza que den respuestas que contienen errores, afirmaciones falsas y propaganda. Pero también te recordé que, se fuerce esto o no, los chatbots de IA siempre se pueden equivocar. De hecho, pueden ‘inventarse’ cosas, que es lo que se conoce como ‘alucinar’, y que te explicamos hoy.

Los modelos de IA, concretamente los grandes modelos de lenguaje (LLM en inglés), generan sus respuestas prediciendo la siguiente palabra más plausible según el prompt (la instrucción que le damos) y en base a lo aprendido durante su entrenamiento. Es pura probabilidad. Qué pasa, que si no tienen información suficiente pueden cometer un error y dar una respuesta falsa, lo que se conoce (aunque hay debate con el término) sufrir ‘alucinaciones’.

Cuando un modelo de IA se 'inventa' hechos, citas, cifras y análisis o distorsiona la realidad en su respuesta, puede generar desinformación y consecuencias graves.

¿Se pueden detectar estas 'alucinaciones' cuando estamos usando un chatbot de inteligencia artificial? No es fácil (y lo mejor es siempre contrastar las respuestas que genera una IA con fuentes fiables), pero aquí hemos dejado algunos consejos. Como usuarios y usuarias de chatbots de IA, podemos tratar de evitar que un chatbot alucine haciendo peticiones más concretas y pidiéndole explícitamente que cite fuentes fiables con información verificada. Obviamente, lo mejor sería prevenir las alucinaciones durante el desarrollo de los modelos de IA. De momento, no es posible deshacerse de ellas por completo, aunque sí se pueden tomar medidas.

Ya que estamos con esto, lo decimos mucho, pero nunca está de más recordarlo porque nos ayuda a hacer un mejor uso de los chatbots: "Una IA no piensa ni entiende: su tarea es predecir la siguiente palabra (la más probable) basándose en las anteriores, usando patrones que aprendieron de muchos textos", nos explicó María Dolores Rodríguez, investigadora en aprendizaje automático de la Universidad de Alcalá. 

‘Vista creada con IA’ en Google

Ahora que tenemos esto claro clarinete, no te sorprenderá saber que los nuevos resúmenes de Google generados con IA también pueden meter gazapos. Puede que ya hayas visto esa nueva función si en los últimos días has hecho una consulta en el buscador: antes de la lista de resultados, a veces aparece un texto corto que responde a lo que has buscado. Se trata de ‘Vista creada con IA’, una función de Google que genera resúmenes para responder a nuestras búsquedas apoyándose en Gemini, su modelo de IA.

Esta opción se ha activado automáticamente en España y otros países europeos para los usuarios mayores de 18 años que tengan su sesión iniciada en el buscador, pero ya estaba en Estados Unidos y Reino Unido desde hace un año, y por eso sabemos de qué es capaz:  recomendó a los usuarios echar pegamento a la pizza o comer una piedra al día. Mmm qué rico, eh. Esto nos parece muy evidente, pero igual en otras cosas que no lo son tanto, caemos.

De hecho, no ha sido la única metedura de pata que hemos conocido: la ‘Vista creada con IA’ de Google respondió a un usuario que los australianos no necesitan visa para ir a Chile (y sí que necesitan, ahora lo sabe bien un australiano al que ChatGPT le respondió lo mismo). La propia compañía, Google, advierte de que estos resúmenes pueden conllevar riesgos si carecen de contexto, dar lugar a resultados “poco útiles” y estar “sesgados en función de la IA que se utilice y cómo se haya entrenado, lo que puede proporcionar resultados imprecisos o incorrectos”.

Estos resúmenes pueden ser muy útiles y quizá nos acostumbremos a usarlos, pero es importante contrastar lo que dice la ‘Vista creada con IA’ de Google o cualquier otra herramienta de IA con fuentes de información fiables, además de revisar la fiabilidad de los sitios web consultados para crear las respuestas (como hemos hecho toda la vida). Once more: no te fíes a ciegas de la IA y comprueba la información, no sea que acabes viajando sin el visado correcto o comiéndote una ensalada con piedras (aunque ahora no piensa lo mismo).

DNI digital en el móvil

¿Has ido a recoger un paquete y se te ha olvidado el carnet en casa? ¿O no sabes dónde has metido la cartera y es el momento de dar tus datos en un hotel? Ahora, si quieres, podrás hacer estos pasos con el DNI digital, un nuevo formato de DNI que podemos llevar en el móvil. Complementa al físico y se acaba de lanzar en España.

Como la llegada de este tipo de opciones digitales siempre prenden la llama y, al instante, corren ríos de desinformación en internet, aquí las claves que necesitas saber:

  • El DNI digital no pretende sustituir al documento de identidad físico, sino ser un complemento que puedan tener disponible los ciudadanos en el teléfono móvil.

  • Es decir, no es obligatorio tenerlo, la idea es que conviva con el DNI físico como soporte complementario. (O sea, que nadie te obliga a utilizarlo, solo si te viene bien).

  • De momento, el DNI digital se puede usar para acreditar la identidad de manera presencial mostrando la app en cualquier espacio público o privado, como para alquilar un coche o abrir una cuenta bancaria.

  • El único soporte oficial para utilizar el DNI Digital es la aplicación MiDNI, desarrollada por la Policía Nacional. Es gratuita y se encuentra disponible en tiendas digitales en tu móvil, como Google Play y AppStore. Cuidao, que ya hay apps no oficiales por ahí.

  • Según el Ministerio del Interior, la app oficial no permitirá que tus datos se almacenen ni que se sepa cuándo y dónde se hace uso de la aplicación.

Tienes toda la información que sabemos hasta ahora y los pasos para configurarlo (si te viene bien) en este artículo.

En tres bits

  • Hayao Miyazaki y tu imagen. Creo que es matemáticamente imposible que, si tienes redes sociales, no hayas visto estos días a alguien que haya usado ChatGPT para adaptar una foto al estilo de Studio Ghibli. No voy a ahondar (hoy) en consideraciones de propiedad intelectual, artísticas, éticas y medioambientales, y en algunos usos cuestionables de estas imágenes, pero sí aprovecho para recordarte que las fotos que subes a un modelo de IA pueden aprovecharse para entrenarlo y, por el camino, perdemos nuestra privacidad y regalamos datos personales. Además, aquí nos preguntamos si eso significa que la herramienta de IA puede devolver tu cara en algún contenido futuro que genere. La respuesta es que, en teoría, no debería reproducir tu cara o cuerpo, pero sí puede incluir algún rasgo o característica identificable.

  • IA para trolear y desinformar. En Twitter (X) hay montones de cuentas trol que se hacen pasar por “feministas”, “progresistas” o por miembros de un partido político, y publican contenidos con el objetivo de intoxicar el debate público. Ahora, una de las estrategias que están llevando a cabo estas cuentas es manipular imágenes y vídeos reales para añadir a estos contenidos la cara que aparece en sus fotos de perfil. Lo hacen, como hemos analizado aquí con expertos, gracias a programas de inteligencia artificial. Sus propias fotos de perfil parecen también estar hechas con IA. Ojo, para que no te la cuelen.

  • Resaca Signal. La semana pasada no llegamos a tiempo de incluirlo en Tech en un clic, pero seguro que viste que un periodista (Jeffrey Goldberg, jefe de redacción de The Atlantic), fue añadido por error a un chat grupal de Signal (una aplicación de mensajería instantánea como WhatsApp) donde altos funcionarios del Gobierno de Trump planificaban ataques militares en Yemen, emojis incluidos. Rularon muchísimos memes, y nosotras nos centramos en buscar respuestas. ¿Cómo funciona el cifrado de Signal? ¿Por qué tiene fama de ser tan segura? ¿Lo es de verdad? Y, el quid de la cuestión, ¿pueden usarla gobiernos y autoridades en EEUU, la UE y España? Por si te surgieron también estas dudas, aquí tienes las respuestas. La historia en EEUU no ha acabado: tres empleados del Consejo de Seguridad Nacional de la Casa Blanca han sido destituidos por las filtraciones a través de Signal y el Pentágono ha abierto una investigación al secretario de Defensa para revisar el uso que hizo de la aplicación.

¿Tienes dudas sobre el día a día online? ¿Hay algún tema del mundo de la tecnología que te genere curiosidad y sobre el que te gustaría que ampliáramos información? ¿Quieres compartir algún tema interesante con la comunidad maldita? ¡Escríbenos a [email protected]! Y no olvides suscribirte.

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.