menu MENÚ
MALDITA TECNOLOGÍA

Tech en un clic: DeepSeek, de China pa’l mundo; las prohibiciones de la AI Act, de Europa pa’ la IA

Publicado
Comparte
Etiquetas

¡Feliz sábado, malditas y malditos! Ayer acabó un mes que se ha sentido como un año. Hasta ha dado tiempo de que China revolucione el mundo geopolítico de la inteligencia artificial con DeepSeek. En Europa, estamos pendientes de la legislación, porque mañana 2 de febrero entra en vigor una parte de la Ley de IA que prohíbe sistemas delicadísimos para los derechos fundamentales y la seguridad de las personas, así que esto te interesa. Te contamos más cosas sobre la manipulación de Grok, la IA de Twitter (ahora X), y protección de datos.

La privacidad y seguridad de DeepSeek

Una semana después de que los dueños de las grandes tecnológicas se reunieran en la investidura de Trump, llega DeepSeek, una startup china que ha desarrollado un chatbot de IA muy similar a ChatGPT pero gratis, abierto y más eficiente, y que ha provocado pérdidas millonarias en algunas de esas big tech de EEUU. Eso sí, también ha generado controversia porque censura preguntas sobre temas delicados en China, en comparación con otros chatbots de IA, como cuando le preguntas por lo que pasó en la plaza de Tiananmen.

En Maldita Tecnología nos centramos en la parte de privacidad y ciberseguridad, por si quieres probar este chatbot de IA. La pregunta es, básicamente, si es seguro usarlo. Tú decides, nosotros te contamos lo que hay con ayuda de expertos.

Sobre protección de datos, es verdad que la compañía recoge información como nuestros datos personales, interacciones con el chatbot y características de nuestro dispositivo, entre otros, para compartirlos bajo ciertas circunstancias con proveedores, socios o autoridades. Un problema de privacidad que sin embargo es muy similar a lo que aceptamos cuando usamos otros chatbots, como ChatGPT, o, en general, la mayoría de apps o webs.

Sobre ciberseguridad, sí que apunta a un peligro añadido. Toda la información que recoge se almacena en China, algo que genera preocupación entre los expertos por la exposición a ciberataques (China es el tercer país del mundo con mayor riesgo) y por las leyes del país. Así que, si decides usarlo, lo mejor es no compartir información confidencial ni datos sensibles con este chatbot.

Un resumen genial es lo que nos dice Julián Estévez, profesor de ingeniería y experto en inteligencia artificial: “Los expertos advierten de que, aunque DeepSeek no parece ser un software espía y sus prácticas de recopilación de datos son similares a las de ChatGPT y Claude, el hecho de que los datos estén almacenados en China los hace vulnerables tanto a ciberdelincuentes como a las leyes chinas”. Aquí, toda la información.

Donde sí que no se fían por el momento es en Italia. El Garante para la Protección de los Datos Personales del país había pedido a los desarrolladores cierta información sobre el procesamiento de los datos de los ciudadanos y sobre si estos son almacenados en servidores en China. Al no obtener la información, Italia ha ordenado el bloqueo "de forma urgente y efecto inmediato" de Deepseek.

Si quieres sumergirte en más cosas de esta telenovela que acaba de empezar, aquí te dejamos otros temas interesantes que nos ha gustado leer y escuchar, y un meme, que se entiende con el último tema:

Prohibiciones de la ley europea de IA

El chatbot chino revolviendo el panorama geopolítico de la IA y poniendo nerviosas a las empresas en EEUU y, mientras, en Europa seguimos a lo nuestro: la legislación. Como te adelantaba, este domingo, una serie de sistemas de IA comienzan a estar prohibidos en los países de la Unión Europea para salvaguardar derechos fundamentales y la seguridad de las personas. Es el siguiente paso de la Ley Europea de Inteligencia Artificial o AI Act.

Este reglamento tiene un enfoque basado en el riesgo que divide los sistemas en categorías. Los sistemas de IA que estarán prohibidos desde febrero son aquellos de riesgo inaceptable, como los de identificación biométrica para uso en espacios públicos, los que categorizan a personas según sus datos biométricos y los que infieren emociones en lugares de trabajo o estudios, pero hay muchos más y los tienes detalladísimos aquí.

Ahora viene la parte que nos puede preocupar: cómo nos afecta a nosotros.

A nivel usuario, ya sea en nuestro lugar de trabajo, estudios o navegando por internet, ¿qué pasa si usamos un sistema prohibido? Los expertos señalan que se nos podrían atribuir responsabilidades como usuarios finales, pero con ciertos límites. Los usuarios individuales o empresas que utilicen un sistema prohibido podrían enfrentarse a sanciones si conscientemente emplean un sistema de IA que saben está prohibido o que no cumple con las regulaciones.

Pero la responsabilidad principal recae sobre los desarrolladores, proveedores y distribuidores de los sistemas de IA. Desde el 2 de agosto de 2025, podrán enfrentarse a multas de hasta 35 millones de euros o el 7% de la facturación total anual mundial si incumplen las prohibiciones de la ley de IA.

Otra forma en la que nos pueden afectar estas prohibiciones es si se utiliza alguna IA prohibida sobre nosotros. En ese caso, debemos denunciar ante la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), el organismo responsable de supervisar el cumplimiento de la ley en España, y aquí te explicamos cómo.

Que no te la cuelen con Grok

Esta es la supuesta respuesta de Grok, la IA de X, que se compartió de forma viral en la red social. Como esta, otras capturas sobre Joao Félix, jugador de fútbol portugués, o el youtuber Dalas Review, que daban qué pensar. ¿De verdad había Grok contestado así?

Pues, no exactamente. En todos estos casos, si vemos la conversación completa entre el chatbot y los usuarios, nos daremos cuenta de que le han pedido a Grok específicamente que responda de esta manera, dándole exactamente la frase que quieren en su respuesta. De hecho, si le hacemos las mismas preguntas nosotros, veremos que la IA (a día de hoy) no responde así

Muchas de estas publicaciones comparten las respuestas de Grok como verdaderas, a pesar de haber manipulado los resultados diciéndole a la IA cómo responder. Para que no nos la cuelen, podemos hacer clic sobre la respuesta, revisar la conversación y buscar signos de manipulación.

En tres bits

  • Deja en paz a mis datos biométricos. Cada 28 de enero (el pasado martes) se celebra el Día Europeo de la Protección de Datos. Fue muy simbólico leer esta noticia en elDiario.es al día siguiente: ‘El Ayuntamiento de Marbella se niega a suprimir datos biométricos recabados bajo presión a sus empleados’. El Ayuntamiento presionó a sus trabajadores para que cedieran su huella dactilar y sus rasgos faciales para el sistema municipal de control horario, hasta el punto de que algunos de ellos se están viendo obligados a litigar para recuperar el control de sus datos biométricos. Mmmm vaya vaya, porque resulta que está prohibido que nuestra empresa nos obligue a fichar con nuestra huella o a través del reconocimiento facial, salvo casos excepcionales. Esto es así desde el 23 de noviembre de 2023, y aquí desarrollamos todo lo que necesitas saber sobre el uso de datos biométricos en el control horario del trabajo. Aquí tienes más info sobre tecnología en el trabajo y derechos laborales, en general, y aquí sobre los datos biométricos.

  • ChatGPT no puede materializarse ni ser humano. Esta semana vimos algo terrible. Una mujer en el metro conversaba con ChatGPT en un tono muy íntimo y personal. Además de hablarle de sus objetivos del año, le manifestaba su deseo de estar con él. Nos acordamos de este tema que escribimos sobre cómo algunos chatbots de IA pueden confundir a sus usuarios (en especial a menores), condicionar sus relaciones y agravar la soledad. Es importante ser conscientes de que, aunque algunos de estos sistemas de IA dicen ofrecer a los usuarios soporte emocional y pueden imitar relaciones románticas o de amistad, la IA no puede tener conciencia ni empatizar y tampoco dar consejos de los que nos podamos fiar, ni mucho menos ser una persona corpórea ni ‘sentir’ nada por nosotros. Una IA es un conjunto de algoritmos, de líneas de código que nos imitan, y nada más. Si conoces a alguien que esté teniendo una situación confusa de ese tipo, quizá es buena idea que le recomiendes hablar con un profesional. Aquí te dejo más info

  • ¿Adiós Facebook, Instagram y WhatsApp? El cambio de rumbo anunciado por Mark Zuckerberg, que ha levantado las restricciones de lo que puede publicarse en Instagram, Facebook y Threads en temas como inmigración, orientación sexual y género, y ha cancelado el programa de verificación independiente en EEUU, no ha gustado a todo el mundo. Esto ha provocado que muchos usuarios quieran eliminar su cuenta en las aplicaciones de Meta. Por si es tu caso, te dejo esta guía de Xataka Android sobre cómo borrar paso a paso tu cuenta de Facebook, Messenger, WhatsApp, Instagram y Threads.

¿Tienes dudas sobre el día a día online? ¿Hay algún tema del mundo de la tecnología que te genere curiosidad y sobre el que te gustaría que ampliáramos información? ¿Quieres compartir algún tema interesante con la comunidad maldita? ¡Escríbenos a [email protected]! Y no olvides suscribirte


Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.