¡Feliz sábado, malditas y malditos! Antes de poneros al día con las recomendaciones de informaciones con lo que ha pasado en el mundo tecnológico en los últimos días, os animamos a echarle un vistazo al consultorio de esta semana. En él os explicamos cosas con las que os cruzáis día sí y día también.
Por ejemplo, os contamos cómo funcionan los filtros de aplicaciones como Instagram o TikTok y también por qué es tan tremendamente difícil distinguir a un bot de una persona real en las redes sociales (quizás alguna vez te hayas topado con alguno sin darte cuenta). También explicamos de dónde es más probable que las empresas que nos llaman para sus campañas comerciales sacan nuestros datos. (spoiler: del censo no, como nos habéis preguntado). Después de este repaso, vamos con las recomendaciones.
Una cámara controlada por inteligencia artificial confunde un balón con una persona calva
Cuando os decimos que la inteligencia artificial tiene que usarse con moderación... ¡Es por algo! Este artículo en Xataka cuenta un caso que se nos antoja cómico pero ejemplifica a la perfección las limitaciones que tienen las tecnologías que actúan por sí solas: un sistema de grabación automático se pasó un partido entero enfocando al arbitro, que era calvo, en vez de al balón. ¿Por qué? Pues porque lo que tenía que buscar el programa informático instalado en la cámara era un objeto redondo y liso que se movía por el campo. ¿Veis dónde podía estar el inconveniente? Pues ahora imagináoslo aplicado a situaciones menos graciosas, como la de un sistema que tenga que identificar a una persona acusada de un delito.
Algoritmos que despiden a trabajadores sin definir por qué
No tenemos que irnos demasiado lejos para observar un caso real en el que las tecnologías automatizadas (que hacen una acción o deciden por sí solas) pueden ser perjudiciales para las personas. Según la BBC (inglés), en Reino Unido, algunos trabajadores de Uber quieren demandar a la empresa tras su despido porque este lo habría decidido un algoritmo (que analiza ciertas variables para tomar una decisión) y no les han dicho cuáles son las razones. El derecho a saber si somos objeto de una decisión automatizada lo recoge el Reglamento General de Protección de Datos europeo, y probablemente esta es la primera vez que se pone en práctica.
Ciberchantajes a pacientes de clínicas psicológicas
Hay tal diversidad de ciberataques que para el usuario medio es imposible estar al tanto de por dónde le pueden venir. En Maldita.es os hablamos de muchos relacionados con el phishing, que van directamente a por vuestros datos y vuestros dispositivos. Este artículo en Retina cuenta que unos ciberdelincuentes se hicieron con las conversaciones entre psicólogos y pacientes de una empresa en Finlandia, alojadas en sus ordenadores, y luego chantajearon a los más de 2.000 afectados: o les pagaban 200 euros o las difundían. La recomendación en estos casos es nunca acceder al chantaje para no alentar que haya más o que vayan a peor.
Una gran cadena de hipermercados se deshace de los robots que sustituían a personas
Seguro que el argumento de que los robots van a acabar con el trabajo de las personas lo has escuchado mil y una veces. Cierto es que la pandemia de COVID-19 ha vuelto a poner el tema de la robotización sobre la mesa, ya que se veía como una solución al distanciamiento personal al que nos vamos acostumbrando. Sin embargo, lo que hay todavía son predicciones. Este artículo en La Vanguardia explica que Walmart, la mayor cadena de supermercados y almacenes de Estados Unidos, ha retirado unos robots que había puesto en medio millar de tiendas para controlar productos agotados. ¿La razón? No eran mucho más productivos que las personas.