¡Hola, malditas y malditos! Esta semana, la desinformación que se ha difundido sobre la entrada de miles de migrantes en Ceuta ha sido protagonista y en Maldita Tecnología hemos hecho un análisis sobre algunos de los perfiles de Twitter que se dedicaron a propagar bulos en la madrugada del martes. Algunas de estas cuentas se crearon específicamente para ello y, por increíble que parezca, hasta admitían que se inventaban la cifras de sus bulos y que se dedicaban a compartirlo para aumentar su visibilidad. En este artículo os explicamos más detalles sobre este asunto.
También hemos respondido a una pregunta muy importante que nos estamos haciendo actualmente: ¿por qué hace falta regular la inteligencia artificial? Te explicamos en qué consiste la regulación que ha propuesto la Unión Europea e incluimos las entrevistas que tuvimos en la Maldita Twitchería de la semana pasada, por si preferís escucharlo antes que leerlo.
Antes de pasar a las recomendaciones de esta semana, os dejamos nuestro último consultorio tecnológico, en el que respondemos a las siguientes preguntas: ¿las empresas tecnológicas pueden compartir las huellas dactilares que registramos en el teléfono? ¿Puede un banco poner problemas a personas que no saben usar su banca online o un cajero automático? Además, hablamos de Bizum: seguro que muchos habréis visto que cada vez más locales aceptan pagos a través de esta aplicación.
Twitter concluye que el algoritmo que usaban para recortar fotos tenía problemas de sesgos
Hace unos meses, os contamos que se había formado revuelo porque se descubrió la tendencia que tenía Twitter ha recortar las fotos que subíamos a la red social según algunos factores que tendían a discriminar a personas por su tono de piel. Desde la compañía anunciaron que harían una investigación al respecto y según recoge Reuters, el resultado fue que el programa automatizado que utilizaban para ello recortaba a personas negras ya a los hombres de las fotos. Entre las razones, citaban problemas en el fondo de las imágenes y el color de los ojos (sin ser eso excusa para que pasara algo así).
Amazon anuncia que prorroga su moratoria en sistemas de reconocimiento facial
También hace cosa de un año os hablamos de que empresas de la talla de Microsoft y Amazon paralizaron la venta de sus sistemas de reconocimiento facial para uso policial para evitar la discriminación de personas con la piel negra. Amazon, cuyo programa Rekognition es usado a nivel global para distintos usos, ha anunciado esta semana que aplicará la moratoria de forma indefinida en vista de que todavía no hay una regulación al respecto. En la Unión Europea, se acaba de proponer un borrador de la que será la normativa que regulará este tipo de sistemas. Más detalles en este artículo en El País.
Facebook dijo que prohibiría la desinformación sobre vacunas, pero no lo está cumpliendo
Una investigación del medio especializado The Markup (inglés) alerta de que hay contenidos desinformadores sobre vacunas que siguen campando a sus anchas en Facebook, a pesar de que la red social dijese hace meses que los eliminaría. No solo eso, sino que recomienda a los usuarios grupos relacionados con salud en los que se comparten estos contenidos y que incluyen a antivacunas y páginas que se dedican a propagar mentira sobre la pandemia.
Las empresas tecnológicas y tus datos sanitarios: qué hay que tener en cuenta
El interés de las grandes empresas de Silicon Valley por adentrarse en el mundo de la sanidad es evidente. Cada año invierten más en este sector y parece que no habrá vuelta atrás en la tendencia. En este artículo de El Confidencial se explican los motivos: el análisis de grandes cantidades de datos y la prevención de enfermedades a través de la inteligencia artificial son cada vez más interesantes para mejorar los servicios sanitarios. Por lo que es un sector de futuro con mucho dinero en juego. Las preocupaciones en torno a la privacidad y a la gran concentración de datos en manos de unas pocas empresas son otros debates derivados del asunto.
Virginia Eubanks: "Si no los diseñamos para inclinarse hacia la justicia social, los algoritmos ampliarán las brechas sociales"
Terminamos con una sugerencia de entrevista en elDiario.es a Virginia Eubanks , una investigadora estadounidense que ha pasado años analizando algoritmos que utilizan en la administración pública del país. Entre ellos, los que deciden de forma automatizada quién ha cometido fraude a un seguro médico o no. Empieza con su historia: su marido requirió caros tratamientos médicos después de que le dieran una paliza de muerte en la calle. La cuestión es que justo acababan de cambiar de seguro médico y el algoritmo que operaba en la nueva empresa congeló todos sus pagos, dejándoles con una enorme deuda.