MENÚ
MALDITA TECNOLOGÍA

¿Hasta qué punto podría engañarnos un sistema de inteligencia artificial (aunque no sepa identificar una mentira)?

Publicado
Actualizado
Comparte
Categorías
Recursos utilizados
Expertos
Superpoderes

¿Hasta qué punto se podría crear una máquina para que, por decisión propia, pudiese engañarnos? E importante, ¿en qué ámbito? Es decir, ¿es lo mismo que un programa informático consiguiese ganarnos al póker, un juego en el que es imprescindible ‘ir de farol’, a que nos mintiese en una conversación escrita, por ejemplo? El truco está precisamente en que no lo es: una máquina puede entrenarse para que haga algo que consideramos un “engaño”, pero nunca sabrá por sí misma que nos está mintiendo.

La inteligencia artificial tiene usos y objetivos concretos que las personas decidimos darles

Estas preguntas nacen a raíz de que se planteen usos para la inteligencia artificial (IA) que se asemejan a las actividades humanas: participar en juegos, resolver problemas complicados, escribir textos, interactuar con una persona a través de un chat… En los últimos años hemos oído hablar de programas de IA como AlphaGo, de DeepMind (Google), que se hizo popular tras ganar una partida al juego de estrategia Go al campeón mundial en 2017. O Libratus, otro programa que ‘aprendió’ a ganar al póker, en teoría, engañando al resto de jugadores.

“A los humanos nos intentan educar en la honradez, pero el engaño y la mentira son parte de nosotros, así como de algunos animales. Habitualmente mentimos o manipulamos para lograr algún tipo de beneficio”, señala en este artículo en The Conversation Verónica Bolón, profesora en Ciencias de la Computación e Inteligencia Artificial en la Universidad de La Coruña. “Las máquinas, por su parte, aprenden lo que les enseñamos los humanos”.

¿Por qué es este último detalle tan importante? Pues porque todo lo que se pueda enseñar a un programa informático sobre lo que es la mentira será a partir de lo que nosotros, como humanos, consideramos que es una mentira o algo que nos puede engañar. Y aun así, la inteligencia artificial no sabrá que está mintiendo. “Es muy importante el hecho de que la IA no es consciente de que está engañando, y que del mismo modo que no sabe que está engañando, no sabe cuándo la están engañando”, explica Ángel Delgado, ingeniero de machine learning en Paradigma Digital.

¿Cómo aprende un programa de IA que debe jugar a un juego de estrategia como el póker?

Muy bien, ¿cómo se “enseña” entonces a un programa basado en inteligencia artificial a “engañar”? “La clave está en saber que para conseguir que una inteligencia artificial aprenda a realizar una tarea es necesario poder medir numéricamente ‘cómo de bien’ hace esa tarea”, señala Delgado. A esto es a lo que nos referimos cuando hablamos de “entrenar” a un programa de inteligencia artificial.

Si volvemos al ejemplo del póker, se podría enseñar a una IA a jugar a base de “ver” partidas pasadas y midiendo “cómo de bien” juega (contando con que, por supuesto, la máquina sabe también cuáles son las reglas del póker). Esto se haría analizando por ejemplo cuántas jugadas repite de todas las que ha visto o cuándo realiza nuevas, cuándo pasar de turno y cuándo no, si las combinaciones que elige servirían realmente para ganar… ¿Cómo se mide “cómo de bien” hace todas estas tareas? Con un elemento matemático llamado función de coste.

“Podríamos dejar a la IA jugar libremente contra un humano y que la función de coste mida si la IA ha ganado o no (esto se llama aprendizaje por refuerzo). Al principio perderá siempre, pero a base de prueba error empezará a ganar partidas y para ello, seguramente aprenda a hacer jugadas contraintuitivas, porque por este método ha visto que así gana”, explica Delgado a Maldita.es.

Partida al juego 'Go' entre la IA de DeepMind (Google) y Lee Sedol. Imagen: Flickr / Prachatai

Esto significa que ha visto suficientes partidas y ha probado tantas combinaciones de jugadas que ha encontrado nuevas maneras de responder a los movimientos de las personas. “Es muy importante tener en cuenta que la IA no es consciente de que está engañando, ni tampoco ha aprendido el concepto de engañar, solo sabe que en determinadas jugadas es más probable que gane haciendo movimiento que la persona contra la que juega no se espera”, recuerda el especialista.

Esa función de “dejar a la IA jugar libremente” es una de las bases de aprendizaje de la máquinas: una vez que tiene todos los datos sobre cómo funciona un juego como el póker y cuáles son las mejores manos, que pruebe, pruebe y pruebe hasta dar con jugadas que no se le ocurrirían a una persona. Es el llamado aprendizaje por refuerzo: “Construye un sistema de recompensas para el algoritmo. Cuando se consigue un resultado satisfactorio, se refuerza ese comportamiento. Por el contrario, cuando el resultado dista de su objetivo, ese comportamiento se descarta”, expone Verónica Bolón.

Aprender a "mentir" en un contexto determinado no implica que sepan hacerlo en otro

Aquí es cuando empezamos a hablar de un “engaño”, simplemente porque la máquina ha conseguido ganarnos: “Si usamos aprendizaje por refuerzo, y el engaño lleva a un sistema inteligente a conseguir el objetivo perseguido, parece factible que la inteligencia artificial pueda aprender a mentir”, recuerda en su artículo esta especialista.

De aquí sacamos que haya programas basados en inteligencia artificial, como AlphaGo o AlphaZero de la empresa Deepmind o Libratus, que son capaces de ganar a personas en juegos de estrategia en los que el engaño es fundamental sin que ellas mismas sepan cómo lo han hecho. Sin embargo, estas máquinas no sabrán cómo aplicar ese aprendizaje sobre la mentira a otros contextos como una conversación, porque se han entrenado específicamente para jugar al ajedrez, al Go, al póker o al juego que sea. “El resumen de todo estos es que sí, las inteligencias artificiales pueden aprender a engañar, pero en un contexto muy concreto”, concluye Delgado.

En este artículo ha colaborado con sus superpoderes el maldito Ángel Delgado Panadero, ingeniero de machine learning.

Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.

Imagen de portada: Max Gruber / Better Images of AI / Clickworker 3d-printed / CC-BY 4.0


Primera fecha de publicación de este artículo: 13/06/2022

Hazte maldito, Hazte maldita
Te necesitamos para combatir los bulos y la mentira: sólo juntos podemos pararla. En Maldita.es queremos darte herramientas para protegerte contra la desinformación, pero sólo con tu apoyo será posible.

Eres muy importante en esta batalla para que no nos la cuelen. Seguro que tienes conocimientos útiles para nuestra batalla contra los bulos. ¿Tienes conocimientos de idiomas? ¿Lo tuyo es la historia? ¿Sabes mucho sobre leyes? ¡Préstanos tu Superpoder y acabemos juntos con los bulos!

También puedes apoyarnos económicamente. Maldita.es una entidad sin ánimo de lucro y que sea sostenible e independiente, libre de publicidad y con profesionales bien remunerados dedicados a luchar, contigo, contra la desinformación depende de tu ayuda. Cada aportación cuenta, cualquier cantidad es importante.