El premio Nobel de Química de 2024 ha ido a la inteligencia artificial: los empleados de Google Deepmind, Demmis Hassabis y John Jumper, fueron premiados por su sistema para la predicción de estructura de proteínas, AlphaFold. Sin embargo, en mayo de este año generaron malestar en la comunidad científica cuando publicaron de forma cerrada el siguiente sistema, AlphaFold 3. El sistema es “solo accesible bajo condiciones restrictivas a través de un servidor que no garantiza la confidencialidad de los datos”, explicó Alfonso Valencia, director de Ciencias de la Vida en el Centro Nacional de Supercomputación de Barcelona (BSC), a Science Media Center España.
¿Por qué es un problema? La decisión de los ganadores puede ponernos “en riesgo de que el potencial transformador de la IA quede controlado por las grandes tecnológicas”, según Valencia. Por lo mismo, la comunidad científica apuesta por la IA de código abierto, modelos o sistemas cuyo código fuente está disponible públicamente y que cualquier usuario puede usar, estudiar, modificar y compartir, según la Iniciativa de Código Abierto.
La IA de código abierto u open source fomenta la innovación y promueve la transparencia, según los expertos. Sin embargo, su buena imagen ha llevado al open washing, con empresas tecnológicas llamando a sus modelos “de código abierto” cuando no lo son realmente. Con los modelos realmente abiertos, los expertos advierten de algunos posibles problemas, como la falta de control sobre los usos que se le dan y los riesgos de ciberseguridad que pueden entrañar.
Un modelo de IA de código abierto permite a cualquiera usar, estudiar, modificar y compartir el código fuente
La IA de código abierto u open source se refiere a los modelos de inteligencia artificial cuyo código fuente, datos de entrenamiento y parámetros de modelo están disponibles públicamente. Esto permite que puedan ser usados, estudiados, modificados y compartidos por cualquier persona, según la Iniciativa de Código Abierto, organizador del movimiento del mismo nombre. En este sentido, los usuarios pueden mejorar o adaptar un modelo para responder a sus necesidades, dándole nuevas aplicaciones a una misma tecnología.
El desarrollo de modelos de código abierto se ha disparado en los últimos años. De los modelos fundacionales (grandes sistemas que pueden adaptarse a distintas tareas) lanzados en 2023, un 65,7% son de código abierto, según el AI Index 2024. Algunas herramientas conocidas de este tipo son Stable Diffusion de Stability AI, GPT-NeoX y GPT-J de EleutherAI y Luminous de Aleph Alpha. Además, en internet se pueden encontrar bibliotecas de modelos de IA de libre acceso que los usuarios pueden consultar y utilizar, como Hugging Face, PyTorch, TensorFlow y Scikit-learn.
Los expertos afirman que el open source fomenta la transparencia y la innovación, gracias a la colaboración e intercambio de conocimientos entre usuarios
Al igual que el software de código abierto (programas cuyo código puede ser modificado por cualquiera), la IA de código abierto se centra en la colaboración para alcanzar grandes mejoras técnicas y mejores resultados. “Ya no tenemos que depender de las empresas tecnológicas ni desarrollar códigos desde cero para implementar un sistema de IA”, explica Claudia del Pozo, fundadora y directora ejecutiva de Eon Institute, en conversación con Wired.com. “Las barreras para la innovación se desmoronan y la posibilidad de competir con gigantes tecnológicos se vuelve más tangible que nunca”, añade. Además, destaca la capacidad de la IA de código abierto para corregir errores, sesgos y vulnerabilidades de seguridad contribuyendo al desarrollo de modelos más robustos y eficientes.
No solo fomenta la innovación. Según los expertos, la IA de código abierto promueve la transparencia en el desarrollo de modelos inteligentes. “Los conjuntos de datos de los códigos de los modelos de código abierto pueden ser auditados y verificados por terceros, lo que contribuye a garantizar su calidad y fiabilidad”, detalló Rahul Roy-Chowdhury, CEO de Grammarly, en la reunión anual del Foro Económico Mundial. El empresario calificó los modelos de IA de código abierto como “una piedra angular para el desarrollo responsable de la IA”.
Ojo con el open washing, los problemas de seguridad y los usos perjudiciales
En el artículo “Hacia una definición única y consensuada de la IA de código abierto más allá de las 'big tech'”, el periodista Edd Gent afirma que, a pesar de no haber una definición única y consensuada sobre qué es un modelo de código abierto, “la falta de una definición clara no ha impedido a las empresas tecnológicas adoptar el término”. La pieza publicada en el MIT Technology Review aborda cómo el término tiene “connotaciones positivas para mucha gente, por lo que participar en el llamado open washing o ‘lavado de cara abierto’ puede ser una victoria fácil de relaciones públicas”. Debido a esto, podemos encontrarnos con modelos que se denominan “de código abierto”, cuando no cumplen con la definición de la Iniciativa de Código Abierto.
El open washing no es el único problema que enfrentan los modelos de IA de código abierto. “Con estos sistemas, la persona o empresa desarrolladora no puede controlar las aplicaciones”, señala del Pozo, lo que da a lugar a posibles usos perjudiciales. Además, su uso supone riesgos de ciberseguridad, ya que no sabemos quién está detrás de la tecnología y podemos obtener resultados erróneos o ser víctimas de un hackeo, explica Elliott Hoffman, co fundador de AI Tool Tracker, en Business Reporter. “A medida que la IA evoluciona, las empresas deben mantenerse al día con la tecnología y, al mismo tiempo, garantizar su implementación segura”, concluye.
Primera fecha de publicación de este artículo: 24/07/2024