Quizá has visto por ahí el término ‘agente de IA’. No lo confundas con chatbots de IA como ChatGPT, Grok o Claude: los agentes de inteligencia artificial son sistemas que, en teoría, pueden tomar decisiones y ejecutar acciones de forma autónoma. A diferencia de los chatbots, no se limitan a un entorno controlado de preguntas y respuestas, sino que se basan en reglas programadas y en la información que adquieren de su entorno para realizar tareas más complejas, como navegar por internet o responder a llamadas.
Los expertos en IA consultados por Maldita.es afirman que su desarrollo es prometedor, pero que aún no hay implementaciones masivas y los agentes siguen presentando dificultades técnicas, como la falta de una memoria fiable, “sentido común robusto” y mecanismos de verificación que nos permitan confiar en sus decisiones. A medida que su desarrollo avanza, se vuelve crucial recordar que una IA puede cometer errores y ‘alucinar’, y por lo tanto ejecutar acciones o devolver resultados incorrectos, inexactos o sesgados. Es importante siempre supervisar y corroborar que las acciones y decisiones que toman son correctas.
Mientras que un chatbot actúa en un entorno controlado, un agente de IA puede realizar tareas más complejas de forma autónoma gracias a su programación y aprendizaje
Un agente de IA es “un sistema capaz de percibir su entorno, tomar decisiones y ejecutar acciones de forma autónoma para alcanzar un objetivo determinado”, define Josep Martorell, director asociado de Barcelona Supercomputing Center (BSC), en su newsletter Deep Tech & Science. Nolbery Evia, ingeniera en electrónica especializada en robótica educativa, computación y programación, explica que “pueden ejecutar tareas en diversos entornos digitales” y filtrar información, aprender del usuario y automatizar decisiones.
“Un agente combina planificación, memoria, razonamiento y ejecución encadenada de tareas”, señala Martorell. Por ejemplo, pueden navegar por internet y reservar el tour mejor evaluado que encuentren para nuestro próximo viaje, o atender las llamadas de una empresa y gestionar citas o reuniones.
Evia explica que pueden desarrollar tareas complejas, como tomar decisiones y adaptarse, ya que funcionan con “algoritmos de aprendizaje profundo que aprenden y adaptan su comportamiento, tienen análisis contextual y alto procesamiento del lenguaje natural”. Se apoyan en grandes modelos de lenguaje (LLM por sus siglas en inglés), modelos matemáticos que aprenden con grandes cantidades de datos y ‘calculan’ cómo es más probable que continúe una frase.
Los grandes modelos de lenguaje también están detrás del funcionamiento de los chatbots de IA, pero no debemos confundirlos. “La principal diferencia entre un chatbot y un agente es la existencia de límites en su actuación”, explica David Arroyo, economista digital y maldito que nos ha prestado sus superpoderes. El experto indica que los chatbots de IA “se limitan a seguir pasos prefijados enmarcados dentro de un entorno controlado de preguntas y respuestas”. En otras palabras, un chatbot necesita un prompt para actuar, y lo hace solamente dentro de la conversación que mantenemos con él, mientras que un agente de IA puede “analizar datos, aprender de ellos y tomar decisiones basadas tanto en reglas programadas como en la información adquirida mediante la interacción con su entorno”, explica la periodista especializada en IA Lucy Colback en The Financial Times.
Según expertos en IA, el desarrollo de los agentes es prometedor, pero aún no hay implementaciones masivas y siguen presentando dificultades técnicas
Sobre su desarrollo, Martorell explica en su newsletter que “todavía no vemos grandes implementaciones masivas”. Por su parte, Evia sostiene que “es una tecnología que está en proceso de mejora pero crece a pasos gigantes, al punto que, si está bien entrenado, obtendrá grandes resultados”. Distintas empresas están investigando para crear sus propios agentes de IA.
En enero de 2025 OpenAI lanzó su agente de IA integrado en ChatGPT, un programa que “puede usar su propio navegador para llevar a cabo tareas por ti”. Pero como la empresa explica: “Al ser un anticipo de investigación, el agente presenta ciertas limitaciones e irá evolucionando conforme recabemos feedback de los usuarios”.
En España, la empresa valenciana Lãberit ha desarrollado los agentes de IA MarIA y SofIA, especializados en atención médica. En conversación con El País, Carlos Pujadas, consejero delegado de la compañía, explicó que SofIA es capaz de rellenar un formulario clínico para ejecutar un diagnóstico; mientras que MarIA puede, según Pujadas, atender las llamadas de los pacientes, agendar citas y ‘recordar’ conversaciones previas.
Otro ejemplo es Litigator, un agente de IA de la empresa ILUNION para su Asesoría Jurídica, que “mejora el acceso a la documentación judicial mediante formatos accesibles para abogados con discapacidad visual”, según Microsoft, que está detrás de la tecnología que permitió su desarrollo, Agent Builder.
“Grandes empresas tecnológicas y startups están invirtiendo miles de millones en posicionarse como referentes de esta nueva frontera, alimentando la narrativa de que estamos a las puertas de una revolución productiva”, señala Martorell. Pero Maryam Ashoori, directora de gestión de productos de IBM, sostiene en el blog de esta empresa de consultoría que “lo que en el mercado se conoce como 'agentes' son capacidades rudimentarias de planificación y llamada a herramientas añadidas a los LLM".
Además, aún presentan “dificultades técnicas notables”, advierte Martorell. Entre ellas, señala la carencia de una memoria fiable, de “sentido común robusto” y de mecanismos de verificación que nos permitan confiar en sus decisiones.
“A pesar de que hay aplicaciones reales, seguimos estudiando las garantías de los agentes, por eso decimos que todavía estamos en una etapa de consolidación”, explica Natalia Rodríguez, directora del centro tecnológico Saturno Labs, a El País. Colback detalla que aún se encuentran en una etapa similar a los vehículos autónomos, donde requieren supervisión humana e intervención ocasional: “El nivel cinco, donde los agentes comprenden, planifican y ejecutan plenamente misiones complejas con mínima intervención humana en cualquier dominio o ámbito corporativo, sigue siendo teórico”.
Es crucial supervisar las acciones y resultados de un agente de IA: pueden cometer errores y ‘alucinar’
Delegar tareas importantes en agentes de IA podría exponer a las empresas que usan estos programas a errores. También a los usuarios, a medida que estos agentes se vuelven más accesibles para ellos (como en el caso de Operator de OpenAI, que ya está disponible para los usuarios ‘Pro’ de ChatGPT).
Los modelos de lenguaje de gran tamaño que hacen funcionar estos sistemas pueden sufrir ‘alucinaciones’ y generar resultados incorrectos, inexactos o sesgados, por lo que no son una fuente fiable de información. “La IA puede tener alucinaciones, ya que está programada para que siempre nos dé una respuesta y está comprobado que si no la tiene la puede inventar”, advierte Evia. En ese sentido, la experta destaca la importancia de realizar auditorías periódicas de los sistemas para garantizar que las respuestas son adecuadas.
Por nuestra parte, si decidimos usar un agente de IAl siempre debemos supervisar sus resultados y corroborar que las decisiones y acciones que tomen sean correctas. “La verificación de información por parte de los usuarios es necesaria, sobre todo si los datos son sensibles o críticos”, concluye Evia.
En este artículo ha colaborado Nolbery Evia, ingeniera en electrónica que forma parte de MigraVoice.
MigraVoice es una comunidad transfronteriza de personas expertas migrantes o con contexto migratorio que se ponen a disposición de periodistas de medios europeos como fuentes de conocimiento de confianza. Si quieres aportar tu conocimiento a los medios de comunicación europeos, puedes registrarte aquí. Si eres periodista, y deseas consultar a las personas expertas de MigraVoice, puedes unirte aquí.
En este artículo ha colaborado con sus superpoderes el maldito David Arroyo, economista digital.
Gracias a vuestros superpoderes, conocimientos y experiencia podemos luchar más y mejor contra la mentira. La comunidad de Maldita.es sois imprescindibles para parar la desinformación. Ayúdanos en esta batalla: mándanos los bulos que te lleguen a nuestro servicio de Whatsapp, préstanos tus superpoderes, difunde nuestros desmentidos y hazte Embajador.