Hay muchos tipos de robots pero, entre ellos, no tantos que estén programados para tomar decisiones por ellos mismos. Para ello, tendrían que funcionar con algún tipo de programa basado en inteligencia artificial que funcionase sin supervisión. Además, ¿qué entendemos por robot? Un coche autónomo podría ser un robot, pero también un dron, un vehículo de reparto, un brazo mecánico de asistencia médica… Y hasta un programa informático. Lo que tienen en común todos ellos es que no, no pueden cometer un delito.
Quien "comete" el delito es una persona... La pregunta es quién
Nos habéis preguntado cómo se dilucidan los casos en los que un robot sea el causante de un accidente o un delito. Por eso, es lo primero que tenemos que aclarar: un robot o un programa basado en inteligencia artificial no pueden cometer un delito. “Si hablamos de derecho penal, los únicos que pueden cometer delitos son las personas jurídicas o físicas, pero no las máquinas”, nos explica Fernando Miró-Llinares, director del centro de investigación CRÍMINA de la Universidad Miguel Hernández.
En los sistemas jurídicos actuales, se establece que “las máquinas no responden, responden las personas por las acciones, el diseño o las omisiones que han hecho en ese diseño”, señala. El ejemplo que más nos puede sonar es el de los coches autónomos que hayan causado algún tipo de daño a una persona. A día de hoy hay procesos de judiciales en marcha contra el conductor de un Tesla involucrado en un accidente en el que murieron dos personas en 2019, y también conocemos casos en los que se ha culpado a la empresa y a la persona conduciendo el coche, como la ocasión en la que una mujer falleció después de que le atropellará un vehículo autónomo de Uber.
“Cada una de las acciones dañinas que se podrían producir, por ejemplo, un daño patrimonial o un daño al honor o un accidente de tráfico, irían por la vía tradicional. Es decir, se tratarían exactamente igual que si fuese un caso cometido por un humano”, coincide Teresa Rodríguez de las Heras, docente y miembro del grupo de expertos en Nuevas Tecnologías, Prevención y Seguro en la Comisión Europea.
Esto es porque, como recuerda Miró-Llinares, “la máquina no puede responder”, de modo que hay que abordar el caso desde dos perspectivas: la de la responsabilidad administrativa (porque los algoritmos se hayan diseñado mal) y la responsabilidad penal porque, al fin y al cabo, ha muerto una persona y hay un daño letal. ¿Cómo se determinan los pasos a seguir? “Por medio de los sistemas que proporciona el sistema penal tradicional, o sea, por acción u omisión de sujetos individuales o empresas”, señala el especialista. Incluso en un caso como este, en el que el daño es claramente visible porque ha resultado letal, no existe una consideración legal que señale directamente al conductor del vehículo autónomo o a la empresa propietaria, sino que se analiza el caso en un proceso judicial tradicional y a partir de ahí se responsabiliza a uno u otro.
En otras situaciones, con otro tipo de tecnología, la respuesta a quién tiene la responsabilidad de un accidente de este tipo no la tenemos tan clara. Pero esto es normal, porque todavía no se ha alcanzado un consenso legal y normativo sobre a quién se le debe atribuir la responsabilidad de que un sistema inteligente cometa este tipo de infracciones.
Que son muchas y de distintos tipos: imaginaos que un robot asistencial cause algún tipo de daño al paciente al que acompaña, que se use un sistema de evaluación en un banco que clasifique mal el riesgo de morosidad de un cliente o que una cámara de reconocimiento facial identifique erróneamente a una persona como un delincuente peligroso, y que por tanto afecte a su historial de antecedentes. O incluso, volviendo al caso de los coches autónomos y por poner otro ejemplo, este bloquease la entrada de un párking y causase daños económicos o patrimoniales a una comunidad de vecinos.
¿A quién le atribuimos la responsabilidad de que un sistema informático tenga un fallo grave?
Hay varias propuestas encima de la mesa sobre cómo conseguir atribuirle la responsabilidad a alguien, tal y como nos explica Rodríguez de las Heras. “Se está tratando de resolver a nivel europeo”, señala, concretamente en el grupo de expertos del que forma parte. Una de las propuestas gira en torno a la figura del “operador”. Y para considerar a alguien un operador, tienen que darse dos elementos: que sea la persona (o la entidad) que “controla” el sistema y la que “se beneficia de su uso”.
“Por ejemplo, un banco que utiliza un sistema para evaluar a sus clientes o una empresa que usa robots para hacer limpieza o una flota de taxis autónomos. No es el usuario concreto, sino aquel en el que concurre control y beneficio”, explica a Maldita.es.
Por otro lado, se debate también la posibilidad de tratar los robots y sistemas autónomos como si fueran “productos” y, por tanto, considerar que se ha producido un daño porque en realidad eran defectuosos. Pese a ser un enfoque basado en conceptos y regulaciones asentadas, sigue planteando demasiadas dudas sin una respuesta clara: “Cuando estos sistemas toman decisiones, las toman conforme a datos que se le proporcionan, que toma del entorno o que resultan de ciertas predicciones. Le pueden llevar a tomar una decisión incorrecta o a aprender erróneamente y no evaluar el riesgo. No está claro que estos sean defectos como tal”, expone Rodríguez de las Heras. O sea, que no son como una camiseta que viene con una tara o un mueble mal hecho.
Además hay otro interrogante que resolver. Esta propuesta de considerar a los robots o la inteligencia artificial como productos implicaría que el responsable del hipotético accidente sería el productor. Muy bien, ¿y quién sería este actor? ¿El programador? ¿El que proporciona los datos? ¿El que implementa el software y el hardware? “No es una solución inmediata, sino que abre muchas otras cosas a discutir”, remarca la especialista.
Personas electrónicas, fallos en el diseño de los algoritmos... Más propuestas sobre "quién tiene la culpa"
En su momento, en 2017, el Parlamento Europeo sugirió considerar a los robots “personas electrónicas”. El objetivo de la institución de la Unión Europea fue entonces “crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar”, según el texto del informe que presentaron. También hablaban de concederles “personalidad electrónica” si eran capaces de tomar “decisiones autónomas inteligentes” e “interactuar con terceros de forma independiente”. El calificativo “independiente” es difícil de medir en este caso, como ya hemos visto en otras ocasiones.
Finalmente, no prosperó. La propuesta implicaba que el robot sería el titular de un patrimonio, nos explica Rodríguez de las Heras, y que con él se pagarían los daños que el propio robot generara. “¿Qué ocurre cuando es un delito? ¿Necesita un robot un tutor que administre su patrimonio? ¿Se puede defender ante un juez? Eran muchos más los problemas que las ventajas de la posible solución”, afirma.
Fernando Miró-Llinares, que participa en las conversaciones que tienen lugar en el seno de la Asociación Internacional de Derecho Penal, comenta a Maldita.es que también se estudia “no tener en cuenta determinados diseños” a nivel algorítmico. “Pasa con ámbitos de riesgo: no te castigan solo por causar una muerte estando ebrio, sino por conducir bajo los efectos del alcohol, es la anticipación. Cuando empiece a haber conciencia de que hay determinados robots y programas que conllevan riesgos, el mal diseño de estos algoritmos o máquinas podrá castigarse”, señala.
Tampoco descarta que en un futuro se categoricen nuevos tipos de delitos adaptados a las capacidades de las tecnologías que se vayan creando: “La revolución genética trajo la prohibición de la manipulación genética o la creación de clones. Puede ser que en un futuro se incluyan delitos relacionados con el diseño de los algoritmos”.