¿Quién no recuerda las películas de ciencia ficción como Terminator o Almas de metal? Inteligencias Artificiales que se vuelven en contra de los humanos. ¿Realidad o ciencia ficción?

¿IA responsable penalmente?

Es necesaria una conducta humana, pero el avance de la IA hará imposible que el ser humano sea responsable de estos sistemas. Recordemos a los bots Bob y Alice que tuvieron autonomía de crear un lenguaje propio ¿qué impide que la película Almas de metal sea una realidad? ¿Sería equiparable una responsabilidad de la IA a la de un menor? ¿cómo acreditar la voluntariedad, omisión o error de una IA?

Tenemos precedentes de la imputación de un bot en Suiza en el caso Random Darknet Shopper junto a la de sus desarrolladores por la compra masiva de sustancias ilegales.

Responsabilidad contractual de la IA

En el contrato de desarrollo de IA, el proveedor diseña un modelo de IA para su cliente, por un precio acordado, según pactos en los que establecen unas especificaciones técnicas concretas. El cliente puede exigir imponer ciertas garantías respecto al resultado, penalizaciones, inspecciones periódicas y responsabilidad.

Un caso aparte es la responsabilidad del proveedor que ha desarrollado una IA, pero con los datos que le ha proporcionado el cliente, (desconocidos o no) y es a este o terceros a los que causa el daño, por ejemplo, a consumidores, por ello, el contrato de desarrollo de IA está más cercano a un contrato de arrendamiento de servicios que al de obra, a tenor del art. 1544 CC ya que no hay una obligación de resultado concreto, sino a desarrollar una actividad.

El Parlamento Europeo indica que, en caso de creaciones humanas asistidas por IA, se aplica el régimen general de Propiedad Intelectual y ¿en cuánto a su responsabilidad?  No dice nada.

La responsabilidad se puede originar tanto en fase de desarrollo como en aplicación de la IA, siendo más difícil responsabilizar al proveedor por los daños ocasionados en la fase de aplicación que en la de desarrollo, por las diferencias existentes entre el modelo de desarrollo de software y el de la IA. Difícil encontrar el nexo causal ya que los datos son difíciles de evaluar o conocer.

Responsabilidad extracontractual de la IA

Un problema es probar el nexo causal entre el daño causado (elemento objetivo) y la acción u omisión (elemento subjetivo). Se aplica análogamente la definición de culpa y negligencia del art. 1104 CC, requiriendo una diligencia de un buen padre de familia, de difícil aplicación a la IA. Por ello, hay seguidores a favor de que se tomara en consideración lo que habría hecho un “ordenador racional” pero ¿qué es un ordenador o una IA racional? ¿qué parámetros referenciales usamos? ¿los de un buen padre de familia? Además, a tenor del art. 217 LEC la carga probatoria la asume el demandante/perjudicado, pero supone un gran problema atendido a que en la mayoría de casos no se tendrá acceso al sistema de IA, y si lo tuviese, es necesario un perito.

En sistemas de IA, es difícil determinar los criterios de previsibilidad, inevitabilidad y/o fuerza mayor, por ello resulta complicada la aplicación del art. 1105 CC.

También cabe la responsabilidad por hechos ajenos regulada en el art. 1903 CC y siguientes, aplicada a relaciones como la de empresario y trabajador ¿También se aplicaría si es una IA, por ejemplo, un robot que realice las mismas funciones del empleado?

Responsabilidad de la IA frente a consumidores.

Esta responsabilidad no puede verse limitada en el contrato con consumidores, ya que estaríamos ante una cláusula abusiva.

¿Una IA se podría englobar dentro de los productos defectuosos de los art. 129 a 137 del TRLGCU? Es una incógnita. ¿Quién es responsable, el fabricante del producto, el diseñador del software, el prestador del servicio, el intermediario? Deberíamos ver caso por caso, pero al consumidor no se le pone una tarea fácil. ¿Sería posible la responsabilidad subsidiaria o directa del proveedor del servicio del art. 7 y 146 del TRLGDCU, cuando no pudiera identificarse al responsable en la cadena de comercialización? ¿Y la responsabilidad solidaria de los responsables frente a los perjudicados del art. 132 TRLGDCU?  

Con todos estos datos y ante un daño producido por un fallo en el sistema de IA podríamos presentar la demanda contra la empresa del producto, la empresa de tecnología, al desarrollador de la IA original, así como a cualquier involucrado de la cadena de suministro que pueda tener relación, siempre que estén involucrados. Pero ¿cabe arbitraje u ODR? ¿qué ordenamiento jurídico es aplicable?

La función de la IA es llegar a un estado muy avanzado de autonomía propia, superando a la del ser humano. Por ello, sería oportuno crear una “personalidad tecnológica” para IA que aporte seguridad jurídica y simplificación a estos problemas.

Autora del post:
11Silvia Pardo

Silvia Pardo

View Profile
11

Related Posts

Artículos Recientes

11
Supervivencia frente a la crisis energética: Las comunidades energéticas
diciembre 1, 2022
11
Desengranando LOS MASC (II)
noviembre 25, 2022
11
Desengranando LOS MASC (I)
noviembre 25, 2022

ICABLOG

La misión de ICABLOG es fomentar la recerca, la exploración continua, la sensibilidad jurídica y el debate entre todos los operadores jurídicos para mejorar la profesión y impactar en la sociedad.

Autores ICABLOG

Subscríbete a nuestro boletín para recibir los posts más recientes del ICABlog

* Recibirás las novedades del blog en castellano.