Qui no recorda les pel·lícules de ciència ficció com Terminator o Ànimes de metall? Intel·ligències Artificials que es tornen en contra dels humans. Realitat o ciència ficció?

IA responsable penalment?

És necessària una conducta humana, però l’avenç de la IA farà impossible que l’ésser humà sigui responsable d’aquests sistemes. Recordem als bots Bob i Alice que van tenir autonomia de crear un llenguatge mateix què impedeix que la pel·lícula Ànimes de metall sigui una realitat? Seria equiparable una responsabilitat de la IA a la d’un menor? com acreditar la voluntarietat, omissió o error d’una IA?

Tenim precedents de la imputació d’un bot a Suïssa en el cas Random Darknet Shopper al costat de la dels seus desenvolupadors per la compra massiva de substàncies il·legals.

Responsabilitat contractual de la IA

En el contracte de desenvolupament de IA, el proveïdor dissenya un model d’IA per al seu client, per un preu acordat, segons pactes en les quals estableixen unes especificacions tècniques concretes. El client pot exigir imposar certes garanties respecte al resultat, penalitzacions, inspeccions periòdiques i responsabilitat.

Un cas a part és la responsabilitat del proveïdor que ha desenvolupat una IA, però amb les dades que li ha proporcionat el client, (desconeguts o no) i és a aquest o tercers als quals causa el dany, per exemple, a consumidors, per això, el contracte de desenvolupament d’IA està més proper a un contracte d’arrendament de serveis que al d’obra, segons l’article 1544 CC ja que no hi ha una obligació de resultat concret, sinó a desenvolupar una activitat.

El Parlament Europeu indica que, en cas de creacions humanes assistides per IA, s’aplica el règim general de Propietat Intel·lectual i en quant la seva responsabilitat?  No diu res.

La responsabilitat es pot originar tant en fase de desenvolupament com en aplicació de la IA, sent més difícil responsabilitzar al proveïdor pels danys ocasionats en la fase d’aplicació que en la de desenvolupament, per les diferències existents entre el model de desenvolupament de programa i el de la IA. Difícil trobar el nexe causal ja que les dades són difícils d’avaluar o conèixer.

Responsabilitat extracontractual de la IA

Un problema és provar el nexe causal entre el dany causat (element objectiu) i l’acció o omissió (element subjectiu). S’aplica anàlogament la definició de culpa i negligència de l’article 1104 CC, requerint una diligència d’un bon pare de família, de difícil aplicació a la IA. Per això, hi ha seguidors a favor que es prengués en consideració el que hauria fet un “ordinador racional” però què és un ordinador o una IA racional? quins paràmetres referencials utilitzem? els d’un bon pare de família? A més, segons de l’article 217 LEC la càrrega probatòria l’assumeix el demandant/perjudicat, però suposa un gran problema atès a què en la majoria de casos no es tindrà accés al sistema d’IA, i si el tingués, és necessari un pèrit.

En sistemes d’IA, és difícil determinar els criteris de previsibilitat, inevitabilitat i/o força major, per això resulta complicada l’aplicació de l’article 1105 CC.

També cap la responsabilitat per fets aliens regulada en l’article 1903 CC i següents, aplicada a relacions com la d’empresari i treballador També s’aplicaria si és una IA, per exemple, un robot que faci les mateixes funcions de l’empleat?

Responsabilitat de la IA davant consumidors.

Aquesta responsabilitat no pot veure’s limitada en el contracte amb consumidors, ja que estaríem davant una clàusula abusiva.

Una IA es podria englobar dins els productes defectuosos de l’article 129 a 137 del TRLGCU? És una incògnita. Qui és responsable, el fabricant del producte, el dissenyador del software, el prestador del servei, l’intermediari? Hauríem de veure cas per cas, però al consumidor no se li posa una tasca fàcil. Seria possible la responsabilitat subsidiària o directa del proveïdor del servei de l’article 7 i 146 del TRLGDCU, quan no pogués identificar-se al responsable en la cadena de comercialització? I la responsabilitat solidària dels responsables davant els perjudicats de l’article 132 TRLGDCU? 

Amb tots aquestes dades i davant un dany produït per una decisió en el sistema d’IA podríem presentar la demanda contra l’empresa del producte, l’empresa de tecnologia, al desenvolupador de la IA original, així com a qualsevol involucrat de la cadena de subministrament que pugui tenir relació, sempre que estiguin involucrats. Però cap arbitratge o ODR? quin ordenament jurídic és aplicable?

La funció de la IA és arribar a un estat molt avançat d’autonomia pròpia, superant a la de l’ésser humà. Per això, seria oportú crear una “personalitat tecnològica” per a IA que aporti seguretat jurídica i simplificació a aquests problemes.

Autora del post:
11Silvia Pardo

Silvia Pardo

View Profile
11

Related Posts

Articles Recents

11
LLUMS I OMBRES DE LES CONFORMITATS
setembre 27, 2022
11
LA RESPONSABILITAT PENAL DE LES PERSONES JURÍDIQUES VERSUS LA PROVA DOCUMENTAL
setembre 22, 2022
11
DRET APLICABLE A L’AUXILI JUDICIAL A L’ARBITRATGE EN MATÈRIA DE PROVA. UNA LECTURA PRO ARBITRATGE.
setembre 7, 2022

ICABLOG

La missió del ICABLOG és fomentar la recerca, l’exploració contínua, la sensibilitat jurídica i el debat entre tots els operadors jurídics per a millorar la professió i impactar en la societat.

Autors ICABLOG

Subscriu-te al nostre butlletí per rebre els posts més recents del ICABlog

* Rebràs les novetats del blog en català.