LA INTEL·LIGÈNCIA ARTIFICIAL I: LA QUARTA REVOLUCIÓ INDUSTRIAL?

Quan parlem d’Intel·ligència Artificial la majoria posa la seva mirada crítica cap a les obres de ciència ficció d’Isaac Asimov i les seves tres famoses lleis de la robòtica, però no, no tota IA és un robot, pot ser simplement un software predictiu.  Per això, se la defineix com la quarta revolució industrial que afectarà a tots els aspectes de les nostres vides, estant ja entre nosaltres. 

Present o futur? Proposta de Reglament (UE) de la Comissió Europea sobre el marc jurídic aplicable als sistemes d’IA

La Indústria no ha cessat de reconvertir-se i innovar des del segle XVIII. Aquest terme, sorgeix en el Fòrum Econòmic Mundial el 2016. Si l’automatització i digitalització del segle XX va donar lloc a la tercera revolució industrial, aquesta quarta ve trepitjant fort, caracteritzant-se per una fusió de tecnologies com Blockchain, Internet de les coses (IOT), IA, robòtica, computació quàntica, impressió 3D, vehicles autònoms o independents, bio i nanotecnologia.

Estant immersos en aquesta quarta revolució industrial l’any passat es publica la versió definitiva del projecte de Reglament (UE) de la Comissió Europea sobre el marc jurídic aplicable als sistemes d’IA, apostant per la transparència, la governança de dades i amb un àmbit territorial d’aplicació àmplia, incloent proveïdors, distribuïdors i importadors ubicats o que despleguin els seus efectes dins dels límits de la Unió Europea.

Així mateix, divideix als sistemes d’IA en 4 grups:

  1. Sistemes Prohibits d’IA de risc inadmissible, es prohibeixen uns usos limitats per ser contraris als valors de la UE i drets fonamentals dels ciutadans, com les tècniques subliminals que afecten la conducta. Només alguns usos d’identificació biomètrica o vigilància social massiva estarien permesos en casos excepcionals i amb finalitats policials, obrint així el debat.
  2. Sistemes d’IA d’alt risc. És una llista taxada de sistemes d’IA; que podrà revisar-se a mesura que avancin les noves tecnologies (lligats a normativa sectorial, com a educació, infraestructures, seguretat en transport, etc…). Sotmesos a una avaluació de conformitat abans que puguin comercialitzar-se en el mercat, establint requisits respecte a la qualitat de les dades, registre, supervisor humana, ciberseguretat, transparència i informació a l’usuari, per a no vulnerar els drets fonamentals dels ciutadans i usuaris.
  3. Sistemes de risc limitat d’IA. En determinats casos hi ha obligacions de transparència per a assegurar que l’usuari conegui el seu funcionament i no existeixi perill de vulnerar drets. A tall d’exemple, els chatbots on l’usuari quedi informat que li atén una IA i no un ésser humà.
  4. Risc mínim. Restants sistemes d’IA. No estan subjectes a cap obligació jurídica addicional. És un calaix desastre amb compliment voluntari al qual poden acollir-se.

La Intel·ligència Artificial com a subjecte de drets i obligacions?

Tots sabem que la IA no és subjecte de drets i obligacions en l’actualitat, però no és descartable que amb l’avanç de la tecnologia i de la pròpia societat es creï el concepte “d’una personalitat tecnològica o digital”.

Jacob Turner, defineix la IA com “l’habilitat d’una entitat no natural per prendre decisions a través d’un procés avaluatiu”, és a dir, una concepció cada vegada més humanitzada i que també pot crear d’altres IA, tot això comparable a l’efecte domino i que comporta en cas d’una suposada responsabilitat per danys al gran dubte dels lletrats: a qui demando? Aquesta nova personalitat objecte de drets i obligacions ens evitaria la investigació per l’entramat d’empreses, proveïdors, desenvolupadors que han participat, proporcionant una resposta directa a aquesta problemàtica juntament o com a alternativa a la solució dels contractes d’assegurances subscrites per a la IA de forma obligatòria. Aquesta temàtica no és abordada pel Reglament, però és fruit de debat jurídic, amb veus a favor i en contra.

Discriminació algorítmica.

No podem oblidar els biaixos que contenen les dades que es nodreix les IA, per tant, els algoritmes poden ser discriminatoris, racistes, masclistes, prova d’això és el cas del bot Tay de Microsoft per a Twitter, l’algoritme SyRI de l’Estat holandès per combatre el frau o l’algoritme Frank pel que fa als riders de Deliveroo a Itàlia entre molts casos coneguts. Això és culpa principalment de les pròpies dades de les quals s’alimenta aquesta IA i del machine learning. La IA assumeix els biaixos humans implícits en el llenguatge, per tant, de qui és la culpa d’aquesta discriminació?

És més, en alguns casos aquesta IA pot arribar a crear el seu propi idioma i deixar a l’ésser humà al marge de la seva comprensió com va ser el cas dels Bots Bob i Alice que van crear un llenguatge propi inintel·ligible per a l’ésser humà. un cas d’autonomia o independència de la IA?

En la meva opinió, no fer una regulació específica o la creació d’una la personalitat tecnològica en què englobar tots els possibles vessants d’IA provocaria inseguretat jurídica i la desprotecció d’usuaris i ciutadans com argumentaré en el següent post.

Autora del post:
11

Related Posts

Subscriu-te al nostre butlletí per rebre els posts més recents del ICABlog

* Rebràs les novetats del blog en català.

Articles Recents

11
ELS VIDEOJOCS I PROPIETAT INTELECTUAL: NO ÉS UN JOC DE NENS
octubre 1, 2024
11
La indemnització per acomiadament improcedent davant el Comitè Europeu de Drets Socials (CEDS)
setembre 3, 2024
11
IMPLEMENTACIÓ DELS PLANS D’IGUALTAT OBLIGATORIS PER A LES EMPRESES A ESPANYA
juny 12, 2024

ICABLOG

La missió del ICABLOG és fomentar la recerca, l’exploració contínua, la sensibilitat jurídica i el debat entre tots els operadors jurídics per a millorar la professió i impactar en la societat.

Autors ICABLOG

Subscriu-te al nostre butlletí per rebre els posts més recents del ICABlog

* Rebràs les novetats del blog en català.