LA INTELIGENCIA ARTIFICIAL I: ¿LA CUARTA REVOLUCIÓN INDUSTRIAL?

Cuando hablamos de Inteligencia Artificial la mayoría pone su mirada crítica hacia las obras de ciencia ficción de Isaac Asimov y sus tres famosas leyes de la robótica, pero no, no toda IA es un robot, puede ser simplemente un software predictivo.  Por ello, se la define como la cuarta revolución industrial que afectará a todos los aspectos de nuestras vidas, estando ya entre nosotros.

¿Presente o futuro? Propuesta de Reglamento (UE) de la Comisión Europea sobre el marco jurídico aplicable a los sistemas de IA

La Industria no ha cesado de reconvertirse e innovar desde el siglo XVIII . Este término, surge en el Foro Económico Mundial en 2016. Si la automatización y digitalización del siglo XX dio lugar a la tercera revolución industrial, esta cuarta viene pisando fuerte, caracterizándose por una fusión de tecnologías como Blockchain, Internet de las cosas (IOT), IA, robótica, computación cuántica, impresión 3D, vehículos autónomos o independientes, bio y nanotecnología.

Estando inmersos en esta cuarta revolución industrial el año pasado se publica la versión definitiva del proyecto de Reglamento (UE) de la Comisión Europea sobre el marco jurídico aplicable a los sistemas de IA, apostando por la transparencia, la gobernanza de datos y con un ámbito territorial de aplicación amplio, incluyendo proveedores, distribuidores e importadores ubicados o que desplieguen sus efectos dentro de los límites de la Unión Europea.

Asimismo, divide a los sistemas de IA en 4 grupos, según el tipo de riesgo:

  1. Sistemas Prohibidos de IA de riesgo inadmisible. Se prohíben unos usos limitados por ser contrarios a los valores de la UE y derechos fundamentales de los ciudadanos, como las técnicas subliminales que afectan a la conducta. Sólo algunos usos de identificación biométrica o vigilancia social masiva estarían permitidos en casos excepcionales y con fines policiales, abriendo así el debate.
  2. Sistemas de IA de alto riesgo. Es un listado tasado de sistemas de IA, que podrá revisarse a medida que avancen las nuevas tecnologías, (ligados a normativa sectorial, como educación, infraestructuras, seguridad en transporte etc..). Sometidos a una evaluación de conformidad antes de que puedan comercializarse en el mercado, estableciendo requisitos respecto a la calidad de los datos, registro, supervisión humana, ciberseguridad, transparencia e información al usuario, para no vulnerar los derechos fundamentales de los ciudadanos y usuarios.
  3. Sistemas de riesgo limitado de IA. En determinados casos hay obligaciones de transparencia para asegurar que el usuario conozca su funcionamiento y no exista peligro de vulnerar derechos. A modo de ejemplo, los chatbots, donde el usuario quede informado que le atiende una IA y no un ser humano.
  4. Riesgo mínimo. Restantes sistemas de IA.No están sujetos a ninguna obligación jurídica adicional. Es un cajón desastre con cumplimiento voluntario al que pueden acogerse.

¿La Inteligencia Artificial como sujeto de derechos y obligaciones?

Todos sabemos que la IA no es sujeto de derechos y obligaciones en la actualidad, pero no es descartable que con el avance de la tecnología y de la propia sociedad se cree el concepto de “una personalidad tecnológica o digital”.

Jacob Turner, define la IA como “la habilidad de una entidad no natural para tomar decisiones a través de un proceso evaluativo”, es decir, una concepción cada vez más humanizada y que asimismo puede crear otras IA, todo ello comparable al efecto domino y que conlleva en caso de una supuesta responsabilidad por daños a la gran duda de los letrados: ¿a quién demando? Esa nueva personalidad objeto de derechos y obligaciones nos evitaría la investigación por el entramado de empresas, proveedores, desarrolladores que han participado, proporcionando una respuesta directa a esta problemática juntamente o como alternativa a la solución de los contratos de seguros suscritos para la IA de forma obligatoria. Esta temática no es abordada por el Reglamento, pero es fruto de debate jurídico, con voces a favor y en contra.

Discriminación algorítmica.

No podemos olvidar los sesgos que contienen los datos de que se nutre las IA, por tanto, los algoritmos pueden ser discriminatorios, racistas, machistas, prueba de ello es el caso del bot Tay de Microsoft para Twitter, el algoritmo SyRI del Estado holandés para combatir el fraude o el algoritmo Frank respecto de los riders de Deliveroo en Italia entre muchos casos conocidos. Ello es culpa principalmente de los propios datos de los que se alimenta esa IA y del machine learning. La IA asume los sesgos humanos implícitos en el lenguaje, por tanto, ¿de quién es la culpa de esa discriminación?

Es más, en algunos casos esa IA puede llegar a crear su propio idioma y dejar al ser humano al margen de su comprensión como fue el caso de los Bots Bob y Alice que crearon un lenguaje propio ininteligible para el ser humano. ¿un caso de autonomía o independencia de la IA?

En mi opinión, no hacer una regulación específica o la creación de una la personalidad tecnológica en la que englobar todas las posibles vertientes de IA provocaría inseguridad jurídica y la desprotección de usuarios y ciudadanos como argumentaré en el siguiente post.

Autora del post:
11Silvia Pardo

Silvia Pardo

View Profile
11

Related Posts

Artículos Recientes

11
LA RESPONSABILIDAD PENAL DE LAS PERSONAS JURÍDICAS VERSUS LA PRUEBA DOCUMENTAL
septiembre 22, 2022
11
DERECHO APLICABLE AL AUXILIO JUDICIAL AL ARBITRAJE EN MATERIA DE PRUEBA. UNA LECTURA PRO ARBITRAJE
septiembre 7, 2022
11
Cláusulas Suelo: “THE END” (STS 579/2022 de 26 de julio)
septiembre 5, 2022

ICABLOG

La misión de ICABLOG es fomentar la recerca, la exploración continua, la sensibilidad jurídica y el debate entre todos los operadores jurídicos para mejorar la profesión y impactar en la sociedad.

Autores ICABLOG

Subscríbete a nuestro boletín para recibir los posts más recientes del ICABlog

* Recibirás las novedades del blog en castellano.