Entra en vigor la Ley de Inteligencia Artificial de la Unión Europea

La legislación es pionera a nivel mundial

|
Catalunyapress normativaiaue1ag24
Un recurso de inteligencia artificial. Foto: Pixabay

 

Este jueves 1 de agosto entrará en vigor la primera legislación que busca regular los sistemas la inteligencia artificial (IA) para garantizar la seguridad y los derechos fundamentales de los ciudadanos de la Unión Europa ante los riesgos que plantea esta tecnología. 

La legislación europea es pionera a nivel mundial en regular una tecnología tan compleja como la inteligencia artificial, presente desde hace años en servicios digitales de uso diario, como las redes sociales, los sistemas de contenidos de streaming y los buscadores como Google o Bing. También se utiliza en sectores como las finanzas, la salud, la atención al cliente, la agricultura y la logística, por citar algunos. 

Esta norma busca regular su uso bajo un marco jurídico uniforme, facilitando con ello la comercialización y circulación de los productos y sistemas basados en IA, sin olvidar la ciberseguridad y el desarrollo tecnológico bajo un enfoque ético. 

Pretende que la adopción de esta tecnología se haga con el ser humano en el centro, con el objetivo de que sea fiable y "garantice un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea, incluidos la democracia, el Estado de Derecho y la protección del medio ambiente", para protegerlos de los "efectos perjudiciales" que puedan derivar de los sistemas de IA.

Tras publicarse el pasado 12 de julio en el Diario Oficial de la UE, el reglamento de la IA entra en vigor oficialmente este jueves, aunque su aplicación obligatoria comenzará en dos años.


El riesgo, básico en la normativa

Para comprender los principales puntos que agrupa esta norma, se ha de tener en cuenta que se ha desarrollado bajo un enfoque basado en los niveles de riesgo que presenta, que se recogen en 3 categorías: los sistemas que suponen un riesgo inaceptable, los sistemas de alto riesgo y los sistemas de riesgo limitado

Las aplicaciones y sistemas de IA que "suponen un riesgo inaceptable" directamente están prohibidos. Aunque el listado es amplio, esta categoría engloba los casos en los que se utilizan sistemas de categorización biométrica que infieren atributos sensibles como la raza, las opiniones políticas y la orientación sexual. 

También los sistemas de puntuación social como el utilizado en países como China -que clasifica a los usuarios para otorgar ciertos derechos o sancionar el mal comportamiento- y a técnicas subliminales, manipuladoras o engañosas que buscan distorsionar el comportamiento y perjudicar la toma de decisiones. 

No obstante, hay algunas excepciones. Por ejemplo, aunque el uso de sistemas de identificación biométrica por parte de las fuerzas de seguridad está prohibido, sí se podrá utilizar en situaciones concretas y definidas de forma estricta, por lo que deberá haber un permiso previamente autorizado por un juez.

Sin comentarios

Escribe tu comentario




He leído y acepto la política de privacidad

No está permitido verter comentarios contrarios a la ley o injuriantes. Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.
AHORA EN LA PORTADA
ECONOMÍA