fbpx

Contenido

Imagen 1 1
Ley de la IA en la Unión Europea 2

La inteligencia artificial (IA) es una de las tecnologías más innovadoras y disruptivas de nuestro tiempo. Su potencial para transformar diversos sectores y ámbitos de la sociedad es enorme, pero también lo son los riesgos y desafíos que plantea. Por eso, la Unión Europea (UE) ha decidido regular el uso de la IA en su territorio, con el objetivo de garantizar que se desarrolle y se aplique de forma ética, segura y respetuosa con los derechos fundamentales de las personas.

El pasado 21 de abril, la Comisión Europea presentó una propuesta de ley que establece un marco jurídico para la IA en la UE. Se trata de la primera iniciativa legislativa de este tipo a nivel mundial, y pretende convertir a Europa en un líder global en el desarrollo y la implementación de una IA confiable y centrada en el ser humano.

¿Qué motivos han llevado a la UE a regular su uso?

La propuesta de ley respondía a una necesidad creciente de regular el uso de la IA en la UE, ante el aumento exponencial de su presencia y su impacto en diversos ámbitos de la vida cotidiana. Según un estudio realizado por la Comisión Europea en 2020, el 80% de los ciudadanos europeos considera que se necesita una acción legislativa para garantizar que la IA se utilice de forma ética y responsable.

Además, la regulación del uso de la IA se enmarca dentro de la estrategia digital de la UE, que busca aprovechar las oportunidades que ofrece la transformación digital para impulsar el crecimiento económico, la competitividad, la innovación y el bienestar social. La UE quiere ser un actor clave en el desarrollo y la aplicación de una IA que respete los valores europeos y contribuya al progreso humano.

¿Qué contiene la propuesta de ley – ahora aprobada – y cuáles son sus puntos principales?

El documento establece un marco jurídico para la IA en la UE, basado en cuatro pilares fundamentales:

  1. La prohibición o restricción de ciertas prácticas de IA que se consideran inaceptables por atentar contra los derechos fundamentales o la seguridad pública. Por ejemplo, se prohíbe el uso de sistemas de IA que manipulan el comportamiento humano o las opiniones públicas, o que exploten las vulnerabilidades de las persona, así como el uso de sistemas de IA que permitan la identificación biométrica remota en espacios públicos, salvo en casos excepcionales y bajo estrictas condiciones.
  2. La obligación de cumplir con requisitos específicos para los proveedores y usuarios de sistemas de IA considerados de alto riesgo, es decir, aquellos que puedan causar daños significativos a las personas o a sus derechos. Estos requisitos incluyen aspectos como la calidad y transparencia de los datos utilizados para entrenar los sistemas de IA, la documentación técnica y contractual, la supervisión humana efectiva, la información clara y adecuada a los usuarios finales, o la robustez y precisión de los sistemas.
  3. La creación de un sistema europeo de gobernanza y supervisión del uso de la IA, compuesto por un comité europeo formado por representantes nacionales y expertos independientes, así como por autoridades nacionales competentes encargadas del control la aplicación del marco jurídico y la facilitación del intercambio de información y buenas prácticas entre los Estados miembros y los agentes implicados en el desarrollo y uso de la IA.
  4. La promoción del desarrollo y uso voluntario de códigos de conducta para los proveedores y usuarios de sistemas de IA considerados de bajo o moderado riesgo, así como el fomento del establecimiento de normas técnicas armonizadas a nivel europeo e internacional. Además, se prevén medidas para apoyar a las pequeñas y medianas empresas (pymes) que desarrollen o utilicen sistemas de IA, así como para impulsar la investigación y la innovación en este ámbito.

¿Cómo afecta esta propuesta a las empresas y a las personas?

La propuesta de ley tiene implicaciones tanto para las empresas que desarrollan o utilizan sistemas de IA, como para las personas que se benefician o se ven afectadas por ellos.

Para las empresas, la propuesta supone una oportunidad para diferenciarse y ganar la confianza de los consumidores y los inversores, al ofrecer productos y servicios de IA que cumplan con los más altos estándares de calidad, seguridad y ética. Al mismo tiempo, la propuesta implica una serie de obligaciones y responsabilidades para las empresas que provean o usen sistemas de IA de alto riesgo, así como la posibilidad de enfrentarse a sanciones administrativas o penales en caso de incumplimiento.

Para las personas, la propuesta supone una garantía de que sus derechos fundamentales serán respetados y protegidos cuando interactúen con sistemas de IA, así como la posibilidad de acceder a mecanismos efectivos de reclamación y reparación en caso de sufrir daños o perjuicios. Al mismo tiempo, la propuesta implica una mayor transparencia e información sobre el uso de la IA en diversos ámbitos de la sociedad, así como la oportunidad de participar activamente en el desarrollo y la aplicación de una IA confiable y centrada en el ser humano.

¿Cómo se implementará?

La elaboración de la propuesta de ley elaborada por la Comisión Europea fue el primero de una serie de pasos necesarios para establecer un marco jurídico para la IA en la UE que comprenden su ratificación por el Parlamento Europeo y posteriormente por el Consejo de la UE, antes de ser definitivamente aprobado por la totalidad de los 27 Estados.

Una vez aprobada, la propuesta se convertirá en un reglamento europeo, lo que significa que será directamente aplicable en todos los Estados miembros sin necesidad de transposición nacional. No obstante, los Estados miembros tendrán que adaptar sus legislaciones nacionales para garantizar la coherencia y la efectividad del marco jurídico.

¿Cuándo entrará en vigor esta propuesta?

El Parlamento Europeo aprobó este miércoles 14 de junio, con 499 votos a favor, 28 en contra y 93 abstenciones, una ley para regular el uso de la Inteligencia Artificial (IA) en la Unión Europea (UE), dando inicio a una delicada negociación con los representantes de los 27 países del bloque.

Los eurodiputados incluyeron en el paquete la prohibición al uso generalizado de sistemas automáticos de reconocimiento facial en lugares públicos, la prohibición de los sistemas de IA de vigilancia biométrica, reconocimiento de emociones y vigilancia predictiva, así como requisitos especiales para los sistemas de IA generativa capaces de producir texto, como ChatGPT y DALL-E.

A partir de ahora, se iniciarán de inmediato negociaciones directas con los 27 países del bloque con el objetivo de tener un acuerdo sellado para finales de año aunque, incluso si se alcanzara ese objetivo, la normativa no entraría en vigor hasta 2026, por lo que la UE necesitará negociar también un marco provisional y voluntario con las empresas tecnológicas que desarrollan IA.

¿Qué papel tendrá España en la aprobación definitiva y aplicación de la ley?

España tendrá un papel relevante en el proceso legislativo y en la aplicación efectiva de la ley de IA de la UE.

Por un lado, España asumirá la presidencia rotatoria del Consejo de la UE en el segundo semestre de 2023, lo que le dará la oportunidad de impulsar las negociaciones entre los Estados miembros y con el Parlamento Europeo para alcanzar un acuerdo sobre la propuesta. El Gobierno español ha manifestado su apoyo a la iniciativa y su voluntad de liderar el debate sobre la regulación ética y responsable de la IA.

Por otro lado, España ha sido el primer país en crear una agencia nacional específica para supervisar la IA. Se trata de la Agencia Española de Supervisión de la IA (AESIA), que tendrá su sede en A Coruña y que contará con potestad supervisora y sancionadora. La AESIA se encargará de velar por el cumplimiento de la ley europea y nacional sobre IA, así como de promover el desarrollo y la innovación en este ámbito.

Artículos relacionados

Abrir chat
1
Escanea el código
Hola 👋
¿En qué podemos ayudarte?