Tecnología e Innovación

La Unión Europea define las «reglas del juego»: Todo sobre la Ley de IA

Descubre la pionera Ley de IA de la UE que mejora la seguridad, transparencia y liderazgo mundial en regulación de Inteligencia Artificial.

Sage

La Ley de IA regulará el uso de Inteligencia Artificial en la UE, siendo pionera a nivel mundial.

  • La UE pretende regular la IA para garantizar mejores condiciones de desarrollo y uso de esta tecnología.
  • La prioridad es garantizar que los sistemas sean seguros, transparentes y trazables.

Contenido del post

  1. Así trata de regular la UE la Inteligencia Artificial
  2. Los principios en los que se basa la ley de IA
  3. La regulación en función de los niveles de riesgo
  4. La IA generativa

Desde los 90, con Internet omnipresente, surgieron pocas tecnologías tan influyentes en ética y leyes. Entre estas pocas y selectas se encuentra la Inteligencia Artificial.

El amplio potencial de las tecnologías de IA plantea cuestiones acerca de la regulación y las reglas de uso. Las preguntas surgen en torno a la necesidad de establecer normativas y directrices que rijan las aplicaciones y el desarrollo de la IA. Se pone en evidencia la importancia de que exista una Ley de IA.

¡TUITÉALO! La Unión Europea define «reglas del juego» con la Ley de IA para regular su uso, priorizando seguridad, transparencia y trazabilidad.

Como parte de su estrategia digital, la UE quiere regular la Inteligencia Artificial (IA) para garantizar mejores condiciones de desarrollo y uso. La IA ofrece beneficios en asistencia sanitaria, transporte seguro y limpio, fabricación eficiente y energía sostenible. Pero también puede suponer un riesgo ético que la UE quiere evitar.

1) Así trata de regular la UE la Inteligencia Artificial

La prioridad del Parlamento es garantizar que los sistemas de IA utilizados en la UE sean:

  • seguros,
  • transparentes,
  • trazables,
  • no discriminatorios y,
  • respetuosos con el medio ambiente.

Los sistemas de IA deben ser supervisados por personas en lugar de por la automatización, para evitar resultados perjudiciales.

El Parlamento también quiere establecer una definición de IA uniforme y tecnológicamente neutra, que pueda aplicarse a futuros sistemas de IA.

La Unión Europea ha emprendido una importante iniciativa al desarrollar y promover una regulación exhaustiva de los distintos ámbitos de la IA. La propuesta de ley europea, la Ley de IA, se publicó en abril de 2021. Esta normativa:

  • Establece obligaciones materiales para los desarrolladores y usuarios de tecnologías de IA.
  • Impone multas severas a las empresas que incumplan las obligaciones. Las sanciones podrían ir hasta los 30 millones de euros o el 6 % de la facturación anual por cada infracción.

Al igual que el GDPR, la Ley de IA se aplica a empresas no europeas que desarrollen productos basados en IA para uso en Europa. La Ley de IA muestra un claro potencial de convertirse en un estándar para las normativas específicas de IA.

2) Los principios en los que se basa la ley de IA

El propósito de esta ley es:

  • asegurar la seguridad,
  • transparencia,
  • trazabilidad,
  • no discriminación,
  • respeto al medio ambiente
  • y supervisión humana de los sistemas de Inteligencia Artificial utilizados en la UE.

Los principios son detallados de la siguiente manera:

  • Sistemas Seguros. Se enfatiza la necesidad de aplicar precaución a tecnologías disruptivas como la IA para mitigar riesgos asociados. Según Jordi Ferrer, profesor y abogado en Derecho Digital, se requieren restricciones de seguridad para la privacidad y ciberseguridad.
  • Transparencia Garantizada. Es crucial para corregir prácticas inapropiadas, especialmente en la recopilación de datos y el entrenamiento de sistemas de IA.
  • Trazabilidad del Sistema. Es importante entender y rastrear la evolución de los sistemas de IA para poder investigar su funcionamiento.
  • No Discriminación Garantizada. Los sistemas de IA deben evitar prejuicios injustos. Estos podrían tener efectos negativos como marginar a grupos vulnerables o agravar la discriminación existente.
  • Respeto al Medio Ambiente. Dado que los sistemas de IA consumen mucha energía, es esencial considerar su impacto en la sostenibilidad ambiental. Ferrer destaca la importancia de equilibrar la eficiencia energética.

3) La regulación en función de los niveles de riesgo

La normativa europea establece obligaciones para proveedores y usuarios en función del nivel de riesgo de la Inteligencia Artificial. Aunque muchos sistemas de IA plantean un riesgo mínimo, es necesario evaluarlos.

  • Riesgo inaceptable

Los sistemas de IA de riesgo inaceptable son los que se consideran una amenaza para las personas y estarán prohibidos. Incluyen:

  1. Manipulación cognitiva del comportamiento de personas o grupos vulnerables. Por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños.
  2. Scoring social. Clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales.
  3. Sistemas de identificación biométrica en tiempo real y a distancia. Como el reconocimiento facial.

Se permiten excepciones, como la identificación biométrica remota «a posteriori» para perseguir delitos graves, con aprobación judicial.

  • Alto riesgo

Los sistemas de IA perjudiciales serán de alto riesgo y se clasificarán en dos categorías según seguridad y derechos fundamentales:

  1. Sistemas de IA que se utilicen en productos incluidos en la legislación de la UE sobre seguridad de los productos. Esto incluye juguetes, aviación, automóviles, dispositivos médicos y ascensores.
  2. Sistemas de Inteligencia Artificial pertenecientes a ocho ámbitos específicos que deberán registrarse en una base de datos de la UE:
  • Identificación biométrica y categorización de personas físicas.
  • Gestión y explotación de infraestructuras críticas.
  • Educación y formación profesional.
  • Empleo, gestión de trabajadores y acceso al autoempleo.
  • Acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas.
  • Cumplimiento de la ley.
  • Gestión de la migración, el asilo y el control de fronteras.
  • Asistencia en la interpretación jurídica y la aplicación de la ley.
  • Todos los sistemas de IA de alto riesgo serán evaluados antes de su comercialización y en su ciclo de vida.

4) La IA generativa

La Ley de IA de la UE también presta atención a la IA generativa, como ChatGPT, que tendría que cumplir requisitos de transparencia. Entre ellos, destaca:

  • El hecho de revelar que el contenido ha sido generado por IA.
  • Se tendrá que diseñar el modelo para evitar que genere contenidos ilegales.
  • Se deberán publicar resúmenes de los datos protegidos por derechos de autor, utilizados para el entrenamiento.

La ley establece altos estándares para asegurar la seguridad, transparencia y equidad de la IA, destacando la supervisión humana y responsabilidad ambiental. La Unión Europea lidera el camino hacia una IA que impulse un futuro inclusivo, ético y sostenible.