En un contexto tecnológico en rápida evolución, la Unión Europea está avanzando con un paso histórico: la introducción de la revolucionaria Ley de IA (Te enlace al texto). Este nuevo marco regulatorio, que se espera que se vote en 2024, tiene como objetivo establecer nuevos estándares globales en seguridad y transparencia para los desarrolladores de IA, incluido OpenAI y otros. Con el objetivo de equilibrar la innovación y los derechos fundamentales, la Ley de IA podría representar un importante punto de inflexión en la regulación de la IA en todo el mundo.
¿Qué representa la Ley de IA?
La Ley de IA, como se mencionó, es un punto de inflexión en la política tecnológica de la UE, porque introduce un marco integral para la seguridad y transparencia de la inteligencia artificial.
Después de más de 36 horas (tiempo real) de intensas discusiones, los funcionarios de la UE han finalizado un conjunto de directrices, que actualmente son las más estrictas a nivel mundial. Esta ley coloca a Europa como ejemplo para otras naciones en el campo de la regulación de la IA.
¿Cuáles son los puntos de la nueva Ley de IA?
El núcleo de la Ley de IA es la clasificación de herramientas y aplicaciones de IA. en tres “categorías de riesgo”. Las IA con el mayor nivel de riesgo se enfrentan a un intenso escrutinio regulatorio. Estos incluyen vehículos autónomos, herramientas de infraestructura crítica, dispositivos médicos y sistemas de identificación biométrica.
Estos sistemas de “alto riesgo” requerirán evaluaciones de impacto sobre los derechos fundamentales, estrictos requisitos de transparencia y deberán registrarse en una base de datos pública de la UE.
Prohibiciones y sanciones
Además de definir categorías de riesgo, la Ley de IA prohíbe categóricamente determinados usos de la inteligencia artificial. Entre estos, el reconocimiento facial en tiempo real (un objetivo perseguido desde hace algún tiempo), están prohibidos los sistemas de reconocimiento de emociones y de “crédito social”.
Las principales empresas tecnológicas estadounidenses (como OpenAI y Google) que operan “sistemas de inteligencia artificial de propósito general”, tendrán que cumplir con los nuevos estándares impuestos por la UE. Estos incluyen actualizar a las autoridades de la UE sobre sus métodos modelo de capacitación y crear políticas para cumplir con las leyes de derechos de autor de la UE.
Las empresas de tecnología que violen estas reglas podrían enfrentar multas importantes, que varían entre el 1,5% y el 7% de su facturación total. ¿Mucho? ¿Pequeño? ¿Suficiente para disuadir, o no? Preguntas destinadas a permanecer sin respuesta, por ahora.
Y aquí surgen las dudas.
A pesar del apoyo generalizado, la Ley de IA ha generado preocupación entre los expertos europeos en privacidad. Algunos creen que el marco pone poco énfasis en los derechos humanos fundamentales, en contraste con enfoques anteriores como el GDPR. Una vez más: existe la preocupación de que el enfoque basado en el riesgo no proporcione una visión completa del impacto futuro de las herramientas de IA aparentemente de bajo riesgo.
A la espera de la votación final en 2024 (y quizás de algunos cambios), el impacto de esta regulación en el panorama de la IA sigue siendo un tema de especulación. La rápida evolución de la IA plantea importantes desafíos para su aplicación y eficacia a largo plazo.
Sin embargo, la Ley de IA representa un intento ambicioso y loable de la Unión Europea de navegar por el complejo equilibrio entre la innovación tecnológica y la protección de los derechos fundamentales. Aunque el camino aún es incierto, la AI Act podría servir como modelo para la regulación global de la inteligencia artificial, influyendo significativamente en el futuro de la tecnología y la sociedad.