Headlines

La Union Europea esta lista para adoptar el conjunto de leyes mas completo para regular la inteligencia artificial (IA)

La Unión Europea (UE) ha aprobado recientemente la primera legislación importante sobre inteligencia artificial (IA) del mundo, conocida como la Ley de IA de la UE. Esta legislación histórica tiene como objetivo regular los sistemas de IA para garantizar que sean seguros, transparentes y respeten los derechos fundamentales y los valores de la UE. La Ley de IA de la UE se centra especialmente en los modelos de IA de alto riesgo y busca establecer normas que regirán su desarrollo y uso.

Uno de los aspectos clave de la Ley de IA de la UE es su regulación de los modelos de IA de propósito general, como GPT (Generative Pre-trained Transformer) que impulsa ChatGPT, desarrollado por OpenAI en San Francisco, California. Estos modelos tienen usos amplios e impredecibles, lo que los hace potencialmente riesgosos. La ley establece reglas estrictas para los desarrolladores de estos modelos, exigiéndoles que demuestren seguridad, transparencia y cumplimiento de las regulaciones de privacidad.

El enfoque de la UE para regular la IA se basa en los riesgos potenciales que plantean diferentes aplicaciones. Los sistemas de IA de alto riesgo, como los utilizados en contratación y aplicación de la ley, deben cumplir con obligaciones específicas para garantizar que no discriminen o planteen riesgos inaceptables para las personas. Las herramientas de IA de bajo riesgo también deben informar a los usuarios cuando estén interactuando con contenido generado por IA.

Si bien algunos investigadores han recibido con agrado la Ley de IA de la UE por su potencial para fomentar la ciencia abierta, otros se preocupan de que pueda sofocar la innovación. Los críticos señalan las exenciones para fines militares y de seguridad nacional, así como posibles lagunas para el uso de IA en la aplicación de la ley y la migración. Sin embargo, la UE ha hecho esfuerzos para asegurar que la legislación no afecte negativamente a la investigación, eximiendo especialmente los modelos de IA desarrollados puramente para investigación, desarrollo o prototipos.

Para modelos generales de gran alcance como GPT, la Ley de IA de la UE crea un sistema regulatorio de dos niveles. Los modelos que no se utilicen exclusivamente para investigación o que no se publiquen bajo una licencia de código abierto deben cumplir con requisitos de transparencia y demostrar cumplimiento de las leyes de copyright. Los modelos de alto impacto, que plantean un riesgo sistémico mayor, enfrentarán obligaciones aún más estrictas, incluidas pruebas de seguridad y controles de ciberseguridad.

La aplicación de la Ley de IA de la UE recaerá en la Comisión Europea, que establecerá una Oficina de IA para supervisar los modelos de propósito general. Esta oficina trabajará con expertos independientes para evaluar las capacidades de los modelos y monitorear los riesgos relacionados. Sin embargo, quedan preguntas sobre los recursos y la capacidad de un organismo público para examinar adecuadamente las presentaciones de empresas como OpenAI.

La Ley de IA de la UE entrará en vigor en 2026, pendiente de la aprobación final del Parlamento Europeo. Como el primer conjunto integral de leyes para regular la IA, el enfoque de la UE puede servir como un modelo para otros países y regiones que estén considerando su propia legislación sobre IA. A medida que el panorama de la IA continúa evolucionando, es crucial que los responsables políticos e investigadores trabajen juntos para garantizar que la IA se desarrolle y utilice de manera responsable, en línea con los valores y normas sociales.

Fuente: doi: https://doi.org/10.1038/d41586-024-00497-8

www.nature.com/articles/d41586-024-00497-8