El pasado jueves 18 de julio, el Parlamento Europeo llevó a cabo una sesión histórica que podría marcar un antes y un después en la regulación de la inteligencia artificial a nivel mundial. La sesión, que tuvo lugar en el Hemiciclo de Bruselas, reunió a eurodiputados, expertos en tecnología y representantes de diversas organizaciones no gubernamentales para debatir y votar sobre el nuevo marco regulador titulado “Ley de Inteligencia Artificial: Ética y Responsabilidad”.

El proyecto, que ha estado en discusión durante los últimos dos años, establece una serie de directrices y leyes con el objetivo de regular el desarrollo y uso de la inteligencia artificial (IA) en la Unión Europea. Entre las principales disposiciones se encuentran la obligación de transparencia en los algoritmos, la responsabilidad sobre los daños causados por sistemas de IA y la creación de una agencia independiente para supervisar y garantizar el cumplimiento de estas normas.

“Hoy damos un paso crucial hacia un futuro donde la inteligencia artificial trabaje para el beneficio de todos, y no para unos pocos. La inclusión de principios éticos en el desarrollo de estas tecnologías es esencial para evitar abusos y garantizar que se respeten los derechos fundamentales”, declaró Ursula von der Leyen, Presidenta de la Comisión Europea, durante su discurso en la sesión.

Los debates fueron intensos y reflejaron la complejidad del tema. Mientras algunos eurodiputados abogaban por una regulación estricta para prevenir riesgos potenciales, otros advertían sobre el peligro de sofocar la innovación tecnológica con normativas excesivamente restrictivas. Sin embargo, el consenso final apuntó a un equilibrio entre seguridad y desarrollo tecnológico.

Una de las disposiciones más discutidas fue la relacionada con la privacidad y el derecho a la explicación. Según el nuevo marco, cualquier ciudadano que se vea afectado por una decisión tomada por un sistema de IA tendrá derecho a una explicación clara sobre cómo se llegó a dicha decisión. Este punto fue recibido con aplausos, ya que promete incrementar la transparencia y la equidad en áreas como el sistema judicial, el empleo y los servicios financieros.

Otra medida destacada es la categorización de sistemas de IA según su nivel de riesgo. Los sistemas considerados de “alto riesgo”, como los utilizados en infraestructuras críticas, salud y seguridad, estarán sujetos a regulaciones más estrictas y a auditorías periódicas. Por otro lado, los sistemas de “bajo riesgo” tendrán requisitos de conformidad menos rigurosos, facilitando así su desarrollo e implementación.

La reacción de la industria tecnológica ha sido mixta. Algunas empresas han expresado su apoyo al nuevo marco regulador, reconociendo la importancia de establecer directrices claras y responsables para el uso de la IA. Sin embargo, otros actores del sector han manifestado preocupaciones sobre los costos y la complejidad de cumplir con las nuevas normativas.

Mientras tanto, organizaciones de derechos humanos celebraron la decisión como un triunfo hacia una tecnología más justa y humanitaria. “Es un gran avance en la lucha por la equidad digital. La inteligencia artificial debe ser una herramienta que potencie nuestra sociedad, no una amenaza”, señaló Marie-Elisabeth Bjelke, portavoz de la ONG Derechos Digitales para Todos.

La Ley de Inteligencia Artificial: Ética y Responsabilidad se someterá ahora a una revisión final por parte del Consejo Europeo antes de su implementación oficial, programada para el año 2024. Con esta legislación, la Unión Europea aspira no solo a proteger a sus ciudadanos, sino también a convertirse en un referente mundial en la regulación ética y responsable de la inteligencia artificial.

Nota de prensa UE

Scroll al inicio