Inteligencia Artificial: La UE aprueba una ley innovadora para mitigar riesgos y garantizar la seguridad
El Parlamento Europeo aprueba la primera ley de Inteligencia Artificial a nivel mundial
El Parlamento Europeo ha aprobado la primera ley de Inteligencia Artificial (IA) a nivel mundial, estableciendo un marco regulatorio para esta tecnología emergente. La ley, que ha sido objeto de intensos debates desde su propuesta inicial en 2021, ha sido ratificada con un amplio respaldo.
Clasificación de los sistemas de IA en función del riesgo
Riesgo inaceptable
Los sistemas de IA que representan una clara amenaza para la seguridad, los medios de vida y los derechos de las personas estarán prohibidos en la UE. Esto incluye juguetes con asistencia por voz que promuevan comportamientos peligrosos y sistemas de reconocimiento masivo.
Alto riesgo
Los sistemas de IA clasificados como de alto riesgo deben cumplir estrictos requisitos de evaluación y mitigación de riesgos, así como contar con conjuntos de datos de entrenamiento de alta calidad y supervisión humana. Esto incluye la identificación biométrica remota y los sistemas utilizados en áreas críticas.
Riesgo limitado
Los sistemas de IA que requieren transparencia en su uso, como los chatbots y el contenido generado por IA, deben identificarse claramente. La idea es que los usuarios sean conscientes de que están consumiendo contenido generado por IA.
Riesgo mínimo o nulo
Los sistemas de IA que no representan un riesgo significativo, como los utilizados para filtrar spam o en videojuegos, pueden utilizarse libremente sin nuevas obligaciones legales.
Impacto en la innovación y la competencia
La ley de IA también establece una Oficina Europea de IA para supervisar su implementación y garantizar el cumplimiento. Sin embargo, su aprobación ha generado cierta controversia, con algunos sectores de la industria expresando su temor a que ralentice el desarrollo de aplicaciones innovadoras de IA.
Preocupaciones por la burocracia
Ciertos gobiernos y empresas han expresado su preocupación de que la burocracia asociada a la ley pueda favorecer a las grandes empresas tecnológicas y obstaculizar la capacidad de las startups y las pymes para competir.
Exenciones para proyectos de código abierto
También se han planteado llamamientos para que los proyectos de IA de código abierto estén sujetos a una regulación diferenciada, ya que temen que la burocracia pueda sacar del mercado a los proyectos más pequeños.
Artículos relacionados