Europa pone límites a la inteligencia artificial

Agencias
-

La nueva ley de IA, que entró ayer en vigor, regula esta herramienta en función del riesgo que suponga para las personas y prohíbe, entre otras medidas, crear bases de datos faciales

La regulación intentará impulsar la industria del continente frente a los gigantes de China y EEUU - Foto: Quique García / EFE

Ya es un hecho. La Unión Europea cuenta desde ayer con la primera ley en vigor en el mundo que regula la inteligencia artificial (IA) tanto en el ámbito personal como empresarial. Esta pionera normativa pone negro sobre blanco en el uso de esta tecnología en función del riesgo que suponga para los ciudadanos e impulsa al mismo tiempo la industria europea frente a gigantes como China o EEUU.

«Dirigirá el desarrollo de una inteligencia artificial en la que los europeos puedan confiar y proporcionará apoyo a las pymes y start-ups europeas para que traigan al mercado soluciones de IA innovadoras», indicó en X la presidenta de la Comisión, Ursula von der Leyen.

La ley permite o prohíbe el uso de esta herramienta en función del riesgo que genera para las personas e identifica sistemas de alto riesgo que solo se podrán utilizar si respetan los derechos fundamentales.

En concreto, distingue entre sistemas de IA que presentan un «riesgo inaceptable» por ser una amenaza para los derechos fundamentales y que estarán prohibidos; sistemas de «alto riesgo», que no estarán vetados pero sí sujetos a estrictos requisitos; IA con riesgos de transparencia, como los chatbots; y sistemas de riesgo «mínimo», que son la mayoría y no estarán sujetos a las normas.

Siguiendo esta clasificación, la normativa prohíbe todos los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por raza y orientación sexual; los que puntúan a las personas en función de su comportamiento y características personales; y la IA capaz de manipular el comportamiento humano.

También estarán vetados los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales; y en los centros de trabajo y escuelas estarán prohibidos los sistemas que pueden reconocer emociones.

En general, la ley de inteligencia artificial prohíbe la vigilancia masiva en espacios públicos, pero permite que en ciertos casos las fuerzas del orden puedan emplear las cámaras de identificación biométrica con previa autorización judicial, lo que constituyó uno de los puntos más difíciles de las negociaciones entre Eurocámara y Estados para pactar la norma.

Así, podrán hacer usos de estos sistemas para evitar una amenaza terrorista inminente, para localizar o identificar a una persona que haya cometido delitos de terrorismo, tráfico de personas, explotación sexual o un crimen medioambiental.

Un mayor control

Por otro lado, establece una serie de obligaciones para los sistemas de inteligencia artificial de uso general en los que se basan programas como ChatGPT, de la empresa OpenAI, o Bard, de Google.

En concreto, tendrán que especificar si un texto, una canción o una fotografía se han generado a través de inteligencia artificial y garantizar que los datos que se han empleado para entrenar a los sistemas respetan en su conjunto los derechos de autor.

Las empresas que incumplan se enfrentan a multas de hasta el 7 por ciento de su facturación global anual cuando sean infracciones ligadas a aplicaciones prohibidas, hasta el 3 por ciento cuando estén vinculadas a otras obligaciones; y de hasta el 1,5 por ciento de la facturación por proporcionar información incorrecta.

La mayoría de disposiciones se aplicarán a partir del 2 de agosto de 2026 con excepción de la prohibición de los sistemas de riesgo inaceptable, que será efectiva en seis meses, y las normas para IA de uso general, que lo serán en un año.