Saltar al contenido

Europa aprueba la ley de inteligencia artificial: freno a la innovación o defensa del ciudadano

Tras el acuerdo firmado en diciembre, por el cual la postura defendida por España salió adelante frente al enfoque menos exigente surgido desde Francia, el Parlamento Europeo ha aprobado la trascendental (¿innovadora?) regulación sobre la inteligencia artificial (IA). Con ello, marca un hito en la trayectoria legislativa de los estados miembro y se convierte en el primer territorio en contar con una normativa sobre una tecnología emergente y disruptiva que amenaza con eliminar millones de puestos de trabajo. Ha sido respaldado por la Eurocámara con 523 votos a favor, 46 en contra y 49 abstenciones.

En cualquier caso, es una ley pionera. Se conoce como Reglamento Europa de la IA y se ha llegado a un acuerdo tras intensas negociaciones. El objetivo es “equilibrar los inmensos beneficios potenciales” de esta tecnología pero mirando “sus riesgos inherentes”. Quedan las dudas acerca de si va a suponer un freno a la innovación europea, que queda bloqueada entre la pinza de China y Estados Unidos, o si por el contrario va a proteger al ciudadano y a los trabajadores. El objetivo es restringir los posibles riesgos de esta tecnología a la misma vez que se protege la innovación. ¿Podrá conseguirlo? El Reglamento aún está sujeto a una última comprobación jurídica-lingüística. Su aprobación definitiva (mediante el llamado procedimiento de corrección de errores) está prevista para antes del final de la legislatura. La ley también debe ser adoptada formalmente por el Consejo. Lo que no ha tratado con detenimiento es la regulación en materia de “copyright” y su defensa de los creadores frente a las herramientas que emplean archivos de imágenes, texto, vídeo o audio para “entrenar” sus servicios.

Comunicar las fuentes utilizadas para “entrenar”

Entre las claves, se obligará a comunicar con detalle las fuentes utilizadas para “entrenar” los servicios. Esto afecta directamente a los modelos fundacionales que sirven de base para herramientas como ChatGPT. Por el momento, las IA generativas son cajas negras cuya base de datos se desconoce. Bajo esta ley, los grandes modelos de lenguaje (LLM, por sus siglas en inglés) estarían obligadas a informar de dónde se extraen resultados si quieren seguir operando en nuestro territorio. Esto incluye la elaboración de documentación técnica y la difusión de resúmenes detallados sobre el contenido utilizado. La pregunta es cómo se hará y hasta qué punto se puede desvelar la “magia” detrás de sus capacidades. Esto tiene unas implicaciones mayores: muchos de los servicios que utilizamos no se ajustan, por tanto, a esta normativa. Además de ello, y aunque reglamento no prohíbe su uso, sí establece una serie de criterios para detectar los modelos que pueden representar “un alto riesgo” en función del contexto en el que se utilicen y, con todo, obliga a sus desarrolladores a cumplir unas salvaguardas más estrictas antes de sacarlos al mercado. Además, las imágenes, contenidos de audio o de vídeo artificiales o manipulados (“ultrafalsificaciones”) deberán etiquetarse claramente como tales.

Obligaciones de sistemas de “alto riesgo”

Se prevén “obligaciones claras” para otros sistemas de IA de alto riesgo debido a que pueden ser muy perjudiciales para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho. Algunos ejemplos de usos de alto riesgo de la IA son las infraestructuras críticas, la educación y la formación profesional, el empleo, los servicios públicos y privados esenciales (por ejemplo, la sanidad o la banca), determinados sistemas de las fuerzas de seguridad, la migración y la gestión aduanera, la justicia y los procesos democráticos (como influir en las elecciones). Estos sistemas deben evaluar y reducir los riesgos, mantener registros de uso, ser transparentes y precisos y contar con supervisión humana. Los ciudadanos y ciudadanas tendrán derecho a presentar reclamaciones sobre los sistemas de IA y a recibir explicaciones sobre las decisiones basadas en ellos que afecten a sus derechos.

Control sobre la vigilancia biométrica

En los últimos años hemos observado la aparición de servicios biométricos capaces de perfilar y monitorizar a los ciudadanos. Lo que puede ser una buena idea también es munición para los “malos”. Esta ley reconoce que se trata de “una amenaza potencial”. Por esta razón, se prohibirá el uso de sistemas de categorización biométrica que cuenten con características consideradas sensibles, tales como el perfilado de las creencias políticas, religiosas, orientaciones sexuales y raza. También se va a limitar la extracción de imágenes faciales de internet o de cámaras de vigilancia para generar bases de datos en herramientas de reconocimiento facial, así como sistemas de puntuación social basados en comportamientos sociales y sistemas de reconocimiento de emociones en el entorno laboral. Solo habrá unas excepciones: el uso de sistemas de identificación biométrica en espacios públicos con fines policiales, y siempre sometidos a una autorización judicial previa. El uso de estas herramientas en tiempo real va a estar limitado en tiempo y ubicación para fines del tipo: búsqueda selectivas de víctimas, prevención de amenaza terrorista o identificación de persona sospechosa. 

Establecimiento de multas 

Otro detalle a tener en cuenta, y no menos importante, es la categorización de niveles de gravedad. Habrá, por tanto, sanciones en caso de incumplimiento de las normas, que irán desde el 1,5% del volumen de negocio de la empresa infractora o 7,5 millones de euros hasta un máximo de 7% del volumen de negocio de la empresa infractora o 35 millones de euros. ¿Poco, mucho o regular? Teniendo en cuenta que en el Reglamento General de Protección de Datos (RGDP) se establece un 4% de la facturación anual o un máximo de 20 millones de euros puede ser “pecata minuta” para muchas compañías multinacionales. En conclusión, el paraguas de esta ley cubre gran parte del desarrollo tecnológico desde la perspectiva empresarial, pero quizás, y solo quizás, se deja ausente el mundo del consumo donde, esta vez, la adopción está siendo vertiginosa. Esto, en cualquier caso, es solo el principio. 


Ahora CHATGPT es mejor siendo gratuito: trucos para aprovecharlo

Te enseñamos a aplicar las capacidades de GPT 4o, el nuevo modelos de lenguaje de OpenAI que es grat…

Voces sensuales, la sumisión se quiere apoderar de la IA

A pesar de los esfuerzos, el desarrollo de los sistemas basados en inteligencia artificial continúan…

Scarlett Johansson, OpenAI y el problema de la IA

OpenAI retira una voz empleada para su nuevo modelo ChatGPT-4o por su parecido con la de la actriz S…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *