Saltar al contenido

Claves sobre una Ley de Inteligencia Artificial “a la europea”: ¿valdrá la pena?

Pexels

La evolución de las tecnologías de inteligencia artificial asusta. Sobre todo, cuando afecta directamente al ámbito de los derechos fundamentales de los europeos. En los últimos años hemos observado aplicaciones de estos servicios que han despertado una serie de miedos, como el control ciudadano y la propagación de contenidos falsos. Pero estas herramientas que cada vez están al alcance de cualquiera han hecho su travesía hacia la democratización, logrando penetrar en muchos sectores por sus indudables ventajas productivas. Pensamos en la educación, pero también en el campo de la sanidad, la banca, la comunicación. Por esta razón era necesario implantar unas reglas del juego.

Después de 36 largas horas, la Comisión Europea ha llegado a un acuerdo para firmar una Ley de Inteligencia Artificial. Se trata de un marco jurídico con ánimo de perdurar en el tiempo. Sus firmantes aseguran que la normativa, cuyo texto final deberá ratificarse a finales del 2026, estará a prueba del futuro y tendrá cierta flexibilidad. Esa “flexibilidad” debe ser necesaria porque, como hemos visto en el último año, estamos en un contexto muy cambiante en el que la innovación va a velocidades increíbles. Analicemos, pues, en qué consiste o si, por el contrario, se han apresurado para ser el primer continente en contar con una regulación en este campo pero se han dejado algunos detalles en el tintero.

Thierry Bretón, comisario de Industria y Servicios Digitales, ha asegurado que se trata “mucho más que un paquete de normas”. Es, dice, “una lanzadera para que las startups europeas y los investigadores lideren la carrera por la IA”. Visto así, se supone, que reúne los mimbres necesarios para no perjudicar a la innovación “made in Europe”. Por el momento, se adoptan unas medidas amplias que, en muchos casos, afectan directamente a la vigilancia ciudadana. En los últimos años Europa ha perdido el tren de muchas tecnologías emergentes frente a Estados Unidos y China, aunque ha optado por un marco más garantista para los ciudadanos. Esto puede perjudicar el desarrollo de las empresas, pero puede salvaguardar nuestro bienestar. La gran pregunta es si estas medidas van a dejar fuera de juego a Europa en el desarrollo de los grandes modelos de IA.

Una persona utiliza ChatGPT en su ordenador | Pexels

Una mayor transparencia

Detallar fuentes utilizadas 

Se obligará a comunicar con detalle las fuentes utilizadas para “entrenar” los servicios. Esto afecta directamente a los modelos fundacionales que sirven de base para herramientas como ChatGPT. Por el momento, las IA generativas son cajas negras cuya base de datos se desconoce. Bajo esta ley, los grandes modelos de lenguaje (LLM, por sus siglas en inglés) estarían obligadas a informar de dónde se extraen resultados si quieren seguir operando en nuestro territorio. Esto incluye la elaboración de documentación técnica y la difusión de resúmenes detallados sobre el contenido utilizado.

La pregunta es cómo se hará y hasta qué punto se puede desvelar la “magia” detrás de sus capacidades. Esto tiene unas implicaciones mayores: muchos de los servicios que utilizamos no se ajustan, por tanto, a esta normativa. Además de ello, y aunque reglamento no prohíbe su uso, sí establece una serie de criterios para detectar los modelos que pueden representar “un alto riesgo” en función del contexto en el que se utilicen y, con todo, obliga a sus desarrolladores a cumplir unas salvaguardas más estrictas antes de sacarlos al mercado. 

Una persona genera una imagen mediante una herramienta de IA | Pexels

Defensa sobre los derechos de autor

Respeto del “copyright” pero una posición difícil o casi imposible

Además, otro aspecto relacionado con el punto anterior tiene que ver con los derechos de autor. Las herramientas de IA generativas deberán especificar si una canción, un texto o una imagen se ha construido mediante estos servicios. Y, además de ello, se pretende garantizar que los datos con los que han sido “entrenados” respetan los derechos de autor.

Esto es una planicie delicada debido a que muchos de los resultados vienen “inspirados” en contenidos preexistentes. El problema es que ante tal cantidad de datos es casi imposible detectar de manera automática si se está infringiendo los derechos de autor. Tal vez en el futuro se “capen” estas posibilidades y los usuarios no podrán obtener resultados cuando introduzcan sus “prompts”. ¿Esto abre la puerta a pagos, compensaciones o cánones? Una de las grandes dudas es acerca de si esta ley va a provocar la salida de empresas europeas a otros países menos exigentes. 

Control sobre la vigilancia biométrica

Solo en espacios públicos, por parte de fuerzas de seguridad y con autorización judicial

En los últimos años hemos observado la aparición de servicios biométricos capaces de perfilar y monitorizar a los ciudadanos. Lo que puede ser una buena idea también es munición para los “malos”. Esta ley reconoce que se trata de “una amenaza potencial”. Por esta razón, se prohibirá el uso de sistemas de categorización biométrica que cuenten con características consideradas sensibles, tales como el perfilado de las creencias políticas, religiosas, orientaciones sexuales y raza.

También se va a limitar la extracción de imágenes faciales de internet o de cámaras de vigilancia para generar bases de datos en herramientas de reconocimiento facial, así como sistemas de puntuación social basados en comportamientos sociales y sistemas de reconocimiento de emociones en el entorno laboral. Solo habrá unas excepciones: el uso de sistemas de identificación biométrica en espacios públicos con fines policiales, y siempre sometidos a una autorización judicial previa. El uso de estas herramientas en tiempo real va a estar limitado en tiempo y ubicación para fines del tipo: búsqueda selectivas de víctimas, prevención de amenaza terrorista o identificación de persona sospechosa. 

Establecimiento de multas

Sanciones por infracción que en muchos casos pueden ser “asumibles” por los grandes

Otro detalle a tener en cuenta, y no menos importante, es la categorización de niveles de gravedad. Habrá, por tanto, sanciones en caso de incumplimiento de las normas, que irán desde el 1,5% del volumen de negocio de la empresa infractora o 7,5 millones de euros hasta un máximo de 7% del volumen de negocio de la empresa infractora o 35 millones de euros.

¿Poco, mucho o regular? Teniendo en cuenta que en el Reglamento General de Protección de Datos (RGDP) se establece un 4% de la facturación anual o un máximo de 20 millones de euros puede ser “pecata minuta” para muchas compañías multinacionales. En conclusión, el paraguas de esta ley cubre gran parte del desarrollo tecnológico desde la perspectiva empresarial, pero quizás, y solo quizás, se deja ausente el mundo del consumo donde, esta vez, la adopción está siendo vertiginosa. Esto, en cualquier caso, es solo el principio. 


Ahora CHATGPT es mejor siendo gratuito: trucos para aprovecharlo

Te enseñamos a aplicar las capacidades de GPT 4o, el nuevo modelos de lenguaje de OpenAI que es grat…

Voces sensuales, la sumisión se quiere apoderar de la IA

A pesar de los esfuerzos, el desarrollo de los sistemas basados en inteligencia artificial continúan…

Scarlett Johansson, OpenAI y el problema de la IA

OpenAI retira una voz empleada para su nuevo modelo ChatGPT-4o por su parecido con la de la actriz S…

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *