Un borrador del reglamento cuyo objetivo es garantizar la normativa sobre IA en el mercado europeo y reforzar la seguridad y el respeto de los derechos fundamentales y valores de los sistemas empleados en la UE.
Se trata de una propuesta que es un primer paso y marca un hito hist贸rico, ya que seg煤n las autoridades europeas su finalidad es estimular la inversi贸n y la innovaci贸n en IA en Europa.
La ratificaci贸n de dicho acuerdo por ambas partes no establece una fecha en firme de la ley, pero s铆 fija una fecha l铆mite de aplicaci贸n, concretamente a los dos a帽os tras su entrada en vigor, un hecho que constata que la regulaci贸n sobre IA no tiene vuelta atr谩s.
Sin embargo, los par谩metros de realidad de esta futura norma de IA en Europa suscita numerosos interrogantes y un clima de incertidumbre para el sector empresarial de las Tech. 驴Qu茅 ocurrir谩 una vez la ley entre en vigor? Lo cierto es que a煤n se desconoce su pr谩ctica, y resulta complicado incluso imaginar c贸mo ser谩 la aplicaci贸n de estas normas.
El atasco del acuerdo: vigilancia biom茅trica y el control de herramientas como chatGPT
Uno de los momentos que enquistaron el proceso de acuerdo ha sido con dos de los aspectos que suscitan mayor pol茅mica. El uso de c谩maras de reconocimiento facial o vigilancia biom茅trica en aquellos espacios p煤blicos, y la utilizaci贸n que ya es una gran realidad en la pr谩ctica de herramientas o aplicaciones como chatGPT o DALL-E.
El Parlamento pretend铆a que se prohibieran y por su parte los gobiernos han ejercido la m谩xima presi贸n hasta lograr conseguir que los cuerpos y fuerzas de seguridad puedan emplearlas en determinados casos justificados.
Baremo de clasificaci贸n para la ley IA
El prop贸sito de la Uni贸n Europea es que todos los productos con inteligencia artificial se clasifiquen teniendo en cuenta un nivel de riesgo m铆nimo, limitado, alto riesgo o inaceptable. Y de este modo y con estos preceptos, la ley ser谩 en mayor o menor medida permisiva.
Leve o m铆nimo ser谩 por ejemplo revelar que un contenido se ha generado con IA para que los usuarios puedan tomar decisiones sobre su uso posterior. Los grupos m谩s restrictivos est谩n directamente relacionados con,
- La manipulaci贸n cognitiva y algunos objetos que influyan en la educaci贸n y comportamiento de grupos vulnerables como los ni帽os, la discapacidad o situaciones sociales o econ贸micas. Se proh铆ben algunos aspectos como la manipulaci贸n cognitivo-conductual.
- La eliminaci贸n no selectiva de im谩genes faciales en internet o im谩genes de CCTV.
- El reconocimiento de emociones en el trabajo o en instituciones educativas.
- La puntuaci贸n social, categorizaci贸n o clasificaci贸n biom茅trica para inferir en datos sensibles como orientaci贸n sexual, creencias, o determinados casos de vigilancia policial para individuos.
Por su parte, las herramientas como el ChatGPT presentan tal nivel y potencial con la ayuda y simplificaci贸n de tareas, que de cara a evitar numeroso contenido ilegal protegido por derechos de autor, se plantean algunas medidas como citar que determinados contenidos se han generado con la aplicaci贸n.
Sin embargo, en este sentido algunos estados europeos se han mostrado m谩s permisivos, porque la realidad es que se anteponen otros intereses de 铆ndole econ贸mico, como el temor de que tomar demasiadas restricciones con herramientas de este tipo, pueda permitir el sorpaso del gigante estadounidense en cuanto al desarrollo de la IA.
La regulaci贸n de la IA en Europa, un interrogante para las tech
La ley prev茅 multas importantes por infracciones que van desde los 7,5 hasta los 35 millones de euros, o el 7% del volumen de la empresa que cometa la infracci贸n.
Si bien esta normativa se materializar谩 a corto plazo, a lo sumo y lo m谩s esperado en 2026, para las empresas tecnol贸gicas genera un interrogante. Deberemos como siempre adaptarnos a este nuevo escenario legal en materia de inteligencia artificial.