Skip to content

Un marco normativo para la IA

marco normativo para la IA

No hay duda de que la inteligencia artificial y su espectacular desarrollo ha sido protagonista de las tendencias de 2023 y no parece que 2024 vaya a seguir un camino diferente.

Lo cierto es que en los últimos meses hemos asistido a un crecimiento exponencial de esta tecnología a través de sistemas que se han popularizado rápidamente, como ChatGPT, que forman ya parte de nuestro día a día y, aunque hay opiniones para todos los gustos, incluidas las que ven con malos ojos limitar su uso, numerosos estudios llevan ya un tiempo alertando de las carencias de la IA en cuanto a sesgos raciales o sexistas e insistiendo en la necesidad de regularla antes de que sea demasiado tarde. Por ejemplo, un experimento de la consultora Biko alertó de que los algoritmos de los sistemas de reconocimiento de imágenes de Amazon o Google etiquetaban de forma diferente a mujeres y hombres. Así, si aparecía una mujer sosteniendo un martillo, la IA la calificaba como ‘hombre’. “En muchas ocasiones es ineficaz, discriminatoria, sexista y racista”, denunciaban los responsables del estudio. Y no es la única investigación que se ha hecho al respecto, en los últimos años diferentes informes han llegado a conclusiones similares. A ello se le añade la polémica sobre los derechos de autor, dado que las IAs aprenden con obras protegidas por copyright y sobre la falta de transparencia que se puede dar al presentar una creación de IA como si fuera humana. Todo ello ha ido incrementando el número de voces a favor de establecer un marco normativo para la IA.

El marco normativo para la IA en el Parlamento Europeo

Y esas voces, que se materializaron en un primer texto a través de la Comisión Europea, llegaron al Parlamento de la UE en forma de propuesta de ley y, tras meses de negociaciones, este pasado mes de diciembre el Consejo de la UE, junto al Parlamento Europeo, alcanzaron un acuerdo provisional histórico para avanzar hacia la aprobación definitiva del futuro reglamento que regulará la inteligencia artificial.

El objetivo, desde el principio, ha sido reforzar la normativa sobre el uso y desarrollo de la inteligencia artificial, vigilando el riesgo, pero a la vez permitiendo promover la innovación en el marco del respeto a los derechos fundamentales. Es el primer intento en el mundo de regular esta tecnología.

La propuesta se divide según el nivel de riesgo que conlleve, diferenciando entre: sistemas de IA de riesgo mínimo, de riesgo limitado, de alto riesgo y de riesgo inaceptable.

En los niveles más graves se situarían los usos intrusivos y discriminatorios de la IA y los sistemas de categorización biométrica que utilicen parámetros como el género, raza, orientación política o religión. Igualmente, también se rechazan los de predicción de delitos y los de reconocimiento de emociones. El último punto que se veta es el rastreo aleatorio de datos biométricos de redes sociales y de cámaras de vigilancia para bases de datos de reconocimiento facial.

Además, estiman que se considerarán de alto riesgo sistemas que puedan afectar la salud, la seguridad o el medioambiente, los que puedan influir a votantes en campañas políticas y los de recomendación que usan las plataformas sociales.

Otro punto en el que coinciden es en la necesidad de que el marco normativo para la inteligencia artificial incluya transparencia, y con ese fin, establecen que los contenidos creados mediante tecnologías como ChatGPT y similares deberán advertir que han sido elaborados con inteligencia artificial. Además, han acordado que los desarrolladores tendrán que diseñar el modelo para proteger los derechos de autor y evitar que se genere contenido ilegal. Para ello deberán informar de los datos que se han usado para entrenar a la IA.

Por último, otra de las novedades incluidas es que tendrá que existir una evaluación obligatoria del impacto en los derechos fundamentales, así como mecanismos para que los ciudadanos puedan presentar quejas y recibir explicaciones por decisiones basadas en el uso de modelos de IA que les afecten.

En cuanto a las posibles sanciones por incumplimiento, se establecerán multas de hasta 35 millones de euros o, dependiendo del caso, el 7 % de la facturación global.

Excepciones

Uno de los temas más polémicos y que más discusiones ha generado ha sido determinar la manera en la que las fuerzas del orden podrían utilizar sistemas de IA con fines policiales. Finalmente, la conclusión a la que se ha llegado es que se podrá incluir una excepción a la prohibición, ligada a procedimientos de emergencia. Es decir, solo en casos excepcionales y bajo autorización judicial, se podrán utilizar sistemas de identificación biométrica remota en espacios públicos: un ejemplo de esta aplicación sería la búsqueda de una persona condenada o sospechosa de haber cometido un delito grave.

Oficina Europea de Inteligencia Artificial

También se ha acordado la creación de la nueva Oficina Europea de Inteligencia Artificial dentro de la Comisión Europea, que se encargará de supervisar la aplicación y el cumplimiento de las normas relacionadas con la IA. Igualmente, a nivel local, tendrá que haber autoridades nacionales. En el caso de España, esta responsabilidad quedaría en manos de la Agencia Española de Supervisión de Inteligencia Artificial (AESIA), con sede en A Coruña. Su objetivo es “el desarrollo, supervisión y seguimiento de los proyectos enmarcados dentro de la Estrategia Nacional de Inteligencia Artificial, así como aquellos impulsados por la Unión Europea, en particular, los relativos al desarrollo normativo sobre inteligencia artificial y sus posibles usos”.

En cualquier caso, aún queda un poco para que todos los puntos de la legislación sean efectivos: lo siguiente será la ratificación, que se espera que se produzca durante el primer trimestre de este 2024, una vez ratificada, las prohibiciones podrán empezar a aplicarse 6 meses después y las normas de uso general 12 meses después. El resto se hará efectivo en 2026.

Comparte este post