Un marco normativo para la Inteligencia Artificial

marco normativo para la Inteligencia Artificial

“El mundo necesita reglas para que la Inteligencia Artificial beneficie a la humanidad”. Con estas palabras, la directora general de la UNESCO, Audrey Azoulay, anunciaba una serie de recomendaciones éticas para la Inteligencia Artificial en la que su organismo lleva trabajando tres años junto con cientos de expertos de todo el mundo. Tras intensas negociaciones, esta declaración, la primera al respecto -pero que no es vinculante- pretende regular una tecnología que, aunque sigue siendo muy novedosa, está cada vez más presente en nuestras vidas.

¿Alguna vez te has preguntado cómo hace tu móvil para mejorar los selfies que te haces o quién selecciona tan adecuadamente los contenidos que ves en tus redes sociales? No, no es cosa de magia o duendes, es la IA la que está detrás de esa tecnología. También la puedes encontrar en las búsquedas de Google, en los chatbots de atención al cliente que recogen tus dudas, en los sistemas de navegación e incluso en los programas para encender y apagar las luces de tu casa con a través de tu voz. Poco a poco se ha ido adentrando en nuestras rutinas, haciendo nuestras vidas un poco más cómodas, con mejoras que hace unos años no hubiésemos podido imaginar.

Pero no todo es de color de rosa. Con el paso del tiempo y su desarrollo, también se han detectado nubarrones en el paraíso tecnológico, hasta el punto de que los expertos descubrieron que la IA utilizaba sesgos: por ejemplo, un experimento de la consultora Biko alertó de que los algoritmos de los sistemas de reconocimiento de imágenes de Amazon o Google etiquetaban de forma diferente a mujeres y hombres. Así, si aparecía una mujer sosteniendo un martillo, la IA la calificaba como ‘hombre’. “En muchas ocasiones es ineficaz, discriminatoria, sexista y racista”, denunciaban los responsables del estudio. Y no es la única investigación que se ha hecho al respecto, en los últimos años numerosos informes han llegado a conclusiones similares, lo que ha incrementado el número de voces a favor de su regulación.

Recomendaciones de la UNESCO

Con el fin de exprimir las muchas ventajas que la inteligencia artificial ofrece a la sociedad y reducir los riesgos, la UNESCO ha elaborado una serie de recomendaciones para su buen desarrollo:

  • Protección de datos: incide en la importancia de que los usuarios puedan controlar sus datos personales, pudiendo acceder a ellos o incluso borrarlos. Además, insta a las empresas tecnológicas y a los gobiernos a asegurar su transparencia.
  • Prohibición de los marcadores sociales y la vigilancia masiva: condena el uso de sistemas de IA para la vigilancia masiva, al considerar que son invasivos y vulneran los derechos humanos y las libertades fundamentales. Además, destaca que los Estados miembros de la UNESCO deben tener en cuenta que la responsabilidad última ha de recaer siempre en las personas y no en la tecnología por sí misma.
  • Ayudar a supervisar y evaluar: sienta las bases de las herramientas que contribuirán a vigilar la IA, para que los países y empresas que desarrollan y despliegan estos sistemas puedan calibrar su impacto en las personas, la sociedad y el medioambiente.
  • Protección del medioambiente: solicita a los Gobiernos que evalúen el impacto medioambiental del ciclo de vida del sistema de IA. Lo que incluye su huella de carbono, el consumo de energía y las consecuencias de la extracción de materias primas.

No obstante, hay que recordar que estas recomendaciones son únicamente eso, consejos para un buen uso, sin que conlleve una obligación de cumplimiento.

Propuesta de la Comisión Europea

Por su parte y con el fin de elaborar una legislación que sí implique penalizaciones, la Comisión Europea ha elaborado un texto que establece ‘líneas rojas’ para lograr una IA “centrada en el ser humano, sostenible, segura, inclusiva y fiable”. El texto, que aún está en negociaciones y pendiente de aprobación divide en cuatro categorías el nivel de riesgo de una IA:

  • Riesgo inadmisible: se considerarán como tal los sistemas que busquen manipular el comportamiento humano, como juguetes que inciten a conductas peligrosas en menores y sistemas que usen la ‘puntuación social’ por parte de los Gobiernos. Este tipo de tecnología sería prohibida.
  • Alto Riesgo: que tendrán que cumplir unos estrictos requisitos para poder ser comercializados. En este ámbito entrarían las tecnologías empleadas en infraestructuras críticas como el transporte, la calificación de exámenes, los componentes de seguridad de los productos, o el acceso al empleo, entre otros.
  • Riesgo limitado: que implica la obligación de transparencia para los robots conversacionales.
  • Riesgo mínimo: para la libre utilización de aplicaciones, como videojuegos que usan IA o filtros de correo no deseado.

La regulación europea prevé penalizar a las empresas que la incumplan con sanciones de hasta el 6% de su facturación anual global o 30 millones de euros, según la cifra más elevada. La propuesta estima también que los Estados tendrán un papel clave en su aplicación y cumplimiento. Precisamente, el Gobierno ha anunciado en los Presupuestos que creará una Agencia Estatal para el control de la IA.

¿El objetivo? “El desarrollo, supervisión y seguimiento de los proyectos enmarcados dentro de la Estrategia Nacional de Inteligencia Artificial, así como aquellos impulsados por la Unión Europea, en particular los relativos al desarrollo normativo sobre inteligencia artificial y sus posibles usos”.

Fuera de las fronteras europeas, en EE. UU, la National Defense Authorization Act de 2021 determinó el establecimiento de un organismo, el National AI Initiative Office, para supervisar la estrategia nacional de Inteligencia Artificial.

Reino Unido, por su parte, también ha creado una oficina centrada en la IA, el Centre for Data Ethics and Innovation, cuya función principal es la de identificar y solucionar posibles sesgos de datos.

Nos encontramos a las puertas de la regulación de los sistemas de Inteligencia Artificial, una tecnología que conlleva múltiples ventajas, pero necesita ser encauzada para que la sociedad pueda crecer y beneficiarse con ella.

¿Son los sistemas biométricos el futuro?

La biometría está abriéndose paso en el ámbito profesional y también en la vida cotidiana. Hoy en día la mayoría de los smartphones tienen sistemas biométricos, como el reconocimiento facial o el lector de huella, que permiten la identificación instantánea del usuario.

Seguir leyendo