Necesitamos alinear la regulación de la inteligencia artificial

Nos encontramos en un momento histórico en el que, ante el auge de la inteligencia artificial, existe un consenso generalizado sobre la necesidad de regularla. Pero, ¿cómo hacerlo correctamente? En la última década, el debate en torno a la gobernanza de esta tecnología ha cobrado impulso, multiplicándose las propuestas políticas. Un análisis reciente de Stanford ponía cifras a la fiebre reguladora: desde 2016 hasta 2022, el mundo ha pasado de 1 ley sobre la materia a 37.

La presencia de la inteligencia artificial en los procedimientos legislativos de 81 países ha aumentado casi siete veces. España encabeza la lista con 273 menciones, seguida de Canadá (211), Reino Unido (146) y Estados Unidos (138). Y eso sin contar que todavía falta por llegar una de las iniciativas de mayor impacto: la ley de inteligencia artificial europea. Lo que está claro es que hay un creciente interés en torno al impacto social de estas nuevas aplicaciones y un grito generalizado reclamando límites que guíen su evolución. La carrera por regular ha comenzado y el mundo mira a las grandes potencias en busca de orientación porque una atomización de reglas que afectan a la tecnología más relevante de este siglo puede tener consecuencias indeseadas sobre casi todo, incluido el comercio internacional y la competitividad de los países.

Con el auge de ChatGPT y los primeros pasos hacia la inteligencia artificial general (AGI), el debate técnico se centra en cómo garantizar que las máquinas no acaben tomando el control. En el mundillo, el alineamiento o alignment pretende hacer converger lo que se quiere que hagan los sistemas y lo que realmente harán. Esta preocupación es la que ha llevado a científicos como George Hinton, a pedir que “si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde” o incluso a investigadores de OpenAI a compartir sus temores ante un desarrollo técnico que desalineado con los intereses humanos y los principios éticos.

Los que están desarrollando esta tecnología piden que se pare, pero curiosamente solo durante 6 meses, mientras que otras tantas destacadas investigadoras como Timnit Gebru afirman que más que una pausa lo que hace falta es regulación que refuerce la transparencia. El CEO de Google o Bill Gates ven esta propuesta poco práctica para atajar los verdaderos problemas que presenta este avance a toda velocidad. Consideran que estamos frente al “avance más importante” desde la creación de los ordenadores y los móviles.

Aunque no hay una definición universal, se entiende por AGI como un sistema computacional capaz de hacer cualquier tarea humana y generar nuevos conocimientos. Sería más adecuado llamarlo GodAI. Casi un 40% de los expertos cree que podría suponer una catástrofe del tipo nuclear, por ello hasta el emprendedor más liberal está pidiendo regulación. Sin embargo, más que obsesionarnos con regular para contener algo que ya ha desbordado, deberíamos abrir una conversación global, no solo entre gobiernos, que permita revisar los incentivos que dan forma al propio desarrollo tecnológico y acordar unos mínimos orientadores para los próximos años. Una maraña regulatoria difícil de implementar y cumplir en plena desglobalización no parece ser la mejor solución

Para hacernos una idea de la diversidad de reacciones por parte de los reguladores ante una aplicación tecnológica como ChatGPT solo tenemos que dar una vuelta por los movimientos de las últimas semanas. China ha introducido un conjunto de normas para los servicios basados en inteligencia artificial generativa. La intención de Beijing, reportada por Reuters, es que las empresas realicen evaluaciones de seguridad antes de que sus productos sean lanzados al mercado. Sus directrices ponen la responsabilidad en los proveedores, quienes deben garantizar la legalidad de los datos usados al entrenar sus soluciones tecnológicas, así como implementar medidas preventivas que eviten la discriminación al crear algoritmos y al utilizar la información recopilada.

Italia decidió bloquear ChatGPT algo que fue después enmendado tras ajustes de privacidad por parte de la empresa. En esta línea, el Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés) ha creado un grupo de trabajo con todas las autoridades nacionales de protección de datos que anuncian cada día nuevas investigaciones sobre la empresa más popular del momento: OpenAI. ¿Es que acaso solo hay un proveedor de estos grandes modelos de lenguaje? En contraste, países como el Reino Unido o la India han optado por evitar establecer regulaciones estrictas en esta fase de descubrimiento. Parecen estar apostando por permitir que la tecnología evolucione libremente con vistas a desencadenar su propio pelotazo tecnológico que pueda impulsar sus economías.

Ante la diversidad de estrategias en los diferentes países, con intereses nacionales y corporativos variados, la idea de un marco unificado de regulación de la inteligencia artificial se vislumbra más como un sueño que una opción factible. ¿Qué alternativas hay en el medio? Una de las propuestas recurrente en los foros internacionales es la creación de una Agencia Internacional para la Inteligencia Artificial (IAI) global, neutral, que cuente con la orientación y la participación de gobiernos, grandes empresas tecnológicas, organizaciones sin ánimo de lucro, el mundo académico y la sociedad. Mientras la gobernanza internacional estructura la conversación para llegar a un consenso sobre cómo avanzar en este punto de inflexión tecnológico, tal vez sería interesante actualizar las regulaciones existentes y, en aquellos nuevos desarrollos normativos, colaborar entre países para que sus planteamientos y requisitos estén alineados. Será la única forma de facilitar su cumplimiento.

APLIRED

IT & Bussines Consulting Services