El Parlamento de la UE ratificó la primera ley de IA del mundo el 13 de marzo pasado, luego de que el 21 de abril de 2021 aprobara un marco normativo pionero que buscaba armonizar y sentar las bases para otorgar seguridad jurídica de cara a estimular la inversión e innovación, promulgando un conjunto de normas para salvaguardar los derechos fundamentales y la seguridad. La aparición a finales de 2022 del ChatGPT dio el empuje definitivo para llegar a la ley, la cual se prevé que entre en vigor en mayo de este año.
En términos generales, la necesidad de una ley de IA surge del riesgo de no actuar ante el uso equivocado de la IA porque, a medida que la IA aumenta en complejidad, los procesos por los cuales toma decisiones se volverán cada vez más oscuros, reduciendo el poder para formular objeciones tanto de los ciudadanos como de los gobiernos, entre otras situaciones.
Pero no todo es a favor de la ley de IA, hay voces que apuntan que la legislación puede frenar la innovación. Datos del Parlamento Europeo indican que actualmente solo el 3% de los unicornios de IA del mundo proceden de la UE, con una inversión privada en IA unas 14 veces mayor en Estados Unidos y cinco veces más en China. Sin embargo, hay estimaciones que sugieren que el alcance regulatorio y la aplicación geográfica de la ley europea podría plantear desafíos significativos para plataformas estadounidenses. Para 2030, se espera que el mercado mundial de la IA alcance los 1.5 billones de dólares.
ENFOQUE DE LA LEY
Este primer marco regulador de la Unión Europea para la IA tiene dos objetivos principales:
1. Seguridad para la ciudadanía, garantizando que los sistemas de IA usados en la UE e introducidos en el mercado europeo sean seguros y respeten los derechos de los ciudadanos.
2. Estimular la inversión y la innovación en el ámbito de la IA en Europa.
Según la ley de IA, los sistemas de aprendizaje automático se dividirán en cuatro categorías principales en función del riesgo potencial que supongan para la sociedad:
Riesgo inaceptable. Algunos ejemplos son los sistemas orientados a la manipulación cognitiva conductual o el rastreo indiscriminado de imágenes faciales extraídas de la web. Las únicas excepciones, muy delimitadas y protocolizadas, tienen que ver con usos de extrema urgencia que requieren una autorización judicial.
Riesgo alto. IA usada en infraestructuras críticas, formación, empleo, servicios esenciales, procesos judiciales y democráticos, control fronterizo, etc. estarán sometida a estrictos requisitos y certificaciones y no podrán comercializarse hasta que el organismo regulador les dé su aprobación.
Riesgo limitado. Los usos asociados a la falta de transparencia, como texto informativo sobre temas de interés público redactado por una IA o chabot. En estos casos las aplicaciones están sometidas a requisitos de etiquetado para aclarar que se trata de sistemas de IA.
Riesgo mínimo. La mayoría de los sistemas usados actualmente como filtros de sapam o videojuegos con IA integrada tienen permitido el uso libre sin requisitos ni obligaciones.
Las normas generales sobre IA se aplicarán un año después de su entrada en vigor, según las previsiones en mayo de 2025, y las obligaciones para los sistemas de alto riesgo en tres años. Estarán bajo la supervisión de las autoridades nacionales, apoyadas por la oficina de IA dentro de la Comisión Europea, pero corresponderá a los Estados miembros crear agencias nacionales de supervisión para lo cual tienen 12 meses.
OTROS ESFUERZOS
Varios países están intentando desarrollar normas de regulación para la inteligencia artificial de forma segura, confiable y que tome en cuenta los riesgos y las oportunidades que esta tecnología conlleva. En México, de acuerdo con los datos disponibles, existen 19 iniciativas provenientes de los partidos representados en el Congreso para regular distintos aspectos de la Inteligencia Artificial.
En Estados Unidos, el 30 de octubre pasado, el presidente Joe Biden firmó una Orden ejecutiva sobre el desarrollo y uso seguro y confiable de la inteligencia artificial que cuenta con ocho principios rectores y prioridades como el que la IA sea segura, haya el compromiso de apoyar a los trabajadores estadounidenses y proteja los intereses de los estadounidenses que utilizan cada vez más en su vida diaria.
En la India en noviembre del año pasado el gobierno anunció que comenzaba a redactar un reglamento para regular y penar el uso de imágenes ultrafalsas o “deepfake” creadas con inteligencia artificial convertidas en amenazas para la sociedad; según las autoridades la postura de este país es trabajar en una regulación global de IA.
En China el 15 de agosto de 2023 entraron en vigor las Medidas Provisionales para la Gestión de Servicios de Inteligencia Artificial Generativa que establecen una serie de reglas, que los distintos componentes de la cadena de valor de la inteligencia artificial deben observar en el desarrollo de esta tecnología. Van desde cuestiones políticas que deben ser tomadas en cuenta por los desarrolladores de contenido con inteligencia artificial, pasando por cuestiones de discriminación, ética comercial, transparencia, etiquetado de datos, obligaciones de los proveedores y derechos de los usuarios.
En Chile, en abril de 2023 el Congreso abordó la iniciativa proyecto de Ley que Regula los Sistemas de Inteligencia Artificial, la Robótica y las Tecnologías Conexas en sus distintos ámbitos. Considera sistemas de riesgo inaceptable y sistemas de alto riesgo, a ambos les asigna prácticamente las mismas definiciones que la iniciativa europea.
En Brasil, se han presentado dos proyectos de ley uno en 2020 y otro en 2023. El más reciente recoge prácticamente el mismo enfoque que el de la UE, aunque también incluye derechos específicos de las personas afectadas por la IA.
Argentina ha aprobado una serie de Recomendaciones para una IA fiable, orientadas exclusivamente a quienes formen parte del sector público y que están basadas sobre todo en estándares internacionales sobre principios éticos de la inteligencia artificial, incluidos en documentos como las Recomendaciones sobre la ética de la IA de la Unesco, los principios de la OCDE sobre Inteligencia Artificial y la Conferencia de Asilomar organizada por el instituto Future of Life.
Respecto a la OCDE, los 36 países que la integran, incluido México, firmaron en mayo de 2019, un primer conjunto de directrices de políticas intergubernamentales en materia de inteligencia artificial, que consideran seis principios y cinco recomendaciones para la elaboración de políticas públicas o regulaciones sobre Inteligencia Artificial.
Los principios se pronuncian por el desarrollo sostenible y el bienestar de las personas, así como salvaguardias adecuadas con miras a garantizar una sociedad justa y equitativa. La transparencia y una divulgación responsable también son contemplados, así como la evolución y gestión de los potenciales riesgos.
NO HAY VUELTA ATRÁS
De acuerdo con el Índice de Inteligencia Artificial de la Universidad de Stanford, en 2023 se produjeron 32 modelos de inteligencia artificial dentro de la industria y solo 3 en la academia, estos datos nos dejan ver los alcances de la IA que van tomando en nuestra vida diaria. Según Grand View Research, se espera que el tamaño del mercado global de la IA crezca 37% cada año desde 2023 hasta 2030. En 2023 el mercado se valoró en 196,63 mil millones de dólares.
La regulación de la IA ya no responde a la pregunta de si se debe desarrollar o no, sino a cómo tiene que hacerse de la mejor manera para no afectar a los usuarios, a los desarrolladores, a las empresas y a los gobiernos. Según datos publicados en la Gaceta UNAM, cerca del 80% de las personas en algunos países utilizan inteligencia artificial, incluso sin darse cuenta; sólo la tercera parte está consciente de ello.