Aunque la inteligencia artificial comenzó su desarrollo hace algunas décadas, su visibilidad y protagonismo en la atención pública se disparó a partir de la irrupción de la inteligencia artificial generativa –representada por sistemas como ChatGPT, Dall-E o Bard– cuyas herramientas han captado la imaginación colectiva por su capacidad de generar textos, videos, audios o imágenes con una calidad y velocidad impresionantes.
La IA generativa ha abierto nuevas posibilidades en campos como la creatividad, la educación y la productividad empresarial,
pero su capacidad de generar contenido ha suscitado preocupaciones sobre cómo asegurar la autenticidad de la información y proteger la identidad personal.
Se están dando algunos pasos para mitigar los riesgos como desarrollar soluciones tecnológicas para detectar contenido generado por IA, asegurar la autenticidad de la información, proteger la identidad personal y promover la alfabetización mediática y las habilidades de análisis crítico.
Pero las promesas de la IA –como el potencial de actuar como un gran nivelador, democratizando el acceso a oportunidades que antes eran exclusivas de ciertos grupos– no se harán realidad si no existe un esfuerzo coordinado de la sociedad para asignar los recursos necesarios para su desarrollo e implementación, asegurando que se encuentren al alcance de toda la población y sin la afectación a ésta como lo refiere en
Algorithms of Oppression la profesora Safiya Umoja Noble.
En su libro muestra cómo los sesgos en los datos históricos y la concentración de poder han dado por resultado sistemas sesgados, en particular en contra de mujeres y minorías raciales. También hay información sobre el uso incorrecto de reconocimiento facial en la ciudad de Detroit, donde ha llevado a tres arrestos equivocados, todos de personas negras.
Es importante mencionar que los sesgos observados en el desempeño de sistemas de IA no son necesariamente problemas nuevos, ni han sido creados por estos sistemas, sino que están haciendo visibles desigualdades estructurales de nuestras sociedades y tienden a amplificarlas, por lo que existe el riesgo de que las desigualdades se perpetúen y se amplíen.
Ante esta situación
es crucial desarrollar y socializar métodos para identificar y mitigar los sesgos, asegurando que los sistemas de IA, lejos de replicar brechas históricas por razones de género, raza, edad o cualquier otra característica protegida se desarrollen y usen de formas deliberadas.
Asimismo,
es fundamental promover un enfoque multidisciplinario y colaborativo fomentando la diversidad en los equipos, no solo en términos de género, sino también en aspectos como el origen étnico, cultural y disciplinario para asegurar que los sistemas de IA sean más equitativos y representativos de la sociedad en su conjunto, considerando que los problemas de origen son sistémicos, estructurales e históricos. Esto implica acciones a lo largo de todo el ciclo, desde el financiamiento, diseño y gobernanza institucional, recopilación de datos, entrenamiento, desarrollo, despliegue, etcétera.
Pero además de la inclusión
se requieren marcos regulatorios robustos para proteger la privacidad individual y prevenir el uso indebido de la información personal, al tiempo que permitan la innovación y el desarrollo tecnológico porque a medida que los algoritmos de IA se vuelven más complejos, puede resultar difícil entender cómo llegan a sus decisiones o recomendaciones.
Esa «caja negra» plantea cuestionamientos sobre la confianza y la rendición de cuentas, especialmente en aplicaciones críticas para los derechos humanos como la atención médica o el sistema de justicia, por ello, la responsabilidad y supervisión humana en los sistemas de IA es crucial y algo que se tendrá que definir y repensar continuamente.
Se debe determinar qué tareas pueden ser confiadas a la IA y cuáles requieren supervisión humana, hasta qué grado y en qué momentos.
Por todo lo que implica la inteligencia artificial
es esencial establecer marcos regulatorios que protejan los derechos humanos y promuevan la igualdad e inclusión en el uso de la IA. Estos marcos deben ser lo suficientemente flexibles para adaptarse a la rápida evolución de la tecnología y lo suficientemente robustos para proporcionar salvaguardias efectivas contra el uso indebido. La colaboración internacional es crucial en este aspecto, dada la naturaleza global de la tecnología de IA y sus implicaciones transfronterizas.
También
es necesario incorporar consideraciones éticas desde las primeras etapas del proceso de desarrollo, realizando evaluaciones de impacto ético y estableciendo mecanismos de auditoría y rendición de cuentas. Las empresas y organizaciones que desarrollan y despliegan sistemas de IA deben asumir la responsabilidad de garantizar que sus productos sean seguros, justos y respetuosos con los derechos humanos y con su entorno.
La inteligencia artificial representa una revolución tecnológica con un potencial transformador sin precedentes. Su capacidad para procesar grandes volúmenes de datos, aprender de manera autónoma y generar soluciones innovadoras la convierte en una herramienta poderosa para abordar desafíos complejos en diversos ámbitos de la sociedad.
Sin embargo, para aprovechar plenamente este potencial,
es crucial que su desarrollo y aplicación se guíen por principios éticos sólidos y un compromiso con la igualdad y la justicia compartido solidariamente por gobiernos, empresas, desarrolladores, usuarios, la comunidad científica y la sociedad civil.
El artículo completo se puede consultar en
Ponencia IMEF 2024 Innovando hacia un México con Sostenibilidad.