Una definición de IA es “sistemas de información que realizan análisis de datos y, a partir de estos, toman decisiones similares a las de los humanos”. Si partimos de ahí estaríamos viendo focos amarillos de alerta, incluso rojos porque la IA está cambiando todo. Para muchos, de todas las tecnologías disruptivas, esta es la que podría tener consecuencias más insospechadas porque, coindicen muchos expertos, los algoritmos no siempre toman buenas decisiones.
Y si no toman buenas decisiones, ¿por qué se está dejando en sus redes un presente y futuro que hoy el humano dirige?
La presencia de la IA va a pasos agigantados. En el sector salud la IA ya permite hacer diagnósticos y seguimiento a los pacientes en casa y mejorará la detección de enfermedades; en la agricultura y la ganadería permitirá optimizar las cosechas y la producción, además de automatizar numerosos procesos; en el comercio en línea analiza los datos para personalizar sus servicios y los chabots son indispensables (sí, muchos consideran que ya son indispensables).
En el sector educativo numerosas herramientas pueden optimizar y, sobre todo, personalizar los procesos educativos; en las empresas industriales se puede mejorar la producción y el mantenimiento de la industria, así como predecir la demanda y detectar deficiencias; en el sector financiero, la IA contribuye a automatizar los procesos tradicionales y proveer capacidades mejoradas a las instituciones financieras en banca, mercados de capital, seguros y procesamiento de pagos. La lista de sectores puede continuar.
VAMOS POR PARTES
Empleo. La inteligencia artificial está cambiando el mundo empresarial y pronto se abrirá una brecha entre las empresas que la utilizan y las que no. “Algunas industrias tienen el potencial de incrementar sus ganancias hasta en un 30% cuando introducen tecnologías de inteligencia artificial en sus estructuras comerciales”. Pero este dato, desde algunas perspectivas, podría no ser halagüeño si ese beneficio potencial se vincula a la oferta laboral, porque la forma de trabajar será transformada tanto por la automatización como por la digitalización asociadas a la IA y ambas crearán una nueva dinámica del mercado laboral.
Un reporte de Boston Consulting Group (El futuro de los empleos en la era de la IA, 2021) señala que para 2023 el aumento de la automatización creará tanto déficits como excedentes de mano de obra en Alemania, Australia y Estados Unidos para 2030.
Si las tres naciones en cuestión adoptan la automatización a un ritmo más lento o rápido de lo esperado, por ejemplo, Australia verá cómo su superávit laboral proyectado se eleva a 800 mil personas en 2030, pero si las tasas de adopción son bajas, el superávit solo llegará a 200 mil. Según Boston Consulting Group, los tres países probablemente verán cómo los déficits de trabajadores superan a los superávits.
En el análisis de las sumas y restas, un aspecto positivo es que, aunque la tecnología hará que muchos trabajadores humanos sean redundantes, también creará nuevos puestos de trabajo en hasta 63 ocupaciones porque al asumir un trabajo más rutinario y repetitivo, la automatización también liberará a los trabajadores para que asuman tareas que requieran más habilidades de pensamiento crítico, creatividad e inteligencia emocional, capacidades que no pueden ser replicadas por la tecnología.
Responsabilidad. Dado que la tecnología de la IA se está convirtiendo rápidamente en algo esencial para las empresas, es vital garantizar que estas tecnologías se manejen de forma que las personas sean lo primero y que el uso responsable de la IA sea una piedra angular de la innovación. David Carmona, director general de IA e innovación, de la AI Business School de Microsoft, señala que poner en marcha la IA responsable requiere principios, prácticas, gobernanza y herramientas.
Microsoft formó un comité conocido como Aether (comisión de IA y ética en ingeniería e investigación, por sus siglas en inglés) que funciona como un grupo de reflexión que promueve el debate entre personas con diversos contextos y experiencias. Sus grupos de trabajo proporcionan orientación para iniciativas como los algoritmos de interpretabilidad bajo seis principios: equidad, fiabilidad, privacidad y seguridad, inclusión, transparencia y responsabilidad.
Bajo esa visión, Carmona considera que las empresas deben establecer un órgano de gobierno que desarrolle directrices y mejores prácticas para implementar la IA en todo el ciclo de vida del desarrollo.
Advertencia. El futurista Jerry Kaplan (Humanos favor de abstenerse. Guía de riqueza y trabajo en la era de la inteligencia artificial Jerry Kaplan Yale UP, 2015) ve tanto una gran promesa como un grave peligro. El peligro porque con tantas cantidades inimaginables de datos, identifican patrones, predicen y actúan y esos cambios dejarán a la zaga a los humanos y ampliarán la brecha de la desigualdad al hacer que los ricos, que controlan tantos activos, sean más ricos a medida que substituyen cada vez más la mano de obra por capital. Por lo tanto, los trabajadores tienen que ser capaces de obtener y controlar sus propios activos, instrumentos financieros equitativos, transparentes y listos para el futuro.
Este temor no es nuevo. En 1956 John McCarthy, fundador del Laboratorio de Inteligencia Artificial de la Universidad de Stanford, Nathaniel Rochester, de IBM, y otros expertos en informática se reunieron en el Dartmouth College para resolver el problema de la inteligencia informática. Su enfoque de la IA asustó a los ejecutivos de IBM, que temieron por su empleo.
EL DILEMA ÉTICO
La gente ya atribuye una actitud moral a entidades no humanas, como las empresas. Los tribunales se esfuerzan por hacer responsables de delitos graves a empresas multinacionales. Por ejemplo, en 2019, Apple, Google, Tesla y Microsoft fueron acusadas de esclavitud infantil tras la muerte de 14 menores en las minas de cobalto de El Congo. La demanda sostuvo que Apple, Google, Dell, Microsoft y Tesla tenían «conocimiento concreto» de que el cobalto empleado en sus dispositivos procedía de empresas que utilizaban trabajo infantil forzado en condiciones peligrosas y por ello las consideraban cómplices.
Entonces, ¿si la ley establece que una empresa es moralmente responsable, puede hacer lo mismo con la mente sintética, es decir, con la IA que reúne, ordena y procesa información con criterios establecidos?