Por: Eric Hutto. Presidente y Chief Operating Officer en Unisys
La inteligencia artificial (IA) puede ayudar a los humanos a enfrentar muchos desafíos, pero también plantea desafíos. Sabemos que tiene sesgos y es compleja. Entendemos que puede o no sacar conclusiones justas y éticas todo el tiempo. Sin embargo, está claro que la IA es una realidad de cualquier modo.
El físico Stephen Hawking dijo que la IA era una gran preocupación. Comentó: “El éxito en la creación de una IA efectiva podría ser el mayor acontecimiento en la historia de nuestra civilización. O el peor”. Entonces, la pregunta es: ¿Estamos dedicando suficiente tiempo y esfuerzo al lado blando de esta tecnología?.
Las preguntas sobre la ética de la IA son especialmente relevantes ahora que los gobiernos y las empresas recurren a tecnologías como la IA, las cámaras térmicas y los escáneres para ocuparse de la seguridad de los ciudadanos y el lugar de trabajo. Estas conversaciones tienden a girar en torno a la imparcialidad de la IA, el uso que se pretende dar a la misma, su posible uso indebido, el efecto negativo en la privacidad, la sustitución de los trabajadores y la fiabilidad de los productos.
La complejidad dificulta la validación de la justicia
Uno de los beneficios de la IA es que puede eliminar los prejuicios humanos y permitir que se tomen decisiones más “justas”. Pero la experiencia ha demostrado que los recursos de la IA no siempre han cumplido esa promesa.
En 2014, Amazon comenzó a experimentar con la IA para contratar personal. Preparó un sistema de IA usando una base de datos interna de sus desarrolladores de software, la mayoría de los cuales eran hombres. El sistema respondió filtrando a las candidatas mujeres. En 2018, Amazon dijo que desecharía esta herramienta de reclutamiento.
El reto puede ser que la IA es tan compleja que los desarrolladores no saben cómo llegar a las conclusiones. Eso podría hacer más difícil para la gente validar que la IA ha llegado a una decisión “justa” o “ética”.
El uso deseado y el posible uso indebido exigen un estudio cuidadoso
La premisa básica es que la IA debe hacer el bien. ¿Cuándo no lo hace? Cuando se altera el uso que se pretende dar a la misma. Google puede ser el ejemplo más visible de por qué es importante definir el uso pretendido. En 2018, Google ganó un gran contrato con el Departamento de Defensa (DoD) para analizar las imágenes de video de los aviones no tripulados. Pero algunos asociados de Google no querían participar en el negocio de la guerra. Más de 3.000 empleados firmaron una carta al director general de la compañía instándole a abandonar el proyecto. La dirección de Google respondió que no renovaría el contrato del gobierno y publicó las pautas sobre los tipos de uso de la IA que apoyaría y las que no.
El auge de la IA también crea preocupaciones sobre la precisión, privacidad y la sustitución de trabajadores
Hay todo tipo de grandes usos para la IA. La aplicación de la ley es uno de ellos. Las empresas también podrían usar la IA para analizar el estado de ánimo de una persona que entra en una tienda, evaluar la salud de un empleado que entra en una oficina, predecir las probabilidades de éxito de un solicitante de empleo basándose en una entrevista en video de ese individuo, o evaluar a un operador de equipos pesados para detectar signos de fatiga.
Consideremos el último ejemplo. El propósito de utilizar cámaras y la IA para prevenir accidentes es una excelente intención. Pero si la IA determina que una persona parece estar fatigada, drogada o intoxicada, es mejor que sea realmente precisa, porque tales decisiones pueden afectar el trabajo y la reputación de las personas. También hay un aspecto relativo a la privacidad en esto, y eso va más allá de solo el monitoreo. La gente que es analizada por la IA puede sentir que su privacidad está siendo violada. Pueden estar descontentos con su interacción con la empresa u organización. Si bastantes personas se sienten así, podría empañar la marca de la empresa con los consumidores, empleados y posibles contrataciones.
Luego se plantea la discusión ética sobre la IA acerca de los trabajos en sí mismos. Las previsiones sugieren que la IA se hará cargo de una parte cada vez mayor del trabajo humano. Eso significa que los empleados fuertemente impactados por la IA pueden tener la necesidad de aprender nuevas habilidades y posiblemente encontrar nuevos trabajos.
La conducción de auditorías, la definición del uso previsto y la simplificación de la IA pueden ayudar
Hay algunos enfoques – así como controles y equilibrios – que las organizaciones pueden implementar para contribuir a que una IA con ética sea posible. En un esfuerzo por asegurar la exactitud y la equidad, las organizaciones pueden considerar la posibilidad de hacer auditorías de selección aleatoria. Encarar la exactitud de la IA también implica vigilar la deriva del modelo y ajustarlo según sea necesario. También es importante que las organizaciones definan el uso previsto de las aplicaciones y tecnologías de la IA. Las empresas también deberían considerar probablemente lo que pueden hacer para evitar el uso indebido.
Las organizaciones también pueden querer abrirse camino en la IA. De esa manera pueden empezar en áreas como la cadena de suministro que están menos enfocadas en los humanos en lugar de usar casos como la selección de candidatos para un puesto de trabajo.
No nos apresuremos. La IA es muy buena, pero aún es pronto. ¿Por qué no usamos la IA para cosas menos humanas primero? Debemos perfeccionarla, entenderla, revisarla, auditarla y controlarla antes de aplicarla a los aspectos “humanos” de la sociedad.
El contenido expresado en esta columna de opinión es de exclusiva responsabilidad de su autor y no representa necesariamente la visión ni línea editorial de Poder y Liderazgo.