Escriba para buscar

Es hora de mirar más detenidamente la moralidad de la IA Innovación

Es hora de mirar más detenidamente la moralidad de la IA

Stephen Ritter es director de tecnología de Mitek, líder mundial en soluciones de verificación de identidad digital y depósitos móviles.

Concepto de IA (inteligencia artificial). Aprendizaje profundo. GUI (interfaz gráfica de usuario).

getty

Últimamente, el crescendo de los llamados a un mayor escrutinio de los algoritmos que, lo sepamos o no, dan forma a nuestra vida diaria me ha llevado de nuevo al borrador de la Declaración de Derechos de la IA desarrollado por la Oficina de Ciencia y Tecnología de EE. UU. y publicado en 2022.

He pedido que se haga avanzar este concepto porque es el momento. Sin embargo, al pensar en ello más profundamente, también creo que es necesario. Como líderes empresariales, lo necesitamos.

El borrador actual está diseñado para servir como catalizador para la conversación sobre lo que debería estar en la versión final. Diría que la mayoría de los comentarios hasta ahora han sido sobre datos y privacidad humana, lo que tiene mucho sentido para mí como un tipo de privacidad de datos. Sin embargo, lo que falta es un reconocimiento adecuado de los aspectos éticos e incluso morales de implementar el aprendizaje automático y la IA. ¿Qué marco debemos considerar al tomar decisiones críticas sobre el desarrollo o implementación de IA en nuestras empresas? ¿Qué impacto tendrán nuestras decisiones en nuestra fuerza laboral humana? ¿Qué responsabilidad tenemos de tener en cuenta las consecuencias humanas como parte del caso de negocios que construimos para el despliegue de tecnología?

Admito que este tipo de preguntas me vienen naturalmente. Hoy, soy el CTO de una empresa de tecnología. Mis estudios universitarios incluían ciencias de la computación (que era principalmente el estudio de la teoría y la codificación), así como ciencias cognitivas, con un plan de estudios que incluía todo, desde un estudio de cómo funciona el cerebro humano hasta preguntas filosóficas como qué nos hace humanos. Fue el último de los dos el que me animó a pensar en la ética de la IA.

A medida que la IA ha pasado del dominio de los investigadores al de los ingenieros, me pregunto si estamos pensando adecuadamente y construyendo suficientes barandillas alrededor del impacto de la IA en los trabajadores del mundo.

Un cuento tan antiguo como el tiempo, con un giro

Estas preocupaciones no son nuevas. Los trabajadores textiles británicos destruyeron la maquinaria de tejer en las fábricas textiles durante la Revolución Industrial. Mucha gente temía la llegada de las máquinas de vapor, los automóviles y cualquier otro invento con la capacidad de generar cambios sociales o económicos significativos. Las personas en esas industrias estaban legítimamente preocupadas. La gente perdió sus trabajos. Tuvieron que encontrar nuevas formas de ganarse la vida.

Lo que hace que este tema sea aún más digno de ser planteado hoy en día es el ritmo y la naturaleza generalizada de los avances tecnológicos de esta generación. No solo creemos que este mismo ciclo volverá a ocurrir, sino que sabemos que lo hará. La IA puede hacer ciertas cosas, y pronto muchas, mejor, más rápido y más barato que los humanos.

En algún momento, dentro de poco, los camiones sin conductor saldrán a la carretera. La IA interpretará las imágenes médicas. Los sistemas informáticos escanearán los pasaportes en los puntos de viaje y entrada. AI recopilará, manipulará y analizará datos con poca intervención humana para tomar decisiones empresariales.

Al mismo tiempo, está marcando el comienzo de un futuro con posibilidades casi ilimitadas. Como experto en aprendizaje automático, veo cómo esta tecnología tiene el potencial de ayudarnos a resolver problemas que antes eran intratables, desde el hambre en el mundo hasta la disparidad de ingresos y la crisis climática. Ya se está utilizando para acelerar la investigación médica y el desarrollo de tratamientos que salvan vidas. Las preguntas que planteo no pretenden detener o retrasar la adopción y el uso de la IA y el aprendizaje automático, todo lo contrario. Las personas de generaciones pasadas temían el cambio tecnológico y trataron de detenerlo. Eso no funciona. Un enfoque mucho mejor es identificar lo que puede ocurrir y luego asegurarnos de que contamos con salvaguardas para asegurarnos de que las personas afectadas estén preparadas y tengan opciones.

Expansión de la Declaración de derechos de la IA

Creo que es hora de adoptar la Declaración de Derechos de AI, después de agregar pautas para abordar sus impactos humanos. Aquí hay tres áreas para comenzar.

• Educación. Muchos hoy se están graduando con títulos en ciencias de la computación con énfasis en el aprendizaje automático. Sus títulos los preparan para diseñar y construir sistemas tecnológicos que son más impresionantes de lo que la humanidad jamás haya imaginado. ¿Están obteniendo una base en la ética humana de los campos en los que se están preparando para ingresar? ¿Deberían ellos? Me beneficié de un plan de estudios completo que me preparó para ser consciente de algunos de los problemas éticos y morales que plantean estos avances tecnológicos. Los cursos de filosofía, ética y moral adaptados a los requisitos de la investigación futura y los científicos informáticos serían excelentes adiciones a los planes de estudios de informática, y los haría obligatorios.

• Negocio. Como líderes empresariales, muchos de nosotros estamos legítimamente entusiasmados con el uso de la IA y el aprendizaje automático para mejorar nuestras operaciones y ayudar a gestionar la escasez de mano de obra. Al construir un caso de negocios para un mayor uso de la IA, podemos hacer que el impacto humano sea parte de nuestro proceso de toma de decisiones. ¿Hay algo que podamos hacer para defender a nuestros empleados y prepararlos para los cambios que resulten de nuestra decisión? Algunas de las mejores empresas del mundo en la actualidad son conocidas por sus programas de capacitación superiores y su compromiso de ayudar a sus empleados a avanzar en sus trayectorias profesionales. Los procesadores de datos pueden convertirse en trabajadores del conocimiento. Los trabajadores de línea pueden convertirse en inspectores de calidad y formadores.

• Gobierno. El gobierno puede reconocer los cambios sociales que se avecinan y pensar si debería haber más atención y protección para los trabajadores en una versión futura de la Declaración de Derechos de AI. Puede patrocinar debates sobre qué papel debe asumir el gobierno para asegurarse de que nuestros trabajadores estén preparados y tengan opciones. Al desarrollar un marco de impacto humano, debe consultar a expertos en los campos de la organización empresarial, el cambio y el análisis económico, así como el potencial humano para que el resultado sea un enfoque que involucre e inspire a tantas personas como sea posible.

Aplaudo cualquier conversación sobre cómo integrar los beneficios de la tecnología con nuestras responsabilidades como ciudadanos del mundo. Necesitamos tecnología que nos ayude a resolver los problemas más difíciles de la actualidad, y nos beneficiaremos de las ventajas que nos brinda. Ahora, solo debemos asegurarnos de haber planificado adecuadamente el impacto que traerán esos beneficios.

El Consejo de Tecnología de Forbes es una comunidad a la que solo se puede acceder por invitación para CIO, CTO y ejecutivos de tecnología de clase mundial. ¿Califico?