Escriba para buscar

La IA puede ser racista: asegurémonos de que funcione para todos. Liderazgo

La IA puede ser racista: asegurémonos de que funcione para todos.

"ITALIA-TECNOLOGÍA-IA"

Durante décadas, la inteligencia artificial (IA) fue principalmente un tropo de ciencia ficción, como los autos voladores o los jetpacks. Pero casi de la noche a la mañana, parece que el futuro ha llegado.

Hoy en día, los algoritmos y sistemas impulsados por IA se están convirtiendo en herramientas operativas estándar en ciencia, educación, servicio al cliente, justicia penal, finanzas, control de tráfico y casi cualquier otro rincón de nuestras vidas que pueda imaginar. Mientras tanto, las sofisticadas herramientas de procesamiento de lenguaje impulsadas por IA como ChatGPT de OpenAI (financiado por Microsoft, mi antiguo empleador) ahora pueden escribir ensayos complejos de varios párrafos sobre prácticamente cualquier tema en cuestión de segundos. De hecho, ChatGPT ya pasó la barra y varios exámenes AP. En palabras del profesor de Stanford Erik Brynjolfsson, estos chatbots pronto se convertirán en la "calculadora para escribir" y revisarán radicalmente el trabajo administrativo tanto como lo hicieron antes las revoluciones de Internet y los teléfonos móviles. (Nota: no usé ChatGPT para escribir este ensayo, pero muy pronto, es posible que no puedas notar la diferencia).

Es difícil no estar emocionado y alarmado al mismo tiempo por la agitación de la IA que ocurre a nuestro alrededor. Hace cinco años, una eternidad en términos de IA, el CEO de Google, Sundar Pichai, llamó a la IA "una de las cosas más importantes en las que la humanidad está trabajando… más profunda que la electricidad o el fuego". Mientras pensamos en períodos significativos de la historia estadounidense transformados por la tecnología , la IA puede ser tan grande como la Revolución Industrial. El mes pasado, el CEO de OpenAI, Sam Altman, consideró que la IA es potencialmente "la mayor tecnología que la humanidad haya desarrollado hasta ahora".

Si bien todo esto puede parecer una hipérbole, solo se necesitan unos minutos de jugar con ChatGPT para sentir que estamos en la cúspide de algunos cambios significativos. Dicho esto, hay un defecto de IA enorme y preocupante que debería hacer que todos se detuvieran. A pesar de lo notables que son estas nuevas herramientas de IA, muchas aún perpetúan sutilmente, o peor aún, mejoran, los sesgos de sus creadores (en su mayoría hombres blancos). En lugar de trascender nuestras limitaciones humanas para crear un futuro más equitativo para todos, las herramientas de IA a menudo repiten sin darse cuenta los mismos errores y lapsos de juicio, lo que permite que el racismo y la discriminación proliferen en nuestra sociedad actual.

Hay muchos ejemplos aleccionadores del daño que la IA puede causar. En 2018, la estudiante del MIT Joy Buolamwini escribió sobre su experiencia al descubrir que los algoritmos de reconocimiento facial en su laboratorio, utilizados en todo el mundo, no podían detectar rostros negros. Incluso tuvo que usar una máscara blanca para que la computadora la reconociera como persona. (Puedes ver su excelente Ted Talk aquí). De manera similar, los usuarios descubrieron en 2020 que la herramienta de recorte de imágenes de Twitter se enfocaba constantemente en las caras blancas. Algunos errores son más graves que las omisiones. Los robots de IA entrenados en miles de millones de imágenes identificaron consistentemente a las mujeres como "amas de casa" y a las personas de color como "criminales" o "conserjes".

En un panel de conversación de 2019 sobre estos temas, la profesora de Harvard Latanya Sweeney habló, en palabras de su hijo, "el día en que su computadora era racista". Mientras le mostraba un trabajo a un colega, los motores de búsqueda mostraban anuncios. en busca de herramientas para eliminar sus antecedentes penales inexistentes, basándose únicamente en su nombre que suena afroamericano. Estos motores, señaló, impulsan de forma rutinaria los préstamos crediticios depredadores también para aquellos con nombres que suenan negros. "Muchos de nosotros llegamos a la tecnología con la creencia de que construiría un mañana mejor y corregiría muchos de los errores que la sociedad había producido", dijo, "así que pueden imaginarse lo sorprendida que estaba al ver esos anuncios ."

Estos "sesgos algorítmicos" son más que insultantes: tienen serias implicaciones en el mundo real para las personas de color. Hoy en día, los algoritmos ayudan a decidir puntajes de crédito y candidatos viables para vacantes laborales y admisiones universitarias. Ellos "predicen" el crimen y ayudan a los tribunales a determinar quién merece la libertad bajo fianza y la duración de las sentencias. Ayudan a los médicos a pronosticar las tasas de cáncer y mortalidad y a decidir sobre los tratamientos médicos apropiados. Están entretejidos en cada faceta de nuestras vidas, y si han aprendido el racismo en el camino, lo perpetuarán.

Entonces, ¿cómo solucionamos este problema? Recuerde que la inteligencia artificial no está diseñada para ser racista, solo lo está tomando de nosotros. Tómalo de la propia IA. Cuando le pregunté a ChatGPT si era racista, me dijo: "No tengo creencias ni sentimientos personales, incluido el racismo. Fui programado para brindar respuestas basadas en la información que recibí y el conocimiento y los patrones de lenguaje en los que me formaron Mis respuestas se basan únicamente en la información proporcionada". Y esa es la clave. Con demasiada frecuencia, estamos entrenando estos algoritmos con entradas incompletas o imperfectas que conducen a resultados racistas involuntarios. Como dijo Buolamini, "si los conjuntos de entrenamiento no son realmente tan diversos, cualquier rostro que se desvíe de la norma establecida será más difícil de detectar".

"Los puntos ciegos de un modelo reflejan los juicios y las prioridades de sus creadores", escribe Cathy O'Neil, autora de Weapons of Math Destruction. Pero lo contrario también puede ser cierto. Si podemos diversificar tanto a los investigadores que están creando sistemas de IA como los conjuntos de datos que estos algoritmos usan para aprender; podemos ayudar a enseñarles mejores hábitos y garantizar resultados más equitativos. "Los conjuntos de entrenamiento no surgen de la nada", dice Buolamwini. "Existe la oportunidad de crear conjuntos de entrenamiento de espectro completo que reflejen una porción más rica de la humanidad."

Después de sus experiencias con IA racistas, Buolamwini fundó la Liga de la Justicia Algorítmica para fomentar una mayor diversidad entre los codificadores de IA al tiempo que amplía el rango y la calidad de los sistemas de conjuntos de entrenamiento en los que se entrenan. Luis Salazar, un empresario tecnológico de Seattle centrado en las innovaciones impulsadas por un propósito, se ha estado reuniendo con líderes de IA sobre estos temas y lanzó AI for Social Progress (AI4SP.org) para fomentar el uso de conjuntos de capacitación más diversos que pueden mitigar el sesgo en las tecnologías de IA. .

Recomiendo encarecidamente a los líderes empresariales y filántropos que apoyen estos y otros esfuerzos similares en el futuro y evalúen los resultados generados por los sistemas de IA que utilizan para el sesgo racial y de género. AI ahora está reescribiendo cómo vivimos, trabajamos y jugamos; si lo hacemos bien, el futuro parece extraordinario. Pero debemos tomarnos en serio la eliminación del sesgo sistémico y el racismo de estas plataformas antes de que sea demasiado tarde. Trabajemos para que la IA sea el comienzo de una nueva era emocionante para todos, no un desafortunado camino habilitado por la tecnología para continuar repitiendo nuestros errores del pasado.