Escriba para buscar

La supremacia de los sesgos en la IA Innovación

La supremacia de los sesgos en la IA

"Neurotecnología."

2022 podría recordarse como el año en que la IA generativa irrumpió en escena, causando grandes olas en la comunidad digital. Con el inicio de cualquier nueva tecnología que cambie el juego, en este caso, los algoritmos extremadamente poderosos detrás de los sistemas de generación de imágenes y texto como ChatGPT y DALL-E, seguramente seguirán las críticas y las reacciones negativas. Pero no creo que los problemas y controversias asociados con estos algoritmos deban ralentizar su desarrollo.

La cobertura reciente sobre la moderación de contenido subcontratado de OpenAI es un buen ejemplo de cuán ambiguo puede ser el camino a seguir. Por un lado, la supervisión humana es ineludible; por otro lado, los moderadores humanos expuestos a contenido extremo deberían obtener todo el apoyo necesario para llevar a cabo esta parte brutal pero extremadamente fundamental del proceso de moderación. Mejorar nuestros estándares al desarrollar versiones óptimas para estos algoritmos es la mejor práctica en todos los escenarios relacionados con la IA.

Coincidentemente (o no), 2022 también fue el año en que escribí extensamente sobre la forma en que los diferentes sesgos cognitivos y otros procesos influyen en nuestra lógica, especialmente en las soluciones de IA completas (tanto clásicas como basadas en redes neuronales profundas). Por cierto (o no), los sesgos que surgen de estos algoritmos generativos son el principal problema que debe abordarse si queremos dirigir la IA generativa en una dirección más productiva.

En el futuro, ¿qué podemos sacar de estos sesgos? Quiero aprovechar esta oportunidad, mientras 2023 aún está fresco, para revisar los artículos que he escrito sobre estos sesgos cognitivos y cómo podemos abordarlos específicamente cuando se trata de IA generativa.

Una breve definición de sesgo de confirmación es el camino cognitivo construido en nuestro subconsciente de acuerdo con nuestras creencias, que luego redirige la atención a argumentos y pruebas que refuerzan este sistema de creencias. Este es uno de los sesgos más generalizados en las plataformas de redes sociales. Esto no es fácil de superar por completo: se necesita práctica constante y un esfuerzo consciente para darse cuenta de cómo sesgan nuestra razón de ser.

El sesgo de supervivencia refleja nuestra tendencia a elegir solo ejemplos de éxito, los "supervivientes", y a ignorar todos los ejemplos negativos de un caso determinado y lo que agregarían al conjunto de datos. Estoy seguro de que has visto y oído hablar de empresarios exitosos, actores, atletas y todas las historias detrás de ellos, pero se desconocen muchos intentos fallidos para cada historia de éxito. Este ejemplo de sesgo también está bastante extendido, y no solo en las redes sociales, sino en cualquier otro medio desde los albores de la era de la comunicación.

El axioma que mejor define la falsa causalidad es que “correlación no implica causalidad”, pero incluso con este conocimiento, todavía es común hacer una fuerte asociación entre dos variables no necesariamente relacionadas entre sí.

El sesgo de disponibilidad proviene del atajo mental que usamos para hacer juicios rápidos, conocido como "heurística de disponibilidad". Tendemos a usar la información más fácilmente disponible para nuestro razonamiento, lo que hace que sea más fácil perder el panorama general; la mayoría de las veces, no tiene la imagen completa disponible para tomar su decisión. Esto se debe a que las situaciones que observamos o recordamos vívidamente producen un gran impacto en nuestro subconsciente.

Todos los sesgos enumerados anteriormente surgen en condiciones cognitivas específicas, y reconocerlos nos brinda una gran ventaja. Pero, ¿cómo pueden los profesionales de IA eliminarlos efectivamente del proceso de toma de decisiones cuando trabajan en un proyecto de IA?

Esencialmente, la respuesta a los sesgos cognitivos está fuera del ámbito de los propios procesos cognitivos, lo que significa que no puedes confiar al 100 % en cómo concibes el problema y cómo lo resolverás tú solo. En la práctica, esto significa poner cierta distancia entre usted y el problema antes de decidir una solución. Claramente, el trabajo en equipo tiene un valor crucial aquí. Tener una segunda, tercera o incluso una cuarta opinión comenzará a eliminar los prejuicios de cada individuo y trabajará para alcanzar un punto de vista común y objetivo. Cuanto más diverso sea el equipo, mejor, ya que no se puede subestimar la importancia de una supervisión humana diversa.

Sin embargo, el caso de la IA generativa presenta algunos desafíos más complejos debido a los grandiosos objetivos de la tecnología. Para ser lo más robusto posible, el algoritmo necesita una gran cantidad de datos de entrenamiento, y aquí es donde abundan los sesgos cognitivos. Cada entrada diferente tiene la posibilidad de estar profundamente sesgada. Llevar a cabo la mitigación en cada uno de estos requeriría una cantidad infinita de trabajo. Estas herramientas extremadamente poderosas requieren enfoques extremadamente poderosos en el caso de sesgos, trabajando en los datos antes del entrenamiento o mediante alguna forma de filtrado de datos.

El caso de la mitigación previa a la capacitación es simple para eliminar el sesgo de raíz. La configuración del modelo de IA se basa en cómo se realiza el entrenamiento y qué datos se utilizan; después de todo, estas son todas elecciones humanas. Presentar los dilemas éticos antes de que comience el desarrollo basado en la capacitación es una de las formas más seguras de avanzar, pero esto reduce drásticamente la velocidad a la que una empresa puede construir dicha herramienta. El uso de datos de entrenamiento gratuitos y sin restricciones fue lo que permitió la solidez de estos algoritmos en primer lugar.

¿Qué pasa con la mitigación a través del filtrado de datos? Existe un caso para usar los avances tecnológicos directamente en problemas de sesgo y entrenar el algoritmo con conjuntos de datos filtrados. Un ejemplo reciente está relacionado con la equidad de la representación, uno de los problemas clave a resolver. Los investigadores de Google están trabajando en una herramienta llamada "Suavizado de espacio latente para representaciones justas individuales" o LASSI. Si bien es notable y noble, lograr que este tipo de solución de filtrado de datos sea efectiva a nivel básico se perfila como una tarea difícil.

Independientemente de las soluciones que se nos ocurran, es importante no dejar de lado las razones éticas para hacerlo. Si el material creado por el hombre para la capacitación y la moderación humana parece ser una parte vital del proyecto, se debe mantener el enfoque en los procesos que se consideran susceptibles a conceptos erróneos humanos. Las herramientas que se están diseñando tienen asombrosas capacidades inhumanas, pero es el componente humano lo que las mantendrá adecuadas a nuestras necesidades y conscientes de nuestras imperfecciones.