Escriba para buscar

Por qué la explicabilidad debería ser el núcleo de su aplicación de IA Innovación

Por qué la explicabilidad debería ser el núcleo de su aplicación de IA

PYME digital y de inteligencia artificial, cofundador de Thinking Stack Inc.

Brazo robótico dando apretón de manos con fondo de tecnología azul. Tecnología de automatización y concepto de inteligencia artificial. Tema de innovación cibernética. Representación de ilustración 3D

getty

Uno de los aspectos más importantes de la ciencia de datos es generar confianza. Esto es especialmente cierto cuando se trabaja con aprendizaje automático y tecnologías de inteligencia artificial, que son nuevas y desconocidas para muchas personas. Cuando algo sale mal, ¿qué le dices a tu cliente? ¿Qué dicen ellos? ¿Qué creen que pasará después? Con IA explicable, puede proporcionar respuestas que demuestren la legitimidad de su producto.

La explicación es una parte clave para generar confianza en cualquier aplicación tecnológica, pero es aún más importante para las aplicaciones de aprendizaje automático donde:

• No sabe cómo funciona el sistema (p. ej., clasificación de imágenes).

• No existe una relación causal clara entre insumos/productos (p. ej., sistemas de recomendación).

La mayoría de los modelos son modelos de "caja negra" y, a menudo, cuando se entrenan estos modelos, los científicos de ML no pueden comprender cómo el modelo hizo una predicción o por qué predice lo que hace. La incapacidad del modelo o de los científicos de ML para explicar las predicciones a las partes interesadas, así como la dificultad para interpretar el comportamiento de entrenamiento del modelo, conduce a una falta de confianza de las partes interesadas en el modelo y sus predicciones.

La IA explicable ayuda a generar confianza en la IA al brindar visibilidad continua de los modelos de capacitación y producción. Los científicos de ML y las partes interesadas pueden entender por qué se hacen las predicciones y obtener información procesable para que los equipos ajusten y vuelvan a entrenar los modelos.

Para lograr una IA explicable, debemos responder dos preguntas.

¿Qué tan bueno es tu modelo? Por ejemplo, si una compañía de tarjetas de crédito quiere que su sistema detecte transacciones fraudulentas en tiempo real, estaría interesada en saber qué tan preciso es el modelo de detección de fraude (con qué frecuencia hace predicciones correctas), así como su tasa de falsos positivos (cuánto a menudo hace predicciones incorrectas). Esto les permitiría saber si su modelo cumple con los requisitos comerciales o si necesitan ajustes adicionales.

La segunda pregunta ayudará a determinar si una estrategia de optimización está funcionando como se esperaba: ¿Obtuvimos mejores resultados que antes? Tomemos, por ejemplo, una compañía de seguros de automóviles que tiene 100 clientes que han completado cinco años de historial de manejo sin reportar accidentes, pero solo un año de historial de manejo debido a que no se reportó ningún accidente. Si esta empresa se usó como datos de entrada para un algoritmo ML que predice si alguien tendrá un accidente dentro de cinco años (basado solo en el comportamiento de conducción anterior), entonces no hay forma de saber si esa predicción funciona o no. No hay forma, en este momento, de que podamos comparar su salida con cualquier otra salida generada utilizando diferentes enfoques, como los que también tienen en cuenta la información de edad.

Ahora que comprende mejor la importancia de la explicabilidad, profundicemos en algunos ejemplos que pueden ayudar a su empresa.

Las soluciones de IA explicables son particularmente útiles para:

• Vigilancia: los organismos encargados de hacer cumplir la ley de todo el mundo han utilizado software de reconocimiento de imágenes desde hace varios años. Las soluciones de inteligencia artificial explicables brindan más transparencia en el proceso de toma de decisiones de estos sistemas para que los usuarios puedan comprender por qué ciertos sospechosos fueron detenidos o arrestados; este conocimiento ayuda a reducir los problemas de perfiles raciales que surgen de las bajas tasas de precisión en la tecnología de reconocimiento facial

• Analítica en tiendas minoristas: la IA explicable en visión permite a los científicos y partes interesadas de ML comprender por qué el modelo predice que un estante está vacío o un producto como una lata de Coca-Cola y no una botella o una lata de Red Bull. Esto se logra proporcionando atribuciones de píxel a etiqueta para que los humanos entiendan qué píxeles contribuyen a la detección de un objeto como lo que es. Además, las técnicas de factorización de características pueden distinguir características que discriminan etiquetas de otras características (p. ej., las características que explican por qué una botella es diferente de una lata).

• Inspección de calidad visual: en el contexto de la inspección de calidad visual, la explicabilidad puede referirse a la capacidad de comprender y comunicar el razonamiento detrás de una decisión de inspección, como por qué un determinado defecto se consideró inaceptable o por qué se consideró que un determinado componente cumplía con los requisitos requeridos. especificaciones.

La explicabilidad ayuda a evaluar el rendimiento de los sistemas de IA.

Se puede comprobar la corrección de un sistema basado en reglas midiendo el número de pares de entrada-salida para los que ha fallado una regla. Por otro lado, estimar la corrección de un algoritmo ML es mucho más difícil. Una forma sencilla de hacer esto sería mirar las predicciones hechas por un modelo y compararlas con datos reales disponibles de las partes interesadas de su negocio o clientes directamente. Sin embargo, este enfoque no le dará una imagen precisa, ya que no considera varios factores como la calidad de los datos y el ruido en las aplicaciones de la vida real. Otro problema con este enfoque es que requiere acceso a datos reales que pueden no estar siempre disponibles o no ser lo suficientemente confiables para ayudarlo a tomar decisiones sobre qué tan bien funciona su modelo para cumplir su propósito.

La explicabilidad puede ayudar a depurar el rendimiento del modelo. Un paso importante en la depuración de algoritmos de aprendizaje automático es comprender dónde fallan y por qué fallan. El proceso de depuración de modelos y análisis de fallas se puede abordar de manera efectiva con técnicas de explicabilidad.

La IA aumentará su tasa de adopción solo cuando el usuario confíe en ella, y la confianza solo se puede ganar cuando se explican las decisiones.

Por ejemplo, supongamos que desea saber por qué un candidato en particular fue rechazado para una oferta de trabajo. Puede pedirle a su sistema de IA que explique su razonamiento y obtener una respuesta como "El solicitante tiene demasiadas señales de alerta en su verificación de antecedentes" o "El solicitante no tenía suficiente experiencia laboral en el campo requerido". Te sentirías mucho mejor después de esta explicación que si no hubiera explicación alguna.

En otras palabras, con las medidas de explicabilidad adecuadas incorporadas en su aplicación de IA, todos los usuarios de dicha aplicación se sentirán más seguros de su rendimiento y confiabilidad a lo largo del tiempo, ¡incluso mientras continúa tomando decisiones en su nombre en función de más puntos de datos que nunca!

El Consejo de Tecnología de Forbes es una comunidad a la que solo se puede acceder por invitación para CIO, CTO y ejecutivos de tecnología de clase mundial. ¿Califico?