Escriba para buscar

15 errores clave que se deben evitar al entrenar modelos de IA Innovación

15 errores clave que se deben evitar al entrenar modelos de IA

A medida que la inteligencia artificial se vuelve cada vez más frecuente en el mundo actual, la importancia de entrenar cuidadosamente los modelos de IA para realizar tareas complejas se ha vuelto más crítica. Sin embargo, muchas organizaciones cometen errores comunes en el proceso de desarrollo de modelos de IA, lo que lleva a resultados subóptimos.

Algunos de estos errores pueden incluir datos insuficientes o de baja calidad, no establecer objetivos claros y no comprender las limitaciones del modelo. A continuación, los miembros del Consejo de Tecnología de Forbes exploran estos y otros errores comunes que cometen las organizaciones al entrenar modelos de IA y brindan consejos sobre cómo evitarlos.

"Fotos

1. No monitorear la calidad de los datos

Conocí al jefe de datos de una empresa de automóviles autónomos. Pagaron para que les etiquetaran los datos de las imágenes, por ejemplo, "haga clic en imágenes con bicicletas". Entrenaron al modelo y el rendimiento se derrumbó. Resulta que a sus datos les faltaban etiquetas. A través de un monitoreo básico, podrían haberlo detectado temprano, sin volver a entrenar un modelo grande y costoso con datos incorrectos. “Basura entra, basura sale”, como dicen. – Kyle Kirwan, patudo

2. No usar un conjunto de datos diverso

Un error clave que cometen las organizaciones al entrenar modelos de IA es no utilizar un conjunto diverso de datos. Esto puede conducir a resultados sesgados. Para evitar esto, las organizaciones deben asegurarse de que los datos utilizados para entrenar modelos de IA sean representativos y diversos, y reflejen una variedad de perspectivas y experiencias. Además, la supervisión y las pruebas continuas pueden ayudar a detectar y abordar cualquier posible sesgo en el modelo de IA. -Sunil Ranka, Predikly LLC

El Consejo de Tecnología de Forbes es una comunidad a la que solo se puede acceder por invitación para CIO, CTO y ejecutivos de tecnología de clase mundial. ¿Califico?

3. No tener suficientes tipos de datos correctos

Un error común es no tener suficientes datos cualitativos, diversos y representativos para entrenar un modelo. Esto puede conducir a un rendimiento deficiente e incluso a consecuencias perjudiciales. Para evitar esto, los datos deben elegirse con precisión para reflejar la población del mundo real sobre la que el modelo hará predicciones. – Fardad Zabetian, KUDO

4. No usar datos reales de clientes

Las empresas de IA tienden a buscar los "datos perfectos" para la formación y recurren a referencias sintéticas o generadas en laboratorio. En realidad, los datos están contaminados y el ruido está en todas partes, por lo que el verdadero desafío es superarlo. Descubrí que las empresas de IA más exitosas entrenan modelos en datos reales de clientes y usan su experiencia en el dominio para separarlos del ruido. -Eliron Ekstein, Ravin AI Limited

5. No responder las preguntas correctas

A menudo, las organizaciones no entrenan sus modelos de IA para responder las preguntas correctas, o no los integran en sus procesos de una manera que sea procesable. De la misma manera que la generación de análisis de negocios a menudo da como resultado un tablero que rara vez se ve, los modelos de IA entrenados solo son útiles si predicen cosas que les importan a los trabajadores o clientes. Eso puede ser difícil de precisar. – Brian Jackson, Grupo de investigación de tecnología de la información

6. Tener datos sesgados

Los datos sesgados son un problema común que tienen las empresas al entrenar algoritmos de IA. El modelo de IA probablemente reforzará los sesgos sociales si los datos de entrenamiento están sesgados. Esto puede resultar en resultados injustos o discriminatorios y repercusiones significativas. Las empresas deben elegir y preparar cuidadosamente los datos de capacitación y monitorear y evaluar constantemente los modelos de IA para eliminar el sesgo. – Shelli Brunswick, Fundación Espacial

7. No emitir juicios sobre las predicciones de ML

Los modelos de aprendizaje automático hacen predicciones, no juicios. Los resultados pueden ser incorrectos y parecer correctos, o correctos y parecer incorrectos, y debido a que el aprendizaje automático no es fácil de interpretar, no se puede conocer la lógica detrás de la respuesta. Agregue esto al desafío del sesgo y podrá ver por qué es fundamental considerar cómo aplicar una capa de juicio sobre cualquier predicción de aprendizaje automático. – James Duez, Tecnologías Rainbird

8. Sobreajustar el modelo

Hay muchos errores que cometen los recién llegados con esta emocionante tecnología. Uno está sobreajustado. En pocas palabras, sobreentrenan el modelo en un conjunto particular de entradas, y el modelo se vuelve estrecho y frágil con respecto a cualquier cambio que no refleje exactamente los datos de entrenamiento. -Tod Loofbourrow, Viral Gains

9. Fallar en diseñar soluciones de IA de extremo a extremo

Por lo general, las organizaciones no diseñan una solución de IA de extremo a extremo. Necesitan comprender cómo los expertos toman decisiones hoy, qué datos se necesitan para mejorar las predicciones y cómo recopilar y manejar los comentarios para la gestión de modelos. Deben dejar de intentar ver dónde encaja la tecnología de IA en su organización; en cambio, deben comenzar a diseñar la IA como cualquier otro sistema complejo. -Steven Gustafson, Noonum, Inc.

10. No curar y equilibrar los datos de entrenamiento

Las organizaciones pueden evitar un error clave en el entrenamiento del modelo de IA seleccionando y equilibrando cuidadosamente sus datos de entrenamiento. Los datos sesgados pueden causar predicciones inexactas o injustas, por lo que las organizaciones deben evaluar periódicamente sus datos en busca de sesgos y mitigarlos mediante técnicas como el sobremuestreo, el aumento de datos o la eliminación de sesgos. Esto conduce a modelos de IA más éticos y efectivos. -Imane Adel, Paymob

11. Descuidar Definir Objetivos

Las organizaciones con frecuencia se olvidan de definir y validar adecuadamente sus objetivos cuando entrenan modelos de IA. Sin objetivos específicos, puede ser un desafío juzgar la efectividad de un modelo de IA, lo que puede resultar en un rendimiento inferior o efectos imprevistos. – Neelima Mangal, Espectro Norte

12. No incluir la voz del cliente

El mayor error es no incluir la voz del cliente. Si incluye a un cliente en las sesiones de capacitación de IA, obtendrá información garantizada que nadie en su organización posee. Como beneficio adicional, incluirlos puede ayudar a que un cliente importante se sienta aún más importante. -Rhonda Dibachi, HeyScottie.com

13. No desinfectar los datos

Las organizaciones con frecuencia pasan por alto la curación y el saneamiento adecuados de los datos utilizados para entrenar modelos de IA, lo cual es un error crítico. La mala calidad de los datos puede dar lugar a modelos de IA sesgados, imprecisos y poco fiables. Esto puede provocar efectos negativos, incluidos malos juicios, oportunidades perdidas y pérdida de reputación. -David Bitton, DoorLoop

14. No garantizar que los datos representen buenos y malos comportamientos

Si los modelos de IA se entrenan con los datos incorrectos, las predicciones también generarán esos comportamientos incorrectos. Cuando se trata de aplicaciones de IA y ML para la seguridad y evitar violaciones de datos, es esencial asegurarse de que los datos representen buenos y malos comportamientos. La calidad de los datos durante la extracción de características (garantizar que se coloquen las etiquetas correctas para el aprendizaje supervisado) es importante para las organizaciones que entrenan modelos de IA. -Supreeth Rao, Theom, Inc.

15. No tener en cuenta el cambio de datos y el cambio semántico

A medida que una organización escala y se traslada a nuevos dominios, países y líneas de negocio, los datos en los que se entrenaron sus modelos comienzan a cambiar en función de los datos que sus usuarios están ingresando actualmente. El entrenamiento de modelos de IA debe ser un proceso constante, y se debe prestar mucha atención a la adquisición de datos representativos y de calidad. -Isaac Heller, Trullón