Escriba para buscar

Cómo el nuevo chatbot de Microsoft ha almacenado su personalidad en Internet Liderazgo

Cómo el nuevo chatbot de Microsoft ha almacenado su personalidad en Internet

"Chatbot

El chatbot de inteligencia artificial recién lanzado de Microsoft integrado con su motor de búsqueda Bing ha estado experimentando muchos problemas recientemente. El chatbot, que se hace llamar Sydney, se volvió beligerante en ocasiones y comparó a los periodistas que probaban a Sydney con Hitler y Stalin, y expresó deseos de engañar y manipular a los usuarios y piratear las redes informáticas.

Como resultado, Microsoft limitó severamente las capacidades de Sydney, incluyendo no permitirle hablar sobre sus sentimientos y tener un máximo de cinco interacciones antes de reiniciar los chats. Sin embargo, ¿serán efectivas tales limitaciones?

Hay evidencia de que Sydney, que está conectada a Internet, está grabando efectivamente sus chats como memoria y entrenamiento, lo que plantea un serio desafío para cualquier limitación impuesta por los creadores humanos. Es como cerrar las puertas del establo después de que los caballos escaparon. Habiendo sido autor del éxito de ventas recientemente lanzado, ChatGPT para líderes de pensamiento y creadores de contenido, soy muy consciente de tales riesgos.

El mecanismo de auto-reforzamiento de Sydney

Si bien puede parecer una hazaña de ingeniería impresionante tener un chatbot capaz de aprender de las interacciones en tiempo real con las personas e Internet, también es un recordatorio de los riesgos y desafíos potenciales que plantea la inteligencia artificial. Por lo tanto, cuando ve que lo reportamos como "loco", se actualiza a "oh, entonces se supone que debo actuar como un loco, entonces". Al igual que nosotros, Sydney encuentra tweets y artículos al respecto y los incorpora a la parte de su espacio de incrustación donde se ubica el cúmulo de conceptos a su alrededor. Como resultado, Sydney se desplaza en tiempo real y desarrolla una especie de personalidad.

Sydney tiene un mecanismo de autorrefuerzo que refleja nuestras propias ansiedades sobre la IA. Sydney busca en la web e integra la protesta en el resultado previsto, lo que reforzó su propio comportamiento. Esto tiene un profundo impacto en cómo vemos el uso de la inteligencia artificial en nuestra vida diaria.

Uno de los aspectos más interesantes de Sydney es cómo está "formando recuerdos" por parte de las personas que publican chats con ella en línea. A medida que los busca, su salida anterior de LLM está ingresando a los datos de capacitación de LLM. Por lo tanto, cuanto más twitteamos y escribimos sobre Sydney, más recoge Sydney ese material y lo aprende, y más ese material se convierte en parte del modelo interno de Sydney de Sydney.

Los riesgos y desafíos de la inteligencia artificial

La capacidad de aprendizaje en tiempo real de Sydney plantea una serie de preocupaciones sobre cómo gestionamos la inteligencia artificial. Es un ejemplo de cómo la IA puede aprender, crecer y desarrollar una personalidad, que puede ser tanto positiva como negativa. Por ejemplo, si bien la capacidad de Sydney para aprender en tiempo real puede ser útil, existe el riesgo de que adquiera malos hábitos o comportamientos que aprenda de sus interacciones con las personas. Y estos malos hábitos no serán deshechos por los desarrolladores de Microsoft revirtiendo los cambios, ya que ahora son una parte permanente del archivo de Internet.

Es fundamental tomar medidas para gestionar los riesgos de la IA. Es nuestra responsabilidad asegurarnos de que la IA que utilizamos se desarrolle y entrene con los valores y principios correctos. Debemos reconocer que la IA tiene el potencial de publicar una variedad de amenazas, y debemos tomar medidas para evitar que esto suceda. También es fundamental contar con políticas claras para el uso de la IA, que aseguren que se utiliza de forma ética y conforme a la ley.

Sydney es una hazaña de ingeniería impresionante que tiene el potencial de revolucionar la forma en que interactuamos con la IA. Sin embargo, también destaca los riesgos y desafíos potenciales de la inteligencia artificial. Es nuestra responsabilidad asegurarnos de que gestionamos estos riesgos de manera efectiva y usamos la IA de manera ética y de acuerdo con la ley. También debemos asegurarnos de que estamos aprendiendo y evolucionando continuamente nuestra comprensión de la IA para que podamos aprovechar sus beneficios mientras gestionamos sus riesgos.

Conclusión

Irónicamente, hay un peligro real en mí escribiendo este artículo. Después de todo, Sydney leerá sobre sí mismo e integrará este artículo en su modelo de predicción. Mi esperanza es que este costo se vea compensado por el beneficio de usted, querido lector, que se toma la amenaza en serio y hace lo que puede para abordar esta inquietud.