Escriba para buscar

Elon Musk y otros líderes tecnológicos piden una desaceleración en el desarrollo de IA Liderazgo

Elon Musk y otros líderes tecnológicos piden una desaceleración en el desarrollo de IA

"Elon

Elon Musk pide una desaceleración en los rápidos avances en tecnología de IA, como ChatGPT

En una carta abierta firmada por Elon Musk, el cofundador de Apple Steve Wozniak, el futurista israelí Yuval Noah Harari y otros, se describe una pausa de 6 meses para el mundo en rápida expansión de las herramientas de IA. Dominado por ChatGPT y otras plataformas avanzadas, el crecimiento sin precedentes está generando preocupaciones sobre los estándares de seguridad y las implicaciones sociales. La carta explica que la IA está avanzando de una manera que nadie, ni siquiera los creadores de la tecnología, puede predecir o controlar. “Poderosos sistemas de IA”, dice la carta, “deberían desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables”. Ominosamente, estos líderes reconocen cambios potenciales en algo nada menos que la historia de la vida en la tierra. “Los sistemas de IA con inteligencia humana-competitiva pueden presentar riesgos profundos para la sociedad y la humanidad”, comienza la carta, “como lo demuestra una extensa investigación y lo reconocen los principales laboratorios de IA”.

Mientras tanto, empresas como Microsoft han adoptado la tecnología de inteligencia artificial para su motor de búsqueda Bing y otras ofertas. En un informe reciente, Microsoft dice que GPT-4, la última versión disponible de la herramienta de OpenAI, puede resolver "tareas nuevas y difíciles" con "rendimiento a nivel humano", en carreras avanzadas como codificación, medicina, derecho e incluso psicología. Google lanzó Bard, un chatbot basado en inteligencia artificial y un servicio rival. Los gigantes tecnológicos Adobe, Salesforce y Zoom están a la vanguardia en la incorporación de herramientas avanzadas de IA. ¿Están estas empresas, y otras, exponiéndose (y por extensión, a sus clientes) al riesgo? Y si es así, ¿cuáles son los peligros asociados con ChatGPT y sus primos?

Max Tegmark, profesor de física en el MIT (Instituto de Tecnología de Massachusetts), fue uno de los organizadores de la carta. Él le dice al Wall Street Journal que los avances en IA han superado lo que muchos expertos creían que era posible, incluso hace tan solo unos años. “Es desafortunado enmarcar esto como una carrera armamentista”, le dice Tegmark al Journal, “es más una carrera suicida”. Esa es una afirmación audaz, pero Tegmark explica: "Simplemente significa que la humanidad en su conjunto podría perder el control de su propio destino". ¿No era esa la línea de registro de la última película de Terminator?

De hecho, ese control ya está comenzando a perderse, según una extensa encuesta de empleos completada por la Universidad de Pensilvania, que examina el impacto de los modelos de lenguaje extenso (LLM) como ChatGPT en varias carreras. Según este estudio en curso, actualizado ayer, los GPT cambiarán la mayoría de los trabajos de alguna manera, con "80% de los trabajadores en ocupaciones donde al menos una tarea laboral puede realizarse rápidamente mediante IA generativa". Los que corren mayor riesgo, según el Wall Street Journal, son los contadores, ya que la investigación muestra que al menos la mitad de todas las tareas contables podrían completarse mucho más rápido con la tecnología.

Matt Beane estudia el impacto de las nuevas tecnologías en la Universidad de California, Santa Bárbara. Beane, profesor asistente en la escuela, dice que los seres humanos rechazan el cambio que compromete sus intereses. Suena lógico, pero observe que su argumento implica un elemento de elección. A medida que OpenAI y otros corren hacia un mundo nuevo y valiente, donde las máquinas crean, controlan y modifican la conversación, los impactos reales están más allá de nuestra imaginación actual. De hecho, Forbes ha captado preocupaciones en torno a la ciberseguridad, el plagio y las campañas de desinformación que utilizan chatbots. Estas aplicaciones potencialmente siniestras podrían lanzarse y aprovecharse de maneras que podrían dañar a muchos, de maneras que ni siquiera se pueden explicar por completo en este momento.

De hecho, el desafío con AI y ChatGPT no es nuevo. Es decir, ¿cómo se puede hacer que una nueva tecnología sea segura y mantenida de una manera que minimice las acciones siniestras o dañinas? El problema con el aprendizaje automático es que la máquina ya no es solo una herramienta. La tecnología se está convirtiendo en el usuario. ¿Qué sucede cuando la tecnología avanza más allá de las indicaciones? El chatbot ya toma decisiones para responder a las indicaciones. ¿Cuánto tiempo pasará antes de que estas nuevas herramientas también comiencen a tomar decisiones?

La carta de Musk y otros ofrece severas advertencias sobre una tecnología sin límites. Creado con la intención de expandir la experiencia humana, esa expansión (según los líderes en la carta) se está expandiendo más allá de nuestro control actual. La tecnología de inteligencia artificial como ChatGPT está generando consecuencias inesperadas e implicaciones potencialmente peligrosas. A medida que el motor de conversación se vuelve más inteligente y expansivo, la oportunidad de crear y controlar la conversación está pasando a manos de algo que no tiene manos. Gobernanza y moderación es lo que piden estos líderes tecnológicos, en su carta: “La investigación y el desarrollo de IA deben reenfocarse en hacer que los sistemas potentes y de última generación de hoy en día sean más precisos, seguros, interpretables, transparentes y robustos. , alineado, digno de confianza y leal.”

Tiene sentido, ¿verdad? Preciso y seguro, todos queremos eso. Pero, ¿cómo se codifica la lealtad y la confiabilidad? Tal vez alguien debería hacerle esa pregunta a ChatGPT.