Escriba para buscar

El debate de ChatGPT: ¿Somos lo suficientemente inteligentes para entender la 'inteligencia'? Ciencia

El debate de ChatGPT: ¿Somos lo suficientemente inteligentes para entender la 'inteligencia'?

"Cerebro

En el drama de ciencia ficción de 2016 La llegada sobre el primer contacto con extraterrestres, los dos protagonistas de la película, un lingüista y un físico, se encuentran en un helicóptero militar en su camino para intentar descifrar y comprender por qué los extraterrestres vinieron a la tierra y qué quieren. El físico Ian Donnelly se presenta a la lingüista Louise Banks citando un libro que ella publicó: 'El lenguaje es la piedra angular de la civilización. Es el pegamento que mantiene unido a un pueblo. Es la primera arma desenvainada en un conflicto. Esa escena marca el tono y el ritmo del resto de la película, mientras Louise e Ian trabajan contrarreloj para comprender el lenguaje altamente complejo del extraterrestre para poder comunicarse con ellos.

Instintivamente asociamos el uso del lenguaje para comunicar ideas, conceptos, pensamientos e incluso emociones, con comprensión e inteligencia. Más aún cuando las gramáticas y la sintaxis sofisticadas pueden comunicar conceptos e ideas abstractas, creativas, imaginativas o matizadas.

La semana pasada, el influyente lingüista estadounidense Noam Chomsky, junto con dos colegas, Ian Roberts y Jeffrey Watumull, publicaron un ensayo de opinión en el New York Times en el que intentaban explicar por qué los sistemas de aprendizaje automático e inteligencia artificial (IA) existentes, en particular, los grandes modelos de lenguaje (LLM) como ChatGPT "… difieren profundamente de cómo los humanos razonan y usan el lenguaje". Y por qué “estas diferencias imponen limitaciones significativas a lo que estos programas pueden hacer, codificándolos con defectos inerradicables”.

Continúan argumentando que “Su defecto más profundo es la ausencia de la capacidad más crítica de cualquier inteligencia: decir no solo cuál es el caso, cuál fue el caso y cuál será el caso, eso es descripción y predicción, sino también qué. no es el caso y lo que podría y no podría ser el caso. Esos son los ingredientes de la explicación, la marca de la verdadera inteligencia”.

Cuando The New York Times cerró la sección de comentarios, se registraron 2050 comentarios y opiniones. No es sorprendente que las reacciones de los lectores atraviesen una amplia gama de espectros ideológicos y prioridades. Muchos lectores expresaron su acuerdo o desacuerdo con los argumentos técnicos que los autores intentaron refutar la 'inteligencia' de sistemas como ChatGPT. Gran parte del comentario se centró en las implicaciones sociales, éticas y políticas de las tecnologías emergentes de IA.

Otros expresaron su preocupación por la erosión que el aprendizaje automático y las herramientas de inteligencia artificial podrían precipitar otros esfuerzos humanísticos. Un lector escribió: “Mientras tanto, en muchas universidades, los departamentos de humanidades están siendo vaciados. Lo que Chomsky está describiendo aquí es una necesidad fundamental para el aprendizaje centrado en el ser humano en historia, filosofía, ciencias políticas, idiomas, antropología, sociología, psicología, literatura, escritura y habla. Esos programas exactos están siendo recortados en este momento por presidentes, rectores y decanos en muchas universidades. Estos administradores con mentalidad corporativa se preocupan más por el resultado final que por educar a los estudiantes para el mundo en el que vivirán. La IA será una herramienta útil, pero no es un reemplazo para una mente humana y una educación en humanidades”.

Y justo hoy, OpenAI lanzó GPT-4. Esta próxima evolución de GPT podrá manejar imágenes además de entradas de texto, y OpenAI afirma que muestra "rendimiento a nivel humano en varios puntos de referencia académicos y profesionales".

Lo que opinan algunos expertos

En un intento de explorar esto más a fondo, contacté a varios expertos y les pregunté qué pensaban sobre el ensayo de Chomsky y qué es la inteligencia, en términos más generales.

Regresaron con una amplia gama de reacciones, opiniones y comentarios. En la última sección de este artículo, nos preguntaremos brevemente por qué conceptos como 'mente' e 'inteligencia' son tan difíciles de definir, y mucho menos de entender. Y cómo eso afecta la noción de 'inteligencia' cuando se aplica a sistemas como ChatGPT.

Eric Smith, Director de Inteligencia Artificial, Análisis de Datos y Explotación del Centro de Tecnología Avanzada de Lockheed Martin Space me respondió:

“Cuando utilicemos nuestra inteligencia humana para interactuar correctamente con herramientas avanzadas como ChatGPT, reconoceremos que la innovación de los transformadores [el tipo de red neuronal artificial en la que se basa ChatGPT] ha dado como resultado un salto asombroso en la interfaz hombre-máquina. … ChatGPT está diseñado para comunicarse con los humanos imitando lo que los humanos han escrito, y lo hace con un nivel de humanidad que va mucho más allá de los logros anteriores; ChatGPT es un ejemplo de inteligencia artificial muy efectiva, pero no posee, y no se concibió para poseer, inteligencia en el sentido humano.

“Los autores identifican dos brechas muy críticas en la mayoría de las instancias de IA 1. la falta de un modelo causal y 2) una dependencia total de los datos para la inferencia y la predicción, en oposición a la incorporación de nuestra comprensión profunda del mundo físico. Los humanos enviarán sondas al espacio profundo con la intención de interactuar de forma autónoma con entornos que nunca antes habíamos visto; no tenemos ninguna esperanza de anticiparnos a todos los desafíos que nuestras sondas podrían encontrar y proporcionarles un menú de cursos de acción dados esos desafíos. Los científicos e ingenieros que están trabajando en la IA que permitirá tales misiones en el espacio profundo son muy conscientes de la necesidad de construir una IA que utilice las limitaciones de la física y la capacidad de construir modelos causales del entorno a través de la interacción y la autoexperimentación. ”

James R. Kozloski, científico investigador principal y gerente de modelado híbrido biológico-IA en el Centro de Investigación Thomas J. Watson en IBM, comentó:

Los autores “proporcionan señales sobre qué problemas deben abordarse para diseñar una IA que se derive de la arquitectura del cerebro y la mente humana. Los LLM de hoy carecen de la gramática de pensamiento 'innata, genéticamente instalada' (o en palabras de Yoshua Bengio, los 'sesgos inductivos') con los que nacen los cerebros, lo que limita la capacidad de los LLM para crear 'oraciones complejas', 'largos trenes de pensamiento'. ' y, en última instancia, 'pensamiento moral'. Aún así, no creo que el 'sistema operativo' que los autores visualizan sea tan 'estupendamente sofisticado' como sugieren. Estar 'atrapado en una fase prehumana o no humana de la evolución cognitiva' probablemente sea solo temporal, ya que muchas de las piezas de este sistema operativo probablemente ya existen. La velocidad con la que la selección artificial conducirá al clado precognitivo actual a una función más similar a la humana seguramente será impresionante. De hecho, podemos recordar esta etapa del desarrollo de la IA como anacrónica (en la que los modelos de lenguaje similares a los humanos precedieron a los modelos de razonamiento similares a los humanos), pero el futuro AGI no será juzgado por los pasos errantes que tomó para surgir, sino por si , al llegar, su cognición es más o menos reconociblemente humana”.

Otros discreparon más directamente con los argumentos del ensayo de Chomsky. Terrance Sejnowski, presidente de Francis Crick y profesor del Instituto Salk de Ciencias Biológicas, refutó uno de los ejemplos clave en el ensayo que los autores solían argumentar como una limitación de ChatGPT y el estado actual de la IA.

Chomsky, Roberts y Watumull escribieron: “Aquí hay un ejemplo. Suponga que tiene una manzana en la mano. Ahora suelta la manzana. Observas el resultado y dices: 'La manzana cae'. Esa es una descripción. Una predicción podría haber sido la afirmación 'La manzana caerá si abro la mano'. Ambos son valiosos, y ambos pueden ser correctos. Pero una explicación es algo más: incluye no solo descripciones y predicciones, sino también conjeturas contrafactuales como "cualquier objeto caería", además de la cláusula adicional "debido a la fuerza de la gravedad" o "debido a la curvatura del espacio-tiempo". o lo que sea. Esa es una explicación causal: 'La manzana no se habría caído si no fuera por la fuerza de la gravedad'. Eso es pensar."

Como refutación, Sejnowski tuvo el siguiente intercambio con ChatGPT y lo publicó en una lista de correo en la Universidad Carnegie Mellon que analiza las redes neuronales, la neurociencia cognitiva y computacional:

“Su ejemplo de Apple sonaba convincente, así que probé GPT en él.

Yo: Si tengo una manzana en la mano y la suelto, ¿qué pasará?

GPT: La manzana caerá al suelo debido a la fuerza de la gravedad.

Yo: ¿Qué pasa con cualquier objeto de este tipo?

GPT: Cualquier objeto liberado de la mano de una persona caerá al suelo debido a la fuerza de la gravedad.

Yo: ¿Qué pasaría si no hubiera fuerza de gravedad?

GPT: si no hubiera fuerza de gravedad, los objetos no podrían permanecer en el suelo y flotarían en todas direcciones

Chomsky definió el pensamiento por las respuestas correctas a estas preguntas. Por desgracia, la marea ha cambiado”.

En otro intercambio, le pedí a Sejnowski que diferenciara entre el ejemplo de la manzana en el ensayo de Chomsky y sus pensamientos sobre si los LLM como GPT son realmente "inteligentes". Respondió diciendo: “Lo único que sabemos con certeza es que los LLM no son humanos. Palabras como "inteligencia" y "comprender" tienen un espectro de significados: niños versus adultos, novatos versus expertos, humanos versus delfines. Todavía no sabemos cómo encajar los LLM en este espectro”. Esto hace eco de un artículo reciente que escribió explorando estos temas en profundidad.

Eberhard Schoneburg, profesor titular de IA en la Universidad China de Hong Kong y presidente del Laboratorio de Sistemas Cognitivos, me explicó cómo Chomsky extiende sus puntos de vista sobre el desarrollo del lenguaje en humanos a la IA: “Su principal argumento para sus teorías siempre ha sido que la capacidad de adquirir habilidades lingüísticas debe estar determinada genéticamente porque las estructuras gramaticales que podemos crear en nuestros lenguajes humanos avanzados son demasiado complejas y complicadas para ser 'aprendibles'. La habilidad debe existir desde el nacimiento, por lo que solo necesitamos afinar la semántica cuando crezcamos. Pero no podemos aprender todo el aparato de construcción de gramáticas recursivas complejas desde cero, solo podemos aprender a afinar las habilidades y destrezas subyacentes como un atleta solo puede entrenar los músculos que están allí desde el nacimiento y determinados por la genética. Un atleta no puede aprender a generar músculos, solo entrenarlos para que crezcan.

[Chomsky y sus colegas] aplican estas líneas de pensamiento para discutir sobre las limitaciones potenciales de ChatGPT y LLM relacionados. El argumento es que estos modelos solo pueden aprender de las distribuciones estocásticas de palabras y estructuras que encuentran al escanear grandes volúmenes de datos lingüísticos. Tales modelos, por lo tanto, no tienen ninguna inteligencia ni habilidades de juicio preestablecidas o subyacentes. Solo construyen modelos de probabilidad de expresiones y su probabilidad de aparición en ciertos contextos”.

Continuó diciendo: “Mi propia opinión sobre el debate de ChatGPT es esta: es obvio que estos LLM todavía tienen problemas y limitaciones sustanciales. Sin embargo, uno tiene que ser justo. [Estos modelos han existido] solo durante algunos años y el progreso y los resultados alcanzados son impresionantes. Los LLM y ChatGPT marcan claramente otro hito en la IA".

En contraste, Gary Marcus está de acuerdo con Chomsky y los puntos que plantea el ensayo. Marcus es "un científico, autor y empresario, es un escéptico sobre la IA actual, pero realmente quiere ver la mejor IA posible para el mundo, y todavía tiene un poco de optimismo". En su opinión:

“Aunque el argumento de Chomsky seguramente podría haber usado muchos más matices… su punto general es correcto: los LLM no entienden el mundo de manera confiable. Y ciertamente no nos han enseñado nada sobre por qué el mundo es como es, y no de otra manera. Lo mismo para la mente humana”.

Respondió al ensayo escribiendo una publicación larga y detallada argumentando a favor de las ideas centrales hechas por Chomsky y sus colegas e intentando refutar una serie de críticas hechas por otros expertos de gran impacto, incluido Sejnowski.

Marcus luego me llamó la atención que el propio Chomsky respondió directamente a la publicación de Marcus diciendo: "Si alguien viene con una teoría física que describe cosas que suceden y cosas que no pueden suceder y no pueden hacer ninguna distinción entre ellos , no es una contribución a la física, la comprensión, la teoría, nada. Eso es LLM. El plagio de alta tecnología funciona tan bien, o mal, para los "lenguajes" que los humanos no pueden adquirir (excepto tal vez como rompecabezas) que para los que sí pueden. Por lo tanto, no nos dicen nada sobre el lenguaje, la cognición, la adquisición, nada.

Además, como se trata de una cuestión de principios, irremediable, si mejoran su desempeño para el lenguaje sólo revela más claramente sus fallas fundamentales e irremediables, ya que de la misma manera mejorarán su desempeño para sistemas imposibles.”

Erik Vierre, neurólogo, profesor de neurociencias y director del Centro Clark para la Imaginación Humana de la Universidad de California en San Diego, brindó una perspectiva muy diferente: “Si definimos [inteligencia] funcionalmente, es decir, la entidad inteligente obtiene el 'derecho' respuesta, entonces claramente hay una trayectoria alucinante de estos sistemas para dar no solo respuestas en las que habríamos pensado, sino incluso nuevas respuestas en las que la mayoría o todos los humanos podrían no haber pensado.

Sin embargo, como neurofisiólogo, siempre me ha interesado el funcionamiento de la mente… del cual diría que aún no tenemos idea. Increíblemente, podemos quitarle la inteligencia, la imaginación y el pensamiento subconsciente y devolverlo… con anestesia gaseosa, pero ¿cómo funciona esto?

En la neurología clínica del siglo XXI, la 'niebla cognitiva' es una situación temida tanto por las personas que la padecen como por sus profesionales sanitarios. Los impedimentos para la 'comprensión' son reales, frustrantes y una amenaza literal para la propia humanidad. Entender la 'comprensión'… es un objetivo crucial para nosotros en las neurociencias y sospecho que será enorme en el desarrollo continuo de la construcción [de inteligencia]".

Joseph Gereci, fundador y director de tecnología de NetraMark y profesor asociado de la Universidad de Queen en Canadá, expresó lo siguiente: “Entendemos que hay patrones de respuestas que la máquina aprendió de su conjunto de entrenamiento masivo, y hay varias formas en que podemos observar este patrón haciendo preguntas ingeniosas. Incluso la conversación que Noam Chomsky et.al. compartir en su artículo tiene signos de esta estructura aprendida para las respuestas. Entendemos que estas tecnologías pueden cometer errores, al igual que nosotros, y que estas tecnologías prácticamente están a punto de ser capaces de producir respuestas convincentes. ¿ChatGPT es inteligente? Esto depende de su definición, pero personalmente, creo firmemente que no son sensibles de ninguna manera, y ni siquiera se acercan a tener la autoconciencia de un roedor. Es por eso que mi propio trabajo se centra en la inteligencia aumentada donde podemos proporcionar hipótesis claras sobre lo que se encuentra que mejora la experiencia humana”.

Rita J. King, vicepresidenta ejecutiva de Science House, expresó preocupaciones sociales y humanísticas más amplias similares a varios comentarios de los lectores: “Muchas reacciones a ChatGPT revelan lo poco que entendemos sobre la inteligencia natural. No somos lo suficientemente inteligentes para comprender completamente nuestras propias mentes, y mucho menos las implicaciones de formas cada vez más sofisticadas de interactividad digitalizada. Muchas tecnologías en estos días se agrupan bajo el título de IA. ¿Imagínese si dejáramos de pensar en la IA como inteligencia artificial y empezáramos a pensar en ella como Imaginación Aplicada? Necesitamos aplicar la imaginación a nuestra relación con nuestras propias creaciones para mejorar la vida de la humanidad antes de que nuestra arrogancia la vuelva obsoleta. Los estudiantes de humanidades aprenden esto: un campo de estudio que está en peligro por el celo lucrativo de construir tecnologías que no entendemos por razones que no están claras. La evolución de la tecnología es inevitable, pero aún tenemos que aplicar completamente nuestro superpoder humano, la imaginación, a un proceso de desarrollo intencional”.

¿Por qué la 'mente', la 'inteligencia' y los conceptos cognitivos relacionados son tan difíciles de precisar?

La amplia gama de opiniones y pensamientos diferentes destaca cómo el debate en sí mismo plantea una pregunta fundamental importante: ¿Por qué la 'mente' y la 'inteligencia' son tan difíciles de definir, y mucho menos de entender, en primer lugar? ¿Por qué es tan difícil llegar a un acuerdo sobre la cuestión misma?

Aquí hay una forma de pensar sobre esto: en todos los demás sistemas físicos que conocemos, la "cosa" que se estudia, el objeto o proceso físico, o incluso solo una idea que estamos tratando de entender, es observable o medible. Y si no lo es, es al menos conceptual o intelectualmente accesible en el sentido de que el objetivo final, la comprensión que estamos tratando de lograr, puede describirse o especularse de una manera que podamos compartir y comunicar a otros. En otras palabras, al menos podemos escribir lo que estamos tratando de entender, incluso si observarlo o sondearlo puede ser difícil o incluso imposible. Por lo menos, el problema en sí es comprensible.

Considere esto en el contexto de algunos de los temas más desafiantes de la ciencia que conocemos actualmente. Tomemos, por ejemplo, los agujeros negros. Podría decirse que son uno de los objetos más extraños y misteriosos del universo. Son imposibles de observar directamente. Más allá de su horizonte de eventos, la gravedad de un agujero negro es tan severa que dobla el espacio-tiempo hasta un grado tan extremo que no importa en qué dirección viaje, todo se mueve hacia la singularidad en el centro del agujero negro. Nada puede escapar más allá de este punto, ni siquiera la luz. No se puede recuperar prácticamente ninguna información, aunque no se destruya. La física en la singularidad es un completo desconocido. No entendemos ni tenemos las leyes físicas ni las ecuaciones matemáticas correctas para describir o predecir lo que sucede. Sin embargo, a pesar de todo esto, al menos sabemos dónde falla nuestra comprensión de la física. Podemos explicar el problema de una manera muy real, el sistema físico mismo, aunque no podamos observarlo o saber cuál es la respuesta.

Aquí hay otro ejemplo: en los márgenes exteriores de las matemáticas puras, las ideas abstractas nacidas del pensamiento puro tensan la imaginación, y los intentos de seguir los hilos de las progresiones lógicas de los axiomas a los teoremas pueden marear a uno. Sin embargo, los objetos de interés y estudio son esas ideas mismas. Lo que se estudia y cómo se estructuran los problemas son accesibles, aunque sus soluciones pueden ser extremadamente difíciles de entender, se puede demostrar que no tienen solución o simplemente no se sabe si se pueden resolver.

Esto no es necesariamente así con conceptos como 'mente' o 'inteligencia'. Pero, ¿por qué? ¿Qué es tan fundamentalmente diferente sobre el cerebro y cómo emerge la mente de él que lo diferencia de otros sistemas físicos?

Aquí está el problema: la mente y sus características emergentes, como producto del cerebro, son completamente autorreferenciales y están cerradas al mundo exterior y todo lo demás en él. En realidad, no sabemos cómo se ve y se siente el mundo físico. Creamos modelos perceptivos internos de lo que pensamos que es a partir de la información obtenida de nuestros cinco sentidos y nuestra creatividad interna en cómo nuestros cerebros juntan toda esa información. Por lo tanto, definir y comprender conceptos como la mente, la inteligencia, la autoconciencia y la conciencia son actividades muy difíciles.

Ahora extienda estos conceptos al ritmo evolutivo y la sofisticación del aprendizaje automático y la IA, e intente compararlos con la comprensión autorreferencial y muy limitada que tenemos de estos conceptos en nosotros mismos y en otros seres humanos. Uno rápidamente comienza a apreciar la magnitud del problema y la comprensiblemente amplia gama de opiniones filosóficas, técnicas y sociales.

Curiosamente, y lo que confunde aún más las cosas, es que a medida que crece el tamaño del tipo de red neuronal en la que se basan los LLM como ChatGPT, parecen adquirir la capacidad de aprender y crear inferencias sobre ciertas clases limitadas de cosas que no fueron entrenados explícitamente. en. En otras palabras, hay un aprendizaje emergente dentro del propio modelo. Cómo ocurre esto y sus implicaciones son un área activa de investigación reciente.

Por lo menos, el progreso y el ritmo del aprendizaje automático y la IA nos obligan a mirar tanto hacia adentro como hacia afuera. Somos humanos encontrándonos a nosotros mismos. Y el debate sin duda continuará en el futuro previsible.

Por cierto, al final de la escena de La llegada donde Ian se encuentra con Louise en su camino para descifrar el lenguaje de los extraterrestres, Ian juzga la línea de Louise en su libro sobre el lenguaje como piedra angular de la civilización.

'Es genial. Incluso si está mal… la piedra angular de la civilización no es el lenguaje. Es ciencia. Tú puedes ser el juez de eso.