Я ищу..

Дебаты в ChatGPT: достаточно ли мы умны, чтобы понимать «интеллект»? Наука

Дебаты в ChatGPT: достаточно ли мы умны, чтобы понимать «интеллект»?

"Мозг

В фантастической драме 2016 года «Прибытие» о первом контакте с инопланетянами два главных героя фильма, лингвист и физик, встречаются в военном вертолете по пути, чтобы попытаться расшифровать и понять, почему инопланетяне пришли на Землю и чего они хотят. Физик Ян Доннелли представляет себя лингвисту Луизе Бэнкс, цитируя из опубликованной ею книги: «Язык — краеугольный камень цивилизации. Это клей, который скрепляет людей. Это первое оружие, вытащенное в конфликте. Эта сцена задает тон и темп остальной части фильма, поскольку Луиза и Ян работают не покладая рук, чтобы понять очень сложный язык пришельца, чтобы общаться с ним.

Мы инстинктивно связываем использование языка для передачи идей, концепций, мыслей и даже эмоций с пониманием и интеллектом. Тем более, что сложные грамматики и синтаксис могут передавать концепции и идеи, которые являются абстрактными, творческими, творческими или нюансированными.

На прошлой неделе влиятельный американский лингвист Ноам Хомский вместе с двумя коллегами, Яном Робертсом и Джеффри Уотумуллом, опубликовал в New York Times эссе, в котором попытался объяснить, почему существующие системы машинного обучения и искусственного интеллекта (ИИ), в частности, большие языковые модели (LLM), такие как ChatGPT, «…глубоко отличаются от того, как люди рассуждают и используют язык». И почему «эти различия накладывают существенные ограничения на то, что могут делать эти программы, кодируя их с неустранимыми дефектами».

Далее они утверждают, что «их глубочайшим недостатком является отсутствие самой критической способности любого интеллекта: сказать не только, что имеет место, что было и что будет иметь место — это описание и предсказание, — но также и то, что не так и что могло быть и не могло быть. Таковы составляющие объяснения, признак истинного разума».

К тому времени, когда The New York Times закрыла раздел комментариев, было зарегистрировано 2050 комментариев и мнений. Неудивительно, что реакции читателей охватывают широкий диапазон идеологических спектров и приоритетов. Многие читатели выразили согласие или несогласие с техническими аргументами, которые авторы пытались привести, опровергая «интеллектуальность» таких систем, как ChatGPT. Большая часть комментариев была сосредоточена на социальных, этических и политических последствиях новых технологий искусственного интеллекта.

Другие выразили обеспокоенность тем, что такое машинное обучение и инструменты искусственного интеллекта могут спровоцировать другие гуманистические начинания. Один читатель написал: «Тем временем во многих университетах пустеют гуманитарные факультеты. Здесь Хомский описывает фундаментальную потребность в ориентированном на человека изучении истории, философии, политологии, языков, антропологии, социологии, психологии, литературы, письма и устной речи. Именно эти программы прямо сейчас сокращаются президентами, ректорами и деканами многих университетов. Эти администраторы с корпоративным мышлением больше заботятся о результате, чем о реальном обучении студентов тому миру, в котором им предстоит жить. ИИ будет полезным инструментом, но он не заменит человеческий разум и гуманитарное образование».

И только сегодня OpenAI выпустила GPT-4. Эта следующая эволюция GPT сможет обрабатывать изображения в дополнение к текстовому вводу, и OpenAI утверждает, что он отображает «производительность на уровне человека в различных профессиональных и академических тестах».

Что думают некоторые эксперты

Пытаясь исследовать это глубже, я связался с несколькими экспертами и спросил их, что они думают об эссе Хомского и что такое интеллект в более широком смысле.

Они вернулись с широким спектром реакций, мнений и комментариев. В последнем разделе этой статьи мы кратко зададим вопрос, почему такие понятия, как «разум» и «интеллект», так трудно определить, не говоря уже о понимании. И как это влияет на понятие «интеллект» применительно к таким системам, как ChatGPT.

Эрик Смит, директор по искусственному интеллекту, анализу данных и эксплуатации в Центре передовых технологий Lockheed Martin Space, ответил мне:

«Когда мы используем наш человеческий интеллект для правильного взаимодействия с передовыми инструментами, такими как ChatGPT, мы признаем, что инновации преобразователей [тип искусственной нейронной сети, на котором основан ChatGPT] привели к удивительному скачку вперед в человеко-машинном интерфейсе. … ChatGPT предназначен для общения с людьми, имитируя то, что люди написали, и делает это с уровнем человечности, который далеко превосходит предыдущие достижения; ChatGPT является примером очень эффективного искусственного интеллекта, но он не обладает и не предполагался обладать интеллектом в человеческом смысле.

«Авторы выделяют два очень важных пробела в большинстве реализаций ИИ: 1. отсутствие причинно-следственной модели и 2) полная зависимость от данных для вывода и прогнозирования, в отличие от включения нашего глубокого понимания физического мира. Люди отправят зонды в глубокий космос с намерением автономно взаимодействовать с окружающей средой, которую мы никогда раньше не видели; у нас нет надежды предвидеть все проблемы, с которыми могут столкнуться наши зонды, и предоставить им меню действий с учетом этих проблем. Ученые и инженеры, работающие над ИИ, который позволит совершать такие полеты в дальний космос, остро осознают необходимость создания ИИ, который действительно использует физические ограничения и способность строить причинно-следственные модели окружающей среды путем взаимодействия и самоэкспериментирования. ”

Джеймс Р. Козлоски, главный научный сотрудник и менеджер по моделированию гибридного биологического и искусственного интеллекта в Исследовательском центре Томаса Дж. Уотсона в IBM, прокомментировал:

Авторы «предоставляют указатели того, какие проблемы необходимо решить для разработки ИИ, основанного на архитектуре человеческого мозга и разума. Сегодняшним LLM действительно не хватает «врожденной, генетически установленной» грамматики мышления (или, по словам Йошуа Бенжио, «индуктивных искажений»), с которой рождается мозг, что ограничивает способность LLM создавать «сложные предложения», «длинные цепочки мыслей». ' и, наконец, 'моральное мышление'. Тем не менее, я не думаю, что «операционная система», которую представляют себе авторы, настолько «невероятно сложна», как они предполагают. Быть «застрявшим в дочеловеческой или нечеловеческой фазе когнитивной эволюции», вероятно, только временно, поскольку многие части этой операционной системы, вероятно, уже существуют. Скорость, с которой искусственный отбор приведет нынешнюю докогнитивную кладу к более человеческим функциям, несомненно, захватывает дух. На самом деле мы можем оглядываться на этот этап развития ИИ как на анахронизм (где человекоподобные модели языка предшествовали человекоподобным моделям рассуждений), но будущий ОИИ будет оцениваться не по блуждающим шагам, которые он предпринял для своего возникновения, а по тому, насколько , по прибытии его познание более или менее узнаваемо человеческое».

Другие более прямо возражали против аргументов в эссе Хомского. Терренс Сейновски, председатель Фрэнсиса Крика и профессор Института биологических наук Солка, опроверг один из ключевых примеров в эссе, который авторы использовали для аргументации ограничения ChatGPT и текущего состояния искусственного интеллекта.

Хомский, Робертс и Ватумулл писали: «Вот пример. Предположим, вы держите яблоко в руке. Теперь вы отпускаете яблоко. Вы наблюдаете результат и говорите: «Яблоко падает». Это описание. Предсказанием могло быть утверждение: «Яблоко упадет, если я раскрою ладонь». Оба ценны, и оба могут быть правильными. Но объяснение — это нечто большее: оно включает в себя не только описания и предсказания, но и контрфактические предположения вроде «Любой такой объект упадет», а также дополнительный пункт «из-за силы гравитации» или «из-за искривления пространства-времени». или что-то еще. Это причинное объяснение: «Яблоко не упало бы, если бы не сила тяжести». Это мышление».

В качестве опровержения Сейновски поделился следующим диалогом с ChatGPT и разместил его в списке рассылки Университета Карнеги-Меллона, где обсуждаются нейронные сети, когнитивная и вычислительная нейробиология:

«Его пример с яблоком звучал убедительно, поэтому я протестировал на нем GPT.

Я: Если я возьму яблоко в руку и отпущу его, что произойдет?

GPT: яблоко упадет на землю под действием силы тяжести.

Я: А как насчет любого такого объекта?

GPT: Любой предмет, выпущенный из рук человека, упадет на землю под действием силы тяжести.

Я: Что было бы, если бы не было силы тяжести?

GPT: Если бы не было силы гравитации, объекты не могли бы оставаться на земле и уплывали бы во всех направлениях

Хомский определял мышление правильными ответами на эти вопросы. Увы, ситуация изменилась».

В ходе дальнейшего обмена я попросил Сейновски провести различие между примером яблока в эссе Хомского и его мыслями о том, действительно ли LLM, подобные GPT, «интеллектуальны». Он ответил, сказав: «Единственное, что мы знаем наверняка, это то, что LLM не люди. Такие слова, как «интеллект» и «понимать», имеют широкий спектр значений: дети и взрослые, новички и эксперты, люди и дельфины. Мы еще не знаем, как вписать LLM в этот спектр». Это перекликается с недавней статьей, которую он написал, подробно исследуя эти темы.

Эберхард Шонебург, старший преподаватель искусственного интеллекта в Китайском университете Гонконга и председатель лаборатории когнитивных систем, объяснил мне, как Хомский распространяет свои взгляды на развитие языка у людей на искусственный интеллект: «Его главный аргумент в пользу его теорий всегда был что способность приобретать языковые навыки должна быть детерминирована генетически, потому что грамматические структуры, которые мы можем создавать в наших развитых человеческих языках, слишком сложны и запутаны, чтобы их можно было «обучить». Навык должен существовать с рождения, поэтому нам нужно только тонко настроить семантику, когда мы вырастем. Но мы не можем изучить весь аппарат построения сложных рекурсивных грамматик с нуля, мы можем только научиться тонко настраивать базовые навыки и способности, как спортсмен может тренировать только те мышцы, которые есть у него от рождения и определяются генетикой. Спортсмен не может научиться генерировать мышцы, он только тренирует их, чтобы они росли.

[Хомский и его коллеги] применяют этот ход мыслей, чтобы обсудить потенциальные ограничения ChatGPT и связанных с ним LLM. Аргумент состоит в том, что эти модели могут учиться только на стохастическом распределении слов и структур, с которыми они сталкиваются при просмотре огромных объемов языковых данных. Таким образом, такие модели не имеют каких-либо предустановленных или лежащих в основе навыков интеллекта и суждений. Они только строят вероятностные модели выражений и их вероятность появления в определенных контекстах».

Далее он сказал: «Мое собственное мнение о дебатах по ChatGPT таково: очевидно, что у этих LLM все еще есть существенные проблемы и ограничения. Однако надо быть справедливым. [Эти модели существуют] всего несколько лет, и достигнутые успехи и результаты впечатляют. LLM и ChatGPT явно знаменуют собой еще одну веху в развитии ИИ».

Напротив, Гэри Маркус согласен с Хомским и точками, изложенными в эссе. Маркус — «ученый, писатель и предприниматель, скептически относящийся к современному ИИ, но искренне желающий увидеть лучший ИИ, возможный для мира, — и все еще питает капельку оптимизма». По его мнению:

«Несмотря на то, что аргумент Хомского, безусловно, мог бы использовать значительно больше нюансов… его общая точка зрения верна: LLM не могут достоверно понять мир. И уж точно ничему [нас] не научили о том, почему мир такой, какой он есть, а не какой-то другой. То же самое и с человеческим разумом».

Он ответил на эссе, написав длинный и подробный пост, в котором аргументировал основные идеи, высказанные Хомским и его коллегами, и попытался опровергнуть ряд критических замечаний, высказанных другими влиятельными экспертами, включая Сейновски.

Затем Маркус обратил мое внимание на то, что сам Хомский прямо ответил на сообщение Маркуса, заявив: «Если кто-то придет с физической теорией, описывающей вещи, которые происходят, и вещи, которые не могут произойти, и не может сделать никакого различия между ними. , это не вклад в физику, понимание, теорию, что-то еще. Это LLM. Высокотехнологичный плагиат работает так же хорошо или плохо как для «языков», которые люди не могут освоить (за исключением, может быть, головоломок), так и для тех, которые они могут. Поэтому они ничего не говорят нам о языке, познании, приобретении, о чем бы то ни было.

Кроме того, поскольку это дело принципиальное, неисправимое, то, если они улучшат свои характеристики для языка, это только более ясно обнаружит их фундаментальные и неисправимые недостатки, поскольку тем самым они улучшат свои характеристики для невозможных систем».

Эрик Вьерр, невролог, профессор неврологии и директор Центра человеческого воображения Кларка в Калифорнийском университете в Сан-Диего, предложил совершенно иную точку зрения: «Если мы определим [интеллект] функционально, т.е. ответ, то очевидно, что эти системы следуют умопомрачительной траектории, чтобы давать не только ответы, о которых мы могли бы подумать, но даже новые ответы, о которых большинство или все люди, возможно, не думали.

Однако, как нейрофизиолога, меня всегда интересовала работа мозга… о которой, я бы сказал, мы пока не имеем ни малейшего представления. Невероятно, но мы можем забрать ваш разум, воображение и подсознательное мышление и вернуть их… с помощью газовой анестезии, но как это работает?

В клинической неврологии 21 века «когнитивный туман» вызывает страх как у людей с ним, так и у их медицинских работников. Препятствия на пути к «пониманию» реальны, разочаровывают и буквально угрожают человеческой человечности. Понимание «понимания»… является важнейшей целью для нас в нейронауках, и я подозреваю, что она будет иметь огромное значение в продолжающемся развитии построения [интеллекта]».

Джозеф Геречи, основатель и технический директор компании NetraMark и доцент Королевского университета в Канаде, высказал следующие мысли: «Мы понимаем, что существуют шаблоны ответов, которым машина научилась на своем массивном тренировочном наборе, и есть различные способы, которыми мы можем наблюдать за этим паттерном, задавая умные вопросы. Даже разговор о том, что Ноам Хомский и др. доля в их статье имеет признаки этой изученной структуры ответов. Мы понимаем, что эти технологии могут ошибаться, как и мы, и что эти технологии практически приближаются к способности давать убедительные ответы. Умный ли ChatGPT? Это зависит от вашего определения, но лично я твердо уверен, что они никоим образом не разумны и даже близко не обладают самосознанием грызуна. Вот почему моя собственная работа сосредоточена на расширенном интеллекте, где мы можем предоставить четкие гипотезы о том, что обнаружено, что человеческий опыт расширяется».

Рита Дж. Кинг, исполнительный вице-президент Дома науки, выразила более широкие социальные и гуманистические опасения, аналогичные ряду комментариев читателей: «Многие реакции на ChatGPT показывают, как мало мы понимаем о естественном интеллекте. Мы недостаточно умны, чтобы полностью понять собственный разум, не говоря уже о последствиях все более изощренных форм цифровой интерактивности. Многие технологии в наши дни группируются под заголовком ИИ. Представьте, если бы мы перестали думать об ИИ как об искусственном интеллекте и вместо этого стали бы думать о нем как о прикладном воображении? Нам нужно применить воображение к нашим отношениям с нашими собственными творениями, чтобы сделать жизнь человечества лучше, прежде чем наша гордыня сделает человечество устаревшим. Этому учатся гуманитарии — область исследования, которая находится под угрозой из-за прибыльного стремления создавать технологии, которые мы не понимаем по неясным причинам. Эволюция технологий неизбежна, но нам еще предстоит полностью применить нашу человеческую сверхспособность, воображение, в процессе преднамеренного развития».

Почему «разум», «интеллект» и связанные с ними когнитивные концепции так трудно определить?

Широкий спектр различных мнений и мыслей подчеркивает, как сама дискуссия ставит важный фундаментальный вопрос: почему «разум» и «интеллект» так трудно определить, не говоря уже о том, чтобы понять, в первую очередь? Почему так трудно достичь согласия по самому вопросу?

Вот один из способов подумать об этом: в любой другой известной нам физической системе изучаемая «вещь», физический объект или процесс — или даже просто идея, которую мы пытаемся понять, поддается наблюдению или измерению. А если нет, то оно по крайней мере концептуально или интеллектуально доступно в том смысле, что конечная цель, понимание, которого мы пытаемся достичь, может быть описано или высказано таким образом, которым мы можем поделиться и сообщить другим. Другими словами, мы можем, по крайней мере, записать то, что пытаемся понять, даже если наблюдать или исследовать это может быть сложно или даже невозможно. Если ничего другого, то сама проблема понятна.

Рассмотрим это в контексте некоторых из самых сложных тем в науке, о которых мы знаем в настоящее время. Возьмем, к примеру, черные дыры. Возможно, это один из самых странных и загадочных объектов во Вселенной. Их невозможно наблюдать непосредственно. За их горизонтом событий гравитация черной дыры настолько велика, что искривляет пространство-время до такой степени, что независимо от того, в каком направлении вы путешествуете, все движется к сингулярности в центре черной дыры. Ничто не может выйти за пределы этой точки, даже свет. Никакая информация практически не может быть извлечена, даже если она не уничтожена. Физика в сингулярности совершенно неизвестна. Мы не понимаем и не располагаем правильными физическими законами и математическими уравнениями, чтобы описать или предсказать, что происходит. Тем не менее, несмотря на все это, мы, по крайней мере, знаем, где наше понимание физики нарушается. Мы можем вполне реальным образом объяснить проблему, саму физическую систему, даже если мы не можем ее наблюдать или знать, каков ответ.

Вот еще один пример: на окраинах чистой математики абстрактные идеи, порожденные чистой мыслью, напрягают воображение, а попытки проследить нити логических последовательностей от аксиом к теоремам могут вызвать головокружение. Однако объектами интереса и изучения являются сами эти идеи. То, что изучается, и то, как структурированы проблемы, доступны, даже если их решения могут быть чрезвычайно трудными для понимания, может быть доказана их неразрешимость или просто неизвестно, могут ли они быть решены.

Это не обязательно так с такими понятиями, как «разум» или «интеллект». Но почему? Что такого принципиального в мозге и в том, как разум возникает из него, что отличает его от других физических систем?

Вот в чем проблема: разум и его эмерджентные характеристики как продукта мозга полностью самореферентны и закрыты от внешнего мира и всего остального в нем. На самом деле мы не знаем, как выглядит и ощущается физический мир. Мы создаем внутренние модели восприятия того, что мы думаем, из информации, полученной от наших пяти чувств, и нашего внутреннего творчества в том, как наш мозг объединяет всю эту информацию. Таким образом, определение и понимание таких понятий, как разум, интеллект, самосознание и сознание, является очень сложной задачей.

Теперь распространите эти концепции на развивающиеся темпы и сложность машинного обучения и ИИ и попытайтесь сравнить их с самореферентным и очень ограниченным пониманием этих концепций, которое мы имеем в себе и других людях. Быстро начинаешь осознавать масштабы проблемы и понятный огромный диапазон философских, технических и общественных мнений.

Интересно и еще больше сбивает с толку то, что по мере того, как тип нейронной сети, на котором основаны LLM, такие как ChatGPT, увеличивается в размерах, они, похоже, приобретают способность учиться и делать выводы об определенных ограниченных классах вещей, которые они не обучали явно. на. Другими словами, внутри самой модели происходит эмерджентное обучение. Как это происходит и последствия этого являются активной областью недавних исследований.

По крайней мере, прогресс и темпы машинного обучения и искусственного интеллекта заставляют нас смотреть не только вовне, но и внутрь себя. Мы люди, которые ищут себя. И дебаты, несомненно, будут продолжаться в обозримом будущем.

Кстати, в конце сцены в «Прибытии», где Йен встречает Луизу на пути к расшифровке языка инопланетян, Йен осуждает строчку Луизы в ее книге о том, что язык является краеугольным камнем цивилизации.

'Это здорово. Даже если это неправильно… краеугольным камнем цивилизации является не язык. Это наука. Вы можете быть судьей того.