Я шукаю..

Дебати в ChatGPT: чи достатньо ми розумні, щоб зрозуміти «інтелект»? Наука

Дебати в ChatGPT: чи достатньо ми розумні, щоб зрозуміти «інтелект»?

"Мозок

У науково-фантастичній драмі «Прибуття» 2016 року про перший контакт з інопланетянами два герої фільму, лінгвіст і фізик, зустрічаються у військовому вертольоті на шляху, щоб спробувати розшифрувати та зрозуміти, чому інопланетяни прийшли на землю та чого вони хочуть. Фізик Ян Доннеллі представляється лінгвісту Луїзі Бенкс, цитуючи опубліковану нею книгу: «Мова є наріжним каменем цивілізації. Це клей, який тримає людей разом. Це перша зброя, яку витягують у конфлікті». Ця сцена задає тон і темп для решти фільму, оскільки Луїза та Ян працюють проти годинника, щоб зрозуміти надзвичайно складну мову інопланетян, щоб спілкуватися з ними.

Ми інстинктивно асоціюємо використання мови для передачі ідей, концепцій, думок і навіть емоцій із розумінням і інтелектом. Тим більше, коли складна граматика та синтаксис здатні передавати концепції та ідеї, які є абстрактними, творчими, творчими або нюансованими.

Минулого тижня впливовий американський лінгвіст Ноам Хомскі разом із двома колегами, Ієном Робертсом і Джеффрі Вотмуллом, опублікували в New York Times есе, в якому намагалися пояснити, чому існуючі системи машинного навчання та штучного інтелекту (ШІ), зокрема, великі мовні моделі (LLM), такі як ChatGPT, «…суттєво відрізняються від того, як люди розуміють і використовують мову». І чому «ці відмінності накладають суттєві обмеження на можливості цих програм, кодуючи їх невикорінними дефектами».

Далі вони стверджують, що «найглибшою їхньою вадою є відсутність найважливішої здатності будь-якого інтелекту: сказати не лише те, що було, що було і що буде — це опис і передбачення, — а й те, що не так і що могло і не могло бути. Це складові пояснення, ознака справжнього розуму».

До того часу, коли The New York Times закрила розділ коментарів, було зареєстровано 2050 коментарів і думок. Не дивно, що реакція читачів перетинає широкий діапазон ідеологічних спектрів і пріоритетів. Багато читачів висловили згоду або незгоду з технічними аргументами, які автори намагалися навести, щоб спростовувати «інтелект» таких систем, як ChatGPT. Значна частина коментарів була зосереджена на соціальних, етичних і політичних наслідках нових технологій ШІ.

Інші висловлювали занепокоєння щодо того, що таке машинне навчання та інструменти штучного інтелекту можуть прискорити інші гуманістичні починання. Один із читачів написав: «Тим часом у багатьох університетах гуманітарні факультети видаляються. Хомський тут описує фундаментальну потребу в орієнтованому на людину навчанні історії, філософії, політології, мов, антропології, соціології, психології, літератури, письма та усного мовлення. Саме ці програми зараз скорочуються президентами, проректорами та деканами багатьох університетів. Ці корпоративно налаштовані адміністратори більше дбають про кінцевий результат, ніж про навчання студентів для світу, у якому вони житимуть. ШІ буде корисним інструментом, але він не замінить людський розум і гуманітарну освіту».

І тільки сьогодні OpenAI випустив GPT-4. Ця наступна еволюція GPT зможе обробляти зображення на додаток до текстових вводів, і OpenAI стверджує, що він відображає «продуктивність людського рівня на різних професійних і академічних тестах».

Що думають деякі експерти

Намагаючись дослідити це глибше, я звернувся до кількох експертів і запитав їх, що вони думають про есе Хомського та що таке інтелект, ширше.

Вони повернулися з широким спектром реакцій, думок і коментарів. В останньому розділі цієї статті ми коротко поставимо питання, чому такі поняття, як «розум» і «інтелект» так важко визначити, не кажучи вже про те, щоб зрозуміти. І як це впливає на поняття «інтелекту» у застосуванні до таких систем, як ChatGPT.

Ерік Сміт, директор із штучного інтелекту, аналізу даних і використання в Центрі передових технологій Lockheed Martin Space, написав мені:

«Коли ми використовуємо наш людський інтелект для належного взаємодії з передовими інструментами, такими як ChatGPT, ми визнаємо, що інновації трансформаторів [тип штучної нейронної мережі, на якій базується ChatGPT] призвели до дивовижного стрибка вперед в інтерфейсі людина-машина. … ChatGPT розроблено для спілкування з людьми, імітуючи те, що вони написали, і робить це з рівнем людяності, який набагато перевищує попередні досягнення; ChatGPT є прикладом дуже ефективного штучного інтелекту, але він не володіє інтелектом у людському розумінні та не передбачався таким.

«Автори визначають дві дуже критичні прогалини в більшості екземплярів штучного інтелекту: 1. відсутність причинно-наслідкової моделі та 2) повна залежність від даних для висновків і прогнозів, на відміну від включення нашого глибокого розуміння фізичного світу. Люди надішлють зонди в глибокий космос з наміром автономно взаємодіяти з середовищами, яких ми ніколи раніше не бачили; у нас немає жодної надії передбачити всі виклики, з якими можуть зіткнутися наші дослідники, і надати їм список напрямків дій з огляду на ці виклики. Вчені та інженери, які працюють над штучним інтелектом, який уможливить такі місії в глибокому космосі, гостро усвідомлюють необхідність створення штучного інтелекту, який дійсно використовує обмеження фізики та здатність будувати причинно-наслідкові моделі навколишнього середовища шляхом взаємодії та самостійних експериментів. »

Джеймс Р. Козлоскі, головний науковий співробітник і керівник відділу моделювання гібридного біологічного штучного інтелекту в дослідницькому центрі Томаса Дж. Уотсона IBM, прокоментував:

Автори «надають вказівки щодо того, які проблеми необхідно вирішити, щоб розробити штучний інтелект, який походить від архітектури людського мозку та розуму. Сучасним LLM дійсно не вистачає «вродженої, генетично встановленої» граматики мислення (або, словами Йошуа Бенгіо, «індуктивних упереджень»), з якою мозок народжується, що обмежує здатність LLM створювати «складні речення», «довгі ланки думок». », і, зрештою, «моральне мислення». Тим не менш, я не думаю, що «операційна система», яку уявляють автори, є такою «надзвичайно складною», як вони пропонують. «Застрягти на долюдській або нелюдській фазі когнітивної еволюції», ймовірно, лише тимчасово, оскільки багато частин цієї операційної системи, ймовірно, вже існують. Швидкість, з якою штучний відбір приведе нинішній докогнітивний клад до більш схожих на людину функцій, неодмінно захопить дух. Насправді ми можемо дивитися на цей етап розвитку штучного інтелекту як на анахронізм (де людиноподібні мовні моделі передували людиноподібним моделям міркування), але майбутній AGI буде оцінюватися не за тими кроками, які він здійснив, а замість того, чи , після прибуття його пізнання є більш-менш впізнаваним людським».

Інші поставилися до більш прямої критики аргументів у есе Хомського. Терранс Сейновскі, завідувач кафедри імені Френсіса Кріка та професор Інституту біологічних наук Солка, спростував один із ключових прикладів у есе, який автори використовували для аргументації обмеженням ChatGPT і поточним рівнем техніки в ШІ.

Хомський, Робертс і Ватумулл писали: «Ось приклад. Припустимо, ви тримаєте в руці яблуко. Тепер ви відпустіть яблуко. Ви спостерігаєте за результатом і говорите: «Яблуко падає». Це опис. Передбаченням могло бути твердження: «Яблуко впаде, якщо я розкрию руку». Обидва цінні, і обидва можуть бути правильними. Але пояснення — це щось більше: воно включає не лише описи та передбачення, а й контрфактичні припущення на зразок «Будь-який такий об’єкт впаде», а також додаткове положення «через силу тяжіння» або «через викривлення простору-часу». або що завгодно. Це причинно-наслідкове пояснення: «Яблуко б не впало, якби не сила тяжіння». Це мислення."

Як спростування Сейновський обмінявся наступним повідомленням із ChatGPT і опублікував його в списку розсилки в Університеті Карнегі-Меллона, де обговорюються нейронні мережі, когнітивна та обчислювальна нейронаука:

«Його приклад яблука прозвучав переконливо, тож я перевірив на ньому GPT.

Я: Якщо я візьму яблуко в руку і відпущу його, що буде?

GPT: яблуко впаде на землю під дією сили тяжіння.

Я: А як щодо будь-якого такого об'єкта?

GPT: Будь-який предмет, випущений з рук людини, впаде на землю під дією сили тяжіння.

Я: Що було б, якби не було сили тяжіння?

GPT: Якби не було сили тяжіння, об’єкти не могли б утриматися на землі й летіли б у всіх напрямках

Хомський визначив мислення правильними відповідями на ці питання. На жаль, ситуація змінилася».

У подальшому обміні даними я попросив Сейновського провести різницю між прикладом яблука в есе Хомського та його думками про те, чи є LLM, як GPT, насправді «розумними». Він відповів, сказавши: «Єдине, що ми знаємо напевно, це те, що LLM не люди. Такі слова, як «інтелект» і «розуміти», мають цілий спектр значень: діти проти дорослих, новачки проти експертів, люди проти дельфінів. Ми ще не знаємо, як вписати магістратуру в цей спектр». Це перегукується з нещодавньою статтею, яку він написав, детально досліджуючи ці теми.

Еберхард Шонебург, старший викладач кафедри штучного інтелекту в Китайському університеті Гонконгу та голова лабораторії когнітивних систем, пояснив мені, як Хомський поширює свої погляди на розвиток мови в людей на штучний інтелект: «Його головним аргументом на користь його теорій завжди було що здатність здобувати мовні навички має бути генетично обумовлена, оскільки граматичні структури, які ми можемо створити в наших розвинутих людських мовах, є надто складними та заплутаними, щоб їх «вивчити». Навички повинні існувати від народження, тому нам потрібно лише налаштувати семантику, коли ми виростемо. Але ми не можемо вивчити весь механізм побудови складної рекурсивної граматики з нуля, ми можемо лише навчитися точно налаштовувати базові навички та здібності, як спортсмен може тренувати лише ті м’язи, які існують від народження та визначаються генетично. Спортсмен не може навчитися створювати м'язи, а лише тренувати їх рости.

[Хомський та його колеги] застосовують ці напрямки мислення, щоб сперечатися про потенційні обмеження ChatGPT і пов’язаних LLM. Аргумент полягає в тому, що ці моделі можуть навчатися лише на стохастичних розподілах слів і структур, з якими вони стикаються під час сканування величезних обсягів мовних даних. Таким чином, такі моделі не мають будь-яких попередньо встановлених або базових навичок інтелекту та суджень. Вони лише створюють ймовірнісні моделі виразів та ймовірність їх появи в певних контекстах».

Далі він сказав: «Моя власна думка щодо дебатів ChatGPT така: очевидно, що ці LLM все ще мають значні проблеми та обмеження. Однак треба бути справедливим. [Ці моделі існують] лише кілька років, і прогрес і досягнуті результати вражають. LLM і ChatGPT явно відзначають ще одну віху в ШІ».

На відміну від цього, Гері Маркус погоджується з Хомським і з тими пунктами, які висуває есе. Маркус — «вчений, письменник і підприємець, скептик щодо сучасного штучного інтелекту, але щиро хоче бачити найкращий штучний інтелект у світі — і все ще зберігає трохи оптимізму». На його думку:

«Хоча в аргументації Хомського, безперечно, можна було б використати значно більше нюансів… його загальна думка правильна: магістри не можуть достовірно зрозуміти світ. І вони точно не навчили [нас] нічого про те, чому світ такий, який він є, а не інакше. Те саме для людського розуму».

Він відповів на це есе, написавши довгий і детальний пост, в якому аргументував основні ідеї Хомського та його колег і намагався спростувати низку критичних зауважень, зроблених іншими серйозними експертами, включаючи Сейновського.

Тоді Маркус звернув мою увагу на те, що сам Хомський прямо відповів на пост Маркуса, заявивши: «Якщо хтось прийде разом із фізичною теорією, яка описує речі, які відбуваються, і речі, які не можуть відбутися, і не може робити жодної різниці між ними , це не внесок у фізику, розуміння, теорію, щось. Це LLM. Високотехнологічний плагіат працює так само, або погано, для "мов", які люди не можуть освоїти (окрім, можливо, головоломок), як і для тих, які вони можуть. Тому вони нічого не говорять нам про мову, пізнання, опанування тощо.

Крім того, оскільки це питання принципу, невиправне, якщо вони покращать свою продуктивність для мови, це лише більш чітко виявляє їхні фундаментальні та невиправні недоліки, оскільки тим самим вони покращать свою продуктивність для неможливих систем».

Ерік Вієрре, невролог, професор неврології та директор Центру людської уяви Кларка в Каліфорнійському університеті Сан-Дієго, представив зовсім іншу точку зору: «Якщо ми визначимо [інтелект] функціонально, тобто розумна сутність отримує «право» відповідь, тоді очевидно існує приголомшлива траєкторія цих систем, щоб дати не тільки відповіді, про які ми б подумали, але навіть нові відповіді, про які більшість або всі люди могли б і не подумати.

Проте, як нейрофізіолога, мене завжди цікавила робота розуму… я б стверджував, що ми ще не знаємо про це. Неймовірно, але ми можемо забрати ваш інтелект, уяву та підсвідоме мислення та повернути їх … за допомогою газової анестезії, але як це працює?

У клінічній неврології 21 століття «когнітивний туман» викликає побоювання як у людей, так і у їхніх медичних працівників. Перешкоди «розумінню» є реальними, розчаровують і становлять буквальну загрозу людській природі. Розуміння «розуміння»… є надзвичайно важливою метою для нас у нейронауках, і я підозрюю, що вона буде мати величезне значення в поточному розвитку розвитку [інтелекту]».

Джозеф Ґеречі, засновник і головний технічний директор NetraMark і доцент Університету Квінс у Канаді, висловив такі думки: «Ми розуміємо, що існують шаблони відповідей, які машина навчилася завдяки своєму масивному навчальному набору, і є різними способами ми можемо спостерігати за цим шаблоном, ставлячи розумні запитання. Навіть розмова про те, що Ноам Хомський та ін. частка в їхній статті має ознаки цієї вивченої структури до відповідей. Ми розуміємо, що ці технології можуть робити помилки, так само як і ми, і що ці технології практично стрімко спроможні давати переконливі відповіді. Чи є ChatGPT розумним? Це залежить від вашого визначення, але особисто я твердо переконаний, що вони жодним чином не розумні та навіть близько не мають самосвідомості гризунів. Ось чому моя власна робота зосереджена на розширеному інтелекті, де ми можемо надати чіткі гіпотези про те, що виявлено, що людський досвід покращився».

Ріта Дж. Кінг, виконавчий віце-президент Science House, висловила ширші суспільні та гуманістичні проблеми, подібні до ряду коментарів читачів: «Багато реакцій на ChatGPT показують, як мало ми розуміємо про природний інтелект. Ми недостатньо розумні, щоб повністю зрозуміти свій власний розум, а тим більше наслідки все більш витончених форм цифрової інтерактивності. Сьогодні багато технологій об’єднуються під заголовок ШІ. Уявіть собі, якби ми перестали сприймати штучний інтелект як штучний інтелект і почали сприймати його як прикладну уяву? Нам потрібно застосувати уяву до наших стосунків із нашими власними творіннями, щоб зробити життя людства кращим, перш ніж наша гордовитість зробить людство застарілим. Спеціалісти з гуманітарних наук вивчають це — галузь дослідження, якій загрожує прибуткове прагнення створювати технології, яких ми не розуміємо з незрозумілих причин. Еволюція технологій неминуча, але нам ще належить повністю застосувати нашу людську суперздібність, уяву, до процесу навмисного розвитку».

Чому «розум», «інтелект» і пов’язані з ними когнітивні поняття так важко визначити?

Широкий діапазон різноманітних думок і думок підкреслює, як сама дискусія ставить важливе фундаментальне питання: чому «розум» і «інтелект» так важко визначити, не кажучи вже про те, щоб зрозуміти? Чому згода в самому питанні така невловима?

Ось один із способів подумати про це: у кожній іншій фізичній системі, про яку ми знаємо, «річ», яка вивчається, фізичний об’єкт або процес — або навіть просто ідея, яку ми намагаємося зрозуміти, є спостережуваною або вимірюваною. І якщо це не так, то воно принаймні концептуально чи інтелектуально доступне в тому сенсі, що кінцеву мету, розуміння, якого ми намагаємося досягти, можна описати або припустити про неї таким чином, щоб ми могли поділитися та повідомити іншим. Іншими словами, ми можемо принаймні записати те, що намагаємося зрозуміти, навіть якщо спостерігати або досліджувати це може бути важко або навіть неможливо. Якщо нічого іншого, то сама проблема зрозуміла.

Розглянемо це в контексті деяких із найскладніших наукових тем, про які ми зараз знаємо. Візьмемо, наприклад, чорні діри. Вони, мабуть, є одними з найдивніших і найзагадковіших об’єктів у Всесвіті. Їх неможливо спостерігати безпосередньо. За горизонтом подій гравітація чорної діри настільки сильна, що викривляє простір-час до такого екстремального ступеня, що незалежно від того, в якому напрямку ви подорожуєте, все рухається до сингулярності в центрі чорної діри. Ніщо не може вийти за цю точку, навіть світло. Жодна інформація не може бути практично відновлена, навіть якщо вона не знищена. Фізика сингулярності є абсолютно невідомою. Ми не розуміємо або не маємо правильних фізичних законів і математичних рівнянь, щоб описати або передбачити те, що відбувається. Проте, незважаючи на все це, ми принаймні знаємо, де наше розуміння фізики ламається. Ми можемо дуже реально пояснити проблему, саму фізичну систему, навіть якщо ми не можемо це спостерігати або знати відповідь.

Ось ще один приклад: на зовнішніх межах чистої математики абстрактні ідеї, народжені чистим мисленням, напружують уяву, а спроби прослідкувати нитки логічних переходів від аксіом до теорем можуть запаморочити голову. Проте об’єктом інтересу та вивчення є самі ці ідеї. Те, що вивчається, і те, як структуровані проблеми, є доступними, навіть якщо їх вирішення може бути надзвичайно важко зрозуміти, може бути доведено, що вони нерозв’язні, або просто невідомо, чи можна їх вирішити.

Це не обов’язково стосується таких понять, як «розум» або «інтелект». Але чому? Що настільки принципово відрізняється від мозку та того, як з нього виникає розум, що відрізняє його від інших фізичних систем?

Проблема ось у чому: розум і його первинні характеристики, як продукт мозку, повністю самореферентні та закриті від зовнішнього світу та всього іншого в ньому. Ми насправді не знаємо, як виглядає і відчувається фізичний світ. Ми створюємо внутрішні моделі сприйняття того, що ми думаємо, на основі інформації, отриманої від наших п’яти органів чуття, і нашої внутрішньої творчості в тому, як наш мозок об’єднує всю цю інформацію. Тому визначення та розуміння таких понять, як розум, інтелект, самосвідомість і свідомість, є дуже складним заняттям.

Тепер поширте ці концепції на темпи розвитку та складність машинного навчання та штучного інтелекту та спробуйте порівняти це з самореферентним і дуже обмеженим розумінням цих концепцій у нас самих та інших людей. Людина швидко починає розуміти масштаб проблеми та, зрозуміло, величезний діапазон філософських, технічних і суспільних думок.

Цікавим і незрозумілим є те, що у міру того, як тип нейронної мережі, на якій базуються LLM, як-от ChatGPT, зростає, вони, схоже, набувають здатності навчатися та створювати висновки щодо певних обмежених класів речей, яким вони явно не навчалися. на. Іншими словами, всередині самої моделі відбувається емерджентне навчання. Як це відбувається та наслідки цього є активною областю останніх досліджень.

Якщо нічого іншого, прогрес і темпи машинного навчання та штучного інтелекту змушують нас дивитися всередину так само, як і назовні. Ми люди, які знаходять себе. І дебати, безсумнівно, триватимуть у найближчому майбутньому.

До речі, наприкінці сцени в «Прибуття», де Ян зустрічає Луїзу на шляху, щоб розшифрувати мову інопланетян, Ян виносить вирок Луїзі в її книзі про те, що мова є наріжним каменем цивілізації.

'Це чудово. Навіть якщо це неправильно… наріжним каменем цивілізації є не мова. Це наука». Ви можете бути суддею цього.