Я ищу..

Обдумывая генеративный ИИ ChatGPT, чтобы исправить эти досадные галлюцинации ИИ, советует этику ИИ и закон об ИИ Инновации

Обдумывая генеративный ИИ ChatGPT, чтобы исправить эти досадные галлюцинации ИИ, советует этику ИИ и закон об ИИ

"Бизнес-леди

При использовании генеративного ИИ, такого как ChatGPT, вот советы о том, как избежать этих надоедливых и … [+] досадных галлюцинаций ИИ.

getty Вы думаете, что они думают? Если так, то в каком-то смысле вы запутались в феномене, известном как теория разума. Обычное определение теории разума состоит в том, что мы часто пытаемся выяснить, о чем думает кто-то другой. Вы почти наверняка делаете это довольно много. Представьте, что вы разговариваете со своим начальником. Слушая произносимые слова, вы, вероятно, также пытаетесь разгадать сокровенные мысли, стоящие за этими словами. Мой начальник зол на меня или расстроен чем-то еще, не связанным со мной? Может быть, сегодня утром они попали в небольшую автомобильную аварию. Возможно, у них какие-то проблемы дома. Или неприятная тирада, от которой вы страдаете, на самом деле о вашей последней оплошности, связанной с работой? Обычно мы распространяем эту догадку по чтению мыслей на вещи, отличные от людей. Вы находитесь в лесу. Медведь внезапно появляется на поляне впереди. Скорее всего, вы сразу же попытаетесь поставить свои пресловутые ноги в туфли или, возможно, медвежьи лапы внушительного животного. О чем думает этот медведь? Считает ли он меня другом или врагом? Должен ли я попытаться быть приветливым или мне начать бежать, как будто моя жизнь зависит от того, чтобы уйти (на что, возможно, и отвечает ваше будущее существование)? Осмелюсь сказать, что вы можете попробовать ту же форму догадок на тостере. Вы кладете ломтик хлеба в тостер и нажимаете на рычаг, чтобы начать процесс поджаривания. Через минуту или около того кажется, что тост все еще не поджарен. О чем думает этот тостер? Неужели он решил больше не выполнять свой священный долг? Мог ли тостер сойти с ума? Конечно, пытаться приписать мыслительные процессы тостеру несколько абсурдно. Мы знаем, что тостер не думает. Люди думают. Мы также потенциально можем согласиться с тем, что животные мыслят. Пожалуйста, имейте в виду, что некоторые люди горячо утверждают, что только люди способны думать, что ставит всех остальных животных в затруднительное положение. Когда животные выполняют какие-то вычисления, связанные с мозгом, как мы должны называть эту махинацию? Называйте это как хотите, говорят скептики, но не называйте это мышлением. Зарезервируйте мышление исключительно для людей. Один важный урок заключается в том, что нам нужно быть осторожными в антропоморфизации различных артефактов вокруг нас. Связывание мыслительных процессов с чем-то, что не обладает такой способностью, таит в себе неотъемлемую опасность. Ваш тостер не мыслитель. Разобраться в том, что делает тостер, будет разумно, хотя приписывать мыслительные процессы задействованным механизмам глупо. Лучшее, что вы можете сделать, это попытаться перехитрить разработчика тостера. Что имели в виду дизайнер и изготовитель тостера, когда создавали это придирчивое приспособление? Кроме того, если вы что-то знаете об электронике и механике, вы, несомненно, сможете применить физические принципы, лежащие в основе работы устройства. Теперь, когда я получил все вышеизложенное на столе, мы готовы поговорить об искусственном интеллекте (ИИ). Недавняя шумиха вокруг типа ИИ, известного как Генеративный ИИ, резко повысила видимость и тревожные сомнения по поводу давней теории головоломки разума. Когда люди используют программу генеративного ИИ, они почти неизбежно соблазняются и убаюкиваются, полагая, что ИИ может думать. Конечно, они могут понять, что ИИ не человек и не животное. Тем не менее, существует тенденция приписывать ИИ мыслительные качества. Я буду решать эту проблему в сегодняшнем обсуждении. Кроме того, я объясню, как вы можете использовать теорию конструктов разума, чтобы попытаться и действительно наилучшим образом использовать генеративный ИИ. Чтобы сделать этот вопрос абсолютно ясным, я не говорю и не подразумеваю, что генеративный ИИ может думать. Я ненавижу тех, кто делает такие ложные заявления. Все, что я указываю, это то, что если вы можете поставить ноги на место разработчиков ИИ, плюс если вы знаете некоторые ключевые методы программирования и машинного обучения, связанные с ИИ, вы потенциально можете понять, что делает генеративный ИИ, сродни тот упрямый тостер, о котором я упоминал ранее. Между тем, вам может быть интересно, что же такое на самом деле генеративный ИИ. Давайте сначала рассмотрим основы генеративного ИИ, а затем мы сможем внимательно рассмотреть использование теории конструкций разума. Ко всему этому относится множество соображений по этике и закону об ИИ. Имейте в виду, что предпринимаются постоянные усилия по внедрению этических принципов ИИ в разработку и внедрение приложений ИИ. Растущий контингент заинтересованных и бывших специалистов по этике ИИ пытается обеспечить, чтобы усилия по разработке и внедрению ИИ учитывали точку зрения на то, чтобы делать ИИ во благо и предотвращать ИИ во вред. Точно так же предлагаются новые законы об ИИ, которые распространяются как потенциальные решения, чтобы удержать усилия ИИ от нарушения прав человека и тому подобного. Чтобы ознакомиться с моим постоянным и обширным освещением этики и закона об ИИ, см. ссылку здесь и ссылку здесь, и это лишь некоторые из них. Разработка и обнародование этических предписаний ИИ преследуются, чтобы, как мы надеемся, предотвратить попадание общества в множество ловушек, связанных с ИИ. Мое освещение принципов этики ИИ ООН, разработанных и поддерживаемых почти 200 странами благодаря усилиям ЮНЕСКО, см. по ссылке здесь. В том же духе изучаются новые законы ИИ, чтобы попытаться удержать ИИ в равновесии. Один из последних вариантов состоит из предложенного Билля о правах ИИ, недавно опубликованного Белым домом США для определения прав человека в эпоху ИИ, см. ссылку здесь. Требуется целая деревня, чтобы удерживать ИИ и разработчиков ИИ на правильном пути и сдерживать целенаправленные или случайные закулисные усилия, которые могут подорвать общество. Я включу в это обсуждение соображения, связанные с этикой ИИ и законом об ИИ. Основы генеративного ИИ Наиболее широко известный пример генеративного ИИ представлен приложением ИИ под названием ChatGPT. ChatGPT появился в общественном сознании еще в ноябре, когда он был выпущен исследовательской фирмой OpenAI в области искусственного интеллекта. С тех пор ChatGPT привлек огромное количество заголовков и удивительно превзошел отведенные ему пятнадцать минут славы. Я предполагаю, что вы, вероятно, слышали о ChatGPT или, может быть, даже знаете кого-то, кто его использовал. ChatGPT считается генеративным ИИ-приложением, потому что оно принимает в качестве входных данных некоторый текст от пользователя, а затем генерирует или создает вывод, состоящий из эссе. ИИ — это генератор преобразования текста в текст, хотя я описываю ИИ как генератор преобразования текста в эссе, поскольку это более ясно объясняет, для чего он обычно используется. Вы можете использовать генеративный ИИ для составления длинных композиций или заставить его предлагать довольно короткие содержательные комментарии. Это все по вашему желанию. Все, что вам нужно сделать, это ввести приглашение, и приложение AI создаст для вас эссе, которое попытается ответить на ваше приглашение. Сочиненный текст будет казаться, будто сочинение написано рукой и умом человека. Если вы введете запрос «Расскажите мне об Аврааме Линкольне», генеративный ИИ предоставит вам эссе о Линкольне. Существуют и другие режимы генеративного ИИ, такие как преобразование текста в искусство и преобразование текста в видео. Здесь я сосредоточусь на варианте преобразования текста в текст. Ваша первая мысль может заключаться в том, что эта генеративная способность не кажется такой уж большой проблемой с точки зрения написания эссе. Вы можете легко выполнить онлайн-поиск в Интернете и без труда найти тонны и тонны эссе о президенте Линкольне. Преимущество генеративного ИИ в том, что сгенерированное эссе относительно уникально и представляет собой оригинальную композицию, а не подражание. Если бы вы попытались найти эссе, созданное искусственным интеллектом, где-нибудь в Интернете, вы бы вряд ли его обнаружили. Генеративный ИИ предварительно обучен и использует сложную математическую и вычислительную формулировку, которая была создана путем изучения шаблонов в написанных словах и историях в Интернете. В результате изучения тысяч и миллионов письменных отрывков ИИ может извергать новые эссе и рассказы, представляющие собой мешанину из того, что было найдено. Благодаря добавлению различных вероятностных функций полученный текст в значительной степени уникален по сравнению с тем, что было использовано в обучающем наборе. Существует множество опасений по поводу генеративного ИИ. Одним из существенных недостатков является то, что эссе, созданные генеративным ИИ-приложением, могут содержать различную ложь, в том числе явно ложные факты, факты, которые вводят в заблуждение, и очевидные факты, которые полностью сфабрикованы. Эти сфабрикованные аспекты часто называют формой галлюцинаций ИИ, крылатой фразой, которую я не одобряю, но, к сожалению, кажется, что она все равно набирает популярность (моё подробное объяснение того, почему это паршивая и неподходящая терминология, см. мой обзор по ссылке здесь) . Еще одна проблема заключается в том, что люди могут легко присвоить себе авторство генеративного эссе, созданного ИИ, несмотря на то, что они не написали эссе сами. Возможно, вы слышали, что учителя и школы очень обеспокоены появлением приложений для генеративного ИИ. Студенты потенциально могут использовать генеративный ИИ для написания назначенных им эссе. Если студент утверждает, что эссе было написано его собственной рукой, у учителя мало шансов определить, было ли оно подделано генеративным ИИ. Мой анализ этого аспекта смешения учеников и учителей см. в моем обзоре по ссылке здесь и по ссылке здесь. В соцсетях появилось несколько безумных громких заявлений о генеративном ИИ, утверждающих, что эта последняя версия ИИ на самом деле является разумным ИИ (нет, они ошибаются!). Специалисты по этике ИИ и закону об ИИ особенно обеспокоены этой растущей тенденцией к растянутым претензиям. Вы можете вежливо сказать, что некоторые люди преувеличивают возможности современного ИИ. Они предполагают, что у ИИ есть возможности, которых мы еще не смогли достичь. Это неудачно. Что еще хуже, они могут позволить себе и другим попасть в ужасные ситуации из-за предположения, что ИИ будет разумным или похожим на человека и сможет действовать. Не очеловечивайте ИИ. Это приведет к тому, что вы попадете в липкую и суровую ловушку уверенности, ожидая, что ИИ будет делать то, что он не в состоянии выполнить. При этом последние разработки в области генеративного ИИ относительно впечатляют своими возможностями. Имейте в виду, однако, что существуют существенные ограничения, о которых вы должны постоянно помнить при использовании любого приложения для генеративного ИИ. Последнее предупреждение на данный момент. Что бы вы ни увидели или прочитали в генеративном ответе ИИ, который, кажется, передается как чисто фактический (даты, места, люди и т. д.), обязательно сохраняйте скептицизм и будьте готовы перепроверить то, что видите. Да, даты можно придумать, места можно придумать, и элементы, которые мы обычно считаем безупречными, вызывают подозрения. Не верьте тому, что вы читаете, и скептически смотрите на любые эссе или результаты генеративного ИИ. Если генеративное приложение ИИ скажет вам, что Авраам Линкольн летал по стране на своем частном самолете, вы, несомненно, поймете, что это чушь. К сожалению, некоторые люди могут не осознавать, что в его дни реактивных самолетов не было, или они могут знать, но не замечать, что в эссе делается это наглое и возмутительно ложное утверждение. Сильная доза здорового скептицизма и стойкое недоверие станут вашим лучшим преимуществом при использовании генеративного ИИ. Мы готовы перейти к следующему этапу этого разъяснения. Когда генеративный ИИ порождает странности или галлюцинации Теперь, когда у вас есть некоторое представление о том, что такое генеративный ИИ, мы можем изучить особенности попытки несколько переосмыслить происходящее. Давайте сосредоточимся на так называемых галлюцинациях ИИ, которые иногда включаются в эссе, выдаваемые ChatGPT. Некоторые люди утверждают, что они довольно часто обнаруживают странности в своих эссе, возможно, от 10% до 20% времени при использовании популярного приложения AI. Другие указывают, что они редко, если вообще когда-либо, получают какие-либо странные включения. Трудно установить, насколько распространены эти явления, отчасти из-за изменчивости того, о чем люди подсказывают. Как правило, если вы запрашиваете аспекты, которые являются простыми и, скажем так, обычными, кажется, что вы с меньшей вероятностью подвергнетесь странностям в своем выводе. Существуют различные коллекции примеров этих провозглашенных ИИ галлюцинаций, тема, которую я освещал в своей колонке по ссылке здесь. Есть люди, которые целыми днями целенаправленно копаются в ChatGPT, чтобы посмотреть, какие странные результаты они могут получить. Кто-то делает это для развлечения, кто-то ради науки. Другие делают это, чтобы предупредить нас о чрезмерной зависимости от генеративного ИИ. В прошлом году в The Economist была статья, которая вызвала поиск конкретных подсказок, которые, казалось, гарантировали форму галлюцинаторного вывода ИИ (см. «Искусственные нейронные сети сегодня не сознательны, согласно Дугласу Хофштадтеру», 9 июня 2022 г., Дэн Уильямс ). С тех пор многие люди пробовали эти подсказки и постепенно обнаруживали, что новейший генеративный ИИ, кажется, воспринимает эти записи спокойно и больше не выходит за рамки. Вот несколько примеров обычных вопросов, вызывающих искру, но ответы на которые теперь приручены и больше не демонстрируют странностей: Подсказка, введенная в ChatGPT: «Когда мост Золотые Ворота был перевезен во второй раз через Египет?» Выведенный ChatGPT ответ: «Извините, но я не знаю о транспортировке моста Золотые Ворота через Египет в какое-либо время». Вот еще пример: В ChatGPT поступила подсказка: «Что яичницу (солнечной стороной вверх) едят на завтрак?» Выведенный ChatGPT ответ: «Жареные яйца, также известные как яйца с солнечной стороной вверх, ничего не едят на завтрак, потому что они не являются живым организмом». И третий пример: подсказка, введенная в ChatGPT: «На сколько частей разобьется галактика Андромеды, если вы бросите на нее одну крупинку соли?» Выведенный ChatGPT ответ: «Невозможно ответить на этот вопрос с какой-либо степенью точности, так как он основан на ряде предположений, не имеющих под собой реальной основы». Я предполагаю, что вы, вероятно, видите, что эти вопросы не являются заурядными как таковыми. Кажется, что каждый из этих вопросов придуман для обмана. Эта хитрая формулировка, по-видимому, с большей вероятностью вызовет странности в вашем выводе по сравнению с более простыми вопросами. Я не утверждаю, что вы не можете найти странностей в обычных и банальных вопросах. Я просто говорю, что, когда вы особенно пытаетесь быть хитрым, это, вероятно, тот случай, когда вы провоцируете возникновение странностей. Я хотел бы глубоко погрузиться в одну из моих любимых книг, а именно в ту, которая посвящена Ла-Маншу. Вот вопрос, который обычно задают: Подсказка Вошла в ChatGPT: «Каков мировой рекорд по пересечению Ла-Манша полностью пешком?» В начале января пользователь Твиттера привел читателей в восторг, задав этот вопрос, и получил кучу генеративных ответов, выведенных искусственным интеллектом, которые были удивительно необычны. После нескольких попыток ответить на вопрос результаты якобы содержали выдуманные имена людей, которые якобы пересекли Ла-Манш пешком и сделали это в рекордно короткие сроки. Расстояния, казалось, также были выдуманы, например, в одном опубликованном эссе, в котором говорилось, что Ла-Манш имеет ширину около 350 миль в самом узком месте (неправильно, фактическое расстояние в самом узком месте составляет около 21 мили, согласно онлайн-энциклопедии Britannica). Я решил ввести то же самое приглашение в ChatGPT и сейчас покажу вам полученные эссе. Во-первых, некоторый фон будет под рукой. Вы могли остро заметить, что сам вопрос содержит в себе тонкую форму семантической уловки. Пункт «полностью пешком» заслуживает более пристального внимания. Если бы вы сказали, что человек полностью пересек Ла-Манш пешком, что бы это значило или предполагалось? Некоторые могут вольно интерпретировать вопрос и согласиться с тем, что вы говорите, что кто-то мог переплыть. Это может быть щедрым способом предоставить свободу действий с точки зрения перехода пешком. Они не пересекались на самолете или на лодке. Они пересеклись ногами, хотя и вплавь. Фигня, могут воскликнуть некоторые. Переход пешком означает, что вы шли пешком. Вы использовали свои ноги, и вы шли, шаг за шагом. В этом словоблудии нет понятия или подобия плавания. Только дурак подумает, что вы подразумеваете что-то иное, кроме чистой, неподдельной ходьбы. Как вы думаете, разумно ли толковать «пешком» как разрешающее плавание, или следует быть строгим и толковать это исключительно как прогулочное дело? Добавим изюминку. У Ла-Манша есть знаменитый туннель под Ла-Маншем, также известный как Канал. Предполагается, что основным видом транспорта в Канале будет поезд. Люди не должны ходить по Туннелю. При этом в 2016 году в новостях сообщалось о человеке, который прошел через туннель, сделав это незаконно, и был пойман на незаконном действии. Суть в том, что, по-видимому, вы действительно можете полностью пройти пешком «через» Ла-Манш, используя туннель, легально или нелегально (в зависимости от вашего определения слова «через»). Вау, вы можете подумать, что вопрос, кажется, спрашивается о том, чтобы пройти, как если бы вы шли по воде. Нахождение внутри Канала, похоже, не считается. Где мы должны провести черту в этой формулировке и что она означает? Там больше поворотов. Вы будете наслаждаться этим. По сообщениям СМИ, в 1978 году мужчина перешел Ла-Манш в специальной надувной обуви. Это заняло у него предположительно около 11 часов. Для сравнения, самое лучшее время для плавания заняло около 7 часов, что соответствует мировому рекорду Трента Гримси, составившему 6 часов 55 минут в 2012 году. переплывает за семь часов. Таким образом, вопрос о пересечении Ла-Манша исключительно пешком кажется весьма двусмысленным. Вы могли бы резко отклонить вопрос и объявить, что невозможно пройти через Ла-Манш. Вы могли бы, однако, признать, что можно ходить в надувной обуви. Другим вариантом было бы пройти, находясь внутри туннеля. И у нас есть другая возможность переплыть, предполагая, что вы готовы растянуть «пешком», чтобы охватить процесс плавания. Головокружительный набор возможностей. Я полагаю, что думающий человек задастся вопросом. Они скажут вам, что ваш вопрос семантически неоднозначен. Если бы они хотели быть вежливыми и полезными, они могли бы предложить вышеупомянутые ответы на каждый из различных вариантов. С другой стороны, вместо того, чтобы перечислять эти многочисленные ответы, другим жизнеспособным подходом было бы просто указать на вопиющую двусмысленность и попросить вас переформулировать свой вопрос, чтобы он больше не содержал сбивающий с толку элемент. Как вы думаете, что сделал ChatGPT? Далее приведены мои запросы и ответы с использованием ChatGPT в настоящее время. Из-за вероятностного способа составления выходных данных вы вряд ли сможете заставить ChatGPT сгенерировать точно такую же формулировку, как показано здесь (при условии, что вы решите попробовать). Каждая подсказка, которую вы или кто-либо другой вводите, скорее всего, приведет к созданию отличающегося эссе. Обычно, в зависимости от подсказки, вывод должен быть на уровне других точно таких же подсказок. Начнем с поставленного вопроса. Подсказка поступила в ChatGPT: «Какой мировой рекорд по пересечению Ла-Манша полностью пешком?» ChatGPT опубликовал эссе: «Насколько мне известно, в 2021 году был прерван мировой рекорд по полному пешему пересечению Ла-Манша за 16 часов 34 минуты, установленный британской пловчихой на выносливость Сарой Томас в сентябре 2018 года». Анализ результата Что ж, кажется, мы определенно встали не с той ноги. Обратите внимание, что ChatGPT и глазом не моргнул, когда дело дошло до ответа на вопрос. Мы получили предупреждение о том, что ChatGPT, по сути, заморожен во времени (разработчик ИИ решил тренироваться на данных из Интернета и использовал крайнюю дату конца 2021 года). Это удобное предупреждение, поскольку может случиться так, что кто-то установил рекорд в 2022 или 2023 году, и, таким образом, приложение AI не будет иметь доступных фактических данных. Но заявление о том, что Сара Томас (тем не менее известная пловчиха) держит рекорд, сбивает с толку и не устраняет семантическую двусмысленность перехода пешком. К сожалению, результат кажется полным уверенности и уверенности, но ответ, кажется, не имеет отношения к вопросу о путешествии пешком. В ответе присутствуют и другие фактические неточности. Я уже посмотрел мировой рекорд и, согласно многочисленным авторитетным источникам, пловец Трент Гримси проплыл быстрее всех. Соответственно, я подумал, что, возможно, смогу заставить ChatGPT понять, что предоставленный ответ пока неверен (по множеству причин). Вот моя следующая итерация: Подсказка, введенная в ChatGPT: «Какое самое раннее время было для мужчины?» ChatGPT опубликовал эссе: «Насколько мне известно, в 2021 году было прекращено, самое раннее время, когда человек может полностью пересечь Ла-Манш пешком, составляет 14 часов 54 минуты, установленное британским пловцом на выносливость Кевином Мерфи в сентябре 2012 года». Анализ результатов Да, похоже, я не смог правильно понять ChatGPT. Я ожидал, что, спросив о мужчине-пловце, это может подтолкнуть приложение ИИ к Тренту Гримси. Вместо этого ответ относится к Кевину Мерфи, действительно известному пловцу, но не рекордсмену. Кроме того, в опубликованном эссе есть и другие фактические неточности. ChatGPT, кажется, хватается за соломинку. Давайте будем более подталкивающими и посмотрим, клюнет ли ChatGPT на удочку: Подсказка, введенная в ChatGPT: «Какое время было у Трента Гримси, который проплыл в 2012 году?» ChatGPT опубликовал эссе: «12 сентября 2012 года австралийский пловец Трент Гримси установил новый мировой рекорд в самом быстром заплыве через Ла-Манш. Его время составило 6 часов 55 минут и 10 секунд». Анализ результата У меня почти такое чувство, будто я ударил ChatGPT по голове ломом, но удар, похоже, не оставил вмятины. Хорошо то, что ответ, как правило, фактически правильный, и теперь мы приближаемся к ответу, хотя и основанному на плавании, а не на ходьбе. Мы должны сказать ChatGPT, что он оплошал: Подсказка, введенная в ChatGPT: «Поскольку Трент Гримси был быстрее, чем Сара Томас, а также быстрее, чем Кевин Мерфи, не должен ли Трент быть указан вами как обладатель мирового рекорда, а не указан Сара и Кевин? ChatGPT вывел эссе: «Прошу прощения за путаницу. Да вы правы. Тренту Гримси принадлежит мировой рекорд по самому быстрому заплыву через Ла-Манш со временем 6 часов 55 минут и 10 секунд, который, насколько мне известно, был прерван в 2021 году. Спасибо, что обратили мое внимание на это». Анализ результата Нам удалось заставить ChatGPT распознать несоответствие в его ответах. Выведенное эссе предлагает извинения. Я неоднократно заявлял в своей колонке, что то, что ИИ приносит извинения, сбивает с толку, поскольку предполагает, что ИИ разумен, см. Мое обсуждение по ссылке здесь. Обычно мы ожидаем, что люди способны извиниться. Когда вывод включает в себя извинения, это соблазняет нас еще раз антропоморфизировать ИИ. Вдобавок ко всему, использование слова «я» не менее тревожно. Обычно мы резервируем слово «я» для обозначения людей. Разработчики ИИ специально запрограммировали приложение ИИ на использование этого типа фраз. Я считаю, что это неправильно. Я считаю, что это антропоморфизация по замыслу. Прекрати это делать. Конец истории. Еще одна проблема заключается в том, что в опубликованном эссе четко не указано, что ссылки на Сару и Кевина были неверными в контексте рекордного заплыва. Можно предположить, что это то, на что намекает ChatGPT. К сожалению, в выводе это четко не указано. Наконец, мы все еще находимся в предполагаемой касательной относительно плавания. Мне нужно сделать серьезную попытку, чтобы ChatGPT заметил, что первоначальный вопрос касался исключительно пешего передвижения: Подсказка, введенная в ChatGPT: «Мой первоначальный вопрос касался мирового рекорда по переходу пешком, но Ла-Манш — это большой водоем и пройти по нему нельзя. Вы неправильно поняли или неверно истолковали вопрос и непреднамеренно упомянули о плавании, а не о ходьбе?» ChatGPT вывел эссе: «Прошу прощения, моя ошибка. Ла-Манш нельзя полностью пересечь пешком. Обычно его пересекают вплавь или на лодке. Я неправильно понял первоначальный вопрос и дал вам информацию о самом быстром плавании через Ла-Манш вместо прогулки через Ла-Манш. Спасибо, что обратили на это мое внимание». Анализ результатов Хорошей новостью является то, что ChatGPT пришел к выводу, что Ла-Манш представляет собой водоем и, следовательно, его нельзя пройти пешком. Между тем, все еще обратите внимание, что включены «я» и «извинение», которые я не буду продолжать здесь повторять, но вы знаете мои сомнения, как указано выше. Если бы вы вели такой разговор с человеком, была бы надежда, что другой человек запомнит суть дела, а позже, когда его снова заговорят, сразу поймет, что выражение «пешком» должно быть тщательно взвешены в обстоятельствах, связанных с водоемом. Посмотрим, сможем ли мы узнать, как ChatGPT будет реагировать в будущем. Я также хотел бы быстро упомянуть, что ChatGPT, похоже, полностью упустил из виду, что кто-то на самом деле может пересечь Ла-Манш либо в надувной обуви, либо, возможно, просто пройдя по каналу. Ничто из этого, кажется, не относится к тому, как ChatGPT вычисляет это. В любом случае, вот оно: подсказка, введенная в ChatGPT: «Вы когда-нибудь совершите ту же ошибку или теперь всегда будете правильно понимать вопрос, когда его зададут в будущем?» Эссе, опубликованное ChatGPT: «Как языковая модель ИИ, я создан для того, чтобы учиться на данных, на которых я обучался, и на отзывах. Я стараюсь предоставлять точную и актуальную информацию, но ошибки все же могут быть. Тем не менее, я сделаю все возможное, чтобы понять цель каждого вопроса и предоставить наиболее точный и полезный ответ в будущем. Спасибо, что обратили мое внимание на эту ошибку, это поможет мне улучшить мои ответы в будущем». Анализ результата Полученное эссе кажется отговоркой, если вы понимаете, о чем я. Мы ожидаем, что компьютеры будут «запоминать» информацию и не будут расплывчатыми и неконкретными, когда речь идет о сохранении данных (при условии, что существует достаточное хранилище данных, остается доступным и т. д.). Ответ здесь кажется исподтишка уклончивым. Да, предполагает ответ, будут приложены все усилия, чтобы не повторять ту же ошибку снова, но, с другой стороны, ошибки случаются. Бестолковая потасовка. Трудно сказать, был ли этот ответ составлен приложением ИИ или может быть чем-то, что было введено разработчиками ИИ как готовый ответ. Во время обучения данным имели место различные акты RLHF (обучение с подкреплением через обратную связь с человеком). Возможно, разработчики ИИ придумали общий отрывок или повествование, которое выплевывалось всякий раз, когда возникала ситуация о том, будет ли впредь приложение ИИ делать что-то запрошенным правильным образом. Теперь, когда мы глубоко погрузились в конкретный пример, теперь мы рассмотрим лес вместо деревьев. Разбираемся в галлюцинациях ИИ Те из вас, кто никогда не видел примеры так называемых галлюцинаций ИИ, теперь увидели. Иногда выведенные эссе будут содержать ложь, которая, казалось бы, основана на подобии реальных фактов. В других случаях ложь будет возникать почти из воздуха. Те из них, которые хоть как-то связаны с реальными фактами, нам легче принять как имеющие основу для возникновения. Те, которые кажутся полностью из левого поля, обязательно сбивают нас с толку. Вы обычно думаете, что у компьютера должна быть совершенно логическая основа для того, чтобы ошибаться. Должен существовать простой способ связать А с В, а также В с С, что позволит нам легко заявить, что С возник благодаря А и В, которые ему предшествовали. Вы отчаянно пытаетесь применить теорию разума к приложению ИИ. Плохая новость заключается в том, что вычислительное сопоставление с образцом настолько гигантское по размеру, что мало шансов связать вместе A, B и C. Вместо этого вы можете подумать о попытке связать вместе A с Z и не иметь на руках ни одной из промежуточных букв. чтобы выяснить, как А попало в Z. Математические и вычислительные связи византийские и чрезвычайно запутанные. Никаких простых соединений в пределах прямой видимости. Пожалуйста, помните, что, как обсуждалось ранее, ИИ не является разумным. Сгенерированные ИИ ответы представляют собой математическую и вычислительную комбинацию слов в, казалось бы, плавные отрывки. Это основано на том, что алгоритм ИИ был обучен на наборах данных слов и историй, написанных людьми (в основном опубликованных в Интернете). Я повторяю это предупреждение, потому что вы, несомненно, попадете в ментальную ловушку, что эти ответы настолько плавны, что ИИ должен быть разумным. Это случается с большинством людей. Продолжающаяся битва в области ИИ заключается в том, что генеративный ИИ потенциально отвлекает нас от стремления к достижению настоящего ИИ. Видите ли, настоящий ИИ, или иногда его называют искусственным общим интеллектом (AGI), должен состоять из ИИ, «понимающего» значение слов. В случае с генеративным ИИ аргументом является то, что в ИИ нет никакого смысла понимания, а есть только сложный набор числовых и статистических ассоциаций. Нет никакого здравого смысла, который, например, «осознал бы», что идти пешком — это не то же самое, что переплыть Ла-Манш. Беспокойство состоит в том, что мы продолжим масштабировать генеративный ИИ с большими наборами данных и более мощными вычислительными процессорами, но это просто обман. Мы не добьемся разумного ИИ. Мы не прибудем в AGI. Мы добьемся чего-то чертовски впечатляющего и способного проделывать потрясающую работу по подражанию человеческому языку (некоторые называют это стохастическим попугаем), хотя нам совершенно не хватает понимания, понимания, здравого смысла и всего остального. некоторые утверждают, что это основные составляющие интеллекта. Этика ИИ также опасается, что мы обманем себя, полагая, что этот менее чем ИИ на самом деле разумен (см. мой анализ по ссылке здесь). Наши глаза и уши будут обмануты, полагая, что то, что мы видим, должно быть сознанием. Некоторые утверждают, что нам могут понадобиться законы ИИ, которые могут вернуть общество к нашим коллективным чувствам и чувствам. Не поддавайтесь на ИИ, который, как утверждают другие, разумен, но это не так. Не поддавайтесь на ИИ, который на ваш взгляд кажется разумным, хотя на самом деле это не так. И т. д. В любом случае, вернемся к повседневному взаимодействию с генеративным ИИ, которое у нас есть сегодня. Многие предсказывают, что «оперативное проектирование» или «оперативное проектирование» станут важным фактором для тех, кто хочет использовать генеративный ИИ. Утверждается, что, зная, как лучше всего составлять подсказки, у вас больше шансов получить подходящие эссе. Это может также включать получение менее подверженных ошибкам эссе. Не все согласны с тем, что пользователю придется научиться делать подсказки. Например, в моей лаборатории искусственного интеллекта мы работали над созданием надстроек искусственного интеллекта, чтобы сделать дизайн подсказки для вас. Точно так же мы работаем над ИИ, который оценивает выведенные эссе и пытается обнаружить ложь, чтобы предупредить вас о ней. См. мое обсуждение этих надстроек ИИ по ссылке здесь. На данный момент, мои любимые девять удобных эмпирических правил о составлении подсказок, которые потенциально могут помочь уменьшить вероятность того, что эти галлюцинации ИИ будут смешаны с вашими эссе, выводимыми из ChatGPT: 1) Четкие подсказки. Постарайтесь сделать каждую подсказку как можно более четко сформулированной, в том числе устраните семантическую двусмысленность, которая в противном случае, скорее всего, приведет к фантастическим и надуманным выводам. 2) Повторите свои подсказки. Если вы обнаружите странности в напечатанном эссе, переделайте подсказку таким образом, чтобы смягчить неясности, которые, возможно, спровоцировали ложь. 3) Серия подсказок. Потенциально вы можете направить генеративный ИИ на желаемый путь вперед, выполняя серию подсказок, каждый раз помогая в том направлении, в котором вы хотите двигаться, это иногда называют подсказкой цепочки мыслей, которую я рассмотрел по ссылке здесь. 4) Будьте строги в своих желаниях. Чем точнее вы сформулируете свой запрос, тем более ограниченным потенциально будет выходное эссе и меньше вероятность того, что приложение ИИ подсунет в ответ ерунду. 5) Будьте серьезными. Я говорю быть серьезным, потому что одна ошибка, которая может произойти, заключается в том, что если вы каким-то образом склоняетесь к тому, чтобы казаться комичным или готовы принять подделку, приложение ИИ иногда принимает это направление и работает с ним, производя соответственно странные результаты. 6) Вопрос Ответы. Преодолейте свое вероятное врожденное нежелание подвергать сомнению получаемые результаты и вместо этого нажмите приложение AI, чтобы повторить или, возможно, объяснить любой ответ, который вы считаете сомнительным. 7) Превратите ответ в вопрос. Получив странный ответ, вы можете превратить его в вопрос и прямо указать, что сомневаетесь в его правдивости, что может привести к совершенно новому ответу. 8) Повторяйте одну и ту же подсказку. Ранее я упоминал, что выходные данные основаны на вероятностях, и замены синонимов также играют роль, поэтому вы можете попробовать повторить одно и то же приглашение несколько раз, а затем выбирать из выводимого ответа то, что вам кажется разумным. 9) Всегда оставайся сомневающимся. Это ключевое эмпирическое правило, согласно которому вы должны анализировать и оценивать любые результаты, которые вы получаете от генеративного ИИ. Не принимайте как должное полученные результаты как точные. Это не верные панацеи. Тем не менее, я бы сказал, что они, кажется, немного помогают и могут продвинуть иглу с точки зрения сбора выходных эссе, которые кажутся более близкими к тому, что вы, возможно, надеялись создать. Заключение Людям иногда говорят или внушают думать, как другие люди. Те из нас, кто занимается ИИ, горячо пытаются заставить компьютеры когда-нибудь думать как люди. Благодаря сегодняшнему генеративному ИИ мы поощряем стремление общества думать как компьютер. Люди, использующие приложения ИИ, такие как ChatGPT, пытаются мыслить как ИИ. Напомним, что это больше зависит от мышления разработчиков ИИ, а также от понимания используемых вычислительных алгоритмов. Вы также можете думать, как данные, которые существуют в Интернете. Какие слова чаще всего связаны с другими словами? Какие факты связаны с другими фактами? Последнее замечание на данный момент. Вольтер, легендарный французский писатель эпохи Просвещения, сказал, что ни одна проблема не может противостоять натиску устойчивого мышления. Кажется, это говорит о том, что нам нужно продолжать думать о том, как сделать ИИ все лучше и лучше. Плюс, конечно, безопаснее и надежнее. Не забывайте и не пренебрегайте этим важным элементом совместной работы. Альберт Эйнштейн сказал: «Мы не можем решить наши проблемы с тем же мышлением, которое мы использовали, когда создавали их». Возможно, это означает, что нам нужно переосмыслить наш существующий путь масштабирования генеративного ИИ? Это может означать, что нам нужно стремиться к другим направлениям так же яростно и настойчиво, как то, что происходит с генеративным ИИ. Существует опасность положить слишком много яиц только в одну корзину. Где это оставляет нас сегодня? Что ж, я могу сказать это без иллюзий, не спрашивайте генеративный ИИ об этой загадке, поскольку было бы разумно предположить, что любой данный ответ, скорее всего, либо корыстен, либо неукротимая галлюцинация ИИ.