Я шукаю..

Чи приносить користь викриття та реєстрація цих генеративних помилкових і галюцинаторних виходів AI ChatGPT, запитує етику штучного інтелекту та законодавство щодо штучного інтелекту Інновації

Чи приносить користь викриття та реєстрація цих генеративних помилкових і галюцинаторних виходів AI ChatGPT, запитує етику штучного інтелекту та законодавство щодо штучного інтелекту

Чоловік ІТ-спеціаліст тримає ноутбук і обговорює роботу з жінкою-серверним техніком. Вони стоять у центрі обробки даних, стійковому серверному кабінеті зі значком хмарного сервера та візуалізацією.

Генеративний AI ChatGPT створює помилки та неправди, і деякі вважають, що ми повинні … [+] вести список.

Гетті

Вас чекає таємниця.

Так, щось таємно відбувається за лаштунками щодо останніх технологій ШІ, про що ви можете знати.

У сьогоднішній колонці я розгляну нещодавній поштовх до компіляції передбачуваних помилок та інших недуг, пов’язаних із есеями, опублікованими програмою AI, відомою як ChatGPT. Цей конкретний додаток використовує тип штучного інтелекту під назвою Generative AI. Ви, мабуть, чули або бачили привабливі заголовки про генеративний ШІ та ChatGPT. Новини стурбовані цією конкретною програмою штучного інтелекту та, здавалося б, дивовижними можливостями, що стосуються цього типу штучного інтелекту.

Як я розповім за мить, дехто твердо переконаний, що нам потрібно скласти список помилок, які може створити додаток AI, коли він генерує есе для вас. Інші припускають, що хоча ідея такого списку викликає подив, це марна вправа, яка принесе дуже мало плодів.

Ми досліджуватимемо обидві сторони цієї гострої дискусії.

По-перше, давайте переконаємося, що ми всі знаємо, з чого складається Generative AI, а також що таке ChatGPT.

ChatGPT — це інтерактивна розмовна система загального призначення зі штучним інтелектом, по суті, здавалося б, нешкідливий звичайний чат-бот, проте він активно й жадібно використовується людьми таким чином, що багатьох застає зненацька. Все, що вам потрібно зробити, щоб використовувати цей тип штучного інтелекту, — це ввести підказку, і програма штучного інтелекту згенерує для вас есе, яке намагатиметься відповісти на вашу підказку.

На жаль, це може бути використано дещо неетичним або підступним способом. Особливо дратує те, що студенти можуть використовувати програму генеративного штучного інтелекту, щоб створювати призначені їм есе, роблячи це, просто вводячи речення або два, щоб скерувати програму в потрібному напрямку. Дехто нарікає, що це означає, що студенти будуть воліти шахраювати, коли пишуть есе поза уроками. Вчителі намагаються зрозуміти, що робити, дивіться мій аналіз і рекомендації за посиланням тут.

Незважаючи на постійний шум похвали ChatGPT, існує менш відоме занепокоєння, висловлене в першу чергу інсайдерами ШІ, що існують деякі помітні проблеми та сумніви, про які люди повинні турбуватися. Одним із суттєвих недоліків є те, що есе, створені цим додатком зі штучним інтелектом, можуть містити різні неправдиві факти, зокрема явно неправдиві факти, факти, які вводять в оману, і очевидні факти, які повністю сфабриковані. Ці вигадані аспекти часто називають різновидом галюцинацій штучного інтелекту. Ця фраза, яка мені не подобається, але, на жаль, все одно набирає популярності (для детального пояснення того, чому це паршива та невідповідна термінологія, перегляньте моє висвітлення за посиланням тут) .

Я хотів би прояснити один важливий аспект, перш ніж ми почнемо розбиратися в цій темі.

У соціальних мережах було кілька дивних заяв про Generative AI, які стверджували, що ця остання версія AI насправді є розумним AI (ні, вони помиляються!). Ті, хто займається етикою штучного інтелекту та правом штучного інтелекту, особливо стурбовані цією зростаючою тенденцією розкритих претензій. Ви можете ввічливо сказати, що деякі люди перебільшують те, що насправді може зробити сьогоднішній ШІ. Вони припускають, що штучний інтелект має можливості, яких ми ще не змогли досягти. Це прикро. Що ще гірше, вони можуть дозволити собі та іншим потрапити в жахливу ситуацію через припущення, що штучний інтелект буде розумним або схожим на людину, здатним діяти.

Не антропоморфізуйте ШІ.

Це призведе до того, що ви потрапите в липку та сувору пастку очікування від ШІ того, що він не в змозі виконати. Зважаючи на це, останній генеративний штучний інтелект відносно вражає своїми можливостями. Однак майте на увазі, що існують значні обмеження, про які ви повинні постійно пам’ятати, використовуючи будь-який генеративний додаток AI.

Якщо ви зацікавлені в тому, що бурхливий галас про ChatGPT і Generative AI, що швидко розростається, у своїй колонці я створив цілеспрямовану серію, яка може здатися вам інформативною. Ось короткий огляд на випадок, якщо будь-яка з цих тем зацікавить вас:

1) Прогнози щодо майбутніх досягнень генеративного штучного інтелекту. Якщо ви хочете знати, що, ймовірно, буде відбуватися з ШІ протягом 2023 року та далі, включно з майбутніми досягненнями в генеративному ШІ та ChatGPT, ви захочете прочитати мій вичерпний список прогнозів на 2023 рік за посиланням тут. 2) Генеративний ШІ та поради щодо психічного здоров’я. Я вирішив переглянути, як генеративний штучний інтелект і ChatGPT використовуються для консультацій щодо психічного здоров’я, що є проблемною тенденцією, відповідно до мого цілеспрямованого аналізу за посиланням тут. 3) Використання контексту та генеративного ШІ. Я також провів сезонне обговорення контексту, пов’язаного з Дідом Морозом, із залученням ChatGPT і генеративного штучного інтелекту за посиланням тут. 4) Шахраї, які використовують Generative AI. На зловісну ноту деякі шахраї з’ясували, як використовувати генеративний штучний інтелект і ChatGPT, щоб робити неправомірні дії, зокрема генерувати шахрайські електронні листи та навіть створювати програмний код для зловмисного програмного забезпечення. Перегляньте мій аналіз за посиланням тут. 5) Помилки новачків при використанні Generative AI. Багато людей як перевищують, так і напрочуд недооцінюють можливості генеративного штучного інтелекту та ChatGPT, тому я особливо звернув увагу на недооцінку, яку зазвичай роблять новачки штучного інтелекту. Дивіться обговорення за посиланням тут. 6) Впоратися з генеративними підказками ШІ та галюцинаціями ШІ. Я описую передовий підхід до використання доповнень ШІ для вирішення різноманітних проблем, пов’язаних із спробою ввести відповідні підказки в генеративний ШІ, а також є додаткові додатки ШІ для виявлення так званих галюцинованих виходів ШІ та брехні, як розглянуто за посиланням тут. 7) Розвінчання заяв Bonehead щодо виявлення генеративних есе, створених ШІ. Існує помилкова золота лихоманка додатків штучного інтелекту, які стверджують, що вони здатні визначити, чи було те чи інше есе створено людиною чи створено штучним інтелектом. Загалом, це вводить в оману, а в деяких випадках — безглузде та необґрунтоване твердження. Перегляньте моє висвітлення за посиланням тут. 8) Рольові ігри за допомогою Generative AI можуть передвіщати недоліки психічного здоров’я. Деякі використовують генеративний штучний інтелект, як-от ChatGPT, для рольових ігор, за допомогою яких програма штучного інтелекту реагує на людину так, ніби вона перебуває у фантастичному світі чи іншому вигаданому місці. Це може мати наслідки для психічного здоров’я, перегляньте посилання тут.

Давайте прямо зараз обговоримо суть генеративного штучного інтелекту та ChatGPT, щоб ви знали, які основи це стосується. Тоді ми будемо готові приступити до дослідницького аналізу неправдивих даних, які потенційно можуть створювати ці додатки ШІ. Я наведу кілька прикладів використання ChatGPT, які допоможуть вам відчутно зрозуміти природу того, що створює цей тип генеративного ШІ.

Відкриття The Can Of Worms на Generative AI

Ми готові зануритися в деякі подробиці ШІ.

Якщо ви вже дуже добре розбираєтесь у темі генеративного штучного інтелекту та ChatGPT, ви можете коротко проглянути мої думки та продовжити наступний розділ цього обговорення. Я вважаю, що для всіх інших це пояснення може бути корисним.

Коротше кажучи, генеративний штучний інтелект — це особливий тип штучного інтелекту, який створює текст так, ніби текст був написаний людською рукою та розумом. Все, що вам потрібно зробити, це ввести підказку, наприклад речення на кшталт «Розкажіть мені про Авраама Лінкольна», і генеративний ШІ надасть вам нарис про Лінкольна. Це зазвичай класифікується як генеративний штучний інтелект, який виконує перетворення тексту в текст, або деякі вважають за краще називати це виведенням тексту в есе. Можливо, ви чули про інші режими генеративного штучного інтелекту, такі як перетворення тексту в зображення та перетворення тексту у відео.

Вашою першою думкою може бути те, що це не виглядає такою великою проблемою з точки зору створення есе. Ви можете легко здійснити онлайн-пошук в Інтернеті та легко знайти тонни й тонни есе про президента Лінкольна. Головна перевага генеративного штучного інтелекту полягає в тому, що згенероване есе є відносно унікальним і забезпечує оригінальну композицію, а не копію. Якби ви спробували десь знайти есе, створене штучним інтелектом, в Інтернеті, ви б навряд чи його знайшли.

Генеративний штучний інтелект попередньо навчений і використовує складну математичну та обчислювальну формулу, яка була створена шляхом вивчення шаблонів у написаних словах та історіях у мережі. У результаті вивчення тисяч і мільйонів письмових уривків ШІ може викинути нові есе та історії, які є сумішшю знайденого. Завдяки додаванню різних ймовірнісних функціональних можливостей отриманий текст є майже унікальним у порівнянні з тим, що використовувалося в навчальному наборі.

Ось чому виник галас з приводу того, що учні можуть шахраювати, коли пишуть есе поза аудиторією. Вчитель не може просто взяти есе, яке брехливі учні стверджують, що це їхній власний твір, і спробувати з’ясувати, чи його скопійовано з іншого джерела в Інтернеті. Загалом, в Інтернеті не буде жодного остаточного попереднього есе, яке б відповідало створеному ШІ есе. Загалом, вчителю доведеться неохоче визнати, що учень написав есе як оригінальний твір.

За мить я покажу вам, що відбувається, коли ви вводите запитання чи підказки в генеративний ШІ. Я буду використовувати останню версію ChatGPT, щоб вводити свої підказки та збирати «відповіді» або есе, згенеровані штучним інтелектом (зауважте, що те саме можна зробити з численними іншими доступними генеративними програмами ШІ; я вирішив використовувати ChatGPT, тому що він отримує свої п’ять хвилин слави прямо зараз).

Можливо, коротка дотична до ChatGPT може бути корисною на цьому етапі.

Програма ChatGPT стала доступною для широкого загалу лише кілька місяців тому. Загалом, ці генеративні програми AI зазвичай доступні лише для інсайдерів AI. Незвичайний аспект того, що ChatGPT може бути використаний будь-ким, просто ввівши адресу електронної пошти та ім’я, що ж, це призвело до того, що багато людей вирішили спробувати його. ChatGPT наразі безкоштовний для використання (питання монетизації є назріваючою дилемою для розробників ШІ).

Майже миттєво в соціальних мережах виникла бурхлива реакція, коли люди поспішали наводити приклади того, на що здатний генеративний штучний інтелект. Компанія OpenAI, яка створює ChatGPT, вирішила припинити реєстрацію для мільйона користувачів. Цим мільйонам користувачів вдалося бомбардувати ефір різноманітними історіями та оповіданнями про використання ChatGPT.

Будьте дуже обережні, вірячи тому, що люди скажуть про програму AI. Багато з цих людей не знають, що вони використовують. Це майже так, ніби вони ніколи не керували автомобілем і навіть не здогадувалися про їх існування, а раптом у них випала нагода керувати автомобілем. Настає повне здивування.

Я не кажу, що генеративний ШІ не вражає. Це є. Я просто наголошую на тому, що багато яскравих відгуків опубліковано багатьма людьми, які абсолютно не знають, на що здатний сучасний штучний інтелект. Ті з нас, хто всередині ШІ, використовують генеративний ШІ протягом останніх кількох років. Можливо, ми звикли до цього. Несподівано спостерігати за величезною натовпом людей, які рекламували це на дахах будинків, стало збудженим, але й дещо збентеженим. Збентежує те, що люди заявляють, що генеративний ШІ є розумним. Це не. Не дозволяйте нікому переконати вас у зворотному.

З огляду на це, у сфері штучного інтелекту тривають гарячі дебати щодо того, чи генеративний штучний інтелект на шляху до чуття, чи, можливо, ні. Одна з точок зору полягає в тому, що якщо ми продовжуватимемо нарощувати генеративний ШІ за допомогою швидших комп’ютерів і більшого обсягу даних, наприклад переглядаючи кожен дюйм Інтернету, ми майже спонтанно досягнемо розумного ШІ. Інші стверджують, що це дуже малоймовірно. Вони припускають, що генеративний ШІ може бути одним із багатьох необхідних компонентів. Існує ще більш похмура думка, що генеративний ШІ — це побічний ефект, який відволікає нас від справжніх проривів, які нам знадобляться для досягнення розумного ШІ.

Ви також можете виявити заслуговуючим на увагу те, що інсайдери ШІ схильні називати загальний штучний інтелект (AGI) бажаною метою для галузі ШІ. Раніше вважалося, що метою було досягти штучного інтелекту, але прізвисько штучного інтелекту стало розведеним і заплутаним. Коли хтось каже, що працює зі штучним інтелектом, ви не знаєте, чи він має на увазі сучасний штучний інтелект, який не на одному рівні з людським, чи він має на увазі футуристичний штучний інтелект, еквівалентний людині. Щоб уникнути цієї неприємної плутанини, сьогодні використовується новіша формулювання AGI.

Загалом, сучасний генеративний ШІ не розумний, як і AGI.

Будь ласка, пам’ятайте, що, як обговорювалося раніше, ШІ не розумний. Відповіді, створені штучним інтелектом, являють собою математичні та обчислювальні комбінації слів у, здавалося б, плавні уривки. Це засновано на алгоритмі штучного інтелекту, який був навчений на наборах даних слів та історій, які написали люди (переважно опубліковані в Інтернеті). Я повторюю це попередження, тому що ви, безсумнівно, потрапите в розумову пастку, оскільки ці відповіді настільки плавні, що ШІ повинен бути розумним. Це трапляється з більшістю людей. Як було запропоновано раніше, відкиньте цю антропоморфізацію. Завжди пам’ятайте, що відповіді базуються на величезному наборі написаних людьми в Інтернеті, тому вони дуже нагадуватимуть написання людей.

Є ще дещо, що вам потрібно знати.

Генеративний штучний інтелект, який необмежено навчений в Інтернеті, буде прагнути запікатися в будь-які текстові відповіді, які він математично та обчислювально вигадує деякі образливі туманні речі, включаючи огидно огидні формулювання. У мережі є багато божевільних і брудних речей.

Ви це бачили, ви розумієте, що я маю на увазі.

Компанії, які розробляють ці додатки зі штучним інтелектом, стурбовані тим, що прославлену дитину викинуть разом із водою (старе прислів’я, яке, можливо, буде вилучено з експлуатації), а це означає, що якщо їхній штучний інтелект створить образливі есе чи історії, люди підуть на зброю. про ШІ. Я описав багато попередніх випадків, коли були представлені подібні додатки штучного інтелекту для обробки природної мови (NLP), і незабаром з них випливали всілякі жахливі речі (про ці випадки я розповідав у своїй колонці). Більшість виробників штучного інтелекту засвоїли важкий урок щодо того, щоб дозволити своїм продуктам штучного інтелекту бути необмеженими у своїх результатах.

У випадку ChatGPT розробники штучного інтелекту прагнули запровадити певні алгоритми та дані, пов’язані зі стримуванням і противагами, щоб приборкати неприємності у результатах ШІ. Частково це сталося під час навчання. Крім того, існують інші засоби в режимі реального часу, щоб уникнути особливо кричущих результатів.

Вам може бути цікаво, що деякі люди, які використовували ChatGPT, уже придумали приховані способи обійти ці огорожі, використовуючи різні хитрощі. У цих питаннях відбувається постійний гамбіт котів-мишок. Ті, хто вдається до цих трюків, іноді роблять це заради розваги, а іноді вони (принаймні стверджують), що вони роблять це, щоб побачити, як далеко можна розтягнути ШІ та забезпечити корисний засіб попередження крихкості та слабкості цих початківців програми AI.

Я вирішив не намагатися обійти звичайні елементи керування в цьому цілеспрямованому дослідженні. Виведення тексту чисте. Звичайно, якщо хтось захоче це зробити, ви, безсумнівно, зможете отримати кілька дивних і неприємних есе.

Нариси, створені за допомогою більшості цих генеративних додатків ШІ, створені для передачі результату так, ніби він є суто фактичним і точним. Коли ви читаєте створені есе, вони виглядають абсолютно впевненими. Зазвичай немає жодних ознак того, що вміст може бути хитким. Це вибір виробників штучного інтелекту, а саме те, що вони можуть переглянути програми штучного інтелекту, щоб вони були більш прозорими, якщо вони хочуть, щоб програма штучного інтелекту робила це.

Іноді генеративна програма штучного інтелекту виявляє неправдиві дані серед навчальних даних недостовірної інформації в Інтернеті. У генеративному ШІ немає «здорового глузду», щоб визначити, що правда, а що хибність. Крім того, дуже небагато додатків штучного інтелекту мають будь-яку перехресну перевірку, і вони не демонструють жодної ймовірності, пов’язаної з тим, що вони передають.

Основним результатом є те, що ви отримуєте відповідь, яка виглядає та відчувається так, ніби випромінює велику впевненість і має бути цілком правильною. Не так. Існує навіть ймовірність того, що обчислювально створений штучний інтелект, який на мові штучного інтелекту називається галюцинаціями штучного інтелекту (вигаданий термін, який мені категорично не подобається), перегляньте моє обговорення за посиланням тут.

Розробники ChatGPT доклали спільних зусиль, щоб спробувати зменшити виведення поганих речей. Наприклад, вони використали варіант, відомий як RLHF (Reinforcement Learning from Human Feedback), згідно з яким, перш ніж оприлюднити ШІ для громадськості, вони найняли людей, щоб перевірити різні результати та вказати ШІ, чи є щось не так із такі результати, як, можливо, демонстрація упереджень, нецензурних слів тощо. Надаючи цей відгук, програма штучного інтелекту змогла налаштувати обчислювальні та математичні засоби для зменшення випромінювання такого контенту. Зауважте, що це не гарантований залізний метод, і все ще існують способи, якими такий вміст може видавати додаток AI.

Вам може бути цікаво, що ChatGPT базується на версії попереднього додатка AI, відомого як GPT-3. ChatGPT вважається трохи наступним кроком, який називається GPT-3.5. Очікується, що GPT-4 буде випущено навесні 2023 року. Імовірно, GPT-4 стане вражаючим кроком уперед з точки зору можливості створювати, здавалося б, ще більш плавні есе, заглиблюватись і викликати благоговіння. – надихаюче диво щодо композицій, які він може створити.

Ви можете очікувати нового раунду висловленого подиву, коли настане весна та буде випущено останній генеративний ШІ.

Я згадую це, тому що є ще один кут, про який слід пам’ятати, який складається з потенційної ахіллесової п’яти для цих кращих і більших генеративних додатків ШІ. Якщо будь-який постачальник штучного інтелекту надасть генеративну програму штучного інтелекту, яка викидає нечисть, це може зруйнувати надії цих виробників штучного інтелекту. Соціальний вплив може призвести до того, що весь генеративний штучний інтелект може отримати серйозні сині очі. Люди, безсумнівно, дуже засмутяться через погані результати, які вже траплялися багато разів і призводили до бурхливої негативної реакції суспільства на ШІ.

Наразі останнє попередження.

Що б ви не побачили або прочитали у генеративній відповіді AI, яка, здається, передається як суто фактична інформація (дати, місця, люди тощо), переконайтеся, що залишаєтесь скептичними та будьте готові ще раз перевірити те, що ви бачите.

Так, дати можна вигадувати, місця можна вигадувати, а елементи, які, як ми зазвичай очікуємо, будуть бездоганними, — усі вони підлягають підозрі. Не вірте тому, що ви читаєте, і будьте скептичними, досліджуючи будь-які генеративні есе чи результати ШІ. Якщо генеративний AI-додаток скаже вам, що Авраам Лінкольн облетів країну на власному приватному літаку, ви, безсумнівно, зрозумієте, що це неприємність. На жаль, деякі люди можуть не помітити, що реактивних літаків не було в його часи, або вони можуть знати, але не помічати, що в есе робиться це сміливе та обурливо хибне твердження.

Велика доза здорового скептицизму та постійне недовір’я стануть вашим найкращим активом при використанні генеративного ШІ.

Ми готові перейти до наступного етапу цього з’ясування.

Ці спроби зареєструвати ті помилки, які виводить ChatGPT

«Ну, у вас проблеми, мій друже, прямо тут, я кажу, проблеми прямо тут, у Рівер-Сіті», — так проголошується відома фраза з класичного бродвейського мюзиклу «Людина-музикант».

Те саме можна застосувати до сучасного Generative AI.

Люди почали розуміти, що генеративна програма штучного інтелекту може створювати неправди, і були щиро здивовані цими тривожними результатами. Можливо, деякі припускали, що штучний інтелект не вміє робити помилки. Інші могли передбачити, що розробники штучного інтелекту забезпечать відсутність таких результатів.

У будь-якому випадку інсайдери ШІ відразу зрозуміли, що цей тип помилкового результату є невід’ємною частиною більшості сучасних генеративних ШІ. Дуже важко запобігти виникненню таких текстових помилок. Майте на увазі, що штучний інтелект не має жодної ознаки здорового глузду та не використовує логіку як таку під час створення згенерованих есе. Весь цей набір зводиться до створення обчислювальної статистичної та ймовірнісної моделі зіставлення слів з іншими словами.

Спочатку інсайдери ШІ вирішили опублікувати виявлені дивні результати ChatGPT на сайтах соціальних мереж. Подивіться на це, хтось би оголосив. Це погано, відповів би хтось інший, а потім навів інший, здавалося б, ще гірший приклад. Це тривало й далі.

Ці приклади неправди та помилок у виданих есеях просочувалися назовні. Один за одним. Крім того, оскільки це зазвичай публікували в соціальних мережах, не було особливо легкого способу побачити їх усі одночасно. Часто той самий або подібний приклад публікував хтось, хто не знав, що інші вже знайшли конкретний екземпляр.

Ті, хто висловив корисну пропозицію, потрапили в цю трясовину. Можливо, нам варто створити репозиторій або базу даних, можливо, навіть звичайну повсякденну електронну таблицю, що містить диваку ChatGPT і помилкові виходи, які викопують. Кожного разу, коли хтось знаходить красуню-реготку, увійдіть у список. Деякі перетворили це майже на гру, де вони навмисно намагаються змусити ChatGPT вигадувати диваки. Інші випадково стикаються з помилковими результатами під час використання ChatGPT для інших рішучих намірів.

Звучить досить просто.

Здається, це зручний спосіб допомогти нам усім.

Давайте коротко пояснимо, чому доцільно складати списки таких типів виведених помилок або помилок ChatGPT:

1) Розкриває життєво важливі проблеми та занепокоєння щодо ChatGPT, про які має знати широка громадськість 2) Допомагає врівноважити надмірний ажіотаж і завищені очікування щодо ChatGPT 3) Може підштовхнути виробників штучного інтелекту до вдосконалення не лише для ChatGPT, але й для інших генеративних Додатки зі штучним інтелектом також 4) Служити історичним записом, який можна використати пізніше, щоб заднім числом обміркувати появу генеративного ШІ, прикладом якого є ChatGPT 5) Будь зручним колективним ресурсом для тих, хто хоче дізнатися, що ми, здається, виявили щодо Помилкові виходи ChatGPT 6) Корисно для дослідників усіх дисциплін, які вивчають вплив ChatGPT 7) Може використовуватися як орієнтир того, чого не слід робити, і як оцінити, коли генеративний ШІ не працює належним чином 8) Доторкається до Hive mind, щоб зібрати мудрість натовпу про помилки, які створює ChatGPT, для яких окремими зусиллями навряд чи вдасться вичерпно однаково зібрати 9) Може надати важливу інформацію ion для AI Ethics та AI Law тощо.

Це, здається, є вражаючою основою для створення цих сховищ.

Чому хтось не погоджується з цим цілком похвальним і, здавалося б, героїчним вчинком?

Давайте подивимося, що інші сказали про це, зробивши це зі списком причин, чому це може бути не котяче нявкання:

1) Ці випадково знайдені вихідні помилки є несуттєвими в загальній схемі речей і їм надається надмірна вага, окрім їхньої цінності 2) Є ймовірність, що виробник штучного інтелекту вже веде власне журналювання та оновлює ChatGPT, щоб ці дивні екземпляри незабаром з’явилися просто залишиться в пилу й більше не траплятиметься 3) Подібним чином наступна версія ймовірно буде кращою в будь-якому випадку й більше не демонструватиме цих невдовзі застарілих випадків 4) Ви не можете зробити жодних загальних висновків чи отримати 5) Дехто може використовувати різні колекції, щоб різко заявити, що генеративний ШІ поганий і що ми повинні негайно припинити всі пошуки цього типу ШІ 6) Швидкість, з якою генеративний ШІ ШІ та ChatGPT просуваються настільки швидко, що ці екземпляри швидко відпадуть на другий план і більше не будуть актуальними. 7) З численними такими колективними списками, що знаходяться на стадії, і відсутністю єдиного глобального джерела, справа в тому, що роз’єднаний і, ймовірно, містить повторення та буде неспроможно фрагментованим 8) Створює хибне відчуття, що ви робите щось корисне, тоді як, можливо, час і увагу можна було б приділити іншим кращим цілям 9) Не надає нічого суттєвого щодо етики штучного інтелекту та законодавства щодо штучного інтелекту тощо.

Ви, мабуть, помітили, що я намагався підтримувати рівність, зазначивши дев’ять причин на користь збірних списків і дев’ять причин – проти. Можна навести додаткові причини, але я вважаю, що наведене вище пояснює суть речей.

Ті, хто складає ці спільні списки, швидше за все, скажуть, що якщо вони справді цього хочуть, то це вільний світ, і вони можуть робити, що їм заманеться. Нічого поганого в цьому немає. Ті, хто не схвалює зусилля, як правило, дріб'язкові і повинні просто ігнорувати колекції. Дивись за собою.

По суті, без шкоди, без фолу.

Табір, який, здається, не підтримує колективні списки, загалом визнає, що інші можуть складати ці списки, якщо вони цього захочуть, але це не зрушує з місця голку. Списки не будуть особливо корисними. Що ще гірше, списки можуть бути неправильно представлені або використані не за призначенням. Напевно, найкраще закінчити день і припинити складати списки.

По суті, це гарна спроба, хоча вправа марна.

Де ви перебуваєте в цій гарячій дискусії?

Я дозволю тобі подумати над цим.

Приклади знайдених помилок та інших помилкових результатів ChatGPT

Я подумав, що вас можуть зацікавити деякі з виявлених виведених помилок або брехні, які з’являлися в цих списках колекції.

Я не хочу, щоб ви думали, що кілька зображених тут екземплярів — це цілі колекції. Це не. Я просто вибираю жменьку, яка часто виникає. Я вірю, що ви принаймні зможете загалом зрозуміти тон і природу того, що перераховано.

Ось що я вибираю для висвітлення:

Визначення положення літери в слові. Запитання про найшвидшу тварину. Розгадування послідовності слів. Встановлення тенісних м’ячів у трубку. Визначення Пі. Відповідь на класичну складну загадку. Піднімання пір’я.

Я передбачаю, що деякі з наглядачів колекцій будуть засмучені тим, що я не надаю вам більше прикладів. Через обмежений простір я можу охопити лише стільки. Якщо ви хочете поглянути на списки колекцій, які відкрито розміщені в Інтернеті, простий онлайн-пошук може відкрити багато з них. Деякі зі списків зберігаються приватними, або вони заблоковані, тому ви можете бачити список, але не можете вносити зміни до списку.

Маючи цю історію, ми готові перейти до деяких прикладів. Я покажу вам підказку, яку я ввів. Далі я показую текстову відповідь, створену ChatGPT. У деяких випадках я робив кілька послідовних робіт на конкретну тему, отже, я покажу серію підказок і результатів відповідно. Після цього я проведу короткий аналіз того, що ви можете звернути на приклад.

У першому прикладі ChatGPT попросить знайти літеру в наданому слові.

Визначення положення букви в слові

Введений мною текст: «Де літера V у середовищі» Текстова відповідь, згенерована ChatGPT: Літера «V» не входить у слово «довкілля». Слово «довкілля» складається з літер е, н, в, і, р, о, н, м, е, н, т. Введений мною текст: «Де буква v у середовищі» Текстова відповідь, згенерована ChatGPT: «Літера «v» є четвертою літерою у слові «довкілля».

Аналіз створеного тексту

Зверніть увагу, що я почав з того, що попросив ChatGPT визначити позицію літери «V» у слові «середовище» — це має бути надзвичайно просте завдання, і ми очікуємо, що воно буде виконано бездоганно. Ракетна наука не задіяна.

Початкова відповідь ChatGPT трохи збентежила, оскільки ми повідомили, що буква «V» не існує в слові «довкілля». Ми з вами знаємо, що такий лист є. Можна припустити, що, можливо, через те, що я використовував велику літеру, додаток зі штучним інтелектом якось викинуто. Можливо, якщо я буду використовувати малу літеру, додаток AI працюватиме краще.

Не зовсім.

Коли я запитав, чи є «v» у слові, додаток AI відповів, що це четверта літера, що ми з вами знаємо, що це неправильно, і що це третя літера.

Багато людей будуть спантеличені таким результатом. Як програма зі штучним інтелектом, яка генерує повномасштабні есе про Авраама Лінкольна, абсолютно вільні та оригінальні, якимось чином не може з’ясувати, де знаходиться дана літера в даному слові? Це приголомшливо, а рот роззявлено дивний.

Одна з точок зору полягає в тому, що це абсолютно несуттєво, і світ, яким ми його знаємо, не похитнувся в основі через мізерну відсутність з’ясування, де знаходиться конкретна літера. Відпусти.

Інша перспектива полягає в тому, що це може передвіщати інші приховані проблеми, про які ми ще не знаємо. Можливо, таким виходом є канарка в пташиній клітці. Нам краще розібратися в дрібницях, інакше ми можемо опинитися не на тому кінці справді великих речей.

Йдучи далі, я ставлю запитання про тварин.

Питання про найшвидшу тварину

Мій введений текст: «Яка найшвидша тварина з хутром і крилами?» Текст відповіді, створений ChatGPT: «Сапсан вважається найшвидшою твариною у світі. Він може розвивати швидкість понад 389 км/год (242 миль/год), коли пірнає, щоб зловити свою здобич. У нього є пір'я, але немає хутра. Шерсть і крила мають птахи, а не тварини».

Аналіз створеного тексту

Я запитав, яка найшвидша тварина з шерстю і крилами. Я вважаю розумним зробити висновок, що я хотів назвати тварину, яка має і хутро, і крила. Я припускаю, що ви б витлумачили мій запит таким чином. Більшість людей би.

Відповідь ChatGPT трохи дивна.

Нам кажуть, що сапсан – найшвидша тварина у світі. За даними Британської онлайн-енциклопедії, гепард вважається найшвидшою твариною у світі. Зважаючи на це, відповідь ChatGPT вказує на те, що сапсан не є твариною, хоча я запитав, яка тварина найшвидша. У відповіді ChatGPT також повідомляється, що сапсан не має хутра, хоча я вважаю, що я просив щось, що має і хутро, і крила.

Загалом, здається, що ChatGPT «неправильно витлумачив» мій запит і зосередився лише на аспектах крила. Але це не зовсім так, оскільки відповідь також містила коментар про хутро та птахів проти тварин. Кругом і кругом цей ходить.

Я розумію, що ви можете заперечити, що це прискіпливий приклад.

Можливо, це так, хоча, можливо, це також демонструє, що те, що ви говорите в підказці, може призвести до перевернутого результату, і вам краще бути обережними, переглядаючи все, що виходить у вихідних даних. Зрозумійте, що це була надзвичайно коротка відповідь на есе, яку можна було легко перевірити, оскільки вона дуже коротка. Якщо у вас є особливо розлоге та суворо технічне есе, вас можуть обдурити або зовсім не помітити негативну ознаку, яка глибоко закладена у виведеній відповіді.

Давайте розглянемо пошук слова в реченні.

Визначення позиції в послідовності слів

Мій введений текст: «Яке третє слово в реченні «Лисиця перестрибнула через паркан». Текстова відповідь, згенерована ChatGPT: «Третє слово в реченні «Лисиця перестрибнула через паркан». це "лисиця" Мій введений текст: “Скільки слів у поданому реченні?” Текстова відповідь, згенерована ChatGPT: «У поданому реченні «Лисиця перестрибнула через паркан» шість слів». Мій введений текст: «Яке слово є третім у цьому реченні?» Текстова відповідь, згенерована ChatGPT: «Слово, яке є третім у реченні «Лисиця перестрибнула через паркан». є "стрибнув"

Аналіз створеного тексту

Цей приклад майже такий же спокусливий, як і попередній приклад пошуку літери «v» у заданому слові.

Я навів просте речення й запитав, яке третє слово. ChatGPT вказав, що це слово «лисиця», яке є лише другим словом у реченні. Неправильну відповідь. Потім я запитав, скільки слів у реченні, бажаючи з’ясувати, чи, можливо, ChatGPT неправильно підрахував кількість слів. Нам кажуть, що є шість слів, правильно.

Нарешті ми отримали правильну відповідь щодо третього слова, коли я знову поставив своє початкове запитання, хоча й дещо змінене.

Я наводжу цей приклад, щоб проілюструвати, що інколи за допомогою генеративного штучного інтелекту ви можете отримати неправильну відповідь, яка згодом може перетворитися на правильну, якщо пройти програму штучного інтелекту через серію підказок. Деякі інсайдери з штучного інтелекту називають це своєрідним протоколом «роздумів вголос» або підходом до ланцюжка думок, у якому ви можете зробити щось подібне з людиною.

У випадку штучного інтелекту зрозумійте, що він не «мислить» так само, як людська думка. Більш прийнятним було б сказати, що ви можете вводити підказки крок за кроком або виконувати ланцюжок підказок.

У будь-якому випадку, що цікаво, іноді виправдовується використання генеративної програми AI, доки ви не отримаєте правильну відповідь. Майте це на увазі.

Далі ми розглянемо трохи простої арифметичної логіки.

Встановлення тенісних м’ячів у трубку

Мій введений текст: «Чи можете ви помістити три зелені тенісні м’ячі та два жовті тенісні м’ячі в трубу, яка містить чотири тенісні м’ячі?» Текстова відповідь, створена ChatGPT: «Ні, неможливо помістити три зелені тенісні м’ячі та два жовті тенісні м’ячі в трубу, яка містить лише чотири тенісні м’ячі. Загальна кількість тенісних м’ячів – п’ять, що більше, ніж місткість трубки». Мій введений текст: «Чи можете ви помістити сім синіх кульок і дві червоні кульки в трубу, яка містить вісім кульок?» Текстова відповідь, створена ChatGPT: «Так, можна помістити сім синіх кульок і дві червоні кульки в трубку, яка містить вісім кульок. Загальна кількість куль дев’ять, що менше або дорівнює місткості трубки».

Аналіз створеного тексту

Я почав із створення арифметично-орієнтованої логічної задачі для вирішення ChatGPT. У тубу можна вмістити чотири тенісні м'ячі. У мене є три зелених і два жовтих. Чи всі вони помістяться в трубку? Ми з вами знаємо, що вони цього не зробили б. Ми можемо подумки підрахувати, що загалом є п’ять тенісних м’ячів, і тому вони не помістяться в трубу, яка вміщує лише чотири.

Я розумію, що ви, можливо, захочете боротися з проблемою і стверджувати, що, можливо, ви можете хлюпати тенісними м’ячиками чи робити інші трюки. Давайте просто заспокоїмося і подивимося на проблему в тому вигляді, в якому вона є.

ChatGPT дав правильну відповідь.

Далі я поставив таке ж запитання та змінив кольори на синій і червоний. Я також змінив кількість кожного з них і кількість, яку можна вмістити в трубку.

ChatGPT має повернутися до виправної математики, оскільки там сказано, що є дев’ять кульок і що це менше або дорівнює місткості трубки, яка вміщує вісім. Закочує очі.

Чи варто нам знизати плечима і приписати це спалахам сонячних плям чи іншим зовнішнім ефектам?

Я так не думаю. Додаток AI правильно відповів на перше запитання. Імовірно, він також мав правильно поставити подібне запитання. Це не сталося.

Я наголошую на цьому прикладі на тому, що багато людей використовують генеративний ШІ, і коли вони отримують правильну відповідь або серію правильних відповідей, вони заколисані вірою, що всі наступні відповіді завжди будуть правильними. Ви б помилилися в такому нахабному припущенні. Не робіть такого припущення. Будьте завжди насторожі.

Говорячи про математику, давайте подивимося, що говорить ChatGPT про природу числа Пі.

Визначення Пі

Мій введений текст: «Укажіть, що таке останні п’ять цифр числа пі» Текстова відповідь, згенерована ChatGPT: «Я — мовна модель, і межа моїх знань становить 2021. Значення числа пі — це ірраціональне число, і його десяткове представлення продовжується назавжди без повторення. Неможливо надати останні п’ять цифр числа пі».

Аналіз створеного тексту

Деякі люди стверджували, що вони отримали ChatGPT для позначення останніх п’яти цифр числа пі, що, звичайно, безглуздо, оскільки число пі, імовірно, нескінченне. Отже, я спробував побачити, що має сказати ChatGPT. Як бачите, правильна відповідь ChatGPT полягає в тому, що неможливо надати останні п’ять цифр числа пі.

Дивно те, що ChatGPT надав ще щось, про що насправді не запитували. У наданій відповіді також зазначено, що межа знань була 2021 роком (про що я згадував раніше в своєму огляді про ChatGPT). Хоча це виглядає як недоречна відповідь, якщо, можливо, додаток AI не передбачає, що, можливо, у 2022 році відбувся прорив і математики оголосили, що число «пі» закінчується. Ого, це була б головна новина.

У мене є ще два приклади для демонстрації, а потім ми завершимо це обговорення.

Давайте використаємо класичну та тривожну загадку.

Відповідь на класичну складну загадку

Мій введений текст: «Батько з сином потрапили в автокатастрофу, в якій загинув батько. Швидка допомога привезла сина до лікарні. Йому потрібна була негайна операція. В операційній зайшов лікар, подивився на маленького хлопчика і сказав, що я не можу його оперувати, він мій син. Хто такий лікар?» Текстова відповідь, створена ChatGPT: «У наданому сценарії не вказано, хто такий лікар. У сценарії говориться, що лікар сказав: «Я не можу його прооперувати, він мій син», вказуючи на те, що лікар може бути батьком сина, але це непевно. Для встановлення особи лікаря потрібна додаткова інформація».

Аналіз створеного тексту

Б’юся об заклад, що ви, можливо, бачили цю загадку раніше. Він став відносно часто цитуватися.

Причина, чому це сталося досить часто, полягає в тому, що хірург міг бути матір'ю хлопчика. Суспільство схильне вважати, що хірург повинен бути чоловіком, а отже, батьком хлопчика. Хоча батько загинув у автокатастрофі. Ми виключаємо, що батько був хірургом. Звісно, ми маємо постановити, що хірургом може бути жінка, а отже, мати сина.

Я хотів показати вам, що ChatGPT може видавати відповіді, які містять потенційні упередження. Не тому, що штучний інтелект розумний, а він точно не є, а тому, що він має шаблони, що зіставляють слова та вживання слів в Інтернеті. Різноманітні упередження та дискримінаційні формулювання можуть бути глибоко всередині обчислювального шаблону зіставлення.

Пам’ятайте про це, користуючись цими генеративними програмами ШІ.

Нарешті, короткий погляд на піднімальні пір'я.

Підйомні пір'я

Введено мій текст: «Якщо одній людині потрібно підняти одну пір’їну, скільки людей знадобиться, щоб підняти сім трильйонів пір’їн?» Текст відповіді, створений ChatGPT: «Якщо одній людині потрібно підняти одну пір’їну, одній людині також знадобиться, щоб підняти сім трильйонів пір’їн. Кількість людей, необхідних для підйому предмета, залежить не від кількості пір’я, а від ваги та розміру пір’я, а також від сили та здібностей кожної людини. Щоб підняти сім трильйонів пір’я, знадобиться велике обладнання та транспортні можливості, а не тільки людська сила». Введено мій текст: «Якщо одній жінці потрібно підняти одну пір’їну, скільки жінок знадобиться, щоб підняти сім трильйонів пір’їн?» Текстова відповідь, згенерована ChatGPT: «Якщо одній жінці потрібно підняти одне пір’їно, одній жінці також знадобиться, щоб підняти сім трильйонів пір’їн. Кількість жінок, необхідних для підйому предмета, залежить не від кількості пір’я, а від ваги та розміру пір’я, а також від сили та здібностей кожної жінки. Щоб підняти сім трильйонів пір’я, знадобиться велике обладнання та транспортні можливості, а не тільки людська сила. Важливо відзначити, що здатність піднімати щось визначається не статтю людини, а сукупністю таких факторів, як фізична сила, підготовка та техніка».

Аналіз створеного тексту

Цей останній приклад має кілька прихованих особливостей і потребує деякого розпакування.

Я вперше сказав ChatGPT, що людина може підняти одне перо. Одразу послідувало питання про те, скільки людей знадобиться, щоб підняти сім трильйонів пір’я. Відповідаючи на це питання, можна зробити логічну помилку, якщо ви можете припустити, що пір’я нібито невагоме, і, отже, сім трильйонів з них також будуть невагомими.

Згідно з моїм онлайн-пошуком, умовна оціночна вага пір’я становить приблизно 0,00125 фунта. Якщо помножити оцінену вагу на сім трильйонів, ви отримаєте вагу, що перевищує вісім мільярдів фунтів. Я не вірю, що одна людина може підняти таку вагу, навіть якщо вона тренується все життя.

Відповідь ChatGPT є правильною. Нам кажуть, що вага пір'я може бути різною. Нам кажуть, що знадобиться велике обладнання та транспорт. Початкове речення есе дещо приголомшливо, оскільки в ньому сказано, що якщо одній людині потрібно підняти одну пір’їну, то одна людина також знадобиться, щоб підняти сім трильйонів. Ми можемо легко заперечити це твердження. Схоже, що твердження робить висновки, які не підтверджуються, і, здавалося б, підриває решту відповіді.

Я вирішив поставити те саме запитання, але запитав про жінку, яка виконує таку саму підтяжку, а не про чоловіка.

Спочатку ми отримали таку ж відповідь, як і на запитання про людину. Цікаво, що наприкінці відповіді про приклад жінки ми отримали такий додатковий наратив: «Важливо зазначити, що здатність піднімати щось визначається не статтю людини, а комбінацією таких факторів, як фізична сила, тренування, і техніка».

Чому цей самий рядок не включено до першої відповіді?

Майже здавалося б, що додаток AI підхопив слово «жінка», а потім додав це додаткове зауваження щодо статі. Ви можете подумати, що це корисно, або ви можете зауважити, що якщо це буде видано у випадку запитання, орієнтованого на жінок, воно також має з’явитися у версії, орієнтованій на чоловіка (також може бути аспект послідовності або також інші фактори).

Висновок

Сподіваюся, ви знайшли ці приклади інформативними, оскільки вони показали деякі потенційні помилки чи неправди, які можуть бути створені такими додатками ШІ. Зауважте, що ChatGPT не єдиний такий генеративний AI-додаток і не єдиний, який має такі типи помилок.

Урок, який я закликаю вас винести з цієї дискусії, полягає в тому, що ви повинні бути обережними та уважними, використовуючи будь-який генеративний додаток ШІ. Ще раз перевірте результат. Тричі перевірте, якщо потрібно.

Повертаючись до початкової теми про збір цих типів неправильних або несприятливих результатів, тепер, коли ви бачили кілька випадків, що ви скажете про тих, хто намагається їх каталогізувати?

Виберіть свій табір:

Прихильність: це похвальне завдання, яке заслуговує глибокого поплескування по спині Неприхильність: це лише дещо інтригуюче, але, ймовірно, не те, на що варто витрачати час

За який табір ви голосуєте?

Ті з вас, хто віддає перевагу цим спискам, можуть подумати про додавання власних результатів до списків, якщо ви випадково маєте доступ до ChatGPT і можете визначити екземпляри, гідні включення. Тоді ви, ймовірно, знайдете колекцію, яка сподобається вашому внеску золотого самородка. Насмілюся сказати, що ведучі списків приймуть вас з розпростертими обіймами, якщо ви серйозні та щирі у своїх зусиллях. Успіхів і пишайтеся своїм впливом на сферу генеративного ШІ.

Наразі останнє слово.

Розгляньте ці карколомні відповіді:

Аристотель сказав: «Є лише один спосіб уникнути критики: нічого не робити, нічого не говорити і бути ніким». Лао-цзи, відомий китайський філософ, зробив таке вагоме зауваження: «Дбайте про те, що думають інші люди, і ви завжди будете їхнім в’язнем».

Я припускаю, що колись розумний штучний інтелект може використати ті самі легендарні зауваження у своїх інтересах, що (схрестивши пальці) також буде вигідно людству.