Я шукаю..

Ілон Маск та інші технічні лідери закликають уповільнити розвиток ШІ Лідерство

Ілон Маск та інші технічні лідери закликають уповільнити розвиток ШІ

"Ілон

Ілон Маск закликає уповільнити швидкий розвиток технологій ШІ, як-от ChatGPT

У відкритому листі, підписаному Ілоном Маском, співзасновником Apple Стівом Возняком, ізраїльським футурологом Ювалем Ноа Харарі та іншими, окреслено 6-місячну паузу для швидко розширюваного світу інструментів ШІ. Безпрецедентне зростання, домінуючи ChatGPT та інші передові платформи, викликає занепокоєння щодо стандартів безпеки та суспільних наслідків. У листі пояснюється, що штучний інтелект розвивається так, що ніхто, навіть творці технології, не може передбачити чи контролювати. «Потужні системи штучного інтелекту, — йдеться в листі, — слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики — керованими». Зловісно, але ці лідери визнають потенційні зміни в чомусь не меншому, ніж історія життя на землі. «Системи штучного інтелекту з конкурентоспроможним інтелектом можуть створювати серйозні ризики для суспільства та людства, — починається лист, — як показали численні дослідження та визнано провідними лабораторіями ШІ».

Тим часом такі компанії, як Microsoft, використовують технологію ШІ для своєї пошукової системи Bing та інших пропозицій. У недавньому звіті Microsoft стверджує, що GPT-4, остання доступна версія інструменту OpenAI, може вирішувати «нові та складні завдання» з «продуктивністю на рівні людини» в просунутих кар’єрах, таких як програмування, медицина, право та навіть психологія. Google випустив Bard, чат-бота на основі ШІ та конкуруючий сервіс. Технологічні гіганти Adobe, Salesforce і Zoom є лідерами впровадження передових інструментів ШІ. Чи наражають ці та інші компанії (і, відповідно, своїх клієнтів) на ризик? І якщо так, то які небезпеки пов’язані з ChatGPT та його двоюрідними братами?

Макс Тегмарк, професор фізики Массачусетського технологічного інституту, був одним з організаторів листа. Він розповідає Wall Street Journal, що досягнення ШІ перевершили те, що багато експертів вважали можливим, навіть зовсім недавно, всього кілька років тому. «Прикро називати це гонкою озброєнь, — каже Теґмарк Журналу, — це скоріше гонка самогубців». Це сміливе твердження, але Тегмарк пояснює: «Це просто означає, що людство в цілому може втратити контроль над власною долею». Хіба це не був рядок для останнього фільму про Термінатора?

Дійсно, цей контроль уже починає слабшати, згідно з широким опитуванням вакансій, проведеним Університетом Пенсільванії, яке досліджує вплив великих мовних моделей (LLM), таких як ChatGPT, на різні кар’єри. Згідно з цим поточним дослідженням, оновленим лише вчора, більшість робочих місць буде певним чином змінено GPT, причому «80% працівників працюють у професіях, де принаймні одне робоче завдання може швидко виконати генеративний ШІ». За даними Wall Street Journal, найбільше ризикують бухгалтери, оскільки дослідження показують, що принаймні половину всіх бухгалтерських завдань можна було б виконати набагато швидше за допомогою цієї технології.

Метт Бін вивчає вплив нових технологій в Каліфорнійському університеті в Санта-Барбарі. Доцент школи Бін каже, що люди відкидають зміни, які ставлять під загрозу їхні інтереси. Звучить логічно, але зауважте, що його аргумент передбачає елемент вибору. Оскільки OpenAI та інші мчать у дивовижний новий світ, де машини створюють, контролюють і змінюють розмову, реальні наслідки виходять за рамки нашої теперішньої уяви. Дійсно, Forbes висловив занепокоєння щодо кібербезпеки, плагіату та кампаній з дезінформації за допомогою чат-ботів. Ці потенційно зловісні програми можуть бути запущені та використані способами, які можуть завдати шкоди багатьом, способами, які зараз навіть неможливо повністю пояснити.

Дійсно, проблема з ШІ та ChatGPT не є новою. А саме, як можна зробити нову технологію безпечною та підтримувати її таким чином, щоб звести до мінімуму зловісні чи шкідливі дії? Проблема машинного навчання полягає в тому, що машина більше не є просто інструментом. Технологія стає користувачем. Що станеться, коли технологія виходить за межі підказок? Чат-бот вже робить вибір, щоб відповідати на підказки. Скільки часу мине, перш ніж ці нові інструменти також почнуть приймати рішення?

Лист від Маска та інших містить суворі застереження щодо технології без кордонів. Створене з наміром розширити людський досвід, це розширення (згідно з лідерами в листі) розширюється поза нашим поточним контролем. Такі технології штучного інтелекту, як ChatGPT, призводять до неочікуваних і потенційно небезпечних наслідків. У міру того як механізм розмови стає розумнішим і розширенішим, можливість створювати та контролювати розмову переходить до рук того, у кого немає рук. Управління та стриманість – це те, до чого закликають ці технологічні лідери у своєму листі: «Дослідження та розробки штучного інтелекту слід переорієнтувати на те, щоб зробити сучасні потужні, найсучасніші системи більш точними, безпечними, доступними для інтерпретації, прозорими та надійними. , вирівняний, надійний і лояльний».

Має сенс, правда? Точні та безпечні, ми всі цього хочемо. Але як визначити лояльність і надійність? Можливо, хтось повинен поставити це питання ChatGPT.