Я шукаю..

Тригери ChatGPT відштовхують ШІ Інновації

Тригери ChatGPT відштовхують ШІ

Розмова щодо штучного інтелекту набула значного імпульсу протягом останніх п’яти чи близько того років, але чи варто озирнутися назад на березень 2023 року як момент, коли інтерес до цієї сфери справді прорвався в основну свідомість із попередніх спеціалізованих сфер технологій, наукових кіл, юридичних політика та інтерес до наукової фантастики? Макс Тегмарк міг би щось сказати з цього приводу, але, на мій погляд, випуск GPT-4 14 березня підняв розмову про ШІ на зовсім іншу площину.

"ФРАНЦІЯ-ТЕХНОЛОДЖІ-ІТ-AI"

Обізнаність громадськості та інтерес до штучного інтелекту зросли після запуску чат-бота OpenAI, ChatGPT, у листопаді 2022 року, але випуск GPT-4, мультимодальної великої мовної моделі, яка лежить в основі бота, викликав безпрецедентну реакцію, яка, у свою чергу, захопила весь світ. увагу преси та ЗМІ.

Я маю на увазі, зокрема, дві реакції.

"Гайді

Маск і FOLI закликають до мораторію на ШІ

По-перше, 22 березня Інститут майбутнього життя («FOLI») опублікував відкритий лист із закликом до всіх лабораторій ШІ «негайно призупинити принаймні на 6 місяців навчання систем ШІ, потужніших за GT-4». Тлом цієї вимоги, за словами підписантів, є те, що «за останні місяці лабораторії штучного інтелекту вийшли з-під контролю за розробкою та розгортанням все більш потужних цифрових розумів, яких ніхто, навіть їхні творці, не можуть зрозуміти, прогнозувати або надійно контролювати». Це протверезить, бачачи, що підписанти зауважують, що «системи штучного інтелекту з людським конкурентним інтелектом можуть становити серйозні ризики для суспільства та людства». І, виправдовуючи свій заклик до мораторію, підписи повторюють слова самого OpenAI:

«Остання заява OpenAI щодо загального штучного інтелекту стверджує, що «у якийсь момент може виявитися важливим отримати незалежну перевірку перед початком навчання майбутніх систем, а для найбільш просунутих зусиль домовитися про обмеження темпів зростання обчислення, що використовується для створення нових моделей." Ми погоджуємося. Ця точка зараз».

В епоху «Cancel Culture» було б дивно, якби не було негативної реакції проти штучного інтелекту, бачачи, скільки уваги приділяє ChatGPT, але цінність листа FOLI випливає не просто з його змісту, а й з ідентичності учасників. підписанти. Звичайно, Ілон Маск і Стів Возняк повинні були викликати найбільший інтерес завдяки своїй славі та піонерським ролям у світі технологій, але швидкий огляд списку показує, що багато провідних мислителів у сфері ШІ поділяють точки зору. . Багато серйозних мислителів у сфері ШІ висловлюють дуже серйозні погляди.

Але для балансу варто зазначити, що цей лист не був загальноприйнятим у спільноті керівників ШІ, і, як зазначали інші, FOLI фінансується Фондом Маска. Крім того, пан Маск був співзасновником OpenAI, але покинув цю організацію в 2018 році через «конфлікт інтересів».

Італійський регулятор захисту даних забороняє ChatGPT використовувати італійські дані

По-друге, 31 березня GPDP, італійський регулятор із захисту даних, наклав тимчасову заборону на обробку ChatGPT даних італійських користувачів. Схоже, що GPDP на даний момент виконує місію проти штучного інтелекту, оскільки це друга заборона штучного інтелекту, яку вона наклала цього року, після заборони, накладеної на іншого чат-бота в лютому.

Звіт англійською мовою на веб-сайті GPDP не є вичерпним, і переклад може не відповідати застосованій аргументації, але ключові проблеми такі:

20 березня було повідомлено про витік даних, який вплинув на розмови користувачів ChatGPT та інформацію про платежі передплатників. Ймовірно, це посилання на порушення персональних даних у значенні статті 4.12 Загального регламенту ЄС про захист даних. Жодна інформація не надається користувачам і суб’єктам даних, дані яких збирає OpenAI. Імовірно, це посилання на правила прозорості GDPR у статтях 12, 13 і 14. Схоже, що немає жодної правової основи, яка б підтримувала «масовий збір і обробку персональних даних для «навчання» алгоритмів, на яких покладається платформа». Це має бути посилання на правила законності обробки даних у статтях 6–9. «Інформація, надана ChatGPT, не завжди відповідає фактичним обставинам, тому обробляються неточні персональні дані». Це має бути посилання на принцип точності в статті 5.1.d. Немає механізму перевірки віку для використання платформи дітьми. Це має бути посилання на статтю 8.2, але GPDP також висловлює занепокоєння щодо доречності відповідей чат-бота, отриманих дітьми.

З огляду на англійський переклад, строго кажучи, здається, що GPDP не забороняє ChatGPT. Натомість заборона стосується використання OpenAI особистих даних італійських користувачів. Ймовірно, це означає, що GPDP має намір, щоб OpenAI не використовував особисті дані осіб, які захищені італійською реалізацією GDPR, для цілей машинного навчання, а також не повинен обробляти особисті дані будь-яких користувачів чат-бота, які захищені аналогічним чином, що в будь-якій ситуації означатиме більше, ніж громадяни Італії. Однак у пізнішій ситуації — тобто при використанні самого чат-бота — особисті дані користувачів чат-бота, ймовірно, будуть дуже обмеженими за обсягом, тобто обмежуватимуться даними передплатників (якщо користувач не проводив марнославний пошук про себе).

Але за всіма ознаками наказ GPDP є фактичною забороною на використання ChatGPT в Італії, якщо він справді поширюється на заборону обробки персональних даних користувачів, оскільки немає жодного способу використання системи без входу в систему, що вимагає надання адреси електронної пошти (якщо користувач не вибирає параметри входу OAuth, надані Google і Microsoft), яка, ймовірно, у багатьох випадках є особистими даними. Крім того, OpenAI може бути неможливим відокремити навчальні дані, які підпадають під дію італійського закону про захист даних, від своєї моделі (або він може не захотіти це зробити зі стратегічних причин, щоб захистити свою правову позицію).

Таким чином, поки ситуація не буде вирішена, ChatGPT по суті заборонений в Італії. Це може бути не заборона де-юре, але заборона де-факто може досягти тих самих результатів: технологія зупиняється на своєму шляху.

Якою має бути нормативна база?

Ці дві розробки висвітлюють епіцентр проблем, з якими спільнота зацікавлених сторін ШІ повинна впоратися. По суті, вони стурбовані характером нормативно-правової бази, яка повинна застосовуватися, і ступенем незалежного нагляду, який розробники ШІ повинні прийняти як частину ліцензії на роботу.

Простіше кажучи, якщо ризики настільки високі, як припускає FOLI, для технологічної індустрії було б абсолютно неприйнятно саморегулювати свій підхід до штучного інтелекту або дозволити зосередитися владі в руках невеликої групи компаній.

ЄС запропонував підхід до регулювання ШІ

ЄС уже бореться з цими питаннями та пропонує Регламент щодо штучного інтелекту, який розподілить системи штучного інтелекту на рівні за рівнями ризику, причому все буде контролюватись новою загальноєвропейською Радою зі штучного інтелекту та системою національних регуляторів. Якщо цю структуру ризиків застосувати до ChatGPT у його функції чат-бота, це буде вважатися системою обмеженого ризику.

"БРИТАНІЯ-ПОЛІТИКА-ЄС-BREXIT"

Підхід Великобританії до регулювання ШІ

Великобританія використовує інший підхід. Замість того, щоб створювати нову систему регулювання, поточна система регуляторів повинна буде розглядати питання штучного інтелекту в рамках своїх повсякденних функцій регулювання, керуючись п’ятьма новими принципами регулювання, які згодом будуть кодифіковані в законодавстві. Головним завданням нинішнього уряду Великої Британії є сприяння інноваціям і зростанню, щоб забезпечити країні глобальну лідерську роль як джерела штучного інтелекту. ЄС також хоче цього, тому справжня проблема полягатиме в тому, як збалансувати зростання та конкуруючі інтереси, такі як захист даних та інші права й інтереси.

Проблема, поставлена в листі FOLI, полягає в тому, що незважаючи на всі розмови про зростання, інновації та баланс прав, ми, можливо, не торкаємося найбільш екзистенційної проблеми з усіх, а саме того, що ШІ може становити загрозу для самого людства. У цьому сенсі, як повідомив пан Тегмарк, ми можемо бути на порозі розробки нової форми життя, Life 3.0. Якщо це правда, то, можливо, грандіозність проблем не була повністю усвідомлена під час дебатів, які формують нормативну базу. Подібно до наукових розробок, які призвели до розробки ядерної зброї, чи ми ігноруємо ризик того, що ми можемо піти шляхом технологічного прогресу, який може зрештою загрожувати нашому існуванню і який ми не в змозі розгорнути?

"А

Мораторій малоймовірний?

Але навіть якщо ми усвідомлюємо грандіозність вибору, який стоїть перед нами, що ми будемо робити з ним у світі, де людство, здається, судилося загрожувати своїм власним інтересам, навіть коли всі мислимі дзвони тривоги пролунали? Чи є наше просування до антиутопічного майбутнього ШІ неминучим так само, як неможливо уникнути прогресу до кліматичної катастрофи? Можливо, аргументом, який, швидше за все, запобіжить мораторію на ШІ на Заході, буде те, що Китай, Росія, Індія тощо продовжуватимуть незважаючи на це. Крім того, нам не потрібно дивитися на конкурентів Заходу, щоб визначити перешкоди для мораторію на ШІ: зовсім не дивно, що генеральні директори Microsoft і Google не поставили свої підписи під листом FOLI.

Проте жоден із цих аргументів сам по собі не робить позицію GPDP щодо ChatGPT незаперечною. Дивлячись на перелік проблем, які були виділені, принаймні одна з них виглядає підозрілою після мінімального аналізу: тобто використання персональних даних для цілей машинного навчання може мати правову основу в рамках критерію законного інтересу статті 6 GDPR або в рамках критерію явно публічної інформації статті 9, оскільки це стосується спеціальних категорій персональних даних. Дійсно, наявність законного інтересу для масової обробки персональних даних технологічними компаніями була неявно визнана Судом ЄС у справі «Право бути забутим» за участю Google.

Можливо також, що GPDP розширив правила щодо згоди батьків за межі їх еластичності, поширивши законодавчу мету на якість і зміст інформації, яку дитина може отримати через чат-бот, на відміну від того, як чат-бот обробляє особисті дані цієї дитини. даних. Правила прозорості та правила точності також мають обмеження, якщо формулювання ЄС GDPR сприймати за чисту монету. І, нарешті, виникає питання щодо використання регуляторних повноважень: якщо чат-бот буде розглядатися як такий, що має низький рівень ризику відповідно до запропонованого Регламенту ЄС щодо штучного інтелекту, чи справді це означає справедливе використання дискреційних повноважень заборонити його згідно з GDPR?

Чи приватне життя має бути єдиним голосом у кімнаті?

Питання, порушені GPDP, імовірно, призведуть до передачі справи до Суду, і ми дізнаємося відповіді в повний час, але GPDP – навмисно чи ненавмисно – привернула увагу до цього питання. пріоритету зацікавлених сторін (як у FOLI). Якщо система є низьким ризиком, якщо розглядати її крізь призму спеціалізованого законодавства щодо штучного інтелекту, і якщо штучний інтелект може бути силою назавжди, то чому регулятор із захисту даних повинен мати перевагу над питанням доступності та використання чат-бота та мати можливість запровадити заборону за власним бажанням?

Звичайно, захист даних є надзвичайно важливою проблемою, але це не єдина проблема, якою займається ШІ. Можливо, враховуючи стан нормативно-правової бази, в кімнаті немає іншого голосу з ефективними регуляторними повноваженнями, але якщо захист даних є єдиною сферою, яка наразі має справжню регуляторну шкіру в грі, це, здається, буде великою ганьбою.