Я шукаю..

Ми забули надати нейронним мережам можливість забувати Інновації

Ми забули надати нейронним мережам можливість забувати

Розмова про нинішню нездатність штучного інтелекту забувати та що це означає для права на конфіденційність і права користувача. Мігель Луенго-Ороз, експерт зі штучного інтелекту та соціальний підприємець, розмовляє з Ханае Барушель з Ашоки. (Повна біографія нижче.)

Hanae Baruchel: ChatGPT та інші програми генеративного штучного інтелекту (ШІ) нещодавно потрапили в заголовки газет завдяки їхній безпрецедентній здатності вести послідовні розмови з людьми. Нещодавно у вас була власна взаємодія.

знімок голови білого чоловіка з бородою та блакитними очима в чорній сорочці з окулярами на шиї

Засновник і генеральний директор SpotLab

Мігель Луенго

Мігель Луенго-Ороз: Так, я запитав GPT-3 «Чи можуть нейронні мережі забути?» і його відповідь була такою: «Системи штучного інтелекту, як і нейронні мережі, не мають здатності забувати так само, як люди. Мережа може коригувати свої ваги, щоб краще відповідати новим даним, що може призвести до створення різних прогнозів для тих самих вхідних даних. Однак це не те ж саме, що забувати в тому сенсі, що мережа все ще має доступ до всієї інформації, яку вона дізналася раніше, вона просто надає більший пріоритет новій інформації».

Барушель: Ця нездатність забувати не привертає багато уваги, і це вас хвилює. чому

Луенго-Ороз: Одним із основних принципів правил конфіденційності в Інтернеті, таких як Європейський загальний регламент захисту даних (GDPR), є ідея, що дані, які я створюю, є моїми, і компанія може використовувати їх, лише якщо я це дозволю. Це означає, що я завжди можу відкликати свою згоду та попросити повернути свої дані. Я навіть можу попросити право бути забутим. Алгоритми штучного інтелекту частково навчаються на даних користувачів, і все ж майже жодна з інструкцій, інструкцій і нормативних пропозицій, що надходять від урядів і компаній приватного сектора, явно не зосереджується на створенні моделей штучного інтелекту, які можна не навчити. У нас немає способу скасувати зміни, спричинені в їхній системі однією точкою даних на запит власника даних.

Барушель: Отже, користувачі повинні мати можливість сказати: «Припиніть використовувати модель штучного інтелекту, яка була навчена на моїх даних»?

Луенго-Ороз: Саме так. Давайте наділимо ШІ здатністю забувати. Подумайте про це як про кнопку Ctrl-Z в AI. Скажімо, моє зображення було використано для навчання моделі штучного інтелекту, яка розпізнає людей із блакитними очима, і я більше не погоджуюсь або ніколи не погоджуюсь. Я повинен мати можливість попросити модель AI поводитись так, ніби моє зображення ніколи не було включено до навчального набору даних. Таким чином, мої дані не сприятимуть тонкому налаштуванню внутрішніх параметрів моделі. Зрештою, це може не так сильно вплинути на ШІ, оскільки моє зображення навряд чи зробило суттєвий внесок саме по собі. Але ми також можемо уявити випадок, коли всі люди з блакитними очима просять, щоб їхні дані не впливали на алгоритм, унеможливлюючи розпізнавання людей з блакитними очима. Давайте уявімо в іншому прикладі, що я Вінсент Ван Гог і я не хочу, щоб моє мистецтво було включено до навчального набору даних алгоритму. Якщо потім хтось попросить машину намалювати собаку в стилі Вінсента Ван Гога, вона не зможе виконати це завдання.

Барушель: Як це буде працювати?

Луенго-Ороз: У штучних нейронних мережах кожен раз, коли точка даних використовується для навчання моделі штучного інтелекту, це дещо змінює спосіб поведінки кожного штучного нейрона. Один із способів усунути цей внесок — повністю перенавчити модель штучного інтелекту без відповідної точки даних. Але це не практичне рішення, оскільки воно потребує надто багато обчислювальної потужності та надто ресурсомістке. Замість цього нам потрібно знайти технічне рішення, яке переверне вплив цієї точки даних, змінивши остаточну модель штучного інтелекту без необхідності навчати її заново.

Барушель: Чи бачите ви людей у спільноті ШІ, які прагнуть таких ідей?

Луенго-Ороз: Наразі спільнота штучного інтелекту провела небагато конкретних досліджень щодо ідеї ненавчання нейронних мереж, але я впевнений, що незабаром з’являться розумні рішення. Існують суміжні ідеї, з яких можна черпати натхнення, наприклад концепція «катастрофічного забування», тенденція моделей ШІ забувати раніше вивчену інформацію після вивчення нової. Загальна картина того, що я тут пропоную, полягає в тому, що ми будуємо нейронні мережі, які не є просто губками, які увічнюють усі дані, які вони всмоктують, як стохастичні папуги. Нам потрібно створювати динамічні сутності, які адаптуються та навчаються з наборів даних, які їм дозволено використовувати.

Барушель: Крім права бути забутим, ви припускаєте, що такий вид відстеження може також принести значні інновації, коли йдеться про права цифрової власності.

Луенго-Ороз: Якби ми змогли відстежити, які дані користувачів сприяли навчанню конкретних моделей штучного інтелекту, це могло б стати механізмом компенсації людям за їхній внесок. Як я писав ще в 2019 році, ми могли б подумати про якусь модель Spotify, яка винагороджує людей гонораром щоразу, коли хтось використовує ШІ, навчений їхнім даним. У майбутньому таке рішення може полегшити напружені відносини між креативною індустрією та генеративними інструментами ШІ, такими як DALL-E або GPT-3. Це також могло б закласти основу для таких концепцій, як Forgetful Advertising, нової етичної моделі цифрової реклами, яка цілеспрямовано уникає зберігання персональних даних про поведінку. Можливо, майбутнє штучного інтелекту полягає не лише в тому, щоб вивчити все це – чим більший набір даних і чим більша модель штучного інтелекту, тим краще – а й у створенні систем штучного інтелекту, які можуть навчатися та забувати, як цього хоче та потребує людство.

Доктор Мігель Луенго-Ороз — вчений і підприємець, який захоплюється уявленнями та створенням технологій та інновацій для соціального впливу. Як колишній перший головний спеціаліст з обробки даних в ООН, Мігель став піонером у використанні штучного інтелекту для сталого розвитку та гуманітарної діяльності. Мігель є засновником і генеральним директором соціального підприємства Spotlab, цифрової платформи охорони здоров’я, яка використовує найкращі штучний інтелект і мобільні технології для клінічних досліджень і універсального доступу до діагностики. За останнє десятиліття Мігель створив команди по всьому світу, які впроваджують ШІ в операції та політику в таких сферах, як бідність, продовольча безпека, біженці та мігранти, запобігання конфліктам, права людини, економічний розвиток, гендерні питання, мова ненависті, конфіденційність і зміна клімату. Він є винахідником Malariaspot.org – відеоігор для спільного аналізу зображень малярії – і є філією Мадридського політехнічного університету. У 2013 році він став стипендіатом Ашоки.

Слідкуйте за Next Now/Tech & Humanity, щоб дізнатися більше про те, що працює та що буде далі.