Я шукаю..

Перевага упереджень у ШІ Інновації

Перевага упереджень у ШІ

"Нейротехнології"

2022 рік можна запам’ятати як рік, коли генеративний штучний інтелект вибухнув на сцені, спричинивши серйозні хвилі в цифровій спільноті. З появою будь-якої нової технології, що змінює правила гри, у цьому випадку надзвичайно потужних алгоритмів, що стоять за системами генерації зображень і тексту, такими як ChatGPT і DALL-E, обов’язково послідує критика та негативна реакція. Але я не вірю, що проблеми та суперечки, пов’язані з цими алгоритмами, повинні уповільнити їх розвиток.

Нещодавнє висвітлення модерації контенту OpenAI, наданої аутсорсингом, є чудовим прикладом того, наскільки неоднозначним може бути шлях уперед. З одного боку, людського контролю не уникнути; з іншого боку, люди-модератори, які піддаються екстремальному вмісту, повинні отримати всю необхідну підтримку для проведення цієї жорстокої, але надзвичайно важливої частини процесу модерування. Удосконалення наших стандартів під час розробки оптимальних версій для цих алгоритмів є найкращою практикою в усіх сценаріях із залученням ШІ.

Випадково (чи ні), 2022 рік також був роком, коли я багато писав про те, як різні когнітивні упередження та інші процеси впливають на наше обґрунтування, особливо в повних (як класичних, так і на основі глибоких нейронних мереж) рішеннях ШІ. До речі (чи ні), упередження, що виникають через ці генеративні алгоритми, є головною проблемою, яку потрібно вирішити, якщо ми хочемо направити генеративний ШІ в більш продуктивне русло.

Забігаючи вперед, що ми можемо зробити з цих упереджень? Я хочу скористатися цією можливістю, поки 2023 рік ще свіжий, щоб переглянути статті, які я написав, присвячені цим когнітивним упередженням і тому, як ми можемо впоратися з ними конкретно, коли маємо справу з генеративним ШІ.

Коротке визначення упередженого підтвердження – це когнітивний шлях, вбудований у нашу підсвідомість відповідно до наших переконань, який потім перенаправляє увагу на аргументи та докази, які підкріплюють цю систему переконань. Це одне з найпоширеніших упереджень у соціальних мережах. Це нелегко повністю подолати: потрібні постійні практики та свідомі зусилля, щоб зрозуміти, як вони спотворюють наше обґрунтування.

Упередження щодо виживання відображає нашу тенденцію вибирати лише приклади успіху, «вижили», і нехтувати всіма негативними прикладами певної справи та тим, що вони додадуть до набору даних. Я впевнений, що ви бачили та чули про успішних підприємців, акторів, спортсменів та всі історії, що стоять за ними, але багато невдалих спроб невідомі для кожної історії успіху. Цей приклад упередженості також досить широко поширений, і не лише в соціальних медіа, але й у будь-яких інших медіа з початку ери комунікацій.

Аксіома, яка найкраще визначає хибний причинно-наслідковий зв’язок, полягає в тому, що «кореляція не означає причинно-наслідкового зв’язку», але навіть з цим знанням все ще зазвичай встановлювати сильний зв’язок між двома змінними, які не обов’язково пов’язані одна з одною.

Упередження доступності походить від уявного скорочення, яке ми використовуємо для швидкого судження, відомого як «евристика доступності». Ми схильні використовувати інформацію, яка є найбільш доступною для наших міркувань, що полегшує упущення загальної картини; частіше за все у вас немає повної картини, щоб прийняти рішення. Це пояснюється тим, що ситуації, які ми спостерігаємо або пам’ятаємо, справляють сильний вплив на нашу підсвідомість.

Усі перераховані вище упередження виникають за певних когнітивних умов, і їхнє визнання дає нам величезну перевагу. Але як професіонали штучного інтелекту можуть ефективно усунути їх від процесу прийняття рішень під час роботи над проектом штучного інтелекту?

По суті, відповідь на когнітивні упередження знаходиться поза сферою власних когнітивних процесів, а це означає, що ви не можете на 100% довіряти тому, як ви уявляєте проблему і як тільки ви її розв’яжете. На практиці це означає певну дистанцію між вами та проблемою, перш ніж прийняти рішення. Очевидно, що командна робота тут має вирішальне значення. Маючи другу, третю чи навіть четверту думку, ви почнете усувати упередження кожної людини та працювати над досягненням спільної об’єктивної точки зору. Чим різноманітніша команда, тим краще, оскільки важливість різноманітного людського нагляду неможливо переоцінити.

Випадок генеративного штучного інтелекту, однак, представляє деякі складніші проблеми через грандіозні цілі технології. Щоб бути максимально надійним, алгоритм потребує величезної кількості даних для навчання — і саме тут багато когнітивних упереджень. Кожен інший запис може бути глибоко упередженим. Щоб виконати пом’якшення кожного з них, знадобиться нескінченна кількість роботи. Ці надзвичайно потужні інструменти вимагають надзвичайно потужних підходів у разі упереджень, роботи з даними перед навчанням або за допомогою певної форми фільтрації даних.

Випадок пом’якшення перед навчанням простий, щоб викорінити упередженість. Конфігурація моделі штучного інтелекту базується на тому, як проводиться навчання та які дані використовуються; зрештою, все це людський вибір. Представлення етичних дилем перед початком розробки на основі навчання є одним із найбезпечніших шляхів вперед, але це різко зменшує швидкість, з якою компанія може створити такий інструмент. Використання безкоштовних, необмежених навчальних даних стало тим, що в першу чергу забезпечило надійність цих алгоритмів.

А як щодо пом’якшення через фільтрацію даних? Існує аргумент для використання технологічних досягнень безпосередньо для вирішення проблем зміщення та навчання алгоритму за допомогою відфільтрованих наборів даних. Один нещодавній приклад стосується справедливості представництва, однієї з ключових проблем, яку необхідно вирішити. Дослідники з Google працюють над інструментом під назвою «Latent Space Smoothing for Individualno Fair Representations» або LASSI. Незважаючи на те, що це помітно й благородно, зробити таке рішення для фільтрації даних ефективним на базовому рівні, однак, видається складним завданням.

Незалежно від того, які рішення ми пропонуємо, важливо не відмовлятися від етичних причин для цього. Якщо створений людиною матеріал для навчання та людського модерування здається життєво важливою частиною проекту, слід зосередитися на процесах, які вважаються сприйнятливими до неправильного уявлення людини. Інструменти, що розробляються, мають дивовижні нелюдські здібності, але саме людський компонент забезпечує їх відповідність нашим потребам і пам’ятає про наші недосконалості.