Я шукаю..

Штучний інтелект може бути расистським: переконаймося, що він працює для всіх. Лідерство

Штучний інтелект може бути расистським: переконаймося, що він працює для всіх.

"ІТАЛІЯ-ТЕХНОЛОДЖІ-AI"

Десятиліттями штучний інтелект (ШІ) був переважно науково-фантастичним тропом, як літаючі автомобілі чи реактивні ранці. Але майже вночі, здається, майбутнє настало.

Сьогодні керовані штучним інтелектом алгоритми та системи стають стандартними операційними інструментами в науці, освіті, обслуговуванні клієнтів, кримінальному судочинстві, фінансах, управлінні дорожнім рухом та майже в будь-якому іншому куточку нашого життя, який тільки можете собі уявити. Тим часом складні інструменти обробки мови на основі штучного інтелекту, як-от OpenAI's ChatGPT (фінансується Microsoft, моїм колишнім роботодавцем), тепер можуть писати складні есе з кількох абзаців практично на будь-яку тему за лічені хвилини. Насправді ChatGPT вже склав бар і кілька іспитів AP. За словами професора Стенфордського університету Еріка Бриньольфссона, ці чат-боти незабаром стануть «калькулятором для письма» і радикально змінять роботу білих комірців так само, як це зробили раніше революції в Інтернеті та мобільних телефонах. (Примітка: я не використовував ChatGPT для написання цього есе, але дуже скоро ви можете не помітити різницю).

Важко не бути одночасно схвильованим і стривоженим через зміни ШІ, які відбуваються навколо нас. П’ять років тому – цілу вічність у термінах штучного інтелекту – генеральний директор Google Сундар Пічаї назвав штучний інтелект «однією з найважливіших речей, над якими працює людство… більш глибоким, ніж електрика чи вогонь». Коли ми думаємо про важливі періоди американської історії, змінені технологіями , ШІ може бути настільки ж масштабним, як промислова революція. Минулого місяця генеральний директор OpenAI Сем Альтман назвав штучний інтелект потенційно «найкращою технологією, яку ще розробило людство».

Хоча все це може здатися гіперболою, потрібно лише кілька хвилин гри з ChatGPT, щоб відчути, що ми на порозі значних змін. Тим не менш, існує величезний і тривожний дефект ШІ, який повинен змусити всіх задуматися. Якими б дивовижними не були ці нові інструменти штучного інтелекту, багато з них все ще непомітно увічнюють – або, що ще гірше, посилюють – упередження своїх творців (здебільшого білих чоловіків). Замість того, щоб виходити за межі наших людських обмежень, щоб створити більш справедливе майбутнє для всіх, інструменти штучного інтелекту часто ненавмисно повторюють одні й ті самі помилки та помилки в судженні, дозволяючи расизму та дискримінації гніти в нашому сьогоднішньому суспільстві.

Є багато протверезних прикладів шкоди, яку може завдати ШІ. У 2018 році студентка Массачусетського технологічного інституту Джой Буоламвіні написала про свій досвід, виявивши, що алгоритми розпізнавання обличчя в її лабораторії, які використовуються в усьому світі, не можуть виявити темношкірі обличчя. Їй навіть довелося одягнути білу маску, щоб комп’ютер розпізнав її як особу. (Ви можете переглянути її чудовий Ted Talk тут.) Подібним чином користувачі виявили у 2020 році, що інструмент обрізання зображень Twitter постійно фокусується на білих обличчях. Деякі помилки серйозніші за упущення. ШІ-роботи, навчені мільярдам зображень, постійно ідентифікували жінок як «домогосподарок», а кольорових людей як «злочинців» або «двірників».

У 2019 році в дискусії з цих питань професор Гарварду Латанія Суїні розповіла, за словами свого сина, про «день, коли її комп’ютер був расистським». Коли вона показувала роботу колезі, пошукові системи показали рекламу. інструменти для видалення її неіснуючих тюремних записів, заснованих виключно на її афроамериканському імені. Ці механізми, зазначила вона, регулярно підштовхують грабіжницьке кредитування тих, хто також має чорношкірі прізвища. «Багато хто з нас прийшов у технологію, вірячи, що [вона] побудує краще майбутнє та виправить багато кривд, які спричинило суспільство, — сказала вона, — тож ви можете собі уявити, як я була вражена, побачивши цю рекламу ."

Ці "алгоритмічні упередження" більш ніж образливі – вони мають серйозні наслідки в реальному світі для кольорових людей. Сьогодні алгоритми допомагають визначити кредитні бали та прийнятних кандидатів для вакансій і вступу до коледжу. Вони «передбачають» злочини та допомагають судам визначати, хто заслуговує на звільнення під заставу та скільки має бути термін покарання. Вони допомагають лікарям прогнозувати рівень раку та смертність і приймати рішення щодо відповідного лікування. Вони вплетені в усі аспекти нашого життя, і якщо вони навчилися расизму на цьому шляху, вони увічнить його.

Отже, як нам вирішити цю проблему? Пам’ятайте, що штучний інтелект не розроблений, щоб бути расистським – він просто переймає це від нас. Візьміть це з самого ШІ. Коли я запитав ChatGPT, чи є це расизмом, він сказав мені: «У мене немає особистих переконань чи почуттів, у тому числі расизму. Мене запрограмували надавати відповіді на основі вхідних даних, які я отримав, а також знань і мовних моделей, яким я навчений . Мої відповіді ґрунтуються виключно на наданій інформації." І це ключ. Дуже часто ми навчаємо ці алгоритми неповними або недосконалими вхідними даними, що призводить до ненавмисних расистських результатів. Як сказав Буоламіні, «якщо тренувальні набори насправді не такі різноманітні, будь-яке обличчя, яке відхиляється від встановленої норми, буде важче виявити».

«Сліпі плями моделі відображають судження та пріоритети її творців», — пише Кеті О’Ніл, автор книги «Зброя математичної руйнації». Але може бути і зворотне. Якщо ми зможемо диверсифікувати як дослідників, які створюють системи ШІ, так і набори даних, які ці алгоритми використовують для навчання; ми можемо допомогти навчити їх кращим звичкам і забезпечити більш справедливі результати. «Набори для тренувань не виникають на порожньому місці», — каже Буоламвіні. "Існує можливість створювати комплекси повного спектру тренувань, які відображають багатшу частину людства"

Після досвіду роботи з расистським штучним інтелектом Буоламвіні заснувала Алгоритмічну Лігу Справедливості, щоб заохочувати більше різноманітності серед кодерів штучного інтелекту, одночасно розширюючи спектр і якість навчальних наборів систем, на яких навчаються. Луїс Салазар, технічний підприємець із Сіетла, який зосереджується на цілеспрямованих інноваціях, зустрічався з лідерами штучного інтелекту щодо цих проблем і запустив AI for Social Progress (AI4SP.org), щоб заохочувати використання більш різноманітних навчальних наборів, які можуть пом’якшити упередженість у технологіях штучного інтелекту. .

Я наполегливо закликаю бізнес-лідерів і філантропів підтримувати ці та подібні зусилля в майбутньому та оцінювати результати, створені системами штучного інтелекту, які вони використовують для гендерних і расових упереджень. ШІ зараз переписує те, як ми живемо, працюємо та граємо; якщо ми все зробимо правильно, майбутнє виглядає чудовим. Але ми повинні серйозно поставитися до викорінення системних упереджень і расизму з цих платформ, поки не пізно. Давайте працювати над тим, щоб штучний інтелект став зорею захоплюючої нової ери для всіх, а не невдалим технічним шляхом, щоб продовжувати повторювати наші минулі помилки.