Я шукаю..

Чому зрозумілість має бути основою вашої програми ШІ Інновації

Чому зрозумілість має бути основою вашої програми ШІ

Digital and AI SME, співзасновник Thinking Stack Inc.

Роботизована рука рукостискання з синім технічним фоном. Технологія автоматизації та концепція штучного інтелекту. Тема кіберінновацій. 3D візуалізація ілюстрації

Гетті

Одним із найважливіших аспектів науки про дані є формування довіри. Це особливо вірно, коли ви працюєте з машинним навчанням і технологіями ШІ, які є новими та незнайомими для багатьох людей. Коли щось йде не так, що ви говорите своїм клієнтам? Що вони кажуть? Що, на їхню думку, буде далі? За допомогою зрозумілого штучного інтелекту ви можете надати відповіді, які підтвердять легітимність вашого продукту.

Пояснення є ключовою частиною формування довіри до будь-якої технологічної програми, але це ще важливіше для програм машинного навчання, де:

• Ви не знаєте, як працює система (наприклад, класифікація зображень).

• Немає чіткого причинно-наслідкового зв'язку між вхідними/вихідними ресурсами (наприклад, системи рекомендацій).

Більшість моделей є моделями «чорного ящика», і часто, коли ці моделі навчені, науковці МЛ не можуть зрозуміти, як модель зробила прогноз або чому вона передбачає те, що вона робить. Нездатність вчених, які займаються моделлю або ML, пояснити прогнози зацікавленим сторонам, а також труднощі в інтерпретації поведінки навчання моделі призводять до відсутності довіри зацікавлених сторін до моделі та її прогнозів.

Explainable AI допомагає зміцнити довіру до AI, забезпечуючи постійну видимість моделей навчання та виробництва. Науковці та зацікавлені сторони ML можуть зрозуміти, чому робляться прогнози, і отримати корисну інформацію для команд, щоб точно налаштувати та перенавчати моделі.

Щоб отримати зрозумілий ШІ, нам потрібно відповісти на два запитання.

Наскільки хороша ваша модель? Наприклад, якщо компанія, яка видає кредитні картки, хоче, щоб її система виявляла шахрайські транзакції в реальному часі, їй було б цікаво знати, наскільки точною є модель виявлення шахрайства (як часто вона робить правильні прогнози), а також рівень помилкових спрацьовувань (як часто робить неправильні прогнози). Це дозволить їм знати, чи відповідає їхня модель їхнім бізнес-вимогам, чи їм потрібна додаткова настройка.

Друге запитання допоможе визначити, чи стратегія оптимізації працює належним чином: чи отримали ми кращі результати, ніж раніше? Візьмемо, наприклад, автострахову компанію, яка має 100 клієнтів, які пройшли п’ятирічний стаж водіння без зареєстрованих аварій, але лише один рік стажу водіння через те, що вони взагалі не повідомляли про аварії. Якщо цю компанію використовували як вхідні дані для алгоритму ML, який передбачає, чи хтось потрапить в аварію протягом п’яти років (лише на основі минулої поведінки за кермом), тоді неможливо дізнатися, чи працює це передбачення чи ні. На даний момент ми не можемо порівняти його результати з будь-якими іншими результатами, створеними за допомогою інших підходів, наприклад тих, які також враховують інформацію про вік.

Тепер, коли ви краще розумієте важливість пояснюваності, давайте поглянемо на кілька прикладів, які можуть допомогти вашому бізнесу.

Зрозумілі рішення ШІ особливо корисні для:

• Спостереження: програмне забезпечення для розпізнавання зображень використовується правоохоронними органами в усьому світі вже кілька років. Зрозумілі рішення штучного інтелекту забезпечують більшу прозорість процесу прийняття рішень у цих системах, щоб користувачі могли зрозуміти, чому певних підозрюваних було зупинено чи заарештовано; ці знання допомагають зменшити проблеми расового профілювання, що виникають через низьку точність технології розпізнавання обличчя

• Аналітика роздрібної торгівлі в магазині: пояснюваний штучний інтелект у баченні дозволяє науковцям з машинного навчання та зацікавленим сторонам зрозуміти, чому модель передбачає, що полиця буде порожньою або продукт буде схожий на банку кока-коли, а не на пляшку чи банку Red Bull. Це досягається шляхом надання людям атрибуції пікселів до міток, щоб зрозуміти, які пікселі сприяють розпізнаванню об’єкта як того, чим він є. Крім того, методи факторизації ознак можуть відрізнити ознаки, що відрізняють етикетку, від інших ознак (наприклад, ознак, які пояснюють, чому пляшка відрізняється від банки).

• Візуальна перевірка якості: у контексті візуальної перевірки якості пояснюваність може означати здатність зрозуміти та повідомити обґрунтування рішення перевірки, наприклад, чому певний дефект було визнано неприйнятним або чому певний компонент вважався таким, що відповідає вимогам технічні характеристики.

Зрозумілість допомагає оцінити продуктивність систем ШІ.

Правильність системи, заснованої на правилах, можна перевірити, вимірявши кількість пар вводу-виводу, для яких правило не виконується. З іншого боку, оцінити правильність алгоритму ML набагато складніше. Простий спосіб зробити це — переглянути прогнози, зроблені моделлю, і порівняти їх із фактичними даними, доступними безпосередньо від зацікавлених сторін вашого бізнесу або клієнтів. Однак цей підхід не дасть вам точної картини, оскільки він не враховує різні фактори, такі як якість даних і шум у реальних програмах. Ще одна проблема з цим підходом полягає в тому, що він вимагає доступу до базових правдивих даних, які не завжди можуть бути доступними або достатньо надійними, щоб допомогти вам прийняти рішення про те, наскільки добре ваша модель виконує свою мету.

Зрозумілість може допомогти налагодити продуктивність моделі. Важливим кроком у налагодженні алгоритмів машинного навчання є розуміння того, де вони дають збій і чому. Процес налагодження моделі та аналізу помилок можна ефективно вирішити за допомогою методів пояснюваності

Штучний інтелект збільшить свій рівень впровадження лише тоді, коли користувач довіряє йому, а довіру можна заслужити, лише коли пояснюються рішення.

Наприклад, скажімо, ви хочете знати, чому певному кандидату було відмовлено у пропозиції про роботу. Ви можете попросити свою систему штучного інтелекту пояснити свою аргументацію та отримати відповідь на кшталт: «Заявник має забагато червоних прапорців у своїй перевірці» або «Заявник не мав достатнього досвіду роботи в необхідній сфері». Ви б почувалися набагато краще після цього пояснення, ніж якби пояснення не було взагалі.

Іншими словами, за допомогою належних заходів пояснення, включених у вашу програму штучного інтелекту, кожен користувач такої програми з часом почуватиметься більш впевненим у її продуктивності та надійності, навіть якщо вона продовжує приймати рішення від її імені на основі більшої кількості даних, ніж будь-коли раніше!

Технологічна рада Forbes — це спільнота для ІТ-директорів, технічних директорів і технічних керівників світового рівня. Чи маю я право?