Я шукаю..

Чи зможе штучний інтелект колись досягти цифрової довіри на суспільному рівні? Інновації

Чи зможе штучний інтелект колись досягти цифрової довіри на суспільному рівні?

"без субтитрів"

31 березня 2023 року італійський орган із захисту даних оголосив про негайну заборону на використання ChatGPT, а також про розслідування використання персональних даних інструментом, який походить від «Інтернету, як це було в 2021 році». « Які ймовірні наслідки цього рішення, і чи це «перше маленьке рішення для людини, але гігантський і вирішальний стрибок для порятунку людства»?

До штучного інтелекту (ШІ) завжди ставилися з підозрою, і темпи та обсяг поставлених проблем досягають нових вершин. Самі по собі занепокоєння щодо використання ШІ та рівня, до якого він може замінити попередні процеси, керовані людиною, є демонстрацією темпів технологічного прогресу.

Однак чи цей технологічний прогрес було здійснено з підходом «широко розплющених очей», чи технологи кинулися стрімголов об цегляну стіну, не враховуючи нові рівні усвідомлення цифрових ризиків, які зараз існують у суспільстві, і ризики, пов’язані з необмежений розвиток потужного навчання ШІ?

Проблеми соціального та технологічного лідерства

У всьому світі переважна більшість організацій визнають, що штучний інтелект має неминуче місце щодо його місця в майбутній структурі нашого суспільства. Світові лідери регулярно обговорюють технологію та її використання на таких форумах, як G7, G20 і Всесвітній економічний форум, де вона обговорюється та визнається як технологія для майбутнього блага суспільства.

Це правда, але якою ціною та ризиком? Що є більшим ризиком — використання потужних і розумних систем штучного інтелекту чи недосягнення потенційної суспільної вигоди, доступної від їх використання?

Оскільки ми рухаємося до цифрового суспільства 5.0, цілком імовірно, що ті організації, які ігнорують потенціал ШІ, можуть боротися за виживання. Натомість їх випередять організації, які використовують новітні технології та завдяки ефективному управлінню ризиками сприяють майбутньому мисленню та прогресивним бізнес-стратегіям, які є цифровими за дизайном.

Однак музичний настрій щодо ШІ починає кардинально змінюватися. Окрім дій італійського органу захисту даних, ще одним яскравим прикладом цього заклику до більшої ясності стандартів розробки ШІ є співзасновник OpenAI Ілон Маск, який підписав відкритий лист із закликом припинити навчання потужних систем ШІ через побоювання загрози. людству до тих пір, поки не будуть встановлені стандарти розвитку таких систем ШІ.

Той факт, що відкритий лист підписаний не лише Маском, а й співзасновником Apple Стівом Возняком, є чітким висловом занепокоєння деяких із найвидатніших технологічних лідерів у всьому світі. Той факт, що відкритий лист набрав майже 20 000 підписів від провідних науковців і технологів протягом перших кількох тижнів після публікації, є свідченням того, що стурбованість суспільства зростає.

Мотиви заборони італійського органу із захисту даних, який зараз співпрацює з кількома своїми європейськими колегами, включно з ірландськими та британськими колегами, виходять за рамки конкурентної боротьби, враховуючи спонсорство та інвестиції OpenAI's ChatGPT з боку Microsoft .

Передбачення ризиків ШІ

На нинішніх рівнях роботи системи штучного інтелекту не досягли рівнів передбачення, визначених у фільмі Стівена Спілберга «Звіт про меншини» 2002 року, заснованому на однойменній науково-фантастичній повісті Філіпа К. Діка 1956 року. Однак найбільші ризики сьогодні зосереджені навколо людей і впливу нечіткого правового регулювання, а також ризиків, які упередженість програмування може становити для людей через автоматизоване прийняття рішень і конфіденційність споживачів.

Проте зрозуміло, що у фільмі Спілберга та романі Діка є попереджувальні знаки, на які слід звернути увагу.

Створення шляху та відповідь на цифрову довіру до ШІ

Як і всі інші аспекти технології, мета, для якої вона призначена, і спосіб, у який вона розгортається, будуть ключовими для її успіху. Міжнародні стандарти часто є ключовими для визначення шляху до успіху. У світі штучного інтелекту я не бачу різниці, і розробка ISO 42001 повинна створити систему управління для урядів і організацій, щоб усунути ризики розгортання ШІ.

За відсутності існуючих чітко сформульованих правил, які будуть застосовні до всіх секторів і регіонів, такі стандарти, як ISO 42001, є центральними для прогресивного погляду на цифрову довіру, необхідну для закріплення довіри до технологій майбутнього, і можуть допомогти забезпечити довіру, враховуючи управління та етика використання ШІ.

Щоб досягти цього повного потенційного майбутнього стану, суспільні екосистеми повинні продемонструвати свою майбутню готовність і довіру до всіх рівнів технологій ШІ. Переважаючими рівнями/характеристиками технології, на які необхідно звернути увагу, щоб створити явну довіру до штучного інтелекту, є безпека, безпека та стійкість. Існуючі міжнародні стандарти, такі як ISO 27001, ISO 27005 та ISO 27701, представляють початкові рекомендації щодо управління технологічними ризиками.

Цілком ймовірно, однак, що з’явиться спільна відповідь, подібна до масової появи публічної хмари. Форуми та галузеві організації, такі як Cloud Security Alliance, IoT Security Foundation і OT Cyber Security Alliance, внесли ясність у відповідні сфери управління технологічними ризиками. Міжнародне співробітництво між такими організаціями, як Інститут Алана Тюрінга у Великій Британії та спільна декларація Великобританії та США про співпрацю в дослідженнях і розробках штучного інтелекту має сприяти активізації міжнародних зусиль.

Поки суспільство не визнає ризики та не запровадить адекватні механізми контролю для вирішення очевидних проблем зі штучним інтелектом, малоймовірно, що рішення італійського органу із захисту даних буде останнім.