Я шукаю..

Технологічні лідери просять призупинити розробку ШІ Інновації

Технологічні лідери просять призупинити розробку ШІ

"DARPA

У спільному відкритому листі майже 1500 технологічних лідерів, включаючи Ілона Маска, закликають призупинити шість місяців у розробці штучного інтелекту. Відкритий лист «Призупинити гігантські експерименти ШІ: відкритий лист» опубліковано на веб-сайті Інституту майбутнього життя. У листі закликають розробників працювати над тим, щоб зробити сучасні системи штучного інтелекту «більш точними, безпечними, доступними для інтерпретації, прозорими, надійними, вирівняними, надійними та лояльними».

Ідея полягає в тому, що розробку штучного інтелекту слід «планувати та керувати відповідною ретельністю та ресурсами». Однак автори листа кажуть, що такого рівня планування не відбувається. Це призводить до того, що системи ШІ виходять з-під контролю,

«Незважаючи на те, що останніми місяцями лабораторії штучного інтелекту вийшли з-під контролю за розробкою та розгортанням все більш потужних цифрових розумів, які ніхто — навіть їхні творці — не можуть зрозуміти, передбачити чи надійно контролювати».

Якщо це звучить знайомо, ці питання були порушені 75 років тому легендарним письменником-фантастом Айзеком Азімовим, коли він постулював свої три закони робототехніки, які являли собою інструкції, які були призначені для жорсткого кодування в будь-якому ШІ, який на той час вважався бути роботами. Початкові три закони пізніше були змінені, щоб включити Закон 0, який поширив закони на все людство.

Азімов сказав в інтерв’ю через багато років на Всесвітній конвенції наукової фантастики в Бостоні в 1980 році, що закони мали на меті протистояти поширеній на той час думці про те, що одного дня злі роботи захоплять світ. У той час про розвиток штучного інтелекту не було відомо, хоча підозрювали, що це можливо.

Швидке зростання штучного інтелекту вже підтверджує деякі занепокоєння Азімова.

«Ми є свідками швидкого розвитку генеративного штучного інтелекту та штучного інтелекту (штучного загального інтелекту) з шаленою швидкістю, не замислюючись про наслідки для суспільства», — сказав Васім Халед, генеральний директор Blackbird.AI.

«Соціальні медіа-платформи існують уже більше десяти років, але не змогли пом’якшити людську швидкість дискурсу та пов’язану з цим шкоду. Тепер, маючи доступну технологію, яка може генерувати необмежену кількість наративів і медіа, ми ризикуємо спотворити реальність немислимими раніше способами».

Халед сказав, що ШІ ризикує завдати великої шкоди людству. «Генеративний ШІ створює безпрецедентні ризики для суспільства та національної безпеки з точки зору кібербезпеки», — сказав він. «Загрозливі особи тепер мають неймовірно потужний інструмент у своєму наборі інструментів, що дозволяє все від генерації дезінформації до створення шкідливого коду. Крім того, популярність цих інструментів у всіх режимах роботи призводить до масового впливу корпоративної стратегії, інтелектуальної власності та інших форм конфіденційних даних, які подаються у великі мовні моделі з невідомою або постійно змінюваною політикою конфіденційності». Генеративний ШІ — це тип штучного інтелекту, де ШІ генерує новий матеріал, а іноді й власні нові інструкції.

ШІ та загрози конфіденційності та безпеці

"AI

Окрім ризику для конфіденційності, ШІ також створює ризик для кібербезпеки. Що буде посилено через паузу в розробці ШІ, особливо з огляду на прогнози сильного зростання розвитку ШІ. У нещодавньому звіті «Огляд злиттів і поглинань у сфері аерокосмічної промисловості, оборони та уряду» компанії HigherGov, що займається аналізом ринку, передбачено високий попит на послуги, а отже, і на персонал для ряду державних технологічних галузей, зокрема космічної та державної кібербезпеки.

Це погіршується тим, що ці інструменти можуть змінити погляд на реальність через вибір, зроблений під час їх розробки. За словами Халеда, це вимагає пильності.

«Якщо ми й надалі будемо ігнорувати вплив програмування штучного інтелекту на процеси прийняття рішень або ризики централізованих технологій, що порушують конфіденційність персональних даних, — сказав Халед, — безконтрольне використання генеративних інструментів штучного інтелекту може кардинально змінити наше сприйняття реальності. Надзвичайно важливо, щоб ми оцінили кілька сценаріїв і зважили вартість і переваги збоїв штучного інтелекту, щоб уникнути спотвореної реальності».