Я шукаю..

10 загроз, які несе використання ШІ для компаній і організацій Лідерство

10 загроз, які несе використання ШІ для компаній і організацій

"AI

Новини цього тижня про те, що Microsoft додасть можливості штучного інтелекту на панель завдань Bing у своїй операційній системі Windows 11, показують, наскільки швидко нова технологія стає доступною як для компаній, так і для окремих осіб.

«Завдяки оновленню інструмент штучного інтелекту буде доступний у вікні пошуку Windows, що дозволяє користувачам отримувати прямий доступ до файлів і налаштувань, а також виконувати веб-запити», — повідомляє CNN.

Але те, як, коли та чому бізнес-лідери використовують технологію штучного інтелекту, може спричинити широкий спектр криз для їхніх компаній та організацій.

Ілон Маск, наприклад, має сумніви, якщо не занепокоєння, щодо ШІ. Говорячи вчора інвесторам про плани Tesla, він сказав: «ШІ мене напружує» і що федеральний уряд повинен регулювати цю технологію.

«Нам потрібен якийсь, наприклад, регуляторний орган або щось інше, що контролює розробку ШІ», — сказав Маск. «Переконайтеся, що він працює в суспільних інтересах. Це досить небезпечна технологія. Боюся, я зробив щось, щоб прискорити її».

«У міру розвитку штучного інтелекту компанії зіткнуться з рядом юридичних і бізнес-ризиків, по-перше, від зловмисників, які використовують ці технології для шкоди бізнесу, і, по-друге, коли самі підприємства захочуть застосувати чат-ботів або інші форми штучного інтелекту у своїх функціях», — Метью Ф. Ферраро, юрист з кібербезпеки в юридичній фірмі Wilmer Hale, повідомив електронною поштою.

«Це технологія, яка швидко розвивається, але, виходячи з того, що ми знаємо на даний момент, існує десять юридичних і бізнес-ризиків, про які повинні знати всі види організацій», — попередив він.

Ферраро сказав, що використання штучного інтелекту несе серйозні збитки та ризики в наступних сферах, про що бізнес-лідерам слід пам’ятати найближчими днями.

«Інформація, введена в AI, включаючи підказки, які ставлять запитання чат-ботам, повинна вважатися загальнодоступною, а не приватною. Це пояснюється тим, що чат-боти можуть використовувати дані, які вони поглинають, для розробки та покращення своїх послуг.

«Підприємствам слід остерігатися введення в запити чат-ботів інформації від клієнтів, замовників або партнерів, яка підпадає під договірні обмеження конфіденційності або інші засоби контролю».

«Чат-боти можуть створювати зловмисне програмне забезпечення та видавати себе за людські розмови, які можна використовувати для фішингу та шахрайства в соціальних мережах».

«Інструменти штучного інтелекту можуть збирати особисті дані, які можуть бути передані третім сторонам, потенційно порушуючи закони про конфіденційність даних».

«Використання штучного інтелекту, включаючи чат-ботів, для введення споживачів в оману може порушувати закони, які забороняють нечесні та оманливі торгові практики».

«Результати ШІ можуть бути упередженими щодо певних груп через упереджений характер даних, на яких навчаються інструменти ШІ. Регулюючі органи США, включаючи Білий дім і Федеральну торгову комісію, наголошують на відповідальному та недискримінаційному використанні ШІ».

«Чат-боти можуть створювати масштабну неправдиву інформацію правдоподібною, розмовною англійською, навіть якщо користувач не так вільно володіє».

«Компанії повинні переконатися, що використання штучного інтелекту відповідає етичним зобов’язанням, особливо тим, які накладаються професійними організаціями. Наприклад, використання штучного інтелекту для представництва клієнтів може становити несанкціоновану практику».

«Державні контракти вимагають відвертості з боку підрядників. Підрядники повинні бути прозорими щодо використання ШІ, щоб уникнути введення уряду в оману».

«Використання генеративного ШІ створює багато різних видів ризиків для інтелектуальної власності. Матеріал, який подається в ШІ, може бути захищений власниками прав. І взагалі невизначено, кому належить IP-адреса, створена ШІ. Судовий процес у цій сфері триває».

«Чат-боти можуть створювати неправдиві, але авторитетні заяви. Компанії, які використовують чат-ботів, повинні перевірити відповіді, перш ніж покладатися на них для прийняття бізнес-рішень».

Перш ніж повністю прийняти штучний інтелект і наражати свої організації на ці та інші тригери кризи, керівники повинні розглянути можливість просування вперед із цим новим технологічним інструментом обережно й обережно.

Вживання запобіжних заходів

"AI

«Підприємства можуть підготуватися до штучного інтелекту, вживаючи запобіжних заходів», — заявила Шарлотта Адамс, директор з персоналу Overnight Jobs, веб-сайту з пошуку роботи та кар’єрних консультацій.

«По-перше, їм потрібно визначити сфери свого бізнесу, де штучний інтелект може бути найбільш ефективним і корисним, і розробити чітку стратегію інтеграції штучного інтелекту в ці сфери», — порадила вона.

«Вони також повинні переконатися, що їх інфраструктура даних здатна підтримувати ініціативи штучного інтелекту, інвестуючи в такі технології, як хмарні обчислення, аналітика даних і інструменти машинного навчання. Вони повинні починати з малого, впроваджуючи штучний інтелект у кількох сферах бізнесу та поступово розширюючи його використання з часом», – порадив Адамс.

«Вони повинні переконатися, що їхні співробітники навчені працювати разом із технологіями штучного інтелекту та розуміти, як штучний інтелект можна використовувати для доповнення їхньої роботи. Нарешті, вони повинні знати про етичні наслідки штучного інтелекту та розробити політику та рекомендації, які гарантуватимуть відповідальне використання штучного інтелекту в їхніх бізнес-операціях.

«Здійснюючи ці кроки, підприємства можуть підготуватися до інтеграції штучного інтелекту та отримати переваги підвищення ефективності, продуктивності та інновацій», — підсумувала вона.

Ферраро сказав, що є кроки, які компанії можуть зробити, щоб мінімізувати небезпеки та загрози використання ШІ.

«Будьте обережні з безнадійним використанням ШІ співробітниками бізнесу. Застосуйте політику для захисту конфіденційності інформації, захищеної контрактом», — рекомендував він. «Дотримуйтеся правил конфіденційності даних і параметрів, які дозволяють користувачам видаляти їхню інформацію або захищати її від передачі третім сторонам, [і] будьте прозорими для клієнтів, співробітників і партнерів щодо використання штучного інтелекту або чат-ботів».

Ферраро сказав, що керівники компаній повинні «проактивно планувати небезпеки дезінформації, передавати повідомлення компанії, контролювати корпоративні бренди в Інтернеті та бути готовими реагувати в разі інциденту».