Я шукаю..

Вплив ChatGPT на кіберзлочинність Інновації

Вплив ChatGPT на кіберзлочинність

"Цифровий

Багато було сказано про ChatGPT, новий чат-бот на основі штучного інтелекту, здатний імітувати людські розмови та створювати всілякі наративи. ChatGPT відкриває цілий новий світ можливостей для різних галузей і компаній. Проте хвилювання щодо ChatGPT супроводжується низкою застережень, які стосуються кібербезпеки. Давайте розглянемо деякі наслідки, які ChatGPT представляє для кібербезпеки.

Наслідки для фішингу та соціальної інженерії

Одним із очевидних ознак фішингу є неправильно сформульовані речення та граматичні помилки. Ймовірно, це пов’язано зі злочинними організаціями, які працюють за кордоном і не обов’язково є носіями мови, якою вони фішингують людей. Але все змінюється з ChatGPT. Зловмисники тепер можуть створювати електронні листи та повідомлення, які є не лише граматично правильними, але й переконливими. Blackberry ділиться прикладами фішингових перехоплень і повідомлень про компрометацію бізнес-електронної пошти, які можна створити за допомогою ChatGPT.

Наслідки для обфускації шкідливих програм

Відомо, що зловмисники використовують методи обфускації для розробки сигнатур зловмисного програмного забезпечення, які можуть обійти традиційні засоби контролю безпеки на основі сигнатур. Дослідники з CyberArk продемонстрували, як можна легко зловживати ChatGPT для створення поліморфного зловмисного програмного забезпечення, яке є дуже обхідним, а також його важко виявити. Кожного разу, коли дослідники надсилали запит ChatGPT, вони отримували унікальний фрагмент коду, який можна було використовувати для створення численних мутацій тієї самої шкідливої програми.

Наслідки для програм-вимагачів

Checkpoint Research нещодавно виявив підпільні ринки, де киплять розмови про те, як ChatGPT можна використовувати для написання шкідливого коду. Один з учасників загрози використовував ChatGPT для створення зловмисного програмного забезпечення, яке шукало типові типи файлів, копіювало їх у випадкову папку, стискало, а потім завантажувало файли на жорстко закодований FTP-сервер. Інший зловмисник (який, імовірно, мав обмежені навички розробника) створив алгоритм шифрування, який може шифрувати всі файли у вказаному каталозі. Обидва ці приклади показують, що навіть ті, хто має обмежений технічний досвід, можуть використовувати передовий штучний інтелект для створення основних елементів програм-вимагачів.

Наслідки для вразливого коду та програмного забезпечення

Виявлення прихованих вразливостей нелегке. Хакери часто витрачають багато часу та енергії на перегляд кожного рядка коду, намагаючись зрозуміти, що робить кожен прапорець, ключове слово чи розділ. За допомогою ChatGPT тепер хакери можуть взяти фрагмент коду та попросити чат-бота проаналізувати його та надати короткий підсумок того, що робить кожен модуль. Така технологія може значно розширити можливості досвідчених зловмисників і зменшити бар’єр для входу для інших потенційних противників. Фірма з аудиту смарт-контрактів нещодавно продемонструвала, як їй вдалося знайти слабкі місця в коді смарт-контракту за допомогою ChatGPT.

Наслідки для дезінформації

Зловмисники, антизахідні уряди та політичні опоненти часто беруть участь у систематичних кампаніях з «астротурфу» — неодноразово поширюючи неправдиві наративи в кількох акаунтах, щоб залучити консенсус. Наприклад, Twitter-ботів широко критикували за публікацію повторюваного вмісту за підозрілими шаблонами. Штучний інтелект, як-от ChatGPT, призначений для імітації людей, може створити нескінченну кількість контенту на різні теми. Спрацьовуючи певними ключовими словами чи суперечливими темами, чат-бот може публікувати повідомлення в невизначеній кількості соціальних облікових записів. Таких ботів буде неможливо відрізнити від людей-користувачів, що підніме дезінформацію на абсолютно новий рівень.

Як підприємства можуть підготуватися до нової хвилі кіберзлочинності з підтримкою ШІ?

Передові практики, які можуть допомогти компаніям захистити себе від таких складних загроз, включають:

• Розгортайте постійні навчальні програми з підвищення обізнаності про безпеку, які включають інструктаж у режимі реального часу, щоб співробітники розуміли свої обов’язки щодо кібербезпеки та дотримувалися найкращих практик (надійні паролі, безпечний перегляд тощо).

• Запускайте симуляції фішингу з використанням фішингу у дикій природі, щоб співробітники мали звичку розпізнавати спроби фішингу та інші підозрілі дії та повідомляти про них.

• Навчіть персонал перевіряти автентичність запитів, пов’язаних з фінансами, особливо якщо виникає раптова терміновість або незвичний запит, який з’явився раптово.

• Використовуйте такі інструменти, як стійкий до фішингу MFA та нульова довіра, щоб зменшити ризик захоплення облікового запису та шахрайства з особистими даними.

• Регулярно виправляйте всі доступні в Інтернеті пристрої, програми та програмне забезпечення, щоб зловмисники або ШІ не могли виявити ці лазівки.

• Співпрацюйте лише з постачальниками та партнерами, які серйозно ставляться до питань кібербезпеки та є прозорими щодо своєї політики безпеки. Запитайте, чи вони практикують безпечне програмування життєвого циклу розробки (SDL).

• Використовуйте кібербезпеку на основі штучного інтелекту для протидії загрозам з підтримкою штучного інтелекту. На ринку доступна низка інструментів захисту кінцевих точок, які використовують штучний інтелект, машинне навчання та обробку природної мови для виявлення складних загроз і обробки, класифікації та співвіднесення великої кількості сигналів безпеки. Це пояснюється тим, що штучний інтелект не просто створює або зчитує сповіщення — він співвідносить різні телеметричні точки або точки інтересу, а потім виносить вердикт.

Кіберзлочинність із підтримкою ШІ вже тут. Технологія є загальнодоступною, і існує багато онлайн-інструментів і темних веб-сервісів, якими можуть скористатися зловмисники. Єдиний спосіб, за допомогою якого організації можуть боротися з кіберзлочинністю з підтримкою штучного інтелекту, — це спершу розвивати культуру безпеки та розглядати можливість впровадження технологічного захисту на основі штучного інтелекту.