Использование ChatGPT на киберпреступность
Share

Много было сказано о ChatGPT, новом чат-боте на основе искусственного интеллекта, способном имитировать человеческие разговоры и составлять всевозможные повествования. ChatGPT открывает совершенно новый мир возможностей для разных отраслей и предприятий. Тем не менее волнение по поводу ChatGPT связано с рядом предостережений, касающихся кибербезопасности. Давайте рассмотрим некоторые последствия, которые ChatGPT представляет для усилий по обеспечению кибербезопасности.
Последствия для фишинга и социальной инженерии
Одним из очевидных признаков фишинга являются плохо сформулированные предложения и грамматические ошибки. Вероятно, это связано с тем, что преступные организации действуют из-за границы и не обязательно являются носителями языка, на котором они фишингуют людей. Но все меняется с ChatGPT. Злоумышленники теперь могут создавать электронные письма и сообщения, которые не только грамматически правильны, но и убедительны. Blackberry делится примерами фишинговых ловушек и компрометирующих сообщений электронной почты, которые можно создать с помощью ChatGPT.
Последствия для обфускации вредоносных программ
Известно, что злоумышленники используют методы запутывания для создания сигнатур вредоносного ПО, которые могут обойти традиционные средства безопасности на основе сигнатур. Исследователи из CyberArk продемонстрировали, как можно легко использовать ChatGPT для создания полиморфного вредоносного ПО, которое очень трудно ускользнуть, а также трудно обнаружить. Каждый раз, когда исследователи запрашивали ChatGPT, они получали уникальный фрагмент кода, который можно было использовать для создания многочисленных мутаций одной и той же вредоносной программы.
Последствия для программ-вымогателей
Недавно компания Checkpoint Research обнаружила подпольные торговые площадки, на которых обсуждают, как можно использовать ChatGPT для написания вредоносного кода. Один злоумышленник использовал ChatGPT для создания вредоносного ПО, которое охотилось за файлами распространенных типов, копировало их в случайную папку, сжимало их, а затем загружало файлы на жестко заданный FTP-сервер. Другой злоумышленник (который предположительно имел ограниченные навыки разработчика) создал алгоритм шифрования, который может шифровать все файлы в указанном каталоге. Оба этих примера показывают, что даже люди с ограниченным техническим опытом могут использовать продвинутый ИИ для создания основных элементов программ-вымогателей.
Последствия для уязвимого кода и программного обеспечения
Обнаружить скрытые уязвимости непросто. Хакеры часто тратят много времени и энергии на просмотр каждой строки кода, пытаясь понять, что делает каждый флаг, ключевое слово или раздел. С помощью ChatGPT хакеры теперь могут взять фрагмент кода и попросить чат-бота проанализировать его и предоставить общую сводку того, что делает каждый модуль. Такая технология может значительно расширить возможности опытных злоумышленников и снизить входной барьер для других потенциальных противников. Фирма, занимающаяся аудитом смарт-контрактов, недавно продемонстрировала, как ей удалось найти слабые места в коде смарт-контрактов с помощью ChatGPT.
Последствия для дезинформации
Злоумышленники, антизападные правительства и политические оппоненты часто участвуют в систематических кампаниях по «астросфере» — неоднократно распространяя ложные нарративы по нескольким аккаунтам, чтобы добиться консенсуса. Например, боты Twitter часто подвергались критике за публикацию повторяющегося контента по подозрительным шаблонам. ИИ, такой как ChatGPT, созданный для имитации людей, может создавать бесконечное количество контента по целому ряду тем. Вызванный определенными ключевыми словами или спорными темами, чат-бот может публиковать сообщения в неограниченном количестве социальных аккаунтов. Такие боты будут неотличимы от пользователей-людей, что поднимет дезинформацию на совершенно новый уровень.
Как предприятия могут подготовиться к новой волне киберпреступности с использованием ИИ?
Лучшие практики, которые могут помочь компаниям защитить себя от таких сложных угроз, включают:
• Развертывание текущих программ обучения по вопросам безопасности, включающих инструктаж в режиме реального времени, чтобы сотрудники понимали свои обязанности в области кибербезопасности и следовали передовым методам (надежные пароли, безопасный просмотр и т. д.).
• Запускайте симуляции фишинга с использованием реальных фишинговых атак, чтобы у сотрудников выработалась привычка распознавать попытки фишинга и другие подозрительные действия и сообщать о них.
• Научите персонал проверять подлинность запросов, связанных с финансами, особенно в случае внезапной срочности или необычного запроса, появившегося ни с того ни с сего.
• Используйте такие инструменты, как устойчивый к фишингу MFA и метод нулевого доверия, чтобы снизить риск захвата учетной записи и мошенничества с идентификацией.
• Регулярно обновляйте все доступные через Интернет устройства, приложения и программное обеспечение, чтобы злоумышленники или искусственный интеллект не могли обнаружить эти лазейки.
• Работайте только с поставщиками и партнерами, которые серьезно относятся к кибербезопасности и прозрачны в отношении своих политик безопасности. Спросите, практикуют ли они безопасное программирование жизненного цикла разработки (SDL).
• Используйте кибербезопасность на основе ИИ для противодействия угрозам, связанным с ИИ. На рынке доступен ряд инструментов безопасности конечных точек, которые используют искусственный интеллект, машинное обучение и обработку естественного языка для обнаружения сложных угроз, а также для обработки, классификации и сопоставления большого количества сигналов безопасности. Это связано с тем, что ИИ не просто создает или читает предупреждения — он сопоставляет различные точки телеметрии или точки интереса, а затем выносит вердикт.
Киберпреступность с использованием ИИ уже здесь. Эта технология находится в открытом доступе, и существует множество онлайн-инструментов и темных веб-сервисов, которые могут быть использованы злоумышленниками. Единственный способ, которым организации могут иметь шанс бороться с киберпреступностью с использованием ИИ, — это сначала развивать культуру безопасности и рассмотреть возможность развертывания технологических средств защиты на основе ИИ.