Я ищу..

Как искусственный интеллект разрушает и трансформирует ландшафт кибербезопасности Инновации

Как искусственный интеллект разрушает и трансформирует ландшафт кибербезопасности

Хари Равичандран — генеральный директор и основатель Aura™, ведущего поставщика комплексных решений цифровой безопасности для потребителей.

"без подписи"

Одной из причин стремительного роста киберпреступности является более низкий порог входа для злоумышленников. Киберпреступники изменили свои бизнес-модели, в том числе теперь предлагают услуги по подписке и стартовые наборы. Использование больших языковых моделей (LLM), таких как ChatGPT, для написания вредоносного кода также подчеркивает потенциальные проблемы кибербезопасности.

Из-за этих угроз все лидеры бизнеса в современном цифровом мире должны быть осведомлены о разработках ИИ в кибербезопасности.

По данным Forbes, 76% предприятий отдают приоритет ИИ и машинному обучению в своих ИТ-бюджетах. Эта тенденция обусловлена растущим объемом данных, которые необходимо анализировать, среди прочего, для выявления и смягчения киберугроз. Подключенные устройства, в частности, могут генерировать 79 зеттабайт данных к 2025 году, что невозможно для человеческого анализа вручную.

В результате ИИ становится важным инструментом в борьбе с киберпреступностью. Это подтверждается недавним исследованием Blackberry, которое показало, что «большинство (82%) лиц, принимающих решения в области ИТ, планируют инвестировать в кибербезопасность на основе ИИ в ближайшие два года, и почти половина (48%) планируют инвестировать до конца 2023 года. ».

Однако, как и любая мощная технология, существуют потенциальные опасности, связанные с неправильным использованием ИИ. Blackberry также сообщила, что основные опасения по поводу неправомерного использования ChatGPT связаны с социальной инженерией (создание очень убедительных и трудно обнаруживаемых фишинговых электронных писем) и обучением менее опытных хакеров, чтобы они стали более эффективными в своих атаках.

Большую озабоченность вызывает возможность того, что злоумышленники могут использовать ИИ для распространения вредоносных программ и других киберугроз. Тем не менее, с ChatGPT код, который он создает, далек от совершенства. В некоторых случаях это может помочь вам пройти 80% пути, но не пройти весь путь до финиша. С кодированием все или ничего. Если код неполный, он не будет работать. Это означает, что для эффективной работы требуется последняя миля человеческого интеллекта и утонченности. Принимая это во внимание, возможно, это не такая большая угроза, как утверждают сенсационные заголовки.

Однако важно признать, что, хотя пересечение кибербезопасности и ИИ в последнее время сосредоточилось на негативных последствиях технологии, стоит напомнить себе, что ИИ также может помочь защитить нас. Например, рассмотрим следующие варианты использования:

1. ИИ способен делать выводы, распознавать закономерности и выполнять упреждающие действия от имени пользователя, расширяя наши возможности по защите от онлайн-угроз. Автоматизируя реагирование на инциденты, оптимизируя поиск угроз и анализируя большие объемы данных, ИИ может помочь улучшить кибербезопасность. Недавние достижения в области вычислительной мощности и масштабируемости позволяют заглянуть в будущее использования ИИ, чтобы помочь нам оставаться в большей безопасности в Интернете.

2. ИИ может обеспечить непрерывный мониторинг, что необходимо для современной кибербезопасности. Инструменты кибербезопасности на базе ИИ предназначены для выявления и обнаружения атак в режиме реального времени и могут автоматизировать процесс реагирования на инциденты. Они также могут помочь экспертам по безопасности человека выявлять новые угрозы и тенденции, что позволяет им принимать превентивные меры.

3. ИИ может помочь выявить ложные срабатывания, что является серьезной проблемой для аналитиков-людей. Это не только снижает нагрузку на аналитиков, но и делает обнаружение и анализ угроз более точными и эффективными.

4. ИИ можно использовать для усиления мер контроля доступа. Алгоритмы машинного обучения могут выявлять аномальные модели поведения и помечать подозрительные попытки входа в систему, упрощая выявление потенциальных нарушений безопасности. Решения на основе ИИ также можно использовать для улучшения управления паролями, автоматически определяя слабые пароли и требуя от пользователей выбирать более надежные.

5. ИИ можно использовать для смягчения внутренних угроз, которые представляют собой серьезную проблему для организаций. Анализируя поведение пользователей, решения на основе ИИ могут выявлять сотрудников, которые могут быть вовлечены в злонамеренные действия. Это может помочь предотвратить утечку данных и другие инциденты безопасности.

Руководителям бизнеса важно осознавать потенциальные опасности и преимущества использования ИИ в кибербезопасности и учитывать этические последствия внедрения решений на основе ИИ. Хотя крайне важно проявлять бдительность в отношении использования ИИ в качестве оружия, не менее, если не более, важно признать потенциал ИИ для повышения кибербезопасности и приносить пользу обществу в целом.