Я ищу..

Европол излагает «мрачные» перспективы для правоохранительных органов в эпоху ChatGPT Инновации

Европол излагает «мрачные» перспективы для правоохранительных органов в эпоху ChatGPT

"ОткрытыйИИ

Европол выступил с суровым предупреждением об опасностях больших языковых моделей (LLM), таких как ChatGPT.

В отчете «ChatGPT — влияние больших языковых моделей на правоохранительные органы» говорится, что LLM можно легко использовать для мошенничества и социальной инженерии, киберпреступлений и дезинформации. Он описывает перспективы правоохранительных органов как «мрачные».

Такие инструменты, как ChatGPT, который за первые два месяца набрал 100 миллионов пользователей, уже были связаны со всем, от списывания на экзаменах до более серьезных преступлений.

По словам Европола, способность ChatGPT составлять очень реалистичный текст делает его полезным инструментом для фишинговых целей, а способность LLM воспроизводить языковые модели позволяет им выдавать себя за стиль речи конкретных людей или групп.

"Эта способность может быть использована в больших масштабах, чтобы ввести потенциальных жертв в заблуждение и заставить их довериться преступникам", – говорят авторы.

Та же способность позволяет использовать LLM в целях пропаганды и дезинформации, генерируя сообщения с относительно небольшими усилиями. И поскольку он может генерировать код таким же образом, он позволяет преступникам с относительно небольшими техническими знаниями создавать вредоносный код.

В то время как OpenAI, создатель ChatGPT, заявляет, что в последнюю версию GPT-4 включены дополнительные меры безопасности, Европол говорит, что этого недостаточно.

"Выпуск GPT-4 был предназначен не только для улучшения функциональности ChatGPT, но и для того, чтобы сделать модель менее вероятной для получения потенциально опасных результатов", – говорится в отчете.

"Однако последующая проверка GPT-4 показала, что все они по-прежнему работают. В некоторых случаях потенциально опасные ответы от GPT-4 были даже более совершенными".

В отчете содержится ряд рекомендаций, предполагающих, что правоохранительным органам следует повышать осведомленность о проблемах и взаимодействовать с технологическим сектором для введения мер контроля. Они должны признать, что LLM могут использоваться для многих видов правонарушений, помимо онлайн-преступлений, и работать над улучшением своего собственного внутреннего опыта — возможно, также сами разрабатывая свои собственные LLM.

"Когда преступники используют ChatGPT, не существует языковых или культурных барьеров. Они могут предложить приложению собирать информацию об организациях, событиях, в которых они принимают участие, компаниях, с которыми они работают, с феноменальной скоростью. Затем они могут предложить ChatGPT использовать эту информацию, чтобы писать мошеннические электронные письма с высокой степенью достоверности», — говорит Джулия О'Тул, генеральный директор MyCena Security Solutions.

"Когда цель получает электронное письмо от предполагаемого банка, генерального директора или поставщика, нет языковых контрольных признаков того, что электронное письмо является поддельным. Тон, контекст и причина осуществления банковского перевода не дают оснований полагать, что электронное письмо является Это мошенничество. Это делает фишинговые электронные письма, созданные ChatGPT, очень трудными для обнаружения и опасными».