Я шукаю..

Європол визначає «похмурі» перспективи для правоохоронних органів в епоху ChatGPT Інновації

Європол визначає «похмурі» перспективи для правоохоронних органів в епоху ChatGPT

"OpenAI

Європол випустив суворе попередження про небезпеку великих мовних моделей (LLM), таких як ChatGPT.

У звіті «ChatGPT – вплив великих мовних моделей на правоохоронні органи» йдеться про те, що LLM можна легко використати для шахрайства та соціальної інженерії, кіберзлочинності та дезінформації. Перспективи для правоохоронних органів він описує як «похмурі».

Такі інструменти, як ChatGPT, який за перші два місяці охопив 100 мільйонів користувачів, уже асоціювали з чим завгодно: від списування на іспитах до більш серйозних злочинів.

Здатність ChatGPT створювати надзвичайно реалістичний текст робить його корисним інструментом для цілей фішингу, каже Європол, зі здатністю LLM відтворювати мовні шаблони, що дозволяє їм імітувати стиль мовлення конкретних осіб або груп.

"Цією здатністю можна зловживати в масштабах, щоб ввести в оману потенційних жертв і змусити їх довіритися руках злочинців", – кажуть автори.

Ця ж здатність дозволяє використовувати LLM для цілей пропаганди та дезінформації, генеруючи повідомлення з відносно невеликими зусиллями. І оскільки він може генерувати код таким же чином, це дозволяє злочинцям з відносно невеликими технічними знаннями створювати шкідливий код.

У той час як творець ChatGPT OpenAI каже, що в останню версію, GPT-4, включено більше заходів безпеки, Європол каже, що це недостатньо.

"Випуск GPT-4 мав на меті не тільки покращити функціональність ChatGPT, але й зменшити ймовірність того, що ця модель створюватиме потенційно шкідливі результати", – йдеться у звіті.

"Однак подальша перевірка GPT-4 показала, що всі вони все ще працюють. У деяких випадках потенційно шкідливі реакції GPT-4 були ще більш просунутими".

У звіті міститься низка рекомендацій, які передбачають, що правоохоронні органи повинні підвищити обізнаність про проблеми та співпрацювати з технологічним сектором для запровадження контролю. Вони повинні визнати, що LLM можна використовувати для багатьох видів правопорушень, окрім онлайн-злочинів, і працювати над покращенням власного внутрішнього досвіду – можливо, також самостійно розробляти власні LLM.

«Коли злочинці використовують ChatGPT, немає мовних або культурних бар’єрів. Вони можуть запропонувати програмі збирати інформацію про організації, події, у яких вони беруть участь, компанії, з якими вони працюють, із феноменальною швидкістю. Потім вони можуть запропонувати ChatGPT використовувати цю інформацію для написання дуже достовірних шахрайських електронних листів», – каже Джулія О’Тул, генеральний директор MyCena Security Solutions.

"Коли цільова особа отримує електронний лист від свого очевидного банку, генерального директора чи постачальника, немає жодних мовних ознак того, що електронний лист є фальшивим. Тон, контекст і причина здійснення банківського переказу не дають жодних доказів того, що електронний лист є шахрайство. Через це фішингові електронні листи, згенеровані ChatGPT, дуже важко помітити та є небезпечними."