Escriba para buscar

Europol establece perspectivas 'sombrías' para la aplicación de la ley en la era de ChatGPT Innovación

Europol establece perspectivas 'sombrías' para la aplicación de la ley en la era de ChatGPT

"IA abierta

Europol ha emitido una severa advertencia sobre los peligros de los modelos de lenguaje extenso (LLM) como ChatGPT.

En un informe, 'ChatGPT: el impacto de los grandes modelos lingüísticos en la aplicación de la ley', se dice que los LLM se pueden usar de forma indebida fácilmente para el fraude y la ingeniería social, el delito cibernético y la desinformación. Describe las perspectivas para la aplicación de la ley como 'sombrías'.

Herramientas como ChatGPT, que llegó a 100 millones de usuarios en sus primeros dos meses, ya se han asociado con todo, desde hacer trampa en los exámenes hasta delitos más graves.

La capacidad de ChatGPT para redactar textos muy realistas lo convierte en una herramienta útil para fines de phishing, dice Europol, con la capacidad de los LLM para reproducir patrones de lenguaje que les permitan suplantar el estilo de habla de individuos o grupos específicos.

"Se puede abusar de esta capacidad a gran escala para engañar a las posibles víctimas para que depositen su confianza en manos de los delincuentes", dicen los autores.

La misma capacidad permite que los LLM se utilicen con fines de propaganda y desinformación, generando mensajes con relativamente poco esfuerzo. Y debido a que puede generar código de la misma manera, permite que los delincuentes con conocimientos técnicos relativamente escasos produzcan código malicioso.

Si bien el creador de ChatGPT, OpenAI, dice que incluye más medidas de seguridad en la última versión, GPT-4, Europol dice que no va lo suficientemente lejos.

"El lanzamiento de GPT-4 estaba destinado no solo a mejorar la funcionalidad de ChatGPT, sino también a hacer que el modelo fuera menos propenso a producir resultados potencialmente dañinos", se lee en el informe.

"Sin embargo, una verificación posterior de GPT-4 mostró que todos ellos aún funcionaban. En algunos casos, las respuestas potencialmente dañinas de GPT-4 eran incluso más avanzadas."

El informe hace una serie de recomendaciones, sugiriendo que los organismos encargados de hacer cumplir la ley deberían generar conciencia sobre los problemas y comprometerse con el sector tecnológico para introducir controles. Deben reconocer que los LLM se pueden usar para muchos tipos de delitos más allá del crimen en línea, y trabajar para mejorar su propia experiencia interna, quizás también desarrollando sus propios LLM.

"Cuando los delincuentes usan ChatGPT, no hay barreras de idioma o cultura. Pueden hacer que la aplicación recopile información sobre organizaciones, los eventos en los que participan, las empresas con las que trabajan, a una velocidad fenomenal. Luego pueden hacer que ChatGPT use esta información para escribir correos electrónicos fraudulentos altamente creíbles", dice Julia O'Toole, directora ejecutiva de MyCena Security Solutions.

"Cuando el objetivo recibe un correo electrónico de su banco aparente, director ejecutivo o proveedor, no hay señales de idioma que indiquen que el correo electrónico es falso. El tono, el contexto y el motivo para realizar la transferencia bancaria no brindan evidencia que sugiera que el correo electrónico es falso. una estafa. Esto hace que los correos electrónicos de phishing generados por ChatGPT sean muy difíciles de detectar y peligrosos".