Type to search

Innovación

Las implicaciones de ChatGPT en el ciberdelito

Share

"Digitalmente

Mucho se ha dicho sobre ChatGPT, el nuevo chatbot basado en IA capaz de imitar conversaciones similares a las humanas y redactar todo tipo de narrativas. ChatGPT abre un mundo completamente nuevo de posibilidades en todas las industrias y empresas. Sin embargo, el entusiasmo por ChatGPT viene con una serie de advertencias relacionadas con la ciberseguridad. Exploremos algunas de las implicaciones que ChatGPT presenta para los esfuerzos de seguridad cibernética.

Implicaciones para el phishing y la ingeniería social

Uno de los signos evidentes del phishing son las oraciones mal redactadas y los errores gramaticales. Es probable que esto se deba a organizaciones criminales que operan desde el extranjero y que no son necesariamente hablantes nativos del idioma en el que realizan suplantación de identidad. Pero todo cambia con ChatGPT. Los actores de amenazas ahora pueden crear correos electrónicos y mensajes que no solo son gramaticalmente correctos, sino también creíblemente convincentes. Blackberry comparte ejemplos de ganchos de phishing y mensajes de compromiso de correo electrónico comercial que se pueden crear usando ChatGPT.

Implicaciones para la ofuscación de malware

Se sabe que los actores de amenazas utilizan técnicas de ofuscación para desarrollar firmas de malware que pueden eludir los controles de seguridad tradicionales basados en firmas. Los investigadores de CyberArk demostraron cómo se puede abusar fácilmente de ChatGPT para crear malware polimórfico que es altamente evasivo y difícil de detectar. Cada vez que los investigadores consultaban ChatGPT, recibían un código único que podía usarse para crear numerosas mutaciones del mismo programa de malware.

Implicaciones para ransomware

Checkpoint Research reveló recientemente mercados clandestinos llenos de conversaciones sobre cómo se puede usar ChatGPT para escribir código de malware. Un actor de amenazas usó ChatGPT para crear malware que buscaba tipos de archivos comunes, los copiaba en una carpeta aleatoria, los comprimía y luego subía los archivos a un servidor FTP codificado. Otro actor de amenazas (que supuestamente tenía habilidades de desarrollador limitadas) creó un algoritmo de cifrado que puede cifrar todos los archivos en un directorio específico. Ambos ejemplos ilustran que incluso aquellos con experiencia técnica limitada pueden usar IA avanzada para crear elementos centrales de programas de tipo ransomware.

Implicaciones para código y software vulnerable

Descubrir vulnerabilidades ocultas no es fácil. Los piratas informáticos a menudo dedican mucho tiempo y energía a revisar cada línea de código, tratando de comprender qué hace cada indicador, palabra clave o sección. Con ChatGPT, los piratas ahora pueden tomar un fragmento de código y pedirle al chatbot que lo analice y proporcione un resumen de alto nivel de lo que hace cada módulo. Dicha tecnología tiene el potencial de empoderar significativamente a los atacantes experimentados y reducir la barrera de entrada para otros adversarios potenciales. Una firma de auditoría de contratos inteligentes demostró recientemente cómo pudo encontrar debilidades en el código de contrato inteligente usando ChatGPT.

Implicaciones para la desinformación

Los actores deshonestos, los gobiernos antioccidentales y los opositores políticos a menudo participan en campañas sistemáticas para "astroturf", difundiendo repetidamente narrativas falsas en múltiples cuentas para atraer el consenso. Por ejemplo, los bots de Twitter han sido muy criticados por publicar contenido repetido en patrones sospechosos. Una IA como ChatGPT diseñada para imitar a los humanos puede producir un suministro infinito de contenido sobre una variedad de temas. Activado por ciertas palabras clave o temas controvertidos, el chatbot puede publicar en un número indefinido de cuentas sociales. Dichos bots serán indistinguibles de los usuarios humanos, elevando la desinformación a un nivel completamente nuevo.

¿Cómo pueden las empresas prepararse para una nueva ola de delitos cibernéticos habilitados por IA?

Las mejores prácticas que pueden ayudar a las empresas a protegerse contra amenazas tan avanzadas incluyen:

• Implementar programas continuos de capacitación en concientización sobre seguridad para incluir capacitación en tiempo real para que los empleados comprendan sus responsabilidades con la ciberseguridad y sigan las mejores prácticas (contraseñas seguras, navegación segura, etc.).

• Ejecute simulaciones de phishing usando phishing en estado salvaje para que los empleados adquieran el hábito de reconocer y reportar intentos de phishing y otras actividades sospechosas.

• Enseñar al personal a verificar la autenticidad de las solicitudes financieras, especialmente si hay una urgencia repentina o una solicitud inusual que apareció de la nada.

• Use herramientas como MFA resistente al phishing y confianza cero para reducir el riesgo de apropiación de cuentas y fraude de identidad.

• Parche todos los dispositivos, aplicaciones y software con acceso a Internet con regularidad para que los atacantes o la IA no puedan descubrir estas lagunas.

• Solo trabaje con proveedores y socios que se tomen en serio la ciberseguridad y sean transparentes sobre sus políticas de seguridad. Pregunte si practican la programación del ciclo de vida de desarrollo seguro (SDL).

• Utilizar la ciberseguridad basada en IA para contrarrestar las amenazas habilitadas por IA. Hay una serie de herramientas de seguridad de punto final disponibles en el mercado que utilizan inteligencia artificial, aprendizaje automático y procesamiento de lenguaje natural para detectar amenazas avanzadas y procesar, clasificar y correlacionar grandes cantidades de señales de seguridad. Esto se debe a que la IA no solo produce o lee alertas, sino que correlaciona diferentes puntos de telemetría o puntos de interés y luego emite un veredicto.

El cibercrimen habilitado por IA ya está aquí. La tecnología es de dominio público y hay muchas herramientas en línea y servicios web oscuros que los actores de amenazas pueden aprovechar. La única forma en que las organizaciones pueden tener una oportunidad de luchar contra el ciberdelito habilitado por IA es promover primero una cultura de seguridad y considerar la implementación de defensas tecnológicas basadas en IA.