Ciberataques de Hackers Chinos e Iraníes Usan ChatGPT

Ciberataques de Hackers Chinos e Iraníes Usan ChatGPT

Informe de OpenAI: Ciberataques de Hackers Chinos e Iraníes Usan ChatGPT para Malware y Phishing

Piratas informáticos chinos e iraníes emplean herramientas de ChatGPT y LLM para desarrollar malware y ataques de phishing: un informe de OpenAI documenta más de 20 ciberataques generados con ChatGPT

Si hay una señal de que la IA causa más problemas de los que vale, es OpenAI confirma que se han producido más de veinte ciberataques, todos creados a través de ChatGPT. El informe confirma que se utilizó IA generativa para realizar ataques de phishing, depurar y desarrollar malware y realizar otras actividades maliciosas.

El informe confirma dos ciberataques utilizando la IA generativa ChatGPT. Cisco Talos informó el primero en noviembre de 2024, que fue utilizado por actores de amenazas chinos que apuntaban a gobiernos asiáticos. Este ataque utilizó un método de phishing llamado ‘SweetSpecter’, que incluye un archivo ZIP con un archivo malicioso que, si se descarga y se abre, crearía una cadena de infección en el sistema del usuario. OpenAI descubrió que SweetSpecter se creó utilizando varias cuentas que usaban ChatGPT para desarrollar scripts y descubrir vulnerabilidades utilizando una herramienta LLM.

El segundo ciberataque mejorado con IA provino de un grupo con sede en Irán llamado ‘CyberAv3ngers’ que utilizó ChatGPT para explotar vulnerabilidades y robar contraseñas de usuarios de PC basadas en macOS. El tercer ataque, liderado por otro grupo con sede en Irán llamado Storm-0817, utilizó ChatGPT para desarrollar malware para Android. El malware robó listas de contactos, extrajo registros de llamadas e historial del navegador, obtuvo la ubicación precisa del dispositivo y accedió a archivos en los dispositivos infectados.

Todos estos ataques utilizaron métodos existentes para desarrollar malware y, según el informe, no ha habido indicios de que ChatGPT haya creado malware sustancialmente nuevo. De todos modos, muestra lo fácil que es para los actores de amenazas engañar a los servicios de IA generativa para que creen herramientas de ataque maliciosas. Abre una nueva lata de gusanos, demostrando que es más fácil para cualquier persona con el conocimiento necesario activar ChatGPT para hacer algo con malas intenciones. Si bien hay investigadores de seguridad que descubren tales vulnerabilidades potenciales para informarlas y parchearlas, ataques como este crearían la necesidad de discutir las limitaciones de implementación de la IA generativa.

A partir de ahora, OpenAI se ha comprometido firmemente a seguir mejorando su inteligencia artificial con el objetivo de evitar que se empleen métodos que puedan comprometer la seguridad y la integridad de sus sistemas. Esta decisión subraya la importancia de mantener un enfoque proactivo en la protección de sus tecnologías avanzadas. Mientras tanto, OpenAI no solo se enfocará en el desarrollo de su IA, sino que también colaborará estrechamente con sus equipos internos de seguridad y protección para garantizar que se implementen medidas efectivas y robustas que salvaguarden sus plataformas.

La compañía ha dejado claro que no solo se centrará en su propio entorno, sino que también continuará compartiendo sus descubrimientos y avances con otros actores de la industria y la comunidad de investigación. Este enfoque colaborativo busca prevenir que situaciones similares ocurran en el futuro, fomentando un ecosistema más seguro y confiable para todos los usuarios de tecnologías de inteligencia artificial.

Aunque esta iniciativa está siendo liderada por OpenAI, es crucial que otros líderes del sector con sus propias plataformas de IA generativa también adopten medidas de protección sólidas para evitar ataques que puedan comprometer sus sistemas.

La prevención de este tipo de amenazas es un desafío constante, y es esencial que todas las empresas involucradas en el desarrollo de inteligencia artificial implementen salvaguardas proactivas.

Estas medidas no solo deben enfocarse en resolver problemas una vez que ocurran, sino en anticiparse a ellos para evitar que surjan en primer lugar. De esta manera, las empresas podrán garantizar una experiencia segura y confiable para todos sus usuarios, fortaleciendo la confianza en las tecnologías de inteligencia artificial y su potencial transformador en la sociedad.

5 2 votos
Article Rating
Suscribir
Notificar de
guest

0 Comments
Más antiguo
El mas nuevo Más votado
Comentarios en línea
Ver todos los comentarios