Un grupo de investigadores desarrolló y nombró su malware: " gusano" Morris II. Lo lanzaron con éxito en un entorno de prueba utilizando programas populares de inteligencia artificial generativa (GAI).
Experimento único cómo el gusano artificial de IA Morris II robó datos a través del correo
Los investigadores presentaron sus hallazgos y proporcionaron recomendaciones para los fabricantes de GII con respecto a la amenaza potencial de software malicioso. Compartieron investigación y publicaron un vídeo que demuestra dos métodos para robar datos y dirigirse a clientes por correo electrónico.
Creadores del gusano artificial
Morris II fue creado por un equipo de investigadores que incluía Ben Nassi de la Universidad de Cornell (EE.UU.), Stav Cohen del Instituto de Tecnología de Israel y Ron Bitton de la empresa de software Intuit. Llamaron a su proyecto en honor al gusano informático Morris original, que causó muchos problemas a Internet en 1988. Morris II apunta a programas GII y asistentes de correo electrónico basados en inteligencia artificial como Gemini Pro, ChatGPT 4.0 y LLaVA que generan texto e imágenes.
La obra del "gusano" de Morris II
Morris II se utiliza a sí mismo como pista autorreplicante y está dirigida contra modelos GAI, similar a cómo se utiliza el jailbreak para difundir contenido tóxico utilizando IA. Los investigadores lo demuestran creando un sistema de correo electrónico con motores de inteligencia artificial generativa que utilizan una pista que se reproduce a sí misma a partir de un texto o una imagen incrustada.
Robo de datos y distribución de mensajes maliciosos
El mensaje infecta a los asistentes de correo electrónico utilizando GII para obtener datos adicionales de fuentes externas antes de enviarlos a GPT-4 o Gemini Pro para crear contenido de texto. Luego, el malware obtiene acceso a los servicios de inteligencia artificial y roba datos con éxito. Otro método consiste en codificar una pista de autocuración en la imagen. Esto hace que los asistentes de correo electrónico reenvíen mensajes infectados a todos los usuarios, infectando nuevas direcciones de correo electrónico y propagando aún más el malware. En ambos experimentos, los investigadores pudieron obtener información confidencial, incluida información de tarjetas de crédito y números de Seguro Social.
Operando en tiempo real e incluso en un entorno controlado, el gusano de IA es una prueba de que este tipo de amenaza no existe ya es sólo teórico y requiere una atención seria y soluciones efectivas. Un grupo de investigadores ha creado un nuevo gusano de IA llamado 'Morris II' que puede robar sus datos confidenciales, enviar correos electrónicos no deseados y propagar malware utilizando varios métodos. El artículo de investigación, que lleva el nombre del primer gusano que sacudió Internet en 1988, sugiere que el gusano de IA generativa puede propagarse entre los sistemas de inteligencia artificial.
Morris II puede afectar a los asistentes de correo electrónico de IA generativa, extraer datos de los asistentes de correo electrónico habilitados para IA e incluso eliminar las medidas de seguridad de los chatbots populares impulsados por IA como ChatGPT y Gemini. Mediante el uso de indicaciones autorreplicantes, el gusano de IA puede navegar fácilmente a través de los sistemas de IA sin ser detectado.
Ben Nassi de Cornell Tech, Stav Cohen del Instituto de Tecnología de Israel y Ron Button de Intuit dicen que un mensaje de texto infecta el asistente de correo electrónico que utiliza el modelo de lenguaje grande utilizando datos adicionales, que luego se envían a GPT-4 o Gemini Pro para crear contenido de texto, que luego rompe las salvaguardas del servicio de IA generativa y roba datos.
También sugiere que un método de aviso de imagen puede incrustar el mensaje dañino en una foto para que el asistente de correo electrónico reenvíe automáticamente los mensajes para infectar nuevos clientes de correo electrónico. Con Morris II, pudieron extraer información confidencial como números de seguro social e información de tarjetas de crédito.
Los investigadores alertaron rápidamente sobre sus hallazgos tanto a OpenAI como a Google. Según un informe reciente de Wired, Google se negó a dar una respuesta, pero un portavoz en nombre de OpenAI dijo que están trabajando para hacer que sus sistemas sean más seguros y que los desarrolladores deberían usar métodos para ver que no están trabajando con entradas dañinas.