Un grupo de investigadores desarrolló y nombró su malware: " gusano" Morris II. Lo lanzaron con éxito en un entorno de prueba utilizando programas populares de inteligencia artificial generativa (GAI).
Experimento único cómo el gusano artificial de IA Morris II robó datos a través del correo
Los investigadores presentaron sus hallazgos y proporcionaron recomendaciones para los fabricantes de GII con respecto a la amenaza potencial de software malicioso. Compartieron investigaciĂłn y publicaron un vĂdeo que demuestra dos mĂ©todos para robar datos y dirigirse a clientes por correo electrĂłnico.
Creadores del gusano artificial
Morris II fue creado por un equipo de investigadores que incluĂa Ben Nassi de la Universidad de Cornell (EE.UU.), Stav Cohen del Instituto de TecnologĂa de Israel y Ron Bitton de la empresa de software Intuit. Llamaron a su proyecto en honor al gusano informático Morris original, que causĂł muchos problemas a Internet en 1988. Morris II apunta a programas GII y asistentes de correo electrĂłnico basados en inteligencia artificial como Gemini Pro, ChatGPT 4.0 y LLaVA que generan texto e imágenes.
La obra del "gusano" de Morris II
Morris II se utiliza a sà mismo como pista autorreplicante y está dirigida contra modelos GAI, similar a cómo se utiliza el jailbreak para difundir contenido tóxico utilizando IA. Los investigadores lo demuestran creando un sistema de correo electrónico con motores de inteligencia artificial generativa que utilizan una pista que se reproduce a sà misma a partir de un texto o una imagen incrustada.
Robo de datos y distribuciĂłn de mensajes maliciosos
El mensaje infecta a los asistentes de correo electrĂłnico utilizando GII para obtener datos adicionales de fuentes externas antes de enviarlos a GPT-4 o Gemini Pro para crear contenido de texto. Luego, el malware obtiene acceso a los servicios de inteligencia artificial y roba datos con Ă©xito. Otro mĂ©todo consiste en codificar una pista de autocuraciĂłn en la imagen. Esto hace que los asistentes de correo electrĂłnico reenvĂen mensajes infectados a todos los usuarios, infectando nuevas direcciones de correo electrĂłnico y propagando aĂşn más el malware. En ambos experimentos, los investigadores pudieron obtener informaciĂłn confidencial, incluida informaciĂłn de tarjetas de crĂ©dito y nĂşmeros de Seguro Social.
Operando en tiempo real e incluso en un entorno controlado, el gusano de IA es una prueba de que este tipo de amenaza no existe ya es sĂłlo teĂłrico y requiere una atenciĂłn seria y soluciones efectivas. Un grupo de investigadores ha creado un nuevo gusano de IA llamado 'Morris II' que puede robar sus datos confidenciales, enviar correos electrĂłnicos no deseados y propagar malware utilizando varios mĂ©todos. El artĂculo de investigaciĂłn, que lleva el nombre del primer gusano que sacudiĂł Internet en 1988, sugiere que el gusano de IA generativa puede propagarse entre los sistemas de inteligencia artificial.
Morris II puede afectar a los asistentes de correo electrónico de IA generativa, extraer datos de los asistentes de correo electrónico habilitados para IA e incluso eliminar las medidas de seguridad de los chatbots populares impulsados por IA como ChatGPT y Gemini. Mediante el uso de indicaciones autorreplicantes, el gusano de IA puede navegar fácilmente a través de los sistemas de IA sin ser detectado.
Ben Nassi de Cornell Tech, Stav Cohen del Instituto de TecnologĂa de Israel y Ron Button de Intuit dicen que un mensaje de texto infecta el asistente de correo electrĂłnico que utiliza el modelo de lenguaje grande utilizando datos adicionales, que luego se envĂan a GPT-4 o Gemini Pro para crear contenido de texto, que luego rompe las salvaguardas del servicio de IA generativa y roba datos.
TambiĂ©n sugiere que un mĂ©todo de aviso de imagen puede incrustar el mensaje dañino en una foto para que el asistente de correo electrĂłnico reenvĂe automáticamente los mensajes para infectar nuevos clientes de correo electrĂłnico. Con Morris II, pudieron extraer informaciĂłn confidencial como nĂşmeros de seguro social e informaciĂłn de tarjetas de crĂ©dito.
Los investigadores alertaron rápidamente sobre sus hallazgos tanto a OpenAI como a Google. SegĂşn un informe reciente de Wired, Google se negĂł a dar una respuesta, pero un portavoz en nombre de OpenAI dijo que están trabajando para hacer que sus sistemas sean más seguros y que los desarrolladores deberĂan usar mĂ©todos para ver que no están trabajando con entradas dañinas.