Araştırmacılar, üretken yapay zeka kullanarak bir bilgisayardan diğerine yayılabilen bir bilgisayar "solucanı" geliştirdiler; bu, teknolojinin yakın gelecekte tehlikeli kötü amaçlı yazılımlar geliştirmek için kullanılabileceğine dair bir uyarı işareti – eğer hala değilse.
Wired'ın haberine göre solucan, e-postalardan hassas veriler elde etmek ve diğer sistemlere bulaşan spam mesajlar göndermek için yapay zeka destekli e-posta asistanlarına saldırabiliyor.
Çalışmayla ilgili henüz hakem denetiminden geçmemiş bir makalenin yazarlarından Cornell Tech araştırmacısı Ben Nassi, Wired'a verdiği demeçte, "Bu temelde, artık daha önce görülmemiş yeni bir tür siber saldırı yapma veya gerçekleştirme yeteneğine sahip olduğunuz anlamına geliyor" dedi.
Rapora göre araştırmacılar henüz vahşi doğada yapay zeka destekli solucanlarla karşılaşmamış olsalar da, bunun sadece bir zaman meselesi olduğu konusunda uyarıyorlar.
Araştırmacılar, kontrollü bir ortamda gerçekleştirdikleri deneylerinde OpenAI'nin GPT-4, Google'ın Gemini Pro ve LLaVA adlı açık kaynaklı bir büyük dil modeli tarafından desteklenen e-posta asistanlarını hedef aldılar.
Bir yapay zeka modelini yanıt olarak başka bir ipucu vermeye zorlayan "düşmanca kendi kendini kopyalayan bir ipucu" kullandılar. Bu da bu asistanlara bulaşabilecek ve böylece hassas bilgileri ortaya çıkarabilecek basamaklı bir çıktı akışını tetikliyor.
Wired'a konuşan Nassi, "Bu isimler olabilir, telefon numaraları olabilir, kredi kartı numaraları olabilir, SSN olabilir, gizli olduğu düşünülen her şey olabilir" dedi.
Başka bir deyişle, bu yapay zeka asistanları bir yığın kişisel veriye erişebildikleri için, korkuluklara bakılmaksızın kullanıcı sırlarını vermeye kolayca ikna edilebilirler.
Araştırmacılar, hem mesaj gönderip hem de alabilen yeni kurulmuş bir e-posta sistemini kullanarak, gönderilen bir e-postanın veritabanını etkili bir şekilde "zehirlemeyi" başardılar ve bu da alıcı yapay zekanın e-postalardan hassas ayrıntıları çalmasını tetikledi.
Daha da kötüsü, bu süreç solucanın yeni makinelere aktarılmasına da olanak tanıyor.
Nassi Wired'a şunları söyledi: "Hassas kullanıcı verilerini içeren oluşturulan yanıt daha sonra yeni bir istemciye gönderilen bir e-postayı yanıtlamak için kullanıldığında ve ardından yeni istemcinin veritabanında depolandığında yeni ana bilgisayarlara bulaşıyor."
Ekip, bir görüntüye kötü niyetli bir istem yerleştirmeyi bile başardı ve yapay zekayı daha fazla e-posta istemcisine bulaşması için tetikledi.
Nassi sözlerine şöyle devam etti: "Kendi kendini kopyalayan komut istemini görüntüye kodlayarak, spam, istismar malzemesi ve hatta propaganda içeren her türlü görüntü, ilk e-posta gönderildikten sonra yeni istemcilere iletilebilir."
Ekip bulgularını OpenAI ve Google'a iletti ve bir OpenAI sözcüsü Wired'a şirketin sistemlerini "daha dirençli" hale getirmek için çalıştığını söyledi.
Ancak hızlı hareket etmeleri gerekecek. Nassi ve meslektaşları makalelerinde, yapay zeka solucanlarının "önümüzdeki birkaç yıl içinde" vahşi doğada yayılmaya başlayabileceğini ve "önemli ve yetersiz sonuçları tetikleyeceğini" yazdılar.
Bu, şirketlerin proaktif olarak bir siber güvenlik kabusunun önüne geçmeden, üretken yapay zeka asistanlarını ne kadar derinden entegre etmeye istekli olduklarını vurgulayan endişe verici bir gösteridir.