ACOMPUTER virüsü, tespit edilmekten kaçınmak için kodunu yeniden yazmak üzere ChatGPT'yi kullanabilir, ardından gerçek yanıtlar gibi görünen özel e-postalar yazabilir ve kendisini bir e-posta ekinde yayabilir. ChatGPT gibi sohbet robotlarının arkasındaki yapay zekalar olan büyük dil modelleri (LLM'ler) insan benzeri metinler üretebildikleri gibi bilgisayar kodu da yazabilirler. İsviçre'deki ETH Zürih'ten David Zollikofer ve Ohio Eyalet Üniversitesi'nden Benjamin Zimmerman, bu yeteneğin metamorfik kötü amaçlı yazılım olarak bilinen kendi kodlarını yeniden yazan virüsler tarafından kullanılabileceğinden endişe ediyor.
LLM'lerin bu şekilde kullanılıp kullanılamayacağını görmek için Zollikofer ve Zimmerman, bir e-posta eki aracılığıyla bir bilgisayara tohumlanabilen bir dosya oluşturdu. Yazılım buradan ChatGPT'ye erişebiliyor ve ardından tespit edilmekten kurtulmak için kendi kodunu yeniden yazabiliyor. Zollikofer, "ChatGPT'den dosyayı yeniden yazmasını, anlamsal yapıyı olduğu gibi korumasını, ancak değişkenlerin adlandırılma şeklini ve mantığı biraz değiştirmesini istiyoruz" diyor. Bu uyarlama, orijinal format tespit edildikten sonra değiştirilmiş virüsün rutin antivirüs taramalarından kaçmasına olanak tanıyor.
Virüs ChatGPT tarafından yeniden yazıldıktan sonra, program kullanıcının haberi olmadan Windows'un arka planında Outlook'u açıyor ve en son e-posta zincirlerini tarıyor. Daha sonra bu e-postaların içeriğini alır ve ChatGPT'den zararsız bir şekilde bir eke – virüse — atıfta bulunarak bağlamla ilgili bir yanıt yazmasını ister. Örneğin, program e-postanızda bir parti daveti bulursa, isteği kabul eden ve eki uygun parti müziği listesi olarak tanımlayan bir yanıt verebilir. Zollikofer, "Bu birdenbire ortaya çıkan bir şey değil" diyor. "İçerik mevcut içeriğe uyacak şekilde hazırlanıyor." Deneylerinde, sohbet robotunun yaptığı değişikliklerin virüs dosyasının çalışmayı durdurmasına neden olma ihtimali yaklaşık yüzde 50'ydi. Bazen sohbet robotu sinsice kullanıldığını fark etti ve talimatları izlemeyi reddetti.
Ancak araştırmacılar, virüsün her bilgisayarda kendini kopyalamak için beş ila 10 deneme yapması halinde başarı şansının yüksek olacağını söylüyor (arXiv, doi.org/m6mx).ChatGPT'nin yapımcısı OpenAI, yorum talebine yanıt vermedi. İngiltere'deki Surrey Üniversitesi'nden Alan Woodward, "Bence endişelenmeliyiz" diyor. "LLM'lerin kötüye kullanılabileceğini zaten bildiğimiz çeşitli yollar var, ancak işin korkutucu kısmı, teknolojinin kendisinden yardım isteyerek tekniklerin geliştirilebilmesi. Bence LLM'lerin kötü amaçlar için kullanılma potansiyelini daha yeni yeni görmeye başlıyoruz."
Bu tehdide karşı nasıl savunma yapacağımızı bilip bilmediğimizden emin değil. "Bence hızla ortaya çıkarılması gereken bir araştırma alanı, bu tür kötüye kullanımlara nasıl karşı konulacağıdır. Tersine, belki de LM'ler bize yardımcı olabilir." Zollikofer Al'ın yardımcı olabileceğine katılıyor. "Bu bir tür denge," diyor. "Saldırı tarafı şu anda bazı avantajlara sahip, çünkü bu konuda daha fazla araştırma yapıldı." Ancak sohbet robotları savunmaya da dahil edilebilir.