Yapay zekanın doğruyu söylemesi sağlanabilir mi? Muhtemelen hayır, ancak bir grup etikçi, büyük dil modeli (LLM) sohbet robotlarının geliştiricilerinin hata riskini azaltmak için yasal olarak zorunlu tutulması gerektiğini söylüyor.
Oxford Üniversitesi'nden Brent Mittelstadt, "Yapmaya çalıştığımız şey, şirketlerin sistemleri oluştururken gerçeğe ya da doğruluğa daha fazla önem vermelerini sağlamak için bir teşvik yapısı oluşturmak" diyor.
ChatGPT gibi LLM sohbet robotları, büyük miktarda metnin istatistiksel analizine dayanarak kullanıcıların sorularına insan benzeri yanıtlar üretiyor. Ancak yanıtları genellikle ikna edici görünse de, "halüsinasyon" olarak adlandırılan bir kusur olan hatalara da eğilimlidirler.
Mittelstadt, "Bu gerçekten çok etkileyici yapay zeka sistemlerine sahibiz, ancak çok sık yanlış yapıyorlar ve sistemlerin temel işleyişini anlayabildiğimiz kadarıyla, bunu düzeltmenin temel bir yolu yok" diyor.
Mittelstadt, bu durumun YZ sistemleri için "çok büyük bir sorun" olduğunu, zira bu sistemlerin hükümet kararları gibi çeşitli bağlamlarda kullanılmaya başlandığını, bu nedenle de gerçeklere dayalı, doğru cevaplar üretmelerinin ve bilgilerinin sınırlılıkları konusunda dürüst olmalarının önemli olduğunu söylüyor.
Sorunu ele almak için o ve meslektaşları bir dizi önlem öneriyor. Büyük dil modellerinin, insanların gerçeklere dayalı sorular sorulduğunda nasıl tepki vereceğine benzer şekilde tepki vermesi gerektiğini söylüyorlar.
Bu da neyi bilip neyi bilmediğiniz konusunda dürüst olmanız anlamına geliyor. Mittelstadt, "Bu, iddia ettiğiniz şeyde gerçekten dikkatli olmak için gerekli adımları atmakla ilgili" diyor. "Bir konuda emin değilseniz, ikna edici olmak için bir şeyler uydurmayacaksınız. Aksine şöyle diyeceksiniz: "Biliyor musunuz? Bunu ben de bilmiyorum. Araştırıp size geri döneceğim."
Bu övgüye değer bir amaç gibi görünüyor, ancak İngiltere'deki De Montfort Üniversitesi'nden Eerke Boiten, etikçilerin talebinin teknik olarak uygulanabilir olup olmadığını sorguluyor. Şirketler, LLM'lerin gerçeğe sadık kalmalarını sağlamaya çalışıyor, ancak şu ana kadar bunun pratik olmadığı kadar emek yoğun olduğu kanıtlandı. "Temelde teknolojik olarak imkansız gördüğüm bir şeyi yasal gerekliliklerin zorunlu kılmasını nasıl beklediklerini anlamıyorum" diyor.
Mittelstadt ve meslektaşları, LLM'leri daha doğru hale getirebilecek bazı daha basit adımlar öneriyor. Mittelstadt'a göre modeller kaynaklara bağlantı vermeli — ki birçoğu artık iddialarını kanıtlamak için bunu yapıyor — ve cevapları bulmak için geri getirme artırılmış nesil olarak bilinen bir tekniğin daha geniş kullanımı halüsinasyon olasılığını sınırlayabilir.
Ayrıca, hükümetlerin karar alma süreçleri gibi yüksek riskli alanlarda kullanılan LLM'lerin ölçeklerinin küçültülmesi ya da yararlanabilecekleri kaynakların kısıtlanması gerektiğini savunuyor. "Sadece tıpta kullanmak istediğimiz bir dil modelimiz olsaydı, belki de onu sadece yüksek kaliteli tıp dergilerinde yayınlanan akademik makaleleri arayabilecek şekilde sınırlandırırdık" diyor.
Mittelstadt, algıları değiştirmenin de önemli olduğunu söylüyor. "[LLM'lerin] olgusal soruları yanıtlamakta iyi oldukları ya da en azından olgusal sorulara güvenilir bir yanıt verecekleri fikrinden uzaklaşabilirsek ve bunun yerine onları, onlara getirdiğiniz olgularla size yardımcı olabilecek bir şey olarak görebilirsek, bu iyi olur" diyor.
Hollanda'daki Utrecht Üniversitesi'nden Catalina Goanta, araştırmacıların teknolojiye çok fazla odaklandığını ve kamusal söylemdeki uzun vadeli yanlışlık sorunlarına yeterince odaklanmadığını söylüyor. "Böyle bir bağlamda sadece LLM'leri kötülemek, insanların mükemmel derecede gayretli oldukları ve asla böyle hatalar yapmayacakları izlenimini yaratıyor" diyor. "Herhangi bir yargı alanında tanıştığınız herhangi bir yargıca sorun, avukatların ihmali ve tam tersi hakkında korku hikayeleri anlatacaklardır — ve bu bir makine sorunu değildir."