Bilim İnsanları Yapay Zekaya "İç Monolog" Verdi

Bir yapay zekaya iç monolog verirseniz, görünüşe göre kendi kendine daha akıllı olmayı öğretmeye başlıyor.

yapay zeka
Görsel: evrenatlasi.com

Henüz hakem denetiminden geçmemiş bir makalede Stanford'dan araştırmacılar ve kendisine "Notbad AI" adını veren bir grup, cevapları söylemeden önce "düşünmek" için duraklayan, yaptıklarını gösteren ve kullanıcılardan hangi cevabın en doğru olduğunu söylemelerini isteyen bir yapay zeka modeli oluşturmak için bir araya geldi.

Quiet Self-Taught Reasoner ya da kısaca Quiet-STaR'ın arkasındaki ekip, modellerinin yalnızca kendi kendine akıl yürütmeyi öğretebilmesini değil — ki bunu 2022'de orijinal Self-Taught Reasoner algoritmasıyla başardılar — aynı zamanda istemlere yanıt vermeden önce bunu "sessizce" yapmasını, böylece ideal olarak biz konuşmadan önce çalışan bir insanın iç monologu gibi çalışmasını istediler.

Stanford'dan Eric Zelikam, üretilmesine yardımcı olduğu yeni modelle ilgili bir X paylaşımında "Heyecan verici bir şekilde" dedi, "çeşitli web metinleri üzerinde kendi kendine öğretilen akıl yürütme, diğer akıl yürütmeleri otomatik olarak geliştiriyor!"

Eğer Bunu Yaparsanız

Bu düşünceli yapay zekayı oluşturmak için araştırma ekibi Quiet-STaR'ı, Hugging Face AI topluluğuna göre yedi milyar parametre üzerinde eğitilmiş ve Meta'nın Llama modelinin en son sürümünden daha iyi performans gösterebileceği söylenen açık kaynaklı bir büyük dil modeli (LLM) olan Mistral 7B üzerine inşa etti.

Quiet-STaR, esasen, çıktıları için gerekçe verirken çalışmasını gösterecek şekilde programlandı ve modelin kullanıcıları daha sonra hangi yanıtın en doğru olduğunu seçebildi. Makalede belirtildiği üzere bu yaklaşım, modelin zamanın yüzde 47,2'sinde doğru sonuç vermesiyle sonuçlandı — bu özellikle etkileyici değil, ancak ek muhakeme eğitimi olmadan elde ettiği yüzde 36,3'e göre bir gelişme.

Model, soruların yalnızca yüzde 10,9'unu doğru yanıtlayarak matematikte hala son derece düşük bir performans sergilerken, önceden eğitilmiş Quiet-STaR soruların yalnızca yüzde 5,9'unu doğru yanıtladı; bu da eğitim sırasında matematik becerisini iki katına çıkardığı anlamına geliyor.

Bu sonuçların hiçbiri bizi şaşırtmıyor. Ancak ilgi çekicidirler çünkü bugüne kadar OpenAI'nin ChatGPT'si ve Google'ın Gemini'si gibi sohbet robotları sağduyulu muhakeme konusunda berbattı. Araştırmacıların makalelerinde önerdikleri Quiet-STaR, "dil modeli ile insan benzeri muhakeme yetenekleri arasındaki boşluğu kapatan" sıçramalara yol açabilir.

OpenAI'nin gizemli ve şaşırtıcı derecede benzer sesli Q* ("queue star" olarak telaffuz edilir) modeliyle üzerinde oturduğu şey bu tür bir şey olabilir mi? Bunu sadece zaman gösterecek.