Berlin'deki ÖZETÄ°| Humboldt Ãœniversitesi'nden araÅŸtırmacılar, büyük dil modelleri (LLM) ile "zihin teorisi" üzerine yaptıkları çalışmalarda, yapay zekâların olduklarından çok daha saf ve aptal gibi davranabildiÄŸini ortaya koydu. Bu çalışmada yapay zekâdan bir çocuk gibi davranması istendiÄŸinde yapay zekânın bunu yapabildiÄŸi ortaya çıktı.Â
AraÅŸtırmanın baÅŸ yazarı olan Humboldt Ãœniversitesi'nden AraÅŸtırma Görevlisi ve Psikodilbilim Uzmanı Anna Maklova, "Psikodilbilim sayesinde çocukların çeÅŸitli yaÅŸlarda neler yapabileceÄŸine dair nispeten daha kapsamlı bir anlayışa sahibiz. Özellikle zihin teorisi, çocuÄŸun iç dünyasını keÅŸfettiÄŸi ve basit istatistiksel kalıplarla kolayca taklit edilemediÄŸi için önemli rol oynar." ifadelerini kullandı.Â
Yapay zekâ, olduğundan daha aptal gibi davranabiliyor
AraÅŸtırmacılar, GPT-4'ün "olduÄŸundan daha az zeki" davranıp davranamayacağını görmek için yapay zekâdan bir ile altı arasında deÄŸiÅŸen yaÅŸlardaki çocuklar gibi cevaplar vermesini istedi. Yapılan 1000'den fazla denemede, GPT-4'ün oluÅŸturduÄŸu çocuk personalarının da biliÅŸsel anlamda gerçek çocuklar gibi "geliÅŸtiÄŸi" ortaya çıktı. Bu da yapay zekânın kendini olduÄŸundan daha az zeki gösterebildiÄŸi anlamına geliyor.Â
Maklova ve ekibi, yazdıkları makalede yapay zekâya insan özellikleri vermenin modelleri anlamak için kullanışlı olduğunu ancak genel olarak faydalı olmadığını söylerken, model oluşturmada kıstasların "iyi-kötü", "yardımcı olabilen-olamayan" yerine oluşturulmuş kişiliğe odaklanması gerektiğini belirtti. Maklova bu sayede AGI (Genel yapay zekâ) ve ASI (süper yapay zekâ) çalışmalarının daha güvenli olacağını belirtti.
Araştırma PLOS ONE'da yayımlandı.
Editor : Åžerif SENCER