Yapay ÖZETÄ°| zekânın popülerleÅŸmesi ile birlikte hayatımıza giren kavramlardan biri de halüsinasyonlar olmuÅŸtu. Özellikle dil modelleri, soruları cevap verirken olmayan bilgileri de gerçekmiÅŸ gibi sunabiliyor. Hatta zaman zaman olmayan akademik kaynakları da gerçekmiÅŸ gibi kaynakçaya ekleyebiliyor.Â
Yapay zekânın bir şeyler "uydurması" oldukça tartışmalı bir konu ancak en azından teknik açıdan anlaşılabilir durumda. Farklı kavramlar arasında bağ kurduğunda ya da doğru bilgilere ulaşamadığında farklı çözümler bulması yapay zekânın oluşturduğu metinler için bir sorun teşkil edebiliyor. Öte yandan sorunun transkripsiyon gibi bir alanda ortaya çıkması beklenmedik oldu.
Transkripsiyonda halüsinasyon sorunu
Assoicated Press'e göre OpenAI'ın transkripsiyon aracı Whisper, konuÅŸmaları metin hâline getirirken araya pek çok ilgisiz bilgi ekliyor. Bu bilgiler arasında ırkçılık ile ilgili yorumlardan tıbbi tedavilere kadar pek çok farklı alanda sorunlara neden oluyor. AraÅŸtırmacılar, özellikle hastanelerde ve diÄŸer tıbbi çalışmalarda bu durumun büyük sorunlara neden olacağını belirtiyor.Â
Michigan Ãœniversitesi'nden bir araÅŸtırmacı da kamu toplantılarının transkripsiyonlarını inceledi. Ä°ncelemede her 10 metinden 8'inde halüsinasyonlar olduÄŸu ortaya çıktı. Bir makine öğrenimi mühendisi ise 100 saatten fazla süreli bir çalışmada metinlerin en az yarısında halüsinasyon olduÄŸunu belirtti.Â
OpenAI tarafından yapılan açıklamada ise modellerin doğruluğunu arttırmak ve halüsinasyonları azaltmak için çalıştıklarını ve Whisper'ın "belirli yüksek riskli karar verme bağlamlarında" kullanılmasına engel olacak kullanım politikaları olduğu belirtildi. Bulgularını paylaştıkları için de araştırmacılara teşekkür edildi.
Editor : Åžerif SENCER