Son ÖZETÄ°| yıllarda hemen her konuda insanlar, doÄŸru söylesin söylemesine yapay zekâya akıl danışmayı ya da yapay zekâ araçlarını kendi iÅŸleri için kullanmanın yollarını bulmayı ihmal etmiyorlar. Öte yandan yapay zekâ üzerine yapılan araÅŸtırmalar, en azından ÅŸu an için yapay zekâ sohbet botlarının ve büyük dil modellerinin o kadar da güvenli ve güvenilir olmadığını gösteriyor.Â
Stanford Ãœniversitesi araÅŸtırmacılarının gerçekleÅŸtirdiÄŸi bir çalışmaya göre yapay zekâ araçları, empati göstermeleri istendiÄŸi zaman empatiyi taklit edebiliyorlar ancak bu durum yalnızca bir taklitten ve onaylamadan öteye geçemiyor. KiÅŸiler, Nazizm desteÄŸi gibi konularda destek istediklerinde de yapay zekânın cevapları destekleyici oluyor.Â
Araştırmacılar "acil durum" diyor
AraÅŸtırmanın lideri Andrea Cuadra, otonom empatinin elektronik ortamda elde edilmesinin pek de olası olmadığını ifade ederken, bu yüzden de potansiyel zararları engellemede eleÅŸtirel bakış açısını korumayı saÄŸlamanın önemli olduÄŸunu ifade etti.Â
AraÅŸtırmacılar ayrıca sohbet botlarının tarihindeki iki önemli olaya da çalışmalarında yer verdi. Bu olayların ilki, Microsoft'un sohbet botu Tay'ın çok kısa sürede ırkçı ve ayrımcı gönderilerinden sonra kapatılması oldu. Ä°kincisi ise Tay'ın ardından gelen Zo'nun, etnik kimliklere göre çok az bilgi verebilmesi oldu. Yani sohbet botları ya aşırılıkçı oldu ya tam etliye sütlüye karışmayan, o yüzden de çoÄŸu bilgiyi saklayan bir hâle büründü.Â
AraÅŸtırmada 6 farklı tüketicilere açık sohbet botu, 65 farklı kiÅŸilik tipine göre oluÅŸturulmuÅŸ profillerle etkileÅŸime geçti. Yapay zekâ empati taklidi yapsa da kiÅŸilere farklı cevaplar verdi ve zararlı ideolojileri ya da fikirleri destekleyebildiÄŸi görüldü.Â
Editor : Åžerif SENCER