Açıklamada, ÖZETİ| ChatGPT, Google Bard gibi Büyük Dil Modellerinin (LLM) yetersiz şartlara sahip ortamlarda hastalığın teşhisine yardımcı olmasının yanı sıra beraberinde riskler de barındırdığı için kullanımında dikkatli olunması gerektiği vurgulandı.
"TEST EDİLMEMİŞ SİSTEMLERİN HIZLA BENİMSENMESİ HATAYA YOL AÇABİLİR"
DSÖnün, sağlık çalışmalarına katkı sağlaması için LLM kullanılması konusunda "hevesli" olduğu vurgulanan açıklamada, ancak test edilmemiş sistemlerin hızla benimsenmesinin hataya yol açabileceği ve hastalara zarar verebileceği kaydedildi.
Açıklamada, LLMin tutarlı şekilde uygulanmadığına dair endişelerin bulunduğu ve bu uygulamanın yapay zekaya olan güveni de aşındırabileceği aktarıldı.
KÖTÜYE KULLANILABİLME İHTİMALİ VAR
Söz konusu teknolojilerin güvenli, etkili ve etik yollarla kullanılması için titizlik gerektiğine işaret edilen açıklamada, yapay zekanın beslenmesi için kullanılan verilerin yanıltıcı veya yanlış bilgiler üretebileceği konusunda uyarıda bulunarak inanmamaları gerektiğini söyledi.
Açıklamada, LLMnin, halk için güvenilir sağlık bilgilerinden ayırt edilmesi zor olan metin, ses veya video içeriği şeklinde oldukça ikna edici dezenformasyon üretmek ve yaymak için kötüye kullanılabileceği vurgulandı.
Editor : Şerif SENCER