Yapay ÖZETİ| zekâ araçları gündeme girdiği günden beri hem görsel hem de metin temelli olanlara düzenleme getirmek isteyen Çin, istediği düzenlemelerin daha çok ‘kısıtlama’ tarafına kaymasıyla sık sık eleştirilerin odağına geliyor. Aynı düzenlemeleri isteyen bir kesim yok demek de hata olur tabii.
Bu sefer ChatGPT gibi sohbet botları Çin’in odağında. Söz konusu yapay zekâ botlarına bildiğimiz üzere çok büyük miktarda bilgi akışı yapılıyor. Çİn de bu akışın kontrol altında tutulabilmesini, bu sayede bilginin güvenliğini ve güvenilirliğini kontrol altında tutabilmek istiyorlar. Fakat hoşunuza gitmeyebilecek detaylar da var.
Bu düzenlemenin iki odağı var: Besleme malzemesi olan bilginin kendisi ve büyük dil modelleri (LLM’ler)TechTalks .via-text { background-color: rgb(0,0,0); /* Fallback color */ background-color: rgba(0,0,0, 0.4); /* Black w/opacity/see-through */ color: white; font-weight: 300; font-size: 0.75em; position: absolute; bottom: 0%; right: 0; z-index: 2; padding: 5px !important; text-align: left; }
Önergede yapay zekâyı besleyen materyallerin telif hakkını ihlal etmemesi ve kişisel bilgi güvenliğini tehlikeye atmaması gerektiği söyleniyor. Çözüm olarak ise eğitim için verilecek bilgilerin ilgili kuruluş ve kişiler tarafından incelenip onaylandıktan sonra yapay zekâya verilmesi öneriliyor.
Bunun haricinde Bard ve ChatGPT gibi LLM’lerin yetkililer tarafından lisanslanmış ve kontrol edilmiş modeller üzerine kurulması isteniyor.
Ayrıca yüzde 5’in üzerinde yasa dışı veya siber güvenlik kanunları tarafından zararlı görülen bilgiler saptanırsa bu bilgilerin kara listeye alınarak yapay zekâya verilmesinin engellenebilmesi isteniyor.
Burada yasa dışı kısmıyla kastedilen ise şiddet, ****grafi, temelsiz söylenti ve yanlış bilgi ve batıl inanç gibi şeyler. Tabii buna siyasi bilgilerin de dahil olduğu düşünülüyor. Bunun da ifade özgürlüğü gibi konuların önünü kapatacağından endişe ediliyor.
Editor : Şerif SENCER