Yapay zeka ile üretilen içeriklerin giderek yaygınlaşması, bir takım güvenlik ihlallerinin ortaya çıkmasına neden oldu. Örneğin yapay zeka ile oluşturulmuş bir ses taklidinin karşı tarafı zor duruma düşürebilme ihtimali çok yüksek görünüyor.
Tam da bu noktada Google, OpenAI ve Meta gibi yapay zeka ile ilgili çalışmalar yürüten şirketler bununla ilgili yeni bir karar aldı.
YAPAY ZEKA İLE ÜRETİLEN İÇERİKLERE FİLİGRAN EKLENECEK
Biden yönetimi, OpenAI, Alphabet ve Meta dahil olmak üzere önde gelen yapay zeka şirketlerinin, teknolojiyi daha güvenli hale getirmeye yardımcı olmak için yapay zeka tarafından üretilen içeriğin filigranlanması gibi önlemleri uygulamak üzere Beyaz Saray'a gönüllü taahhütlerde bulunduğunu söyledi.
Aralarında Anthropic, Inflection, Amazon ve OpenAI ortağı Microsoft'un da bulunduğu şirketler, sistemleri piyasaya sürmeden önce kapsamlı bir şekilde test etme ve riskleri nasıl azaltacakları ve siber güvenliğe nasıl yatırım yapacakları konusunda bilgi paylaşma sözü verdi.
Bu hamle, Biden yönetiminin yatırım ve tüketici popülaritesinde bir patlama yaşayan teknolojiyi düzenleme çabası için bir kazanç olarak görülüyor.
HÜKÜMETLER ULUSAL GÜVENLİK SORUNU OLARAK GÖRÜYOR
ChatGPT'nin insan sesi çıkaran düzyazısı gibi yeni içerikler oluşturmak için verileri kullanan üretken yapay zeka bu yıl çılgınca popüler hale geldiğinden, dünyanın dört bir yanındaki yasa koyucular, ortaya çıkan teknolojinin ulusal güvenlik ve ekonomi için tehlikelerini nasıl azaltacaklarını düşünmeye başladılar.
Reuters'in aktardığı bilgilere göre, ABD Senatosu Çoğunluk Başkanı Chuck Schumer Haziran ayında yapay zekanın geliştirilmesi ve güvence altına alınması için "kapsamlı mevzuat" çağrısında bulundu.
Kongre, siyasi reklamların görüntü veya diğer içerikleri oluşturmak için yapay zeka kullanılıp kullanılmadığını açıklamasını zorunlu kılacak bir yasa tasarısını değerlendiriyor.
TEKNOLOJİ ŞİRKETLERİ YENİ BİR SİSTEM ÜZERİNDE ÇALIŞACAKLAR
Yedi şirketin yöneticilerini Cuma günü Beyaz Saray'da ağırlayacak olan Başkan Joe Biden, yapay zeka teknolojisine ilişkin bir idari emir ve iki partili mevzuat geliştirmek için de çalışıyor.
Çabanın bir parçası olarak, yedi şirket, kullanıcıların teknolojinin ne zaman kullanıldığını bilmeleri için metin, görüntü, ses ve yapay zeka tarafından üretilen videolara kadar her türlü içeriği "filigranlamak" için bir sistem geliştirmeyi taahhüt etti.
FLİGRANLAR YZ ÜRÜNLERİNİ TESPİT ETMEKTE KOLAYLIK SAĞLAYACAK
İçeriğe teknik bir şekilde yerleştirilen bu filigran, muhtemelen kullanıcıların, örneğin gerçekleşmemiş bir şiddeti gösteren, daha iyi bir dolandırıcılık oluşturan veya bir politikacının fotoğrafını çarpıtarak kişiyi kötü bir duruma düşüren derin sahte görüntüleri veya sesleri tespit etmesini kolaylaştıracaktır. Filigranın bilgi paylaşımında nasıl belirgin olacağı bilinmiyor.
Şirketler ayrıca yapay zeka geliştikçe kullanıcıların gizliliğini korumaya ve teknolojinin önyargısız olmasını ve savunmasız gruplara karşı ayrımcılık yapmak için kullanılmamasını sağlamaya odaklanma sözü verdi.
Diğer taahhütler arasında tıbbi araştırma ve iklim değişikliğini hafifletme gibi bilimsel sorunlara yapay zeka çözümleri geliştirmek de yer alıyor.