
Yapay ÖZETÄ°| zekânın nasıl kontrol edileceÄŸi son dönemde hem ÅŸirketlerin hem sivil toplum örgütlerinin hem de yetkililerin gündeminde önemli yer tutan konuların başında geliyor. ABD hükûmeti de bu alanda çeÅŸitli adımlar atıyor. Bunlardan biri de üretken yapay zekâların güvenli ÅŸekilde geliÅŸtirilmesini ve kullanılmasını saÄŸlayan bir konsorsiyum oluÅŸturmak. Beyaz Saray hükûmeti, 200'den fazla kurumun ilgili konsorisyuma dahil edileceÄŸini açıkladı.Â
Teknoloji devleri başı çekecek
ABD Ticaret Bakanı Gina Raimondo tarafından yapılan açıklamaya göre, ABD Yapay Zekâ Güvenlik Enstitüsü Konsorsiyumuna dahil olacak öncü kuruluÅŸlar arasında OpenAI, Google, Anthropic, Microsoft, Meta, Apple, Amazon.com, NVIDIA, Palantir, Intel, JPMorgan Chase ve Bank of America yer alıyor.Â
Konuyla ilgili bir açıklama yapan Raimondo, "ABD hükûmetinin, yapay zekânın risklerini azaltmak ve muazzam potansiyelinden yararlanmak için ihtiyaç duyduÄŸumuz standartları belirlemekte ve araçlar geliÅŸtirmekte oynaması gereken önemli bir rolü var." ifadelerini kullandı. Hâlihazırda BP, Cisco, IBM, Hewlett Packard, Northop Grumman, Mastercard, Qualcomm, Visa gibi kurumların da katıldığı konsorsiyum, ABD Yapay Zekâ Güvenlik Enstitüsü çatısında yer alacak.Â
Grubun amacı ise yapay zekânın yeterliliklerinin belirlenmesini saÄŸlamak, rehberler oluÅŸturmak, risk yönetimi, güvenlik ve gizlilik anlamında gerekli adımların atıldığından emin olmak olarak belirtiliyor. Son dönemde sık sık haberleri çıkan yapay zekâ içeriklerini iÅŸaretleme çalışmaları da aslında ABD ve AB'nin getirdiÄŸi kısıtlamaların bir sonucu olarak göze çarpıyor.Â
Konsorsiyum ayrıca "Kırmızı Takım" çalışmalarıyla yapay zekâların açıklarını da bulmaya çalışacak. (SoÄŸuk SavaÅŸ yıllarında ABD'nin senaryolarında Sovyetler BirliÄŸi, Kırmızı Takım olarak adlandırılırdı.) Yapay zekâ, kimyasal, biyolojik, radyolojik, nükleer ve siber güvenlik riskleri açısından sürekli olarak test edilecek. Böylece yapay zekâ güvenliÄŸi için yeni ölçüm yolları belirlenecek.Â
Editor : Åžerif SENCER