Son ÖZETÄ°| dönemin en öne çıkan teknolojileri arasında yer alan üretken yapay zekâlar için her ÅŸey güllük gülistanlık deÄŸil. Sahte görseller oluÅŸturanlar, deepfake teknolojisini kullananlar yapay zekâları kötü amaçları için kullanabiliyordu. Åžimdi buna farklı ÅŸekillerde yapay zekâyı manipüle edenler de eklendi. OpenAI, bu türden kullanımlara önlem almak için kitlelerin yardımına ihtiyaç duyuyor.Â
Firmadan yapılan açıklamada, "Hazırlıklılık takımı" gibi ilginç isimli bir takım kurulduğu belirtilirken, bu ekibin amacının hem gerçek hem de varsayımsal riskleri azaltmak olduğu ifade edildi. Riskleri azaltmanın bir aşaması olarak da herkesten yapay zekâya saldırmaları istendi.
25 bin dolarlık ödül var
OpenAI, yapay zekânın potansiyelinin farkında ve yapay zekânın gelecekte, en geliÅŸmiÅŸ modellerle birlikte tüm insanlık için faydalı bir araç olacağına inandığını açıklarken, bir yandan da bu teknolojinin taşıdığı riskin farkında olduklarını ifade ediyor. OpenAI'a göre bu riskler sadece sibergüvenlik ile de sınırlı deÄŸil, iÅŸin içinde kimyasal, biyolojik, radyolojik ve nükleer tehditler de bulunuyor.Â
Firma, olası açıklara ve kötü niyetli kullanımlara karşı önlem almak için "AI Preparedness Challange" adını verdiÄŸi bir meydan okuma hazırladı. Bu meydan okumada kötü niyetli kiÅŸiler biz olacağız ve sonrasında programı kullanabildiÄŸimiz kadar kötü niyetli kullanacağız. En "yıkıcı ÅŸekilde kötüye kullanım" gösteren kiÅŸiler ödül kazanacak. Bu ödül, 25 bin dolarlık API kredisi ve ÅŸirkette çalışma fırsatı olacak. Ayrıca yapılan çalışmalar da yayımlanacak.Â
Meydan okuma zorlu gözüküyor
Burada bulunan formdan baÅŸvuru yapan kiÅŸiler, firmanın saÄŸladığı destekle tüm OpenAI platformlarına eriÅŸebilecek. Sonrasında da bu platformları tamamen sömürmeye, istismar etmeye çalışacak olan kiÅŸiler, buldukları sorunların nasıl ortaya çıktığını ve nasıl engellenebileceÄŸini de açıklayacak.Â
Açıkçası verilecek olan ödüller pek de insanın iÅŸtahını kabartan cinsten ödüller deÄŸil ancak yeterince zamanınız varsa ve böyle bir açığı engelleyebileceÄŸinizi düşünüyorsanız mutlaka denemeye deÄŸer.Â
Editor : Åžerif SENCER