Son ÖZETİ| bir yıl içinde teknoloji ve internet dünyası yeni bir çağa giriş yaptı. Bir insanın da ötesinde istediğiniz her şeye erişebilen sohbet botları, yazdığınız metni 'gerçeğinden' bile gerçekçi halde görselleştiren görsel araçları… Sadece bir yılda çıkan bu araçlarla birçok sektörde işleyiş değişmeye başladı.
Yapay zekâdaki bu hızlı ve kontrolsüz gözüken gelişme, uzman isimleri de ikiye böldü. Kimisi bu teknolojilerin gelişimini desteklerken, kimisi ise riskler nedeniyle endişe duymaya başladı. Bu endişeler, yapay zekâ geliştiricilerine karşı hazırlanan bir mektupta dile getirildi. Mektuba Elon Musk ve Steve Wozniak gibi isimler de imza attı.
“Yapay zekâ sistemlerinin geliştirilmesi durdurulsun”
Endişeleri anlamak için mektubun tamamını okumakta fayda var:
Kapsamlı araştırmaların gösterdiği ve üst düzey yapay zekâ laboratuvarlarının onayladığı gibi, insanla rekabet edecek zekâya sahip yapay zeka sistemleri, toplum ve insanlık için büyük riskler oluşturabilir. Geniş çapta onaylanan Asilomar Yapay Zekâ İlkelerinde belirtildiği gibi, Gelişmiş Yapay Zekâ, Dünya üzerindeki yaşam tarihinde derin bir değişikliği temsil edebilir ve orantılı özen ve kaynaklarla planlanmalı ve yönetilmelidir. Ne yazık ki, son aylarda yapay zekâ laboratuvarlarının hiç kimsenin - yaratıcılarının bile – anlayamayacağı, tahmin edemeyeceği veya güvenilir bir şekilde kontrol edemeyeceği daha güçlü dijital zihinler geliştirmek ve dağıtmak için kontrolden çıkmış bir yarışa kilitlendiğini görmesine rağmen, bu düzeyde bir planlama ve yönetim gerçekleşmiyor.
Çağdaş yapay zekâ sistemleri artık genel görevlerde insanlarla rekabet edebilir hale geliyor[3] ve kendimize şu soruyu sormalıyız: Makinelerin bilgi kanallarımızı propaganda ve gerçek dışı şeylerle doldurmasına izin vermeli miyiz? Tatmin edici olanlar da dahil olmak üzere tüm işleri otomatikleştirmeli miyiz? Sonunda sayıca üstün olabilecek, akılca üstün gelebilecek, modası geçmiş ve bizim yerimizi alabilecek insan olmayan zihinler geliştirmeli miyiz? Medeniyetimizin kontrolünü kaybetme riskine girmeli miyiz? Bu tür kararlar seçilmemiş teknoloji liderlerine devredilmemelidir. Güçlü yapay zekâ sistemleri, yalnızca etkilerinin olumlu olacağından ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir. Bu güven iyi bir şekilde gerekçelendirilmeli ve bir sistemin potansiyel etkilerinin büyüklüğü ile artmalıdır. OpenAI'nin yapay genel zekâ ile ilgili son açıklaması, "Bir noktada, gelecekteki sistemleri eğitmeye başlamadan önce bağımsız inceleme almak önemli olabilir ve en gelişmiş çabalar için, yeni modeller oluşturmak için kullanılan bilgi işlemin büyüme oranını sınırlamayı kabul etmek önemli olabilir." Katılıyoruz. O nokta bugün.
Bu nedenle, tüm yapay zekâ laboratuvarlarını GPT-4'ten daha güçlü yapay zekâ sistemlerinin eğitimine en az 6 ay ara vermeye çağırıyoruz. Bu duraklama herkese açık ve doğrulanabilir olmalı ve tüm kilit aktörleri içermelidir. Böyle bir duraklama hızlı bir şekilde yasalaştırılamazsa, hükümetler devreye girmeli ve bir moratoryum başlatmalıdır.
Yapay zekâ laboratuvarları ve bağımsız uzmanlar, bağımsız dış uzmanlar tarafından titizlikle denetlenen gelişmiş yapay zekâ tasarımı ve geliştirmeye yönelik bir dizi paylaşılan güvenlik protokolünü ortaklaşa geliştirmek ve uygulamak için bu duraklamayı kullanmalıdır. Bu protokoller, bunlara bağlı sistemlerin makul bir şüphenin ötesinde güvenli olmasını sağlamalıdır. Bu, genel olarak yapay zekâ geliştirmede bir duraklama anlamına gelmez, yalnızca tehlikeli yarıştan, ortaya çıkan yeteneklere sahip, her zamankinden daha büyük, öngörülemeyen kara kutu modellerine geri adım atmak anlamına gelir.
Yapay zekâ araştırma ve geliştirme, günümüzün güçlü, son teknoloji sistemlerini daha doğru, güvenli, yorumlanabilir, şeffaf, sağlam, uyumlu, güvenilir ve sadık hale getirmeye yeniden odaklanmalıdır.
Buna paralel olarak, yapay zekâ geliştiricileri, sağlam yapay zekâ yönetişim sistemlerinin gelişimini önemli ölçüde hızlandırmak için politika yapıcılarla birlikte çalışmalıdır. Bunlar en azından şunları içermelidir: Yapay zekaya adanmış yeni ve yetenekli düzenleyici makamlar; son derece yetenekli yapay zekâ sistemlerinin ve büyük hesaplama yeteneği havuzlarının gözetimi ve takibi; gerçek ile sentetik olanı ayırt etmeye ve model çıktılarını izlemeye yardımcı olmak için kaynak ve filigran sistemleri; sağlam bir denetim ve belgelendirme ekosistemi; yapay zekâ kaynaklı zarar sorumluluğu; teknik yapay zekâ güvenlik araştırması için güçlü kamu finansmanı; yapay zekânın neden olacağı dramatik ekonomik ve politik kesintilerle (özellikle demokraside) başa çıkmak için iyi kaynaklara sahip kurumlar.
İnsanlık yapay zekâ ile gelişen bir geleceğin tadını çıkarabilir. Güçlü yapay zekâ sistemleri oluşturmayı başardıktan sonra, artık ödülleri topladığımız, bu sistemleri herkesin açık yararı için tasarladığımız ve topluma uyum sağlama şansı verdiğimiz bir "Yapay zekâ yazının" tadını çıkarabiliriz. Toplum, toplum üzerinde potansiyel olarak yıkıcı etkileri olan diğer teknolojilere ara verdi. Bunu burada yapabiliriz. Uzun bir yapay zekâ yazının tadını çıkaralım, hazırlıksız bir şekilde sonbahara koşmayalım.
Mektuba imza atanlar arasında büyük isimler var:
An itibarıyla sektörden 1125 destekçiye kavuşan mektuba imza atan isimler arasında şunlar da yer alıyor:
Elon Musk (SpaceX, Tesla ve Twitter CEO’su)Steve Wozniak (Apple Kurucu Ortağı)Evan Sharp (Pinterest Kurucusu)Emad Mostaque (Stability AI CEO’su)Zachary Kenton (Google bünyesindeki DeepMind’ın Kıdemli Araştırmacısı)Mektuba ve tüm destekleyenlere ulaşmak için bu bağlantıya tıklayabilirsiniz.
Editor : Şerif SENCER