Teknoloji

ChatGPT Gibi Yapa Zekâ Uygulamaları Nasıl Çalışıyor? - Webtekno

Yapay zekânın temelini, insan zekâsını taklit edebilme yeteneğine dayanan algoritmalar oluşturuyor. Bu algoritmalar; öğrenme, problem çözme, karar verme ve dil işleme gibi insan zekasına özgü görevleri yerine getirebilmek için tasarlanmıştır. Peki, ChatGPT gibi yapay zekâ uygula

ChatGPT Gibi Yapa Zekâ Uygulamaları Nasıl Çalışıyor? - Webtekno
06-02-2024 16:32

Günümüz ÖZETİ| dünyasında, yapay zekâ terimi hemen hemen herkesin aşina olduğu bir kavram hâline geldi. Fakat bu karmaşık teknolojinin ardındaki perdeyi aralamak ve nasıl çalıştığını gerçekten anlamak biraz daha komplike olabilir. Sanki bir bilim kurgu filminden fırlamış gibi duran yapay zekâ; aslında algoritma denizlerinde yüzerek, veri okyanuslarını aşarak hayatımıza entegre oluyor.

Peki bu akıllı sistemler, tam olarak nasıl çalışıyor? Özellikle ChatGPT, Midjourney ve DALL-E gibi yapay zekâ araçları bizlere verdikleri cevapla hayrete düşürüyor, doğal olarak aklımıza "Yapay zekâ uygulamaları nasıl çalışıyor?" sorusu da sıkça geliyor. Biz de sizler için yapay zekânın gizemli dünyasını aralayacak ve sofistike teknolojinin nasıl her sorumuza yanıt verip görseller oluşturabildiğini detaylarıyla ele alacağız.

ChatGPT gibi yapay zekâ uygulamaları tam olarak nasıl çalışıyor?

Yapay zekâ robot ders çalışıyor

ChatGPT, sorunuzu anlamaya çalışarak ve daha sonra eğitildiği verilere dayanarak sorunuzu en iyi şekilde yanıtlayacağını tahmin ettiği kelime dizilerini ortaya çıkararak çalışıyor. Kulağa nispeten basit gelse de neler olup bittiği kabul edelim ki biraz karmaşık, o yüzden madde madde gitmekte fayda var.

Denetimli ve denetimsiz öğrenmeTransformatör mimarisi (GPT'deki T)Belirteçlerİnsan geri bildiriminden takviyeli öğrenme (RLHF)Doğal dil işleme (NLP)

Denetimli ve denetimsiz öğrenme

Yapay zekâ, robot ders çalışıyor

GPT'deki P "önceden eğitilmiş" anlamına geliyor ve GPT'nin yapabildiklerini yapabilmesinin çok önemli bir parçası. GPT'den önceki en iyi performans gösteren yapay zekâ modelleri, temel algoritmalarını geliştirmek için denetimli öğrenme kullanıyordu.

GPT, birkaç temel kuralın verildiği ve ardından büyük miktarlarda etiketsiz verinin (neredeyse tüm açık internet) beslendiği üretken ön eğitim kullanıyor. Daha sonra tüm bu veriler arasında gezinmesi ve metni yöneten kurallar ve ilişkiler hakkında kendi anlayışını geliştirmesi için denetimsiz bırakılıyor.

Denetimsiz öğrenmeyi kullandığınızda doğal olarak ne elde edeceğinizi gerçekten bilmeniz pek de mümkün değil. ChatGPT de bunun için davranışını daha öngörülebilir ve uygun hâle getirebilmek adına ince ayar yapıyor.

Transformatör mimarisi (GPT'deki T)

chatgpt robot çizimi, ayakta duran robot

Tüm bu eğitimin amacı; metin verilerindeki kalıpları, ilişkileri, bir sonraki metnin ne olacağını tahmin etmeyi ve insan benzeri yanıt oluşturmayı öğretmek. Tabii bu süreç inanılmaz karmaşık ve çok katmanlı. Yani özetle derin öğrenme sinir ağı oluşturmak amaçlanıyor da diyebiliriz.

Açıkladığınızda kulağa karmaşık gelse de transformatör modeli, yapay zekâ algoritmalarının nasıl tasarlandığını bayağı basitleştirdi. Hesaplamaların paralelleştirilmesine ya da aynı anda yapılmasına olanak tanımasını sağladı.

Bu sayede eğitim süreleri önemli ölçüde kısaldı. Sadece yapay zekâ modellerini daha iyi hâle getirmekle kalmadı aynı zamanda onları daha hızlı ve daha ucuza üretilebilir hâle getirdi.

alfabe öğrenen robot, sınıfta oturan robot

Transformatörlerin özünde "kendi kendine dikkat" adı verilen bir süreç vardır. Eski tekrarlayan sinir ağları (RNN'ler) metni soldan sağa doğru okur. Bu yöntem, birbiriyle ilişkili kelimeler ve kavramlar yan yana olduğunda iyi olabilir ancak kelimeler zıt uçlar olduğunda işler biraz karmaşık hâle gelebiliyor. Bizce bunun en büyük örneği de Türkçe dilinde zaman zaman sapıtması.

Transformatörler cümledeki her kelimeyi bir kerede okur ve her kelimeyi diğerleriyle karşılaştırır. Bu da cümlenin neresinde olurlarsa olsunlar, dikkatlerini en alakalı kelimelere yönlendirmelerini sağlıyor.

Tabii ki tüm anlattıklarımız işleri büyük ölçüde basitleştiriyor. Transformatörler kelimelerle çalışmaz, bir vektör (konum ve yön içeren bir sayı) olarak kodlanmış metin parçaları olan "belirteçlerle" çalışırlar. Dikkat de bir vektör olarak kodlanır ve dönüştürücü tabanlı sinir ağlarının bir paragrafın başındaki önemli bilgileri hatırlamasını sağlar. 

Belirteçler

GPT-3 yaklaşık 500 milyar belirteç üzerinde eğitilmiş, böylece dil modellerinin daha kolay anlam atamasına ve bunları vektör uzayında eşleştirerek makul metni tahmin etmesine olanak tanıyordu. Birçok sözcük tek belirteçle eşleşiyordu ancak daha uzun veya daha karmaşık sözcükler genellikle birden fazla belirtece ayrılıyordu.

OpenAI, GPT-4'ün iç işleyişi hakkında sessiz kalsa da hemen hemen aynı veri kümesi üzerinde eğitildiğini varsayabiliriz.

Robot makale okuyor

Tüm belirteçler, insanlar tarafından yazılmış devasa bir veri külliyatından geliyor. Bunlar arasında; kitaplar, makaleler ve tüm farklı konular, tarzlar ve türlerdeki diğer belgeler ve açık internette bulunan inanılmaz miktarda içerik yer alıyor.

Tüm bu eğitimin sonucu olarak GPT-3'ün sinir ağı 175 milyar parametreye ya da değişkene sahipti. Eğitimi sayesinde girdi alıp farklı parametrelere verdiği değerlere ve ağırlıklara dayanarak en uygun çıktıyı veriyordu.

OpenAI, GPT-4'ün kaç parametresi olduğunu söylemedi ancak muhtemelen 175 milyardan fazladır. GPT-4'ün artan gücünün bir kısmı, muhtemelen GPT-3'ten daha fazla parametreye sahip olmasından ve eğitimindeki iyileştirmeden kaynaklanıyor.

İnsan geri bildiriminden takviyeli öğrenme (RLHF)

Robotlar sınıfta oturuyor

GPT'nin ilk sinir ağı halka açık kullanıma uygun değildi, yani neredeyse hiç rehberlik olmadan açık internet üzerinde eğitildi. Bu nedenle ChatGPT'nin çeşitli farklı istemlere güvenli, mantıklı ve tutarlı bir şekilde yanıt verme yeteneğini daha da geliştirmek için insan geri bildiriminden takviyeli öğrenme adı verilen bir teknikle diyalog için optimize edildi. 

Esasen OpenAI, sinir ağına tipik durumlarda nasıl tepki vermesi gerektiğini gösteren bazı gösterim ve karşılaştırma verileri oluşturdu. Böylece yapay zekâ herhangi bir durumda hangisinin en iyi yanıt olduğunu öğrenebildi. RLHF Saf denetimli öğrenme olmasa da GPT gibi ağların etkili bir şekilde ince ayarlanmasına olanak tanıdı.

Doğal dil işleme (NLP)

Tüm bu çabalar tabii ki GPT'yi doğal dil işleme konusunda mümkün olduğunca etkili hâle getirmeyi amaçlıyor. NLP; konuşma tanıma, makine çevirisi ve sohbet robotları da dahil olmak üzere yapay zekânın birçok yönünü kapsayan büyük bir kategori de diyebiliriz. Yani NLP kategorisi, yapay zekâya dil kurallarını ve sözdizimini anlamayı öğretiyor.

Ancak unutmayın ki hâlâ tam olarak öğrenmiş değil. Özellikle pek çok kişinin ChatGPT ve benzeri yapay zekâ modellerine tez/ödev/içerik yazdırdığı bu dönemde robot yazısı tahmin edersiniz ki kendini açık ediyor. Okuduğunuz yazıların yapay zekâyla yazılıp yazılmadığını anlayabilmeniz için bir içerik oluşturmuştuk. Aşağıdan detaylıca göz atabilirsiniz.


Editor : Şerif SENCER
SİZİN DÜŞÜNCELERİNİZ?
TÜRKİYE GÜNDEMİ
BUNLAR DA İLGİNİZİ ÇEKEBİLİR
ÇOK OKUNAN HABERLER