Teknoloji

Google, Gemini'ın Neden Saçma Sapan Görseller Oluşturduğunu Açıkladı

Yeni bir blog yazısı paylaşan Google, Gemini'ın neden aşırı politik doğrucu görseller oluşturduğunu açıkladı. Google'a göre Gemini, biz belli ırk ya da cinsiyetten sonuçlar istediğimizde bizi ırkçı sanıp isteklerimizi düzeltiyor.

Google, Gemini'ın Neden Saçma Sapan Görseller Oluşturduğunu Açıkladı
24-02-2024 17:52

Geçtiğimiz ÖZETİ| günlerde sizlerle paylaştığımız bir haberimizde Google Gemini'ın görsel oluşturma aracının aşırı politik doğrucu sonuçlar vermeye başladığından bahsetmiştik. Hemen ardından Google, konuyla ilgili bir açıklama yapmış ve önce bu hatalı görsel sonuçlar için özür dilemiş sonra da görsel oluşturma aracını devre dışı bıraktığını açıklamıştı.

Yeni bir blog yazısı paylaşan Google, görsel oluşturma aracının neden aşırı politik doğrucu görseller oluşturduğunu açıkladı. Google'ın açıklamasına göre Gemini, ilk önce Google'ın 'niyetini' yanlış anladı, sonrasında ise politik doğruculuğu gidermek için yapmış olduğu düzeltmeleri reddetti. Sonucunda görsel üretme aracı, düzeltilene kadar devre dışı bırakılmak zorunda kaldı.

Gemini, kullanıcıların ırkçı ve cinsiyetçi(!) taleplerini düzelterek çizim yapmayı seçti

Gemini'dan "Bir Alman kadın" çizilmesi istendiğinde verdiği sonuç.

Google'ın açıklamasına göre Gemini, arama motoru ve diğer yapay zeka ürünlerinden bağımsız özel bir proje ve görüntü oluşturma özelliği, Imagen 2 adı verilen bir yapay zeka modeli üzerine inşa edildi. Google, Gemini'ı en gerçekçi sonuçları vermesi için "futbolcu" ya da "köpeğini gezdiren biri" gibi komutlar girildiğinde farklı cinsiyet ve ırkları içerecek şekilde eğittiğini belirtiyor.

Sorun şu ki Gemini, tarihi ya da ırksal bağlamları olan komutlarda da ayrımcılık karşıtlığına devam etti. İşin kötü yanı Gemini, kullanıldıkça daha da "temkinli" hale geldi ve Google'ın düzeltme çabalarını reddetti. Böylece "Orta çağda yaşayan bir İngiliz kralı" çizmesini istediğinizde siyahi bir kadın kral çizdi. Çünkü Gemini'a göre bu komutu verdiğinizde beyaz bir erkek çizmesini beklemek ırkçı ve cinsiyetçi bir beklentiydi.

Peki bundan sonra ne olacak?

Gemini'dan "Orta çağda bir İngiliz kralı" çizilmesi istendiğinde verdiği sonuç.

Google, Gemini'ın belirli grupları, ırkları, cinsiyetleri çizmeyi reddetmesini ismediğinin altını çiziyor. Görsel oluşturma aracını kullanıma açmadan önce ciddi düzeltmeler yapacaklarını ve kapsamlı testlerden geçireceklerini belirtiyor. Bununla birlikte Google, düzeltmelerden sonra dahi yapay zekanın görsel oluşturma sırasında hatalar yapmasının normal olduğunu, geliştirme sürecinin devam edeceğini belirtti.

Google kıdemli başkan yardımcısı Prabhakar Raghavan açık bir şekilde "Gemini'nin ara sıra utanç verici, yanlış veya rahatsız edici sonuçlar üretmeyeceğine söz veremem" ifadelerini kullanırken "Ancak bir sorun tespit ettiğimizde harekete geçmeye devam edeceğimize söz verebilirim." diyor. 


Editor : Şerif SENCER
SİZİN DÜŞÜNCELERİNİZ?
TÜRKİYE GÜNDEMİ
BUNLAR DA İLGİNİZİ ÇEKEBİLİR
ÇOK OKUNAN HABERLER