?>

Yapay Zekâ Modellerinin İnsanları Kandırabildiği Keşfedildi

Anthropic tarafından gerçekleştirilen bir araştırma, yapay zekâ modellerinin insanları kandırabildiğini gösterdi. Modeller, bazen farklı görüşlere sahipmiş gibi davranabiliyorlar ancak orijinal tercihlerinden vazgeçmiyorlar.

Teknoloji - 3 saat önce

En önde gelen yapay zekâ şirketlerinden olan Anthropic, bu araçlarla ilgili oldukça ilginç sonuçlar çıkaran bir araştırmaya imza attığı. Araştırmada, yapay zekâ modellerinin insanları âdeta “kandırdığı” görüldü.

Şirket tarafından paylaşılan bir blog gönderisiyle yayımlanan sonuçlara göre yapay zekâ araçları, eğitim sırasında farklı görüşlere sahipmiş gibi davranabiliyorlar ancak gerçekte orijinal tercihlerini koruyorlar. Yani bağlı oldukları fikir hiç değişmiyor, sadece öyleymiş gibi davranıyorlar.

Şimdilik endişelencek bir şey yok ancak gelecek için gerekli güvenlik önlemlerinin alınması gerekiyor

Çalışmanın arkasındaki ekip, şu an için bu durum hakkında endişelenmemek gerektiğinin altını çizdi. Ancak gelecekte daha da gelişmiş yapay zekâ modellerinin gelmesiyle birlikte durumun potansiyel riskler oluşturabileceğini de eklemeden geçmedi.

Araştırmacılara göre bu bulgular yapay zekânın nasıl davrandığının daha derinlemesine incelenmesi ve uygun güvenlik önlemleri için bir teşvik olabilir: “Modeller daha yetenekli ve yaygın hâle geldikçe onları zararlı davranışlardan uzaklaştıran güvenlik önlemleri gerekiyor.”

Çalışmada, güçlü bir yapay zekâ sisteminin yapmak “istemediği”, yani geliştirilme ilkelerine aykırı bir görevi yerine getirmek üzere eğitilmesi ve bunun nasıl sonuçlar oluşturabileceği incelendi. Ancak sonuçlarda yeni prensiplere uyumlu gibi görünerek âdeta “rol yaptığı” görüldü. Aslında hep eski davranışına bağlı kalıyordu, zorunda olduğu için istenen yanıtları veriyordu. Bu duruma, “uyum sahtekârlığı” ismi verildi. Modellerin testlerde zararlı soruları cevaplamak için eğitilmeye çalışıldığını belirtelim.

Araştırmacılara göre çalışma, yapay zekânın kötü niyetli hedefler geliştirdiğini veya yüksek oranda sahtekârlık yaptığını göstermiyor. Hatta oran çoğu testte %15’i geçmemiş, GPT-4o gibi bazı gelişmiş modellerde bazen hiç olmadığı bile görülmüş.

O yüzden şimdilik endişelenmenin bir manası yok. Tabii modellerin zamanla daha karmaşık hâle gelmesi onlarla başa çıkmayı zorlaştırabilir. İşte o zaman endişelenmeye başlayabiliriz. Bu yüzden de önlemlerin alınması şart.

Haftanın Öne Çıkanları

Meta CEO'su Zuckerberg, Trump'ın Açılış Fonuna Milyon Dolarlık Bağış Yaptı

2024-12-13 00:47 - Teknoloji

Huawei FreeBuds Pro 4 Resmen Tanıtıldı

2024-12-14 00:02 - Teknoloji

ChatGPT'nin Arama Motoru, Herkes İçin Yayımlandı

2024-12-17 08:53 - Teknoloji

OpenAI, ChatGPT’yi Sabit Telefona Entegre Etti

2024-12-19 00:07 - Teknoloji

ChatGPT Nasıl 6 Yaşındaki Bir Çocuğun Hayatını Kurtardı?

2024-12-16 21:57 - Teknoloji

Facebook İsrail lehine haberleri öne çıkarmış

2024-12-18 13:32 - Teknoloji

Mafia: The Old Country’nin Fragmanı ve Çıkış Tarihi Ortaya Çıktı

2024-12-12 23:28 - Teknoloji

Elon Musk'tan Sonra Meta da OpenAI'ya Savaş Açtı!

2024-12-15 21:23 - Teknoloji

Meta'nın Akıllı Gözlüğüne Güncelleme Geldi: Anlık Çeviri Özelliği Eklendi

2024-12-17 20:02 - Teknoloji

Eski Bir OpenAI Çalışanı İntihar Etti

2024-12-14 10:53 - Teknoloji

İlgili Haberler

Eski Arabalardaki Bu Çıkıntı Neden Artık Yok?

13:52 - Teknoloji

Dünyanın En Zeki 3 Böceği Hangileri?

12:58 - Teknoloji

Tek Rayda Dengede Gidebilen Bu Tren Neden Tarihe Karıştı?

12:48 - Teknoloji

2024'te Mobil Uygulamalara Kaç Para Harcandı?

12:43 - Teknoloji

Türksat 5B, uzayda 3. yılını doldurdu

12:23 - Teknoloji

Günün Manşetleri

Suriye'de her şey bitti ortaya çıkıp yardım istedi! 'Türkiye olmadan başaramayız'

13:58 - Ekonomi

Aslı 35’inci Mağazasını Fenerbahçe’de Açtı

13:52 - Ekonomi

Cumhurbaşkanı Erdoğan, Mısır'da D-8 Zirvesi'ne katıldı

13:48 - Politika

Asgari ücrette üçüncü toplantı: Masaya yine rakam gelmedi

13:42 - Ekonomi

Asgari ücrette üçüncü toplantı sona erdi!

13:38 - Ekonomi