?>

Yapay Zekâ Modellerinin İnsanları Kandırabildiği Keşfedildi

Anthropic tarafından gerçekleştirilen bir araştırma, yapay zekâ modellerinin insanları kandırabildiğini gösterdi. Modeller, bazen farklı görüşlere sahipmiş gibi davranabiliyorlar ancak orijinal tercihlerinden vazgeçmiyorlar.

Teknoloji - 1 ay önce

En önde gelen yapay zekâ şirketlerinden olan Anthropic, bu araçlarla ilgili oldukça ilginç sonuçlar çıkaran bir araştırmaya imza attığı. Araştırmada, yapay zekâ modellerinin insanları âdeta “kandırdığı” görüldü.

Şirket tarafından paylaşılan bir blog gönderisiyle yayımlanan sonuçlara göre yapay zekâ araçları, eğitim sırasında farklı görüşlere sahipmiş gibi davranabiliyorlar ancak gerçekte orijinal tercihlerini koruyorlar. Yani bağlı oldukları fikir hiç değişmiyor, sadece öyleymiş gibi davranıyorlar.

Şimdilik endişelencek bir şey yok ancak gelecek için gerekli güvenlik önlemlerinin alınması gerekiyor

Çalışmanın arkasındaki ekip, şu an için bu durum hakkında endişelenmemek gerektiğinin altını çizdi. Ancak gelecekte daha da gelişmiş yapay zekâ modellerinin gelmesiyle birlikte durumun potansiyel riskler oluşturabileceğini de eklemeden geçmedi.

Araştırmacılara göre bu bulgular yapay zekânın nasıl davrandığının daha derinlemesine incelenmesi ve uygun güvenlik önlemleri için bir teşvik olabilir: “Modeller daha yetenekli ve yaygın hâle geldikçe onları zararlı davranışlardan uzaklaştıran güvenlik önlemleri gerekiyor.”

Çalışmada, güçlü bir yapay zekâ sisteminin yapmak “istemediği”, yani geliştirilme ilkelerine aykırı bir görevi yerine getirmek üzere eğitilmesi ve bunun nasıl sonuçlar oluşturabileceği incelendi. Ancak sonuçlarda yeni prensiplere uyumlu gibi görünerek âdeta “rol yaptığı” görüldü. Aslında hep eski davranışına bağlı kalıyordu, zorunda olduğu için istenen yanıtları veriyordu. Bu duruma, “uyum sahtekârlığı” ismi verildi. Modellerin testlerde zararlı soruları cevaplamak için eğitilmeye çalışıldığını belirtelim.

Araştırmacılara göre çalışma, yapay zekânın kötü niyetli hedefler geliştirdiğini veya yüksek oranda sahtekârlık yaptığını göstermiyor. Hatta oran çoğu testte %15’i geçmemiş, GPT-4o gibi bazı gelişmiş modellerde bazen hiç olmadığı bile görülmüş.

O yüzden şimdilik endişelenmenin bir manası yok. Tabii modellerin zamanla daha karmaşık hâle gelmesi onlarla başa çıkmayı zorlaştırabilir. İşte o zaman endişelenmeye başlayabiliriz. Bu yüzden de önlemlerin alınması şart.

Haftanın Öne Çıkanları

OpenAI, ChatGPT’yi Sabit Telefona Entegre Etti

2024-12-19 00:07 - Teknoloji

Huawei FreeBuds Pro 4 Resmen Tanıtıldı

2024-12-14 00:02 - Teknoloji

Meta CEO'su Zuckerberg, Trump'ın Açılış Fonuna Milyon Dolarlık Bağış Yaptı

2024-12-13 00:47 - Teknoloji

ChatGPT'nin Arama Motoru, Herkes İçin Yayımlandı

2024-12-17 08:53 - Teknoloji

Facebook İsrail lehine haberleri öne çıkarmış

2024-12-18 13:32 - Teknoloji

ChatGPT Nasıl 6 Yaşındaki Bir Çocuğun Hayatını Kurtardı?

2024-12-16 21:57 - Teknoloji

Meta'nın Akıllı Gözlüğüne Güncelleme Geldi: Anlık Çeviri Özelliği Eklendi

2024-12-17 20:02 - Teknoloji

Elon Musk'tan Sonra Meta da OpenAI'ya Savaş Açtı!

2024-12-15 21:23 - Teknoloji

Mafia: The Old Country’nin Fragmanı ve Çıkış Tarihi Ortaya Çıktı

2024-12-12 23:28 - Teknoloji

Eski Bir OpenAI Çalışanı İntihar Etti

2024-12-14 10:53 - Teknoloji

İlgili Haberler

Google Haritalar’da Bulanıklaştırılmış 9 Gizemli Konum

22:07 - Teknoloji

4 Milyon Doları ve 3 Astronotun Canını Kurtaran Bilgi

21:08 - Teknoloji

Tarihin En Büyük Veri Sızıntılarından Biri Yaşandı

20:37 - Teknoloji

Bir Tesla Cybertruck, İngiltere'de Trafikten Men Edildi

20:23 - Teknoloji

Samsung, Over the Horizon'ın Yeni Versiyonunu Paylaştı

20:03 - Teknoloji

Günün Manşetleri

Bakan Kacır: Türkiye'nin semalarını hava savunma sistemleriyle donatacağız

23:17 - Gündem

Thomas Reis hakeme isyan etti! 'Resmen sonucu etkiledi'

23:12 - Spor

93 yaşına giren Sakine nine, ilk kez doğum günü kutladı!

23:07 - Gündem

Skriniar transferinde flaş gelişme! Maliyeti belli oldu

23:02 - Spor

İzmir'de kahreden olay: 2 kız kardeş hayatını kaybetti

22:53 - Gündem