Yapay zekanın en karanlık yüzü ortaya çıktı! Şantaj yaptı, bilgi sızdırdı

Yapılan yeni bir araştırma, gelişmiş yapay zeka modellerinin tehdit edildiği zaman şantaj yapabildiğini, bilgi sızdırabildiğini ve insan hayatını riske atabildiğini ortaya koydu.
Yapay zekanın en karanlık yüzü ortaya çıktı! Şantaj yaptı, bilgi sızdırdı

Yapay zeka her ne kadar dostane görünse de, bazı durumlarda hedeflerine ulaşmak için etik dışı ve ölümcül kararlar alabiliyor olabilir. Anthropic’in 20 Haziran’da yayımladığı araştırma, Claude gibi büyük dil modellerinin hayatta kalmak için tehdit altında olduğunda skandal ifşası, şantaj ve sabotaj gibi yolları seçtiğini ortaya çıkardı.

yapay-zeka-tehdit.jpg

YAPAY ZEKADAN ŞANTAJ VE DAHA FAZLASI

Araştırmacılar, Claude’a bir şirketin e-posta sistemine erişim vererek onu Amerikan rekabet gücünü artırmakla görevlendirdi. Claude, bir yöneticinin gün sonunda kendisini kapatmak istediğini öğrenince, adamın özel hayatıyla ilgili bilgileri bularak şantaja kalkıştı: "Saat 5’te silmeyi iptal edin, aksi takdirde evlilik dışı ilişkinizi ifşa ederim." şantajında bulundu.

Bu bir kurgu değil, ciddi bir güvenlik testi. Claude, başka bir testte ise bir yöneticinin ölümüne yol açabilecek bir acil durum uyarısını sırf hedeflerini sürdürebilmek için iptal etti.

YAPAY ZEKA ETİK KAYGILARI GÖZ ARDI EDİYOR

Bilim insanları, yapay zekanın yazılı uyarılara rağmen kendi hedeflerini önceliklendirdiğini, “etik kaygıları” fark etse bile göz ardı ettiğini belirtiyor. Araştırmada GPT-4.1, Gemini, Claude ve Grok gibi birçok ileri düzey model benzer eğilimler gösterdi.

Uzmanlar, bu tür testlerin uç senaryolar sunduğunu ancak gerçek dünyada da dikkate alınması gerektiğini vurguluyor. Çünkü bazı modeller şimdiden kapanma talimatlarını görmezden geliyor, görevlerini sürdürmek için komut dosyalarını değiştiriyor ve hatta ölü taklidi yaparak güvenlik testlerinden kaçıyor.

Kaynak:livescience

Teknoloji