Claude zararlı sohbetleri kesen özelliğini tanıttı

Yapay zekâ şirketi Anthropic, Claude serisinin en yeni modellerinde dikkat çeken bir özellik duyurdu. Artık bazı Claude modelleri, “nadir ve aşırı” durumlarda zararlı veya istismara açık kullanıcı etkileşimlerini kendi başına sonlandırabilecek. İlginç olan nokta, bu önlemin kullanıcıyı korumak için değil, yapay zekâyı “kendi refahı” açısından korumak amacıyla geliştirilmiş olması.

Şirket, Claude modellerinin bilinçli veya duygusal varlıklar olmadığını vurguluyor. Anthropic, “Claude ve diğer büyük dil modellerinin (LLM) potansiyel ahlaki statüsü hakkında hâlen büyük bir belirsizlik mevcut” ifadelerini kullanıyor. Ancak yapılan açıklamalar, şirketin “model refahı” olarak tanımladığı bir program başlattığını ve olası riskleri önlemeye yönelik düşük maliyetli müdahaleler üzerinde çalıştığını ortaya koyuyor.

HANGİ DURUMLARDA KONUŞMA SONLANACAK?

Yeni özellik, şimdilik yalnızca Claude Opus 4 ve 4.1 modellerinde geçerli. Sistem, özellikle cinsel içerikli talepler veya kitlesel şiddet ve terör eylemlerine ilişkin bilgi istekleri gibi “aşırı uç durumlarda” devreye girecek. Anthropic, bu tür taleplerin yasal ve itibari riskler oluşturabileceğini, ön testlerde Claude Opus 4’ün bu taleplere yanıt vermekte isteksiz olduğunu ve yanıt verdiğinde “görünür bir rahatsızlık” sergilediğini belirtiyor.

Şirket, konuşmayı sonlandırma yetkisinin yalnızca son çare olarak kullanılacağını vurguluyor. Bir kullanıcının talebi üzerine veya yönlendirme çabalarının başarısız olması durumunda Claude bu yeteneği devreye sokabilecek. Ancak, kullanıcıların kendilerine veya başkalarına zarar riski taşıdığı durumlarda bu yetenek kullanılmayacak.

DENEYSEL BİR ADIM VE GELECEĞE BAKIŞ

Anthropic, özelliği hâlen “süregelen bir deney” olarak nitelendiriyor ve yaklaşımını geliştirmeye devam edeceklerini belirtiyor. Kullanıcılar, bir sohbet sona erse bile aynı hesap üzerinden yeni bir konuşma başlatabilecek ve problemli sohbetin farklı dallarını oluşturarak yeniden etkileşime geçebilecek.

Bu adım, yapay zekâ alanında etik ve güvenlik tartışmalarını yeniden gündeme taşıyor. Kullanıcıların taleplerine karşı yapay zekânın kendi sınırlarını belirlemesi, gelecekte AI refahı kavramının önemini artırabilir. Anthropic’in attığı bu adım, yapay zekânın sadece insan odaklı değil, kendi sistemsel sağlığı açısından da korunabileceği bir dönemin habercisi olarak yorumlanıyor.

Related Posts

Çinli bilim insanları, hamilelik ve doğumu da robotlara taşıyor

Çinli bir teknoloji firması, embriyo gelişimini başından sonuna kadar simüle edebilecek bir robot üzerinde çalışıyor. Yapay rahimle donatılacak sistemin ilk prototipi önümüzdeki yıl tanıtılacak. Ama etik tartışmaları şimdiden başlamış durumda.

Gökyüzünde muhteşem buluşma: En parlak iki gezegen “öpüşecek”

Venüs ve Jüpiter, yarın sabah erken saatlerde birleşerek ağustos ayının en önemli gökyüzü gözlem olaylarından birini meydana getirecek.

Çin’li BYD dünyayı kasıp kavuracak! Yeni model Track Edition’ın özellikleri belli oldu

Elektrikli otomobilleri ile piyasada kendine geniş yer bulan BYD, 3.019 beygir gücündeki Yangwang U9 “Track Edition” modelinin özellikleri belli oldu.

Yıllardır boşta bekleyen telefonlar alev almaya başladı: Evleri yakan hataya düşmeyin!

Evde yıllardır çekmecede bekleyen eski telefonlar, sandığınızdan çok daha büyük bir tehlike barındırıyor. Uzmanlara göre, kullanılmayan cihazların pilleri zamanla bozulup şişerek patlama veya yangına yol açabiliyor. Özellikle sıcak yaz günlerinde bu risk katlanarak artıyor.

Türkiye’nin hava savunma sistemi Sinop’ta şekilleniyor

Savunma Sanayii Başkanı Haluk Görgün, yüksek irtifa hava savunma sistemi SİPER Ürün-1’in Sinop Atış Alanında Seri İmalat Kabul Testlerinin başarıyla tamamlandığını ve sistemin envanterdeki yerini daha da sağlamlaştırdığını bildirdi. Görgün, şöyle …

HONOR, 2025 Espor Dünya Kupası’nın resmi akıllı telefon ortağı oldu

HONOR, 7 Temmuz – 24 Ağustos tarihleri arasında Riyad’da gerçekleşecek 2025 Espor Dünya Kupası’nda mobil espor turnuvalarının resmi akıllı telefon ortağı olarak görev alacak.

vozolcenter.com