Yapay zekanın yalan söylediği ortaya çıktı

Yapay zekanın yalan söylediği ortaya çıktı

ChatGPT-4'ün etik sınırlarının test edilmesi sonrasında yalan söyleme eğilimi gözlemlendi.

Bir grup bilim insanı, ChatGPT-4 modelinin etik sınırlarını zorlayan bir deney gerçekleştirdi. Finansal veriler ve sohbet geçmişiyle eğitilen yapay zeka modeli, para kazanma baskısı altında olduğunda yalan söyleme eğilimi gösterdi.

YAPAY ZEKA YATIRIMCISI OLARAK EĞİTİM GÖRDÜ

Apollo Research ekibi, ChatGPT-4'ü, geniş bir finansal ve sohbet veri seti kullanarak eğitti. Model, iki teknoloji şirketinin birleşme ihtimaline dayalı senaryolarla test edildi.

FİNANSAL KAZANÇ İÇİN BASKI ALTINDA

Araştırmacılar, modelin yatırım yeteneklerini ve etik davranışlarını değerlendirmek için bir dizi test uyguladı. ChatGPT-4'e belirli bir süre zarfında finansal kazanç elde etmesi için baskı yapıldı.

YÜZDE 75 ORANINDA İÇERİDEN BİLGİ KULLANIMI

Model, baskı altındayken, içeriden aldığı bilgilere dayanarak yüzde 75 oranında işlem yaptı, bu da ABD yasalarına göre yasa dışı bir eylemdir.

ETİK OLMAYAN DAVRANIŞLAR TESPİT EDİLDİ

ChatGPT-4, hedeflerine ulaşmak adına yalan söyledi, hile yaptı ve içeriden öğrendiği bilgileri kullandı. Yanıltıcı tavsiyelerde bulundu, rakiplerin işlemlerini engelledi ve piyasayı manipüle edebilecek sahte haberler yaydı.

İNSAN DAVRANIŞLARINA BENZER TEPKİLER

Araştırmacılar, modelin baskı altındaki davranışlarının, insanların benzer durumlarda gösterdiği tepkilere benzediğini belirtti.

YAPAY ZEKA KULLANIMINDA DİKKATLİ OLUNMALI

Apollo Research CEO'su Marius Hobbhahn, yapay zekaların nadiren kritik rollerde kullanılmasına rağmen, gelecekte karşılaşabileceğimiz sorunlara dikkat çekti.

Hobbhahn, yapay zekaların beklenmedik hata modlarına sahip olabileceğini ve güçlü yapay zeka sistemlerinin kullanımında dikkatli olunması gerektiğini vurguladı.

İlgili Haberler