OpenAI, yapay zekanın ahlaki kararları öngörebilmesini hedefleyen bir araştırmayı desteklemek için Duke Üniversitesi'ne 1 milyon dolarlık hibe sağladı. “Research AI Morality” başlıklı bu proje, 2025 yılına kadar devam edecek. Çalışmanın detayları henüz kamuya açıklanmasa da projenin, insanların ahlaki yargılarını tahmin edebilen algoritmalar geliştirmeye odaklandığı belirtiliyor.
Araştırmanın başındaki isim olan Duke Üniversitesi’nden etik profesörü Walter Sinnott-Armstrong, proje hakkında yorum yapmaktan kaçındı. Ancak Sinnott-Armstrong ve yardımcı araştırmacı Jana Borg’un daha önce yayımladığı çalışmalarda, yapay zekanın bir “ahlaki GPS” gibi kullanılabileceği fikri üzerinde durulmuştu. Bu çalışmalar, yapay zekanın tıbbi organ bağışı gibi karmaşık durumlarda karar vermede nasıl bir rol üstlenebileceğini analiz etmişti.
Projenin ana hedefi, tıp, hukuk ve iş dünyası gibi alanlarda ahlaki çatışmaları içeren durumlarda insan yargılarını öngörebilen algoritmalar tasarlamak. Ancak bu hedefin teknolojik açıdan zorluklar barındırdığı açık. Günümüzdeki yapay zeka sistemleri, etik kavramları tam anlamıyla anlayamıyor. Örneğin, 2021’de geliştirilen ve etik tavsiyeler sunmayı amaçlayan “Ask Delphi” isimli bir araç, bazı temel ahlaki soruları doğru yanıtlasa da ifadeler değiştirildiğinde çelişkili sonuçlar vermişti.
Modern yapay zeka sistemleri, büyük ölçüde internet verileriyle eğitiliyor ve bu durum, Batılı ve sanayileşmiş toplumların değerlerini ön plana çıkaran bir önyargı yaratıyor. Bu nedenle, daha geniş ve kapsayıcı bir veri seti oluşturulması gerekliliği vurgulanıyor. Ayrıca, ahlak kavramının öznel doğası ve farklı etik teorilerin çatışması, bu tür bir algoritmanın geliştirilmesini daha da zorlaştırıyor.
OpenAI’nin bu alandaki çabaları, yapay zekanın gelecekte daha güvenilir ve insan değerleriyle uyumlu hale gelmesi için önemli bir adım olarak görülüyor. Ancak bu yolda atılacak her adım, etik ve teknolojik zorlukların üstesinden gelmeyi gerektiriyor.