Teknoloji devi Google, geliştirdikleri yapay zeka yazılımlarının bundan böyle silah endüstrisi ya da "makul olmayan" gözetleme sistemleri alanında kullanılmasına izin verilmeyeceğini duyurdu.
Sözkonusu karar, şirketin yeni oluşan alanlarla ilgili geliştirdiği yeni ilkeler bağlamında alındı. Google'ın benimsediği yeni ilkelere göre, şirket fiziksel zarara yol açabilecek yapay zeka uygulamaları geliştirmeyecek. İlkelerde "uluslararası düzlemde kabul edilmiş insan haklarına" vurgu yapılıyor.
Google'ın çatı şirketi Alphabet tarafından Perşembe günü yapılan açıklamada, sözkonusu kısıtlamanın ABD Savunma Bakanlığı ile yapılan işbirliğinden ötürü son aylarda binlerce çalışanının protestosuna maruz kalan Google yönetimine yardımcı olacağı belirtildi. Google, ABD ordusuyla dronelar tarafından çekilen videolardaki nesnelerin tespit edilmesi konusunda işbirliği yapıyordu. "Maven" adlı proje kapsamında, kullanılan algoritmalar aracılığıyla insansız hava araçlarından alınan görüntülerdeki insanların kim olduğu otomatik olarak teşhis edilebiliyor.
HÜKUMET-GOOGLE İŞBİRLİĞİ SÜRECEK
Şirketin CEO'su Sundar Pichai, Perşembe günü yayınladığı bir blog yazısında, Google'ın hükümetlerle daha ziyade siber güvenlik, askeri işe alım ve arama-kurtarma alanlarında işbirliği yapmayı tercih edeceğini açıkladı.
Pichai, "Silahlarda kullanılması amaçlı yapay zeka geliştirmeyeceğimizin yanı sıra hükümet ve orduyla diğer birçok alanda işbirliğimize devam edeceğimizi açıkça belirtmek isteriz" ifadelerini kullandı.
New York Times ve Buzzfeed gibi çeşitli Amerikan medya kuruluşları, birkaç gün önce Google'ın Pentagon ile birlikte yürüttüğü askeri yapay zeka projesini sürdürmeme kararı aldığını açıklamıştı.