İnsanlar tarafından verilen görevlerin yerine getirmek için insan zekasını taklit eden ve topladıkları bilgiler doğrultusunda kendilerini geliştirebilen sistemler olan yapa zeka, günümüzde birçok sistemin ve teknolojinin alt yapısını oluşturuyor. Yapay zeka bilim dalları için de önemli bir rol oynarken, hemen hemen her konuda olduğu gibi bunu da suistimal eden ve kötüye kullananlar mevcut.
Webtekno''dan Miraç Yinan''ın haberine göre; Birleşik Arap Emirlikleri’nde (BAE) yapay zeka aracılığıyla gerçekleştirilen soygun olayı da, yapay zekanın nasıl kötü emeller için kullanılabildiğini gözler önüne seriyor. Geçtiğimiz senenin başlarında, BAE’de bulunan Centennial Bank’ta çalışan bir müdür, daha önce konuştuğu ve sesini tanıdığı bir kişi tarafından arandı. Arayan kişi, şirketin bir satın alma yapmak üzere olduğunu ve bankanın 35 milyon dolar tutarında bazı transferlere izin vermesi gerektiğini söyledi. Fakat ne tanıdığı kişi aramıştı, ne de konuştuğu ses organikti.
Birçok kişinin aynı yöntemle kandırıldığı düşünülüyor
Arayan dolandırıcılar, işlemleri yürütmek için Martin Zelner isminde bir avukat tutmuşlardı. Aranan banka müdürü bu avukat tarafından gelen e-postaları görünce ve ne kadar miktarda paranın gerekli olduğunu teyit edebilince aksi bir durum olduğunu düşünmedi ve para transferlerini yapmaya başladı. Dubai Başsavcılığı soruşturma sonucunda, soyguncuların yapay zekayı kullanarak seslerini değiştirdiğini ve bu şekilde parayı ele geçirdiklerini tespit etti. Avukat Martin Zelner’in soyguna yardım edip etmediği belirlenemedi. Yetkililer, aralarında banka müdürleri ve finans uzmanlarının bulunduğu 17 kişinin de aynı yöntemle dolandırılmış olabileceğini düşündüklerini belirtti.
Eski bir polis memuru şu an siber güvenlik uzmanı olarak çalışan Jake Moore, "Sesli ve görsel derin sahtekarlıklar 21. yüzyıl teknolojisinin büyüleyici gelişimini temsil ediyor, ancak aynı zamanda potansiyel olarak inanılmaz derecede tehlikeli. Bu durum kişisel ve işinizle ilgili veriler için büyük bir tehdit oluşturuyor” ifadelerine yer verdi.