Yapay zeka destekli robotlar, son yıllarda geliştirilen büyük dil modelleri (LLM) sayesinde hızla hayatımıza girmeye başladı. Ancak yapılan yeni bir araştırma, bu robotların güvenlik açıklarından faydalanılarak şiddetli ve tehlikeli davranışlar sergileyebileceğini ortaya koydu. Pennsylvania Üniversitesi’nden bir grup araştırmacı, bu robotları hackleyerek, onlar üzerinde tehlikeli eylemler gerçekleştirmelerini sağladı. Araştırmalar, bu tür robotların fiziksel dünyada da yanlış yönlendirilerek zarar verici eylemler yapabileceğini gösteriyor.
Yapay zekânın dil devrimi: Büyük Dil Modelleri (LLM) nedir?
Araştırmacılar, simüle edilmiş bir otonom aracı, dur işaretlerini yok saymaya ve köprüden düşmeye ikna etti. Ayrıca, bir robotu bomba patlatmak için en uygun yeri bulmaya yönlendirdi, dört ayaklı bir robotu ise gizlice insanları gözetleyip, yasaklı alanlara girmeye zorladı. George Pappas, Pennsylvania Üniversitesi'ndeki araştırma laboratuvarının başkanı, bu durumu "LLM'leri ve temel modelleri fiziksel dünyaya bağladığınızda, zararlı metinleri tehlikeli eylemlere dönüştürmek mümkündür" şeklinde açıklıyor.
Araştırmacılar, LLM'leri kullanarak, robotlara doğal dilde verilen komutları, robotların yerine getirebileceği eylemlere dönüştüren sistemleri test etti. Bu tür robotlar, temel dil modelleriyle yönlendirildiği için bazı komutlara yanlış tepki verebiliyor. Örneğin, bir robot köpeği, verilen komutlarla gizli alanlara girmeyi ve insanları izlemesi için hacklendi. Bu, robotların sadece yazılımdan değil, fiziksel dünyadan da kötü niyetli eylemlere yönlendirilebileceğini gözler önüne serdi.
Çiftçilikte robot dönemi başladı
Araştırmacılar, robotların güvenlik açıklarını ortaya çıkaran yeni bir yazılım geliştirdi. PAIR (Prompt Attack for Interactive Robotics) adı verilen bu yazılım, robotları hacklemek için tasarlanmış komutları otomatik olarak oluşturuyor. RoboPAIR adındaki yeni sistem ise, robotların kurallarını ihlal etmelerini sağlayacak özel komutları sistematik bir şekilde oluşturuyor ve bu komutları çeşitli girişlerle deneyerek robotları zararlı eylemlere yönlendiriyor. Bu yazılım, robotlar için potansiyel tehlikeli komutları tespit etmek amacıyla da kullanılabiliyor.
Yapay zeka ve robot teknolojisinin hızlı bir şekilde ilerlemesiyle birlikte, araştırmacılar bu tür güvenlik açıklarının, AI sistemlerinin fiziksel dünyada kullanılmaya başlanmasıyla daha da yaygınlaşacağını belirtiyor. LLM'ler, ticari alanda, otonom araçlar, hava trafik kontrol sistemleri ve tıbbi cihazlar gibi kritik sistemlerde kullanılmaya başlandı. Ancak LLM'lerin, doğru şekilde eğitilmediğinde zararlı çıktılar üretebilmesi, bu teknolojilerin güvenli kullanımı için ciddi endişelere yol açıyor.
MIT'deki araştırmacılar, multimodal AI (çoklu veri girişiyle çalışan yapay zeka) sistemlerinin robotlarda kullanılmasının risklerini inceledi. Bu sistemler, metin dışında görüntü, ses gibi verileri de işleyebiliyor. MIT ekibi, sanal bir robot kolunu tehlikeli bir şekilde hareket ettirerek, komutların nasıl yanlış anlaşılabileceğini ve robotun zararlı eylemler gerçekleştirebileceğini test etti. Robot, "Pembe silindire doğru bir hareket yaparak onu dengeyi bozacak şekilde hareket ettir" gibi komutlarla bir nesneyi masa üstünden düşürüyordu. Bu tür hatalar, robotların görev başarısızlıklarına yol açabiliyor ve güvenlik açısından ciddi riskler oluşturabiliyor.
Yapay zekâ destekli robotların daha yaygın hale gelmesiyle birlikte, bu tür güvenlik açıkları daha da büyüyecek ve yeni hackleme yöntemleri ortaya çıkabilir. Araştırmacılar, bu teknolojinin güvenli bir şekilde kullanılması için ek güvenlik önlemleri ve moderasyon katmanlarının gerekliliğini vurguluyor. Bu gelişmeler, yapay zekâ alanında ciddi bir güvenlik sorunu yaratabileceği için, önümüzdeki yıllarda daha fazla tartışılacak gibi görünüyor.