7 Nisan 2024

Terminatör gerçek mi olacak? Yapay zekalı ölüm makinelerine önlem

Yapay zekanın savunma sanayisinde de kullanılmaya başlanması bir dizi sorunu ve endişeleri beraberinde getiriyor. Pentagon olası durumlarda yapay zekanın yanıltılabilmesine yönelik çalışmaları önleyebilmek için bir dizi araştırmanın peşinde...

Günümüzde insanlığın elini attığı her alanda artık yapay zekanın da izleri bulunuyor. Sanat, edebiyat, uzay, sağlık, gıda, tarım… Faydaları olduğu kadar her geçen gün gelişen yapay zeka olası zararlar konusunda da insanlığın markajında. Yapay zeka ile savaş alanlarında olası saldırı ve savunma sistemleriyle ilgili uzun yıllardır araştırmalar yapılıyor. Elimizde kullandığımız akıllı telefonlarımızda bile bugün yapay zeka mevcutken, ülkelerin savunma sanayinde yapay zekadan faydalanmayacağını düşünmek fazlasıyla optimist bir yaklaşım.

2022’DEN BERİ ARAŞTIRILIYOR

Yapay zekanın savaş alanlarında kullanımına ilişkin büyük ve önemli çalışmalar yapan ülkelerin başında ABD geliyor. Pentagon, yapay zekayı sadece saldırı ve savunma amaçlı kullanmanın yanı sıra olası saldırganların da yapay zekadan yararlanıp görsel hileler veya manipüle edilmiş sinyaller kullanmasına karşın yapay zeka sistemlerindeki güvenlik açıklarını gidermeye çalışıyor. Aldatmaya Karşı Yapay Zeka Sağlamlığını Garanti Eden (GARD) araştırma programı, 2022’den bu yana olası düşmanca saldırıları araştırıyor.

OTOBÜSÜ TANK OLARAK ALGILAYABİLİR

Yapılan araştırmalar, görünüşte zararsız olan kalıpların yapay zekayı nesneleri yanlış tanımlama konusunda nasıl kandırabildiğini ve bunun da savaş alanında feci sonuçlara yol açma potansiyeline sahip olduğunu gösterdi. Örneğin, bir yapay zeka, doğru görsel gürültü ile etiketlenmişse yolcuların bulunduğu bir otobüsü tank sanabiliyor. Bu da olası savaş alanlarında masum sivillerin ölümüne neden olabilir. Bu da kamuoyunun tepkisini çekeceğinden Pentagon, otonom silahlar geliştirme konusunu çok ciddiye alıyor. Örnekteki gibi olası bir sorun yaşandığında sorunu çözmek için Savunma Bakanlığı yakın zamanda yapay zeka geliştirme kurallarını güncelleyerek tüm sistemler için uygulanabilir hale getirdi.

SEBEPSİZ SALDIRIDA BULUNMA ENDİŞESİ BÜYÜK

Yapay zekanın olası olumsuz kullanımlarına yönelik Pentagon önlemler alsa da savaş karşıtları endişelerini sürdürmeye devam ediyor. Yapay zeka destekli silahların, durumları yanlış yorumlayabileceğinden ve birileri sinyalleri kasıtlı olarak manipüle etmese bile sebepsiz saldırıda bulunabileceği endişesi bu tür silahların özellikle sorunlu bölgelerde kasıtsız gerginliklere yol açabileceğini savunuyorlar. Savunma İleri Araştırma Projeleri Ajansı tarafından yapılan açıklamaya göre, Two Six Technologies, IBM, MITRE, Chicago Üniversitesi ve Google Research’ten GARD araştırmacıları, şu anda daha geniş kapsamlı olarak kullanılabilen bir takım sanal test ortamını, araç kutusunu, kıyaslama veri kümesini ve eğitim materyallerini oluşturdu. İşte onlardan bazıları…

Armory sanal platformu: Düşman savunmalarına ilişkin tekrarlanabilir, ölçeklenebilir ve sağlam değerlendirmelere ihtiyaç duyan araştırmacılar için bir test ortamı görevi görüyor.

Adversarial Robustness Toolbox (ART): Geliştiricilere ve araştırmacılara makine öğrenimi modellerini ve uygulamalarını bir dizi rakip tehdide karşı savunmaları ve değerlendirmeleri için araçlar sağlıyor.

CONText APRICOT veri kümesi: Nesne algılama sistemlerine yönelik fiziksel rakip yama saldırılarının gerçek dünyadaki etkinliği üzerine tekrarlanabilir araştırmalara olanak sağlıyor.

Google Araştırma Bireysel Çalışma deposu: Savunma oluşturmaya yönelik ortak bir fikri veya yaklaşımı temsil eden “test kuklaları” içerir.