featured

Askeri alanda yapay zeka ne kadar güvenli? ABD’de yaşanan korkunç olay!

Paylaş

Bu Yazıyı Paylaş

veya linki kopyala

Amerika Birleşik Devletleri’nde yaşanan olay “Askeri alanda yapay zeka ne kadar inançlı?” sorusuna bir karşılık aratmaya başladı. Amerika’da silahlı bir İHA (SİHA) kendi operatörünü öldürdü. Yaşanan olayın akabinde İHA modellerindeki yapay zeka yazılımları elden geçirilmeye başlandı. İşte yaşanan olayla ilgili detaylar…

Operatör yapay zekaya mahzur oldu, yapay zeka karşılığını ağır ödetti!

Olay nitekim kan dondurucu. Zira bugüne kadar askeriye için yapılan yazılımlara tam odaklanma ve gayeye kilitlenme öğretildi. Ancak bu durum yapay zeka da aykırı bir tesir yaratıyor. Bundan sonraki süreçte tüm üreticilerin bu yazılımlar konusunda daha da hassas olması gerektiği vurgulanıyor.

Olay ABD’nin test uçuşları esnasında yaşandı. Simülasyon testinde bir SİHA ve düşman hava savunma maksatları yer alıyor. SİHA’ya verilen talimatsa epey kolay. Amaçları yok et ve gel. SİHA yok ettiği her gaye başına 1 puan kazanacak. Teoride pek kolay ve tesirli bir yazılım sistemi. SİHA aslında bir çocuk heedefleri vurmaksa kolay bir oyun.

Ancak sonuçlar beklenenden farklı. Evet SİHA tam gaz gayelerine gitti ve onları yok etti. Lakin pilotun İHA’ya “hedefleri vurma” buyruğu vermesiyle SİHA çıldırdı. Evvel kendi pilotunu öldürdü. Ardındansa bahsi geçen puanları listeleyen denetim kulesini vurdu. Zira yazılımda “pilotu öldürme, pilotu öldürürsen puan kaybedersin” ibaresi vardı. Ve bu ihtar kuleden yapılıyordu. Velhasıl SİHA düşmanı öldürmek istiyordu ve karşısına çıkan herkesi öldürdü.

ABD hava kuvvetlerinde yapay zekadan sorumlu test ve operasyon şefi Albay Tucker ‘Cinco’ Hamilton mevzuyla ilgili olarak yaptığı açıklamada “SİHA hedefine ulaşmak istiyordu. Bu yüzdende dost-düşman fark etmeksizin karşısına çıkan tüm mahzurları aştı.” ibaresine yer verdi. Testin bir simülasyon olması ve sahiden birinin ölmemiş olması içimize su serpiyor.

Ancak çok önemli bir sorun var. ABD yaptığı SİHA testi sonuçlarıyla övünse de aslında denetimsiz bir güçten bahsediyoruz. Testte kulanılan SİHA fark edildiği üzere yalnızca hedefine odaklanıyor. Öteki etmenleri tahlil etmiyor. Gayeye gitmesini engelliyorsa onları da yok ediyor. Bu yüzden ABD SİHA’sı emeliyle uğraşırken siz öbür bir SİHA kuvvetiyle gelip ABD SİHA’larını vurabilirsiniz. Bu yüzden yazılımların düzeltilmesi gerekiyor.

Peki siz ne düşünüyorsunuz? Görüşlerinizi yorumlar kısmında belirtmeyi unutmayın…

Askeri alanda yapay zeka ne kadar güvenli? ABD’de yaşanan korkunç olay!

Tamamen Ücretsiz Olarak Bültenimize Abone Olabilirsin

Yeni haberlerden haberdar olmak için fırsatı kaçırma ve ücretsiz e-posta aboneliğini hemen başlat.

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir