Bilim ve Teknoloji Güncelleme Tarihi: 31 Mar 2022 11:54

Savaşta hayatlar söz konusu olduğunda, yapay zeka dahil olmalı mı?

ABD ordusu savaşta insan hatasını sınırlamak için giderek daha fazla teknolojiye yaslanıyor. Pekiyi savaşta hayatlar söz konusu olduğunda, yapay zeka dahil olmalı mı?

Savaşta hayatlar söz konusu olduğunda, yapay zeka dahil olmalı mı?

Geçen yıl ağustos ayında bir intihar bombacısı Kabil Uluslararası Havalimanı'na saldırdığında, ölüm ve yıkım çok büyüktü: Şiddet, 13'ü ABD askerleri de dahil olmak üzere 183 kişinin ölümüne neden oldu.

Bu tür bir toplu zayiat olayı, özellikle saha çalışanları için göz korkutucu olabilir. Yüzlerce insanın bakıma ihtiyacı var, yakınlardaki hastanelerde sınırlı yer var ve kimin önce bakım alacağına ve kimin bekleyebileceğine dair kararların hızlı bir şekilde alınması gerekiyor. Çoğu zaman, cevap net değildir ve insanlar aynı fikirde değildir.

ABD ordusunun inovasyon kolu olan Savunma İleri Araştırma Projeleri Ajansı (DARPA), karar verme sürecini yapay zekaya devrederek bu zorlu soruları yanıtlamayı hedefliyor. In the Moment adlı yeni bir program aracılığıyla, programın bu ay lansmanından ayrıntılara göre, insan önyargılarını ortadan kaldırmanın hayat kurtarabileceğini savunarak, algoritmalar ve veriler kullanarak stresli durumlarda hızlı kararlar verecek bir teknoloji geliştirmek istiyor .

Program emekleme aşamasında olmasına rağmen, diğer ülkeler yüzlerce yıllık tıbbi triyaj sistemini güncellemeye çalıştıkça ve ABD ordusu savaşta insan hatasını sınırlamak için giderek daha fazla teknolojiye yaslandıkça geliyor . Ancak çözüm, hayatlar söz konusu olduğunda yapay zekanın dahil olup olmayacağını merak eden bazı uzmanlar ve etikçiler arasında kırmızı bayraklar çıkarıyor.

İnsanlar, algoritmalar ve etik arasındaki kesişimi inceleyen bir araştırma görevlisi ve danışman olan Sally A. Applin, DARPA programına atıfta bulunarak, “Yapay zeka, şeyleri saymakta harika” dedi. “Ama birinin hayatıyla ilgili kararın bir makinenin eline geçmesi konusunda [kötü] bir emsal teşkil edebileceğini düşünüyorum.”

ABD, insanların her zaman yapay zeka (AI) silahlarının kontrolünde olacağını söylüyor. Ancak özerk savaş çağı zaten burada.

1958 yılında Başkan Dwight D. Eisenhower tarafından kurulan DARPA, internet, GPS, hava durumu uyduları ve daha yakın zamanda Moderna'nın koronavirüs aşısı dahil olmak üzere sayısız yenilikte rol oynayan projeleri ortaya çıkaran teknoloji araştırmalarında en etkili kuruluşlar arasında yer alıyor .

Ancak AI ile olan geçmişi, alanın iniş çıkışlarını yansıttı. 1960'larda ajans, doğal dil işlemede ve bilgisayarların satranç gibi oyunlar oynamasını sağlamada ilerlemeler kaydetti. 1970'lerde ve 1980'lerde, özellikle bilgi işlem gücündeki sınırlamalar nedeniyle ilerleme durdu.

2000'li yıllardan bu yana, grafik kartları geliştikçe, bilgi işlem gücü ucuzladıkça ve bulut bilişim patlamasıyla birlikte, ajans askeri uygulamalar için yapay zeka kullanımında bir canlanma gördü. 2018'de, AI Next adlı bir program aracılığıyla, AI'yı 60'tan fazla savunma projesine dahil etmek için 2 milyar dolar ayırdı ve bilimin gelecekteki savaşçılar için ne kadar merkezi olabileceğini gösterdi.

Ajans , AI Next programını duyururken, “DARPA, makinelerin sadece araçlardan daha fazlası olduğu bir gelecek öngörüyor” dedi . "DARPA'nın öngördüğü makineler, araçlardan çok meslektaşlar olarak işlev görecek."

Bu amaçla, DARPA'nın In the Moment programı, iki durumda askeri karar vericilere yardımcı olacak algoritmalar oluşturacak ve değerlendirecektir: Özel Harekat birimlerinin ateş altında karşılaştıkları gibi küçük birim yaralanmaları ve Kabil havaalanı bombalaması gibi toplu zayiat olayları. Ajans yetkilileri, daha sonra deprem gibi afet yardım durumlarına yardımcı olacak algoritmalar geliştirebileceklerini söyledi.

Tamamlanması yaklaşık 3,5 yıl sürecek olan program, çoğu erken aşamadaki DARPA araştırmasının bir parçası olan özel şirketlerden hedeflerine yardımcı olmalarını istiyor. Ajans yetkilileri, hangi şirketlerin ilgilendiğini veya program için ne kadar para ayrılacağını söylemiyor.

DARPA'da programın yönetiminden sorumlu program yöneticisi Matt Turek, algoritmaların önerilerinin, triyaj konusunda uzmanlığı olan “son derece güvenilir insanları” modelleyeceğini söyledi. Ancak, deneyimli uzmanların bile şaşıracağı durumlarda akıllıca kararlar almak için bilgilere erişebilecekler.

Örneğin, AI'nın yakındaki bir hastanenin sahip olduğu tüm kaynakları (ilaç mevcudiyeti, kan temini ve tıbbi personelin mevcudiyeti gibi) belirlemeye yardımcı olabileceğini söyledi.

Turek, "Bu, tek bir insan karar vericinin beynine sığmaz," diye ekledi. "Bilgisayar algoritmaları, insanların bulamadığı çözümleri bulabilir."

Bir albay ve NATO'nun Müttefik Dönüşüm Yüksek Komutanlığı tıp bölümünün başkanı olan Sohrab Dalal, klinisyenlerin her bir askere gidip bakım ihtiyaçlarının ne kadar acil olduğunu değerlendirdiği triyaj sürecinin yaklaşık 200 yaşında olduğunu ve canlandırıcı olarak kullanılabileceğini söyledi.

DARPA'ya benzer şekilde ekibi, NATO üyesi ülkeler tarafından kullanılabilecek bir dijital triyaj asistanı oluşturmak için Johns Hopkins Üniversitesi ile birlikte çalışıyor.

NATO'nun geliştirmekte olduğu triyaj asistanı, kaynakların sınırlı olduğu bir durumda ilk önce kimin bakım alması gerektiğine karar vermek için bir model oluşturmak için NATO yaralanma veri setlerini, yaralı skorlama sistemlerini, tahmine dayalı modellemeyi ve hastanın durumuna ilişkin girdileri kullanacak.

Eğitimli bir doktor olan Dalal, "Yapay zekanın gerçekten iyi bir kullanımı" dedi. "Sonuç olarak, hastaları daha iyi tedavi edecek [ve] hayat kurtaracak."

Verilen söze rağmen, bazı etik bilimcilerin DARPA'nın programının nasıl işleyebileceği konusunda soruları vardı: Kullandıkları veri setleri, bazı askerlerin bakım için diğerlerine göre öncelik kazanmasına neden olur mu? O anın sıcağında askerler, sağduyu farklı önerse bile, algoritma onlara ne derse onu yapar mıydı? Ve eğer algoritma birinin ölmesinde rol oynuyorsa, suçlu kim?

New School'da bir AI filozofu olan Peter Asaro, askeri yetkililerin, triyaj karar verme sürecinde algoritmaya ne kadar sorumluluk verildiğine karar vermeleri gerektiğini söyledi. Liderlerin, etik durumların nasıl ele alınacağını da anlamaları gerekeceğini de sözlerine ekledi. Örneğin, büyük bir patlama olursa ve zarar görenler arasında siviller de olsa, ağır yaralansalar bile daha az öncelik alırlar mı dedi.

“Bu bir değerler çağrısı” dedi. "Bu, makineye belirli şekillerde öncelik vermesini söyleyebileceğiniz bir şey, ancak makine bunu çözmeyecek."

Bu arada, AI etiğine odaklanan bir antropolog olan Applin, program şekillenirken, DARPA'nın algoritmasının, örneğin sağlık hizmetlerindeki algoritmalara öncelik verildiğinde olduğu gibi birçok durumda olduğu gibi, önyargılı karar vermeyi sürdürüp sürdürmediğini taramanın önemli olacağını söyledi. Bakım için beyaz hastalar siyahlara tercih ediliyor.

“AI'da önyargı olduğunu biliyoruz; programcıların her durumu öngöremediklerini biliyoruz; AI'nın sosyal olmadığını biliyoruz; AI'nın kültürel olmadığını biliyoruz” dedi. “Bu şeyler hakkında düşünemez.”

Algoritmanın ölüme yol açan tavsiyelerde bulunduğu durumlarda ise ordu ve bir askerin sevdikleri için bir takım sorunlar ortaya çıkıyor. "Bazı insanlar intikam istiyor. Bazı insanlar kişinin pişman olduğunu bilmeyi tercih ediyor” dedi. “AI bunların hiçbirine sahip değil.”

Ekleme Tarihi: 31 Mar 2022 11:54