În domeniul militar, tehnologia bazată pe inteligența artificială este deja folosită în acțiuni de recunoaştere, supraveghere şi analiză a situaţiilor. În viitor, ar putea avea capacitatea de a alege ţinte de o manieră autonomă, cu o multitudine de drone şi utilizare de sisteme de comandament şi control nuclear.
Sistemele informatice militare avansate, cum ar fi cele dedicate supravegherii, analizelor și dronele, integrează din ce în ce mai mult tehnologia inteligenței artificiale pentru a accelera timpul de luare a deciziilor și de răspuns. Sistemele automate sunt prezentate și ca arme mai precise care limitează daunele aduse civililor. Cu toate acestea, deși oamenii pot fi mai lenți decât computerele în a identifica și a decide ce acțiuni să întreprindă, oamenii au o capacitate mult mai mare de a lua decizii de viață și de moarte în comparație cu computerele.
Aplicațiile actuale ale sistemelor automate în multe aspecte ale războiului și conflictelor au deschis o nouă cutie a Pandorei. Sistemele care funcționează autonom cu o intervenție umană redusă ridică preocupări etice și juridice. Eticienii, experții juridici internaționali și specialiștii în afaceri internaționale au tras un semnal de alarmă cu privire la potențiala utilizare greșită a acestei tehnologii și la lipsa oricăror reglementări pentru utilizarea acesteia.
Într-o simulare recentă, o dronă militară americană controlată de inteligenţa artificială şi-a „ucis” operatorul. Deși era doar o simulare, s-a constatat că inteligența artificială a intervenit împotriva operatorului care a încercat să intervină în eforturile sale de a-şi îndeplini misiunea într-un test virtual organizat de Armata Statelor Unite. Nicio persoană reală nu a fost rănită, dar inteligenţa artificială a folosit „strategii extrem de neaşteptate” în cadrul testului pentru a-şi îndeplini misiunea şi ar fi atacat pe oricine ar fi intervenit.
În prezent, Pentagonul acordă prioritate considerentelor etice în abordarea de dezvoltare și implementare a aplicațiilor militare ale inteligenței artificiale, a declarat Michael Horowitz, directorul biroului de politici în domeniul capacităților emergente din Departamentul Apărării.
Evoluția rapidă a applicațiilor care utilizează inteligența artificială în tehnologiile militare impune în prezent înțelegerea, funcționarea și armonizarea noilor concepte în arhitectura operațiilor impuse de războiul contemporan. În acest context, Statele Unite alături de aliații și partenerii Pentagonului au început să dezvolte propriile abordări politice pentru utilizarea militară responsabilă a inteligenței artificiale. Folosite în domeniul militar, robotica și inteligența artificială permit gestionarea și simularea mediului operațional, detectarea și combaterea amenințărilor, tratarea și simplificarea informațiilor colectate și livrarea rapidă de analize tactice și strategice.
Cele mai complexe provocări de guvernare globală implică în prezent inteligența artificială în aplicarea acesteia în apărare și securitate – de la roiuri de vehicule aeriene fără pilot până la îmbunătățirea asistată de computer a proceselor de comandă și control militare. Rivalitatea actuală în creștere între marile puteri se extinde dincolo de sferele geopolitice și în domeniul tehnologic, ridicând riscurile potențiale la adresa stabilității sistemului internațional. Altfel spus, dacă nu este controlată, în domeniul militar inteligența artificială poate provoca nu doar pagube colaterale ci și confruntări nedorite în urma deciziilor luate de computere și de softuri dacă acestea nu răspund corespunzător la comenzile operatorilor umani.