În prezent, mai multe companii și laboratoare de cercetare lucrează la sisteme autonome care pot lua decizii critice. De la mașini autonome care aleg între a proteja pasagerul sau pietonul, până la drone militare capabile să identifice și să neutralizeze o țintă fără intervenție umană, prototipurile există deja. Printre ele se numără algoritmi experimentali folosiți în simulări de război, capabili să decidă, în fracțiuni de secundă, cine este o amenințare și cine nu.

Cine controlează deciziile mașinii
Cea mai mare problemă este: cine stabilește parametrii după care AI decide viața sau moartea? În industria auto, dilema mașinii autonome este deja studiată: dacă un accident este iminent, algoritmul alege pe cine să salveze pe baza unor variabile – vârstă, comportament, șanse de supraviețuire. În domeniul militar, controlul este și mai fragil: AI primește un set de reguli, dar contextul real poate devia de la acestea. Etica devine o problemă uriașă când un cod de linii decide cine moare.
Argumentele pro și contra folosirii AI în astfel de decizii
Susținătorii spun că AI poate lua decizii mai rapide și mai „reci”, reducând pierderile colaterale. În teorie, un algoritm nu greșește din panică sau frică. Dar criticii atrag atenția asupra riscului de abuz, erori de programare sau hackeri care ar putea manipula un astfel de sistem. În plus, apare întrebarea: cine răspunde legal când AI ucide din greșeală?
Cazuri reale și ce urmează
În 2020, Organizația Națiunilor Unite a confirmat folosirea unui sistem autonom în Libia, care a atacat o țintă fără ordin direct. În SUA, Pentagonul testează drone care pot selecta ținte independent. Unele spitale experimentează deja AI care decide cine primește prioritate la terapie intensivă. Viitorul poate părea de film SF, dar este aici.
Ce putem face noi, ca oameni
Dezbaterea publică, reglementările internaționale și presiunea civică sunt esențiale. În prezent, tratatele privind armele autonome sunt insuficiente și vagi. Mulți experți cer reguli stricte: omul să aibă ultimul cuvânt în decizii vitale. Fără controale clare, inteligența artificială ar putea transforma o alegere morală într-un calcul statistic rece.
