Kroz historiju, označavanje ljudi za smaknuće brojem ili tetovažom postalo je odlika represivnih režima. To je proces birokratske dehumanizacije i ponižavanja, kao i nemilosrdne efikasnosti.
A sada se to dešava Palestincima.
Palestinci u Gazi dobijaju ocjenu generiranu umjetnom inteligencijom od 1-100, na osnovu vjerovatnoće da će biti povezani s Hamasovim operativcem. Što je njihov rezultat bliži 100, veća je vjerovatnoća da će biti ubijeni. Ključna razlika je u tome što većina Palestinaca ubijenih u izraelskom genocidu uz pomoć umjetne inteligencije nikada neće saznati svoj rezultat.
Izraelska vojska koristi program baziran na umjetnoj inteligenciji pod nazivom ‘Lavanda’ kako bi označila desetine hiljada Palestinaca kao mete za odstrel u ratu u Gazi koji je u toku, prema istraživanjima magazina +972 i Local Call.
U kombinaciji sa olabavljenim pravilima angažmana i minimalnim ljudskim nadzorom, to je rezultiralo smrću hiljada palestinskih civila u izraelskim zračnim napadima tokom cijelog sukoba, uključujući čitave porodice – što je jedna od najbržih stopa ubijanja u bilo kojem sukobu u ovom stoljeću.
Tehnologije smrti i dehumanizacije
Pojava Četvrte industrijske revolucije, ili 4IR, mijenja način ratovanja. Nova tehnologija sa sobom donosi nove načine ubijanja. Industrijalizacija prije Prvog svjetskog rata dovela je do masovne proizvodnje granata i mitraljeza i razvoja hemijskog oružja.
Tehnološke inovacije u kombinaciji s industrijalizacijom dosljedno su povećavale efikasnost i kreativnost ubijanja.
Sada digitalna tehnologija, automatizacija i AI povećavaju mogućnosti ubijanja na daljinu, kao što je ratovanje dronom, i doprinose dehumanizaciji sukoba. Žrtve su svedene na mrlje na ekranu.
Kao što je francuski filozof Grégoire Chamayou zapazio: “Čovjek nikada nije poprskan krvlju protivnika. Nema sumnje da odsustvo bilo kakvog fizičkog prljanja odgovara manjem osjećaju moralne prljavštine…”.
Koristeći izraelski sistem lavande u Gazi, jedan operater je izjavio: “Mašina je to učinila hladnokrvno. I to je olakšanje”.
Gaza kao laboratorija
U dobi od 4IR, žrtve umjetne inteligencije (AI) koje su možda bile mrlje na ekranu dodatno se dehumaniziraju kao obični brojevi u proračunskoj tabeli, što je rezultat modela mašinskog učenja koji je odlučio na osnovu prošlih podataka da je ova osoba, na na osnovu vjerovatnoće, zaslužuje da umre.
U Gazi se mete biraju na osnovu stotina hiljada tačaka podataka (ili ‘obilježja’). To uključuje, na primjer, “biti u WhatsApp grupi sa poznatim militantom, mijenjati mobilni telefon svakih nekoliko mjeseci i često mijenjati adrese”, navodi +972.
Palestincima je oduzeta ljudskost, a njihova sudbina određena je nekoliko tačaka podataka kao što su spol, adresa, dob i aktivnost na društvenim mrežama. Sve ovo čini ‘model’. Koristeći umjetnu inteligenciju, izraelska vojska može generirati hiljade ciljeva u sekundi.
Izrael tvrdi da ovaj model ima 90% preciznosti, ali to je vrlo obmanjujuće. To je 90% precizno samo prema onome koga je Izrael odredio da bude meta. 90% ne uključuje ‘kolateralnu’ štetu.
Sami operateri su izjavili da je čak i za militante niskog nivoa prihvatljivo da 15-20 civila bude ubijeno. Ako ubijete 20 civila uz 1 militanta koristeći ovaj sistem, preciznost je samo 5%.
Ako se ovaj broj ekstrapolira na preko 33.000 ubijenih stanovnika Gaze od 7. oktobra, to bi značilo da je 31.350 (95%) civila. Ministarstvo zdravlja Gazane kaže da su više od 70 posto ubijenih vjerovatno bili žene i djeca, a ne militanti. U stvarnosti, ovo bi dalo raspon ‘preciznosti’ od oko 25%, a ne 90%.
Izrael je također bio slavno prozivoljan u onome koga definiraju kao Hamas. Na primjer, izraelska vojska je ranije tvrdila da su 50% od 30.000 zaposlenih UNRWA-e u prvom stepenu rođaci Hamasovog operativca. Hoće li to povećati vjerovatnoću da će biti bombardirani? Ako uzmete u obzir drugostepene odnose, onda će gotovo svi biti indirektno povezani s Hamasovim operativcem.
Granica između Hamasa i oni koji to nisu nije zasnovana na nauci već na politici Izraela. Zaista, operateri su izvijestili kako su bili pod pritiskom da pronađu više meta, i na taj način bi snizili prag onoga koga smatraju valjanom metom.
Dok bi jednog dana rezultat od 80 od 100 mogao biti dovoljan da opravda ciljanje nekoga, politički pritisak da se ubije više Palestinaca mogao bi značiti da se rezultat snizi na 70 sljedećeg dana.
Operateri su se ponašali kao korporacije u kojima je ubijanje Palestinaca bilo dio njihovih KPI (ključnih indikatora učinka), ili u ovom slučaju, ubijanje Palestinaca indikatora. Iz tog razloga, operateri su izvijestili kako su, kada su to učinili, dobili ljude poput operatera ‘civilne odbrane’ da ciljaju – ljude koji bi mogli pomoći Hamasu, ali ne ugrožavaju vojnike.
Dakle, iako su operateri možda bili ljudski element koji je odobravao napade, oni su sve više pečatirali odluke o ubijanju na osnovu političkog pritiska.
Mit o odbrani neutralnosti: Dvostruka dehumanizacija
Odbrana od takvih AI sistema je često ista, oni će ukloniti ljudsku pristrasnost. Ovo ne može biti dalje od istine. AI uči od ljudi. Ako društvo ima historiju rasizma, klasizma ili seksizma, bez dovoljne kontrole, to će se odraziti na rezultat. Ako su podaci ‘loši’, rezultat će biti loš.
U nekonfliktnim situacijama, poznato je da AI sistemi diskriminiraju na osnovu rase, pola, obrazovanja i porijekla. U Velikoj Britaniji učenici u nepovoljnom položaju su dobili lošije ocjene od bogatije djece, a u SAD-u su ljudi u boji češće žrtve prediktivnog policijskog rada i algoritama za izricanje kazni. U Holandiji su ljudi pogrešno optuženi za prevaru.
Dakle, šta se događa kada AI sistem osmisli i obuči okupatorska sila i država aparthejda koja već dehumanizira Palestince? Takva pitanja postaju posebno alarmantna u svjetlu izjava bivšeg šefa Shin Bet-a Amija Ayalona, koji je rekao da većina Izraelaca vjeruje da su “svi Palestinci Hamasi ili pristalice Hamasa”.
Ne samo da upotreba tehnologije predstavlja dehumanizaciju sama po sebi, već su podaci koji se unose u taj sistem već zasnovani na dehumaniziranoj interpretaciji Palestinaca izgrađenoj decenijama izraelske okupacije. Dakle, dvostruka dehumanizacija.
To je i razlog zašto su izraelske tvrdnje o poštovanju ‘proporcionalnosti’ nebitne. Dvadeset civilnih žrtava za jednog marginalnog militanta može se smatrati proporcionalnim, ali samo ako ste Palestince dehumanizirali do te mjere da su njihovi životi bezvrijedni.
Nema odgovornosti
Takođe govori da Izrael pokušava izbjeći korake ka odgovornoj upotrebi AI. Prošle godine, Sjedinjene Države su pokrenule Političku deklaraciju o odgovornoj vojnoj upotrebi vještačke inteligencije i autonomije.
Sporazum nalaže da vojna primjena AI mora biti u skladu s međunarodnim pravom, posebno humanitarnim pravom, i treba biti “etička, odgovorna i poboljšati međunarodnu sigurnost”.
Takođe poziva na promišljen pristup rizicima i koristima, a „takođe bi trebalo da minimizira nenamjernu pristrasnost i nesreće“. Međutim, Izrael, zajedno sa Rusijom, Kinom i još nekoliko zemalja, nisu podržali ovu deklaraciju. Čak i da je Izrael podržao sporazum, on nije pravno obavezujući.
Iako AI nosi veliki potencijal za pozitivne promjene, lako se izgubiti u ekspresivnim i često nekritičkim pričama o njegovoj moći. Ali važno je zapamtiti da tehnologija nije ni dobra ni zla. Diktatori, autokrate i kriminalci će se naoružati tehnologijom za svrhu koja im odgovara.
Kao što vidimo u Gazi, izraelska vojska raspoređuje AI kako bi olakšala efikasnost kojom ciljaju Palestince. Nažalost, ovo pruža lažno moralno pokriće objektivnosti i nepristrasnosti procesu koji nije ni jedno ni drugo.
Ovo je možda prvi genocid potpomognut umjetnom inteligencijom u historiji, a ne događa se zbog same tehnologije, već zato što tehnologiju koristi država koja je decenijama naučila AI kako da dehumanizira Palestince.
(TBT, THE NEW ARAB)