Mašīnslepkavas spoks turpinās. Kam tic prezidents Putins?
Tehnoloģija

Mašīnslepkavas spoks turpinās. Kam tic prezidents Putins?

Militāro robotu atbalstītāji (1) apgalvo, ka automatizētie ieroči sniedz vairāk iespēju cilvēku dzīvības aizsardzībai. Mašīnas spēj pietuvoties ienaidniekam tuvāk nekā karavīri un pareizi novērtēt draudus. Un emocijas dažkārt paralizē spēju pieņemt pareizos lēmumus.

Daudzi slepkavu robotu aizstāvji ir pārliecināti, ka tie padarīs karus mazāk asiņainus, jo ies bojā mazāk karavīru. Viņi atzīmē, ka roboti, lai arī nejūt žēlumu, ir imūni pret negatīvām cilvēku emocijām, piemēram, paniku, dusmām un atriebību, kas bieži noved pie kara noziegumiem.

Cilvēktiesību aktīvisti izmanto arī argumentu, ka militārie spēki pēdējā pusgadsimta laikā ir izraisījuši milzīgu civiliedzīvotāju upuru samazināšanos, un armijas robotizācija ļauj izveidot mehānismu, kas stingrāk īstenotu kara likumus. Viņi apgalvo, ka mašīnas kļūs ētiskas, ja tās būs aprīkotas ar programmatūru, kas liks tām pakļauties kara likumiem.

Protams, milzīgs skaits cilvēku, tostarp ļoti slaveni, gadiem ilgi nepiekrīt šim viedoklim. 2013. gada aprīlī tika uzsākta starptautiska kampaņa ar saukli (2). Tās ietvaros nevalstiskās organizācijas pieprasa pilnīgu autonomo ieroču lietošanas aizliegumu. Eksperti no daudzām valstīm pirmo reizi apsēdās, lai apspriestu šo tēmu ANO atbruņošanās konferencē Ženēvā 2014. gada maijā. Ziņojumā, ko dažus mēnešus vēlāk publicēja Human Rights Watch un zinātnieki no Hārvardas universitātes, teikts, ka autonomie būtu pārāk bīstami - viņi paši izvēlējās savus mērķus un nogalināja cilvēkus. Tajā pašā laikā nav īsti skaidrs, kam būtu jāsauc pie atbildības.

2. Demonstrācija akcijas "Apturiet slepkavas robotus" ietvaros

Ko var darīt mazo dronu bars

Strīdi par slepkavām robotiem (ROU) ir notikuši gadiem ilgi un neizzūd. Pēdējie mēneši ir atnesuši jaunus mēģinājumus apturēt militāros robotus un ziņojumu vilni par jauniem šāda veida projektiem, no kuriem daži pat tiek pārbaudīti reālos kaujas apstākļos.

2017. gada novembrī video, kurā redzams nāvējoši mini-dronu bari ., šausminošā darbībā. Skatītāji redzēja, ka mums vairs nav vajadzīgas smagās kara mašīnas, tanki vai raķetes, ko plēsēji meta masveidā un ar ložmetējiem. Vadošais režisors Stjuarts Rasels, Bērklija mākslīgā intelekta profesors, saka:

-

Pagājušajā pavasarī piecdesmit profesori Pasaules vadošās universitātes ir parakstījušas aicinājumu Korejas progresīvās zinātnes un tehnoloģiju institūtam (KAIST) un tā partnerim Hanwha Systems. viņi paziņoja, ka nesadarbosies ar universitāti un neuzņems KAIST viesus. Iemesls bija abu iestāžu veiktā "autonomo ieroču" būvniecība. KAIST noliedza mediju ziņas.

Drīz pēc tam ASV vairāk nekā 3 Google darbinieki protestēja pret uzņēmuma darbu militārpersonām. Viņi bija nobažījušies, ka Google sadarbojas ar valdības projektu ar koda nosaukumu Maven, kura mērķis ir izmantot AI, lai atpazītu objektus un sejas militāro dronu videoklipos. Uzņēmuma vadība stāsta, ka Maven mērķis ir glābt dzīvības un glābt cilvēkus no nogurdinoša darba, nevis agresijas. Protestētājus tas nepārliecināja.

Nākamā cīņas daļa bija deklarācija mākslīgā intelekta speciālisti, t.sk. strādājot pie Google projekta un Elona Muska. Viņi sola neattīstīt robotus. Viņi arī aicina valdības pastiprināt centienus regulēt un ierobežot šos ieročus.

Paziņojumā daļēji teikts, ka "lēmumu atņemt cilvēka dzīvību nekad nedrīkst pieņemt mašīna". Lai gan pasaules armijas ir aprīkotas ar daudzām automātiskām ierīcēm, dažkārt ar augstu autonomijas pakāpi, daudzi eksperti baidās, ka nākotnē šī tehnoloģija var kļūt pilnīgi autonoma, ļaujot nogalināt bez cilvēka operatora un komandiera iesaistīšanās.

Eksperti arī brīdina, ka autonomās slepkavošanas mašīnas var būt vēl bīstamākas par "kodolieročiem, ķīmiskajiem un bioloģiskajiem ieročiem", jo tās var viegli izkļūt no kontroles. Kopumā pagājušā gada jūlijā vēstuli Dzīvības nākotnes institūta (FGI) paspārnē parakstīja 170 organizācijas un 2464 privātpersonas. 2019. gada pirmajos mēnešos grupa ar FLI saistītu medicīnas zinātnieku vēlreiz aicināja izstrādāt jaunu vēstuli, kas aizliedz mākslīgā intelekta (AI) kontrolētu ieroču izstrādi.

Pagājušā gada augusta ANO sanāksme Gņevo par militāro "slepkavu robotu" iespējamo tiesisko regulējumu beidzās ar panākumiem ... mašīnām. Valstu grupa, tostarp ASV, Krievija un Izraēla, bloķēja turpmāko darbu pie starptautiska šo ieroču aizlieguma ieviešanas (konvencijas par noteiktu konvencionālo ieroču lietošanas aizliegšanu vai ierobežošanu projekts, CCW). Tā nav nejaušība, ka šīs valstis ir pazīstamas ar savu darbu pie modernām autonomo un robotizēto ieroču sistēmām.

Krievija koncentrējas uz kaujas robotiem

Prezidents Vladimirs Putins bieži tiek citēts, sakot par militārajām mākslīgā intelekta sistēmām un kaujas robotiem:

-.

atklāti runā par autonomo ieroču attīstību. Tās bruņoto spēku ģenerālštāba priekšnieks ģenerālis Valērijs Gerasimovs nesen militārajai ziņu aģentūrai Interfax-AVN sacīja, ka robotu izmantošana būs viena no galvenajām turpmāko karu iezīmēm. Viņš piebilda, ka Krievija cenšas pilnībā automatizēt kaujas lauku. Līdzīgus komentārus izteica vicepremjers Dmitrijs Rogozins un aizsardzības ministrs Sergejs Šoigu. Federācijas padomes Aizsardzības un drošības komitejas priekšsēdētājs Viktors Bondarevs sacīja, ka Krievija cenšas attīstīties Roju tehnoloģijastas ļautu dronu tīkliem darboties kā vienai vienībai.

Tas nav pārsteidzoši, ja atceramies, ka pirmie teletanki tika izstrādāti Padomju Savienībā 30. gados. Tos izmantoja Otrā pasaules kara sākumā. Šodien arī Krievija rada tanku roboti kļūt arvien autonomāki.

Putina valsts nesen nosūtīja savu uz Sīriju Bezpilota kaujas mašīna Uran-9 (3). ierīce zaudēja kontaktu ar zemes vadības punktiem, radās problēmas ar piekares sistēmu, un tās ieroči nedarbojās perfekti un netrāpīja kustīgajiem mērķiem. Tas neizklausās īpaši nopietni, bet daudzi uzskata, ka Sīrijas salvete ir labs kaujas tests, kas ļaus krieviem uzlabot mašīnu.

Uzņēmums Roscosmos ir apstiprinājis provizorisku plānu līdz šī gada augustam nosūtīt uz Starptautisko kosmosa staciju divus robotus. Fjodors (4) bezpilota savienībā. Nevis kā slodze, bet. Tāpat kā filmā RoboCop, Fjodors lieto ieroci un demonstrē nāvējošu šaušanas prasmi šaušanas vingrinājumu laikā.

Jautājums ir, kāpēc robots kosmosā būtu bruņots? Pastāv aizdomas, ka lieta nav tikai zemes lietojumos. Tikmēr uz Zemes Krievijas ieroču ražotājs Kalašņikovs parādīja vizualizāciju robots Igorekskas, lai arī izraisīja daudz smieklu, liecina, ka uzņēmums nopietni strādā pie autonomām kaujas mašīnām. 2018. gada jūlijā Kalašņikovs paziņoja, ka būvē ieroci, ko izmanto, lai pieņemtu lēmumus “šaut vai nešaut”.

Šai informācijai jāpievieno ziņojumi, ka krievu ieroču kalējs Digtjarevs izstrādājis nelielu autonomā tvertne Nerekht kas var klusi virzīties uz savu mērķi un pēc tam eksplodēt ar spēcīgu spēku, lai iznīcinātu citas vai veselas ēkas. Kā arī Tanks T14 armija , Krievijas bruņoto spēku lepnums, bija paredzēts iespējamai tālvadībai un bezpilota braukšanai. Sputnik apgalvo, ka Krievijas militārie inženieri strādā pie tā, lai T-14 kļūtu par pilnībā autonomu bruņumašīnu.

Iebildumu direktīva

Pati ASV armija ir noteikusi diezgan skaidru ierobežojumu savu ieroču autonomijas līmenim. 2012. gadā ASV Aizsardzības departaments izdeva Direktīvu 3000.09, kas nosaka, ka cilvēkiem ir jābūt tiesībām iebilst pret bruņotu robotu rīcību. (lai gan var būt daži izņēmumi). Šī direktīva paliek spēkā. Pašreizējā Pentagona politika paredz, ka noteicošajam faktoram ieroču lietošanā vienmēr ir jābūt personai, un tādam spriedumam arī jābūt. atbilst kara likumiem.

Lai gan amerikāņi jau vairākus gadu desmitus ir izmantojuši lidojošos, Predator, Reaper un daudzas citas supermašīnas, tās nebija un nav autonomi modeļi. Operatori tos kontrolē attālināti, dažkārt no vairāku tūkstošu kilometru attāluma. Karstā diskusija par šāda veida mašīnu autonomiju sākās līdz ar prototipa pirmizrādi. drons X-47B (5), kas ne tikai lidoja neatkarīgi, bet varēja arī pacelties no gaisa kuģa pārvadātāja, nolaisties uz tā un uzpildīt degvielu gaisā. Nozīme ir arī šaut vai bombardēt bez cilvēka iejaukšanās. Tomēr projekts joprojām tiek testēts un pārskatīts.

5. Bezpilota X-47B testi uz amerikāņu lidmašīnu bāzes kuģa

2003. gadā Aizsardzības ministrija sāka eksperimentēt ar mazu tankam līdzīgu robotu. SPOES aprīkots ar ložmetēju. 2007. gadā viņš tika nosūtīts uz Irāku. tomēr programma beidzās pēc tam, kad robots sāka neregulāri uzvesties, neregulāri kustinot savu šauteni. Rezultātā ASV militārpersonas daudzus gadus atteicās no bruņotu zemes robotu izpētes.

Tajā pašā laikā ASV armija palielinājusi savus izdevumus operācijām no 20 miljoniem dolāru 2014. gadā līdz 156 miljoniem dolāru 2018. gadā. 2019. gadā šis budžets jau ir pieaudzis līdz 327 miljoniem USD. Tas ir kumulatīvs pieaugums par 1823% tikai dažu gadu laikā. Eksperti saka, ka jau 2025. gadā ASV militārpersonām varētu būt kaujas lauks vairāk robotu karavīru nekā cilvēku.

Pēdējā laikā daudz strīdu izraisījusi un paziņojusi ASV armija ATLAS projekts () - automātiski. Plašsaziņas līdzekļos tas tika uzskatīts par iepriekš minētās Direktīvas 3000.09 pārkāpumu. Taču ASV armija noliedz un apliecina, ka personas izslēgšana no lēmumu pieņemšanas cikla nav iespējama.

AI atpazīst haizivis un civiliedzīvotājus

Tomēr autonomo ieroču aizstāvjiem ir jauni argumenti. prof. Džordžijas Tehnoloģiju institūta robotists Ronalds Arkins savās publikācijās norāda, ka Mūsdienu karadarbībā viedie ieroči ir būtiski, lai izvairītos no civiliedzīvotāju upuriem, jo ​​mašīnmācīšanās metodes var efektīvi palīdzēt atšķirt kaujiniekus no civiliedzīvotājiem un svarīgiem un nesvarīgiem mērķiem.

Šādu AI prasmju piemērs ir patrulēšana Austrālijas pludmalēs. droni Little Ripperaprīkots ar SharkSpotter sistēmu, ko izstrādājusi Sidnejas Tehnoloģiju universitāte. Šī sistēma automātiski skenē ūdenī haizivis un brīdina operatoru, kad tā redz kaut ko nedrošu. (6) Tas var identificēt cilvēkus, delfīnus, laivas, vējdēļus un objektus ūdenī, lai atšķirtu tos no haizivīm. Tas ar augstu precizitāti var atklāt un identificēt aptuveni sešpadsmit dažādas sugas.

6. SharkSpotter sistēmā atpazītas haizivis

Šīs uzlabotās mašīnmācīšanās metodes paaugstina gaisa izlūkošanas precizitāti par vairāk nekā 90%. Salīdzinājumam – cilvēks operators līdzīgā situācijā aerofotogrāfijās precīzi atpazīst 20-30% objektu. Turklāt pirms trauksmes signāla identifikāciju joprojām pārbauda cilvēks.

Kaujas laukā operators, redzot attēlu uz ekrāna, diez vai var noteikt, vai cilvēki uz zemes ir iznīcinātāji ar AK-47 rokās vai, piemēram, zemnieki ar līdakām. Arkins atzīmē, ka cilvēki mēdz "redzēt to, ko viņi vēlas redzēt", īpaši stresa situācijās. Šis efekts veicināja USS Vincennes nejaušu Irānas lidmašīnas notriekšanu 1987. gadā. Protams, pēc viņa domām, mākslīgā intelekta vadīti ieroči būtu labāki par pašreizējām "viedajām bumbām", kas nav īsti jūtīgas. Pagājušā gada augustā Saūda Arābijas lāzervadāma raķete Jemenā trāpīja autobusam, kas bija pilns ar skolēniem, nogalinot četrdesmit bērnus.

"Ja skolas autobuss ir pareizi marķēts, to identificēt autonomā sistēmā var būt salīdzinoši viegli," apgalvo Arkins Popular Mechanics.

Tomēr šķiet, ka šie argumenti nepārliecina kampaņas dalībniekus pret automātiskajiem slepkavām. Papildus slepkavas robotu draudiem jāņem vērā vēl kāds svarīgs apstāklis. Pat "labu" un "uzmanīgu" sistēmu var uzlauzt un pārņemt ļoti slikti cilvēki. Tad visi argumenti militārās tehnikas aizsardzībā zaudē spēku.

Pievieno komentāru