Ізраільскі ўдар па Газе. Фота: AP Photo/Fatima Shbair

Ізраільскі ўдар па Газе. Фота: AP Photo/Fatima Shbair

Артыкул пра гэтую сістэму, якая вядомая як «Евангелле» і значна паўплывала на пошук дапушчальных цэляў для атак, пераказвае выданне Магілёў.media.

Сваю першую вайну з выкарыстаннем штучнага інтэлекту Ізраіль праводзіў яшчэ ў 2021 годзе. Гэта была 11-дзённая вайна, падчас якой прадстаўнікі ізраільскай арміі заявілі пра актыўнае выкарыстанне машыннага навучання і перадавых вылічэнняў. Па выніках канфлікту ў траўні 2021 года Ізраіль заявіў пра небывалы поспех і знішчэнне ваеннай інфраструктуры ХАМАС.

Сучасная вайна паміж Ізраілем і ХАМАС дае ЦАХАЛ беспрэцэдэнтна большыя магчымасці для выкарыстання перадавых ваенных тэхналогій на тэатры баявых дзеянняў. Брытанскае выданне The Guardian сабрала і прааналізавала падрабязнасці пра выкарыстанне ізраільцянамі сістэмы штучнага інтэлекту пад назвай «Хабсора», альбо «Евангелле» — па-беларуску.

Да 100 цэляў за дзень

Сакрэтны аддзел адміністрацыі (выяўлення і прызначэння) цэляў для нанясення ўдараў быў створаны ў ЦАХАЛ у 2019 годзе пры разведвальным упраўленні. У кароткай заяве на вэб-сайце ЦАХАЛа сцвярджалася, што ў вайне супраць ХАМАС яна выкарыстоўвае сістэму на аснове штучнага інтэлекту, каб «выяўляць цэлі ў хуткім тэмпе».

ЦАХАЛ заявіў, што «дзякуючы хуткаму і аўтаматычнаму здабыванню інтэлектуальных даных», Евангелле дало рэкамендацыі па таргетынгу для сваіх даследчыкаў «з мэтай поўнага супадзення паміж рэкамендацыямі машыны і ідэнтыфікацыяй, праведзенай чалавекам».

Шматлікія крыніцы, знаёмыя з працэсамі цэлеўказання ЦАХАЛа, пацвердзілі існаванне механізаванага алгарытма, заявіўшы, што ён выкарыстоўваўся для стварэння аўтаматызаваных рэкамендацый для нападу на цэлі — такія, як прыватныя дамы асоб, якія падазраюцца ў дзейнасці ў групоўках ХАМАС або Ісламскі Джыхад.

Авіў Кахаві, які займаў тады пасаду кіраўніка Арміі абароны Ізраіля, заявіў, што новае падраздзяленне, гэта дывізія, «абсталяваная магчымасцямі штучнага інтэлекту» і якая ўключае ў сябе сотні афіцэраў і салдат. У інтэрв’ю, апублікаваным перад бягучай вайной, ён сказаў, што гэта «машына, якая вырабляе велізарныя аб’ёмы даных больш эфектыўна, чым любы чалавек, і ператварае іх у цэлі для ўдару». Па словах Кахаві, «як толькі гэтая машына была актываваная» падчас 11-дзённай вайны Ізраіля з ХАМАС у маі 2021 года, яна стварала 100 цэляў у дзень.

Цяпер — незалежна ад рангу

Новая дывізія са штучным інтэлектам была створана для вырашэння хранічнай праблемы ЦАХАЛа. У ранейшых аперацыях у Газе ў ізраільскай арміі нярэдка проста не хапала цэляў для нанясення ўдараў, паколькі высокапастаўленыя чыноўнікі ХАМАС знікалі ў тунэлях у пачатку любога новага наступу

Як паведамляюць крыніцы выдання, такія сістэмы, як Евангелле, дазволілі ЦАХАЛу выяўляць і атакаваць значна большую групу малодшых аператыўнікаў.

Адзін чыноўнік, які працаваў над прыняццем рашэнняў аб цэлеўказанні ў папярэдніх аперацыях у Газе, сказаў, што ЦАХАЛ раней не нападаў на дамы малодшых членаў ХАМАС. І гэта змянілася ў дачыненні да цяперашняга канфлікту — цяпер дамы падазраваных актывістаў ХАМАС становяцца мішэнню незалежна ад рангу.

Згодна з данымі, апублікаванымі ЦАХАЛам у лістападзе, на працягу першых 35 дзён вайны Ізраіль атакаваў 15 000 аб’ектаў у Газе, што значна вышэй, чым у папярэдніх ваенных аперацыях на гэтай густанаселенай прыбярэжнай тэрыторыі. Для параўнання, у вайне 2014 года, якая доўжылася 51 дзень, ЦАХАЛ разбамбіў ад 5000 да 6000 цэляў.

«Гэта сапраўды як фабрыка»

Крыніцы, знаёмыя з тым, як сістэмы на аснове штучнага інтэлекту былі інтэграваныя ў аперацыі ЦАХАЛа, сказалі, што такія інструменты значна паскорылі працэс стварэння цэлі.

— Мы рыхтуем мішэні аўтаматычна і працуем у адпаведнасці з кантрольным спісам. — паведаміла выданню крыніца, якая раней працавала ў мэтавым аддзеле, +972/Local Call — Гэта сапраўды як фабрыка. Мы працуем хутка і няма часу ўнікаць у цэль. Мяркуецца, што нас ацэньваюць паводле таго, колькі цэляў нам удалося стварыць.

У кароткай заяве ЦАХАЛа аб дзейнасці дывізіі па цэлеўказанні высокапастаўлены чыноўнік сказаў, што падраздзяленне «вырабляе дакладныя атакі на інфраструктуру, звязаную з ХАМАС, наносячы пры гэтым вялікую шкоду праціўніку і мінімальную шкоду асобам, якія не ўдзельнічаюць у баявых дзеяннях».

Былая высокапастаўленая ізраільская ваенная крыніца распавяла Guardian, што аператыўнікі выкарыстоўваюць «вельмі дакладнае» вымярэнне хуткасці грамадзянскіх асоб, якія эвакуіруюцца з будынка незадоўга да ўдару. «Мы выкарыстоўваем алгарытм, каб ацаніць, колькі мірных жыхароў засталося. Ён дае нам зялёны, жоўты, чырвоны, як сігнал святлафора».

Аднак эксперты ў галіне штучнага інтэлекту і ўзброеных канфліктаў, якія размаўлялі з Guardian, заявілі, што скептычна ставяцца да сцвярджэнняў, што сістэмы на аснове штучнага інтэлекту памяншаюць шкоду грамадзянскаму насельніцтва, заахвочваючы больш дакладнае нацэльванне.

«Паглядзіце на фізічны ландшафт Газы, — сказаў Рычард Моес, даследчык, які ўзначальвае групу Article 36, якая змагаецца за зніжэнне шкоды ад зброію — Мы назіраем паўсюднае руйнаванне гарадской тэрыторыі з дапамогай цяжкай выбуховай зброі, таму заявы аб дакладнасці і абмежаванасці прымянення сілы не пацвярджаюцца фактамі.

Фота: Maxar Technologies

Іншая крыніца паведаміла выданню, што Евангелле дазволіла ЦАХАЛу запусціць «фабрыку масавых забойстваў», у якой «акцэнт робіцца на колькасці, а не на якасці». Чалавечае вока, па яго словах, «будзе аглядаць цэлі перад кожнай атакай, але яму не прыходзіцца марнаваць на гэта шмат часу».

У некаторых экспертаў, якія даследуюць штучны інтэлект і міжнароднае гуманітарнае права, такое паскарэнне выклікае шэраг праблем. Доктар Марта Бо, навуковы супрацоўнік Стакгольмскага міжнароднага інстытута даследавання праблем міру, сказала, што нават калі «людзі знаходзяцца ў курсе», існуе рызыка таго, што ў іх узнікне «схільнасць да аўтаматызацыі» і «празмерная залежнасць ад сістэмы, якія аказваюць занадта вялікі ўплыў на складаныя чалавечыя рашэнні».

Мойес з Article 36 сказаў, што, абапіраючыся на такія інструменты, як Евангелле, камандзірам «перадаецца спіс цэляў, створаны камп’ютарам», і яны «неабавязкова ведаюць, як гэты спіс быў створаны, або маюць магчымасць адэкватна аналізаваць і ставіць пад сумнеў рэкамендацыі па таргетынгу».

«Існуе небяспека, — дадаў ён — што калі людзі пачынаюць спадзявацца на гэтыя сістэмы, яны становяцца вінцікамі ў механізаваным працэсе і губляюць здольнасць разумна разглядаць рызыку нанясення шкоды грамадзянскаму насельніцтва».

Чытайце таксама:

ЦАХАЛ загадвае жыхарам паўночных і паўднёвых раёнаў Газы эвакуявацца

Перамір'е паміж Ізраілем і ХАМАС скончылася. ЦАХАЛ аднавіў баявыя дзеянні

Ізраіль дамовіўся пра вызваленне 50 закладнікаў у абмен на перамір'е ў Газе

Клас
11
Панылы сорам
3
Ха-ха
0
Ого
4
Сумна
3
Абуральна
2