Логотип
Баннер в шапке 1
Баннер в шапке 2
2024/06/03 11:20:47

Лаванда (Lavender, военная ИИ-система Израиля)

ИИ-система Израиля «Лаванда» отмечает отдельных людей, маршруты их передвижения и места проживания, а затем заносит их в список на ликвидацию.

Содержание

Основные статьи:

2024: Продолжение ударов по командирам ХАМАС с правом убивать сотни гражданских лиц

На май 2024 г израильская армия не занимается массовой генерацией целей для уничтожения в домах мирных жителей, как это было в 2023 году. Большинство домов в секторе Газа уже разрушены или повреждены, а почти все население перемещено. Эти обстоятельства значительно сказались на возможностях ИИ по генерации новых целей. Просто массив объектов и вводных данных для анализа кардинально поменялся.

Однако авиаудары по высокопоставленным командирам ХАМАС продолжаются, и в ходе этих атак военные разрешают убивать `сотни` гражданских лиц – официальная политика, для которой нет исторических прецедентов ни в Израиле, ни даже в последних военных операциях США.Цифровизация в условиях Крайнего Севера. Интервью TAdviser с замгубернатора ЯНАО Константином Оболтиным 3.1 т

Такой подход к ведению боевых действий со стороны армии Израиля свидетельствует о том, что критерии их эффективности кардинально пересматриваются. Нормой становится уничтожение целей с сопутствующим ущербом, исчисляемым двузначными, а то и трехзначными цифрами.

Столь высокий показатель побочного ущерба является исключительным не только для военных конфликтов, в которых АОИ участвовала ранее, но и по сравнению с операциями, которые США ведут в Ираке, Сирии и Афганистане.

Генерал Питер Герстен, заместитель командующего по операциям и разведке в операции по борьбе с ИГИЛ в Ираке и Сирии, в 2021 году рассказывал американскому оборонному журналу, что атака с сопутствующим ущербом в 15 мирных жителей отклонялась. Для ее проведения пришлось бы получить специальное разрешение от главы Центрального командования США генерала Ллойда Остина, который позже был назначен министром обороны США.

Если бы речь шла об Усаме бен Ладене, вы бы получили NCV (Non-combatant Casualty Value) в 30 человек, но если ваша цель – командир низшего звена, его NCV обычно равнялось нулю. Мы долгое время придерживались нулевого показателя, – говорит Герстен.

2023

Тысячи женщин и детей погибли из-за решений системы без участия людей для нанесения ударов в Палестине

На 2024 год такая система начинает использоваться израильскими военными в карательной операции в Палестине. Проект носит название – Lavender («Лаванда»).

Ранее название этой системы нигде не упоминалось. Шесть офицеров израильской разведки, служивших во время войны в секторе Газа и непосредственно участвовавших в выборе целей для уничтожения с помощью ИИ, в общении с журналистами в мае 2024 г подтвердили использование системы «Лаванда». Она сыграла важную роль в беспрецедентных бомбардировках палестинцев, особенно на ранних этапах войны. Израильские военные полагались на результаты работы системы до такой степени, что относились к ее решениям как к человеческим.

Формально система «Лаванда» предназначена для отслеживания всех участников движения ХАМАС и Палестинского исламского джихада (ПИД). Все они, включая младшее звено управления являются потенциальными целями. Источники в израильской разведке сообщили сотрудникам изданий +972 и Local Call, что в первые недели войны АОИ почти полностью полагалась на систему «Лаванда». Система определила 37000 палестинцев и их дома в качестве целей для авиаударов.

На начальном этапе войны ударные части получили разрешение на использование списков целей сгенерированных «Лавандой», без тщательной проверки критериев отбора целей.

Система просто вынесла свой вердикт на основании массивов данных разведки, которые в нее были загружены в качестве обучающей модели.

Система Pegasus используется для контроля всех жителей Газы. Эта система слежения является основным поставщиком данных для «Лаванды». Но для обучения ИИ используются также данные агентурной и спутниковой разведки, данные соцсетей, банковских транзакций, системы тотального видео и мультиспектрального мониторинга установленные на стене по периметру сектора Газа, и многие другие источники информации.

Отдельного внимания заслуживает система Where’s Daddy? («Где папочка?»). Об этой системе также ранее не упоминалось в открытых источниках. Он разработана специально для отслеживания людей и нанесения бомбовых ударов, когда они находились дома со своими семьями.

В начале операции офицеры ЦАХАЛ, ответственные за выбор и подтверждение целей «просто штамповали распоряжения, тратя около 20 секунд на каждую цель». Эти 20 секунд тратили только на подтверждение того, что выбранная «Лавандой» цель была мужского пола. По утверждениям израильтян, система якобы допускала «ошибки» примерно в 10% случаев, иногда отмечая людей, имеющих лишь слабые связи с членами ХАМАС или не имеющих их вовсе.

АОИ систематически наносила удары по целям ночью, когда рядом были их семьи, а не во время боестолкновений. Такой подход был выбран потому, что с точки зрения разведки, было проще обнаружить цели в их домах.

Тысячи палестинцев, большинство из которых женщины и дети, или люди, не участвовавшие в боевых действиях, – были уничтожены израильскими авиаударами, особенно в первые недели войны, из-за решений программы ИИ.

Один из офицеров разведки АОИ сообщил в беседе изданиям +972 Magazine и Local Call, что задача состояла не в том, чтобы убивать членов ХАМАС только тогда, когда они вели боевые действия. Напротив, израильские ВВС без колебаний наносили удары по их домам, в качестве приоритетных целей. Это гораздо проще. Система разработана именно для поиска места жительства или мест регулярного пребывания.

Система «Лаванда» является расширенной версией и дополнением другой системы на основе ИИ – The Gospel («Евангелион»). Информация о «Евагелионе» впервые появилась в ноябре-декабре 2023 года. Принципиальное различие между двумя системами заключается в определении цели. «Евагелион» отмечает здания и сооружения, из которых, по данным разведки, действуют члены ХАМАС или ПИД, и которые являются частью военной инфраструктуры. «Лаванда» отмечает отдельных людей, маршруты их передвижения и места проживания, а затем заносит их в список на ликвидацию.

При нанесении ударов по младшему командному составу ХАМАС, определенному «Лавандой», АОИ предпочитала использовать относительно дешевые неуправляемые боеприпасы, которые могут разрушать целые здания и приводить к значительным жертвам. Тратить дорогие боеприпасы на не приоритетные цели, по мнению израильской разведки, не рационально. Использование высокоточного оружия, которое и так в дефиците, очень затратно. Поэтому было дано разрешение на нанесение ударов по частному сектору, где погибли гражданские лица и целые семьи в качестве «сопутствующего ущерба».

В первые недели войны АОИ приняла беспрецедентное решение, согласно которому при ликвидации одного рядового члена ХАМАС, отмеченного «Лавандой», разрешалось убивать до 20 гражданских лиц. Причем ранее военные не давали разрешение на уничтожение гражданских при ликвидации не приоритетных целей. Позже ситуация кардинально поменялась. В случае, если целью был высокопоставленный представитель ХАМАС в ранге командира батальона или бригады, было разрешено уничтожить 100 гражданских лиц при выполнении задания, писал "Рыбарь".

Генерация целей

Как только включается автоматический режим, генерация целей сходит с ума.

В АОИ термин человеческая мишень (human target) ранее обозначал высокопоставленного военного, которого можно было ликвидировать в его частном доме, даже если там находились гражданские лица. Причем такие действия согласовывал отдел международного права АОИ. Во время предыдущих войн Израиля этот метод считался особенно жестоким – часто он приводил к гибели всей семьи вместе с целью. Поэтому такие цели проверялись очень тщательно. Тогда в АОИ еще оглядывались на такой рудимент как международное право.

Но 7 октября 2023 было принято решение резко усилить эскалацию в регионе. Степень контроля ситуации в Газе через системы Pegasus, Lavander, Where’s daddy и армейских мультиспектральных систем мониторинга территории, которые существуют уже несколько лет, на 99% исключает возможность неожиданного нападения. Но около 1200 граждан Израиля были убиты, а 240 человек похищены во время атаки ХАМАС. В рамках операции АОИ "Железные мечи" была поставлена задача определить всех членов ХАМАС именно как "человеческую цель", независимо от их звания или положения в военной иерархии. Это в корне изменило стратегию выбора целей.

Но появилась техническая проблема для израильской разведки. Ранее для санкционирования уничтожения одной человеческой цели офицеру требовалось пройти сложный и длительный процесс инкриминирования и согласований. Проводилась перекрестная проверка доказательств того, что человек действительно является высокопоставленным членом военного крыла ХАМАС, определялось его место жительства, контактная информация и местонахождение в режиме реального времени. Когда список целей насчитывал всего несколько десятков высокопоставленных членов ХАМАС, сотрудники разведки еще могли справиться с работой по инкриминированию и определению их местонахождения по отдельности.

Однако, когда в список целей вошли десятки тысяч членов ХАМАС высшего, среднего и низшего звена, в АОИ поняли, что необходимо автоматизировать процесс и подключать ИИ. В результате большую часть работы по генерации целей взял на себя ИИ. «Лаванда» сформировала список из примерно 37000 палестинцев, как имеющих связи с ХАМАС. Хотя пресс-секретарь ЦАХАЛа публично отрицает существование такого списка на ликвидацию.

Ситуацию немного прояснили источники в разведке Израиля. По словам одного из них, на момент начала операции АОИ в Газе не было полных списков всех людей причастных к ХАМАС и младшего командного состава, поскольку их регулярный мониторинг ранее не проводился. В этой ситуации руководство АОИ поставило задачу автоматизировать процесс выбора целей, что привело к трагическим и непоправимым последствиям. По словам израильских военных генерация целей просто сошла ума.

Разрешение на работу по целям на основании данных системы ИИ «Лаванда» было получено примерно через две недели войны. Это произошло после того как сотрудники разведки вручную проверили точность случайной выборки из нескольких сотен целей. Выборка показала, что точность определения принадлежности человека к ХАМАС составляет 90%. И руководство АОИ разрешило широкомасштабное применение системы. С этого момента, если «Лаванда» определяла, что человек является членом ХАМАС или ПИД, АОИ воспринимала это как приказ. Повторная проверка решения ИИ или разведданных, на основании которых было принято это решение не проводилось.

Для понимания ситуации большую ценность представляют комментарии офицеров ЦАХАЛ, которые непосредственно работали с «Лавандой». Их высказывания приведены в изданиях +972 и LOCAL CALL:

«В пять утра прилетала авиация и наносила авиаудары по всем домам, которые мы пометили», – говорит Б. «Мы уничтожили тысячи людей. Мы не работали по одиночным целям – были задействованы все автоматизированные системы, и как только кто-то из [отмеченных людей] оказывался дома, он тут же становился целью. Мы бомбили его и его дом».

«Меня очень удивило, что нас попросили нанести авиаудар по дому, чтобы уничтожить простого солдата, чье значение в боевых действиях было столь незначительным», – рассказал другой офицер АОИ. «Я прозвал эти цели «мусорными». Тем не менее, я считал их более этичными, чем цели, которые мы бомбили только для «сдерживания» – высотки, которые эвакуировали и рушили только для того, чтобы вызвать разрушения».

Результаты крайне размытых критериев выбора целей на ранних этапах войны были катастрофичными. Согласно данным палестинского министерства здравоохранения в Газе, только за первые полтора месяца было убито около 15000 палестинцев, большей частью мирных. На сегодня, с учетом гуманитарной катастрофы, счет погибшим идет на сотни тысяч.

В войне с Палестиной в 2024 г офицерам не требуется самостоятельно проверять результаты работы ИИ. Это нужно чтобы сэкономить время и обеспечить массовую генерацию целей.

Отсутствие контроля было допущено, несмотря на внутренние проверки, показавшие, что расчеты «Лаванды» считались точными только в 90% случаев. Другими словами, заранее было известно, что как минимум 10% целей, намеченных для ликвидации, не были членами военного крыла ХАМАС.

«Лаванда» иногда ошибочно отмечала людей, которые по манере общения и паттернам поведения были похожи на известных членов ХАМАС или ПИД. В категорию опасных людей система занесла работников полиции и гражданской обороны, родственников членов ХАМАС, жителей с такими же именами и прозвищами, как у членов ХАМАС, и жителей Газы, которые использовали цифровое устройство, когда-то принадлежавшее члену ХАМАС.

Насколько близко человек должен быть связан с ХАМАС, чтобы система ИИ посчитала его связанным с этой организацией? Это расплывчатая граница. Является ли человек, который не получает зарплату от ХАМАСа, но помогает им в выполнении различных задач, членом ХАМАС? Является ли членом ХАМАС тот, кто был в ХАМАС в прошлом, но сегодня уже нет? Каждый из этих признаков, которые система отметила бы как подозрительные, является неточным.

Аналогичные проблемы существуют и со способностью генераторов целей определять телефон, которым пользуется человек, намеченный для ликвидации. На войне палестинцы постоянно меняют телефоны. Люди теряют связь со своими семьями, отдают телефон другу или жене, могут потерять его. Невозможно полностью положиться на автоматический механизм, который определяет, какой номер телефона кому принадлежит.

В АОИ понимали, что минимальный человеческий контроль не поможет выявить эти ошибки. Поэтому просто отказались от критерия «нулевой ошибки». Ошибки рассматривались чисто статистически. Из-за масштабов генерации целей неформальный протокол гласил: даже если вы не знаете наверняка, что ИИ принял правильное решение, статистически все в порядке. Действуйте.

Тратить время офицеров разведки на проверку информации стоит только в том случае, если целью является высокопоставленный командир ХАМАС. Поэтому в АОИ готовы смириться с погрешностью в использовании ИИ, риском сопутствующего ущерба и гибели мирных жителей.

Причиной такой автоматизации является постоянное стремление генерировать больше целей для уничтожения. В дни, когда не было целей с высоким рейтингом, удары наносились по менее приоритетным целям.

В процессе обучения в систему также попали данные сотрудников Министерства внутренней безопасности, управляемого ХАМАС. Формально они не являются членами военных формирований. Из этого примера понятно, что при обучении ИИ термин боевик ХАМАС использовался в очень свободной трактовке.

Это повышает вероятность того, что «Лаванда» по ошибке выберет гражданских лиц, когда ее алгоритмы будут применяться к населению в целом.

На практике это означает, что для гражданских лиц, неправильно отмеченных ИИ, не существовало механизма контроля, который мог бы выявить ошибку. Распространенной ошибкой было, если цель [член ХАМАС] отдавала свой телефон сыну, старшему брату или просто случайному человеку. Его взрывали в его доме вместе с семьей. Такое случалось часто.

Привязка целей к домам родственников

Следующим этапом в процедуре ликвидации является определение мест, где можно атаковать цели, сгенерированные «Лавандой» .

Пресс-секретарь ЦАХАЛа заявил: «ХАМАС размещает своих боевиков и военные силы в самом центре проживания гражданского населения, систематически использует гражданское население в качестве живого щита и ведет боевые действия изнутри гражданских структур, включая такие важные объекты, как больницы, мечети, школы и учреждения ООН. ЦАХАЛ обязан соблюдать международное право и действовать в соответствии с ним, нанося удары только по военным объектам».

Шесть источников, информация от которых легла в основу журналистских расследований, в той или иной степени подтвердили это. Разветвленная система туннелей ХАМАСа проходит под больницами и школами; члены ХАМАСа используют машины скорой помощи для передвижения; военные объекты расположены рядом с гражданскими зданиями. Источники утверждали, что многие израильские удары убивают мирных жителей в результате такой тактики ХАМАС.

Однако, в отличие от официальных заявлений израильской армии, источники объяснили, что одной из главных причин беспрецедентного количества жертв нынешних израильских бомбардировок является тот факт, что АОИ систематически атакует цели в частных домах, вместе с членами их семей – потому, что с точки зрения разведки было проще отмечать дома семей с помощью автоматизированных систем.

АОИ регулярно делала выбор в пользу нанесения ударов по целям, когда они находились в гражданских домах, где не велись боевые действия. Этот выбор, основан на использовании израильской системы наблюдения в Газе.

Поскольку у каждого жителя Газы есть частный дом, с которым он может быть связан, армейские системы наблюдения могут легко и автоматически привязывать людей к их домам. Для определения момента, когда цели входят в дом в режиме реального времени, были разработаны различные дополнительные программы. Эти программы отслеживают тысячи людей одновременно, определяют, когда они находятся дома, и посылают автоматическое пуш-уведомление офицеру, ответственному за целеуказание, который отмечает дом для нанесения авиаудара. Одной из таких программ слежения является Where’s daddy? (`Где папочка?`).

Офицеры ЦАХАЛ называю такой метод работы `широкая охота`. В систему вводятся сотни целей и далее просто идет мониторинг тех, кого удалось или не удалось ликвидировать. Списки целей выдает ИИ.

В первый месяц войны более половины погибших – 6120 человек – принадлежали к 1340 семьям, многие из которых были полностью уничтожены в своих домах. Это официальные данные ООН. Доля семей, полностью уничтоженных в своих домах в ходе нынешней войны, намного выше, чем в ходе израильской операции в Газе в 2014 году. Ранее это считалось самой смертоносной войной Израиля в секторе Газа.

Каждый раз, когда темпы уничтожения снижались, в системы типа `Где папочка?` добавлялись новые цели, чтобы определить местонахождение людей, которые заходили в свои дома и могли быть уничтожены. Причем решение о том, кого вносить в системы слежения, могли принимать младшие офицеры.

Вот откровения одного из источников: `Однажды, совершенно по собственному желанию, я добавил в систему [слежения] что-то около 1200 новых целей, потому что количество атак [которые мы проводили] уменьшилось. Для меня это имело смысл. В ретроспективе это кажется серьезным решением, которое я принял. И такие решения не принимались на высоком уровне`.

В первые две недели войны в программы поиска, такие как `Где папочка?` были внесены все члены элитного спецподразделения ХАМАС `Нухба`, все противотанковые расчеты ХАМАС, а также все, кто въехал в Израиль 7 октября. Но вскоре список целей был радикально расширен.

В него попали все отмеченные "Лавандой". Это десятки тысяч целей. Когда израильские бригады вошли в Газу, и в северных районах уже было меньше мирных жителей. По словам источника, даже некоторые несовершеннолетние были отмечены Лавандой как цели.

Человек, внесённый в систему попадал под постоянное наблюдение и мог быть уничтожен, как только он входил в свой дом. В результате получалось, что в доме обычно находился один член ХАМАС и 10 гражданских. Обычно это 10 гражданских – женщины и дети. При отработке алгоритмов системы получалось, что большинство убитых – как раз женщины и дети.

Выбор оружия

После того как "Лаванда" определила цель для ликвидации, а армейский персонал в ходе очень поверхностной проверки просто убедился, что цель – мужчина, цель поступает на мониторинг. Программа слежения фиксирует нахождение цели в ее доме. Далее необходимо выбрать боеприпас для применения.

В репортаже CNN в декабре 2023 отмечалось, что, по оценкам американской разведки, около 45% боеприпасов, использованных израильскими ВВС в Газе, не были высокоточными. И с большой вероятностью эти данные занижены, поскольку АОИ в начале операции стремилась освободить свои склады от старых боеприпасов с истекающим сроком годности. Такие боеприпасы наносят больший побочный ущерб, чем управляемые бомбы.

Три источника в разведке АОИ сообщили издательствам +972 и Local Call, что для ликвидации рядового и младшего командного состава, отмеченного "Лавандой" в качестве целей, использовались только простые боеприпасы с целью экономии более дорогого вооружения. АОИ не наносят удары по рядовому составу высокоточным вооружением, если цель живет в многоэтажном доме. Для того чтобы сложить высотку требуется более точный и дрогой боеприпас, рассчитанный на поражений многоэтажных зданий. Но если цель находится в малоэтажной застройке, АОИ имеет право уничтожить цель и всех находящихся в здании простым боеприпасом.

Разрешение на жертвы среди гражданского населения

В первые недели войны, когда удары наносились по рядовому и младшему командному составу ХАМАС, разрешалось уничтожать до 20 гражданских лиц рядом с каждой целью. Есть источники, которые утверждают, что требования были более гуманны – до 15 гражданских. Эти критерии широко применялись ко всем целям независимо от их звания, положения в военной иерархии и возраста. Не было случаев рассмотрения конкретной цели, чтобы взвесить военную выгоду от ее уничтожения и побочный ущерб для гражданских лиц.

По словам А., офицера оперативного отдела по уничтожению целей, отдел международного права АОИ никогда прежде не давал такого широкого одобрения на столь высокий уровень побочного ущерба. `Дело не только в том, что вы можете убивать любого человека, который является солдатом ХАМАС. Но сотрудники правового департамента прямо говорят вам: Вам разрешено убивать их вместе со многими мирными жителями.

Простыми словами, – каждый человек, носивший форму ХАМАС в последние год-два, может быть уничтожен вместе с 15-20 гражданскими лицами [сопутствующий ущерб], без специального разрешения.

По словам источника в разведке АОИ, в момент ликвидации командира батальона Шуджайя, было чёткое понимание того, что также будут уничтожены более 100 гражданских лиц. Удар по Висаму Фархату был нанесен 2 декабря 2023 г.

Но были и еще более смертоносные удары. При ликвидации Аймана Нофаля, командира Центральной бригады ХАМАС в Газе, руководство АОИ дало разрешение уничтожить около 300 мирных жителей и разрушить несколько зданий во время авиаударов по лагерю беженцев Аль-Брейдж 17 октября. Но программы слежения не могли точно определить местонахождение цели и массированный удар был нанесен просто по жилой застройке. Масштабы разрушений видны на видео и даже со спутника. Было уничтожено от 16 до 18 многоэтажных домов вместе с жителями. Идентификация части погибших невозможна из-за завалов. В результате удара был уничтожен Айман Нофаль и более 300 человек, которые даже не знали о его существовании. Более 200 человек получили ранения.

В середине декабря 2023 г АОИ разрушила высотное здание в Рафахе, убив десятки мирных жителей, в попытке уничтожить Мохаммеда Шабанеха, командира бригады ХАМАС в Рафахе. Достоверной информации относительно того, была ли цель поражена, на сегодня нет.

Все источники в разведке АОИ, заявили, что массовые убийства, устроенные ХАМАС 7 октября, и похищение заложников сильно повлияли на подход к огневому поражению и определение ровня сопутствующего ущерба. В начале операции правила были очень размытыми. Иногда уничтожали четыре здания, если система определяла высокую вероятность нахождения цели в одном из них.

Возникал диссонанс: с одной стороны, военный персонал ЦАХАЛ в целом был разочарован недостаточной интенсивностью атак. С другой стороны в разведке видели тысячи погибших в конце каждого дня. Большинство из которых – мирные жители. Реакция руководства ЦАХАЛ на начальном этапе во многом определялась эмоциональным фоном. Не было четкого понимания что делать, но было желание наносить интенсивные авиаудары с целью радикального сокращения военных возможностей ХАМАС. Это привело к одобрению практически любого побочного ущерба, который некоторые высокопоставленные офицеры ЦАХАЛ озвучили так: что можете, то и бомбите. Если правила насколько размыты, они теряют всякий смысл.

Именно отсутствие четких критериев ведения боевых действий и непропорциональные жертвы среди мирного населения подтолкнули нескольких офицеров ЦАХАЛ высказать свое мнение журналистам. Что и явилось основой для материалов +972 и Local Call. Мотивация этих офицеров понятна. Они считают, что формат проведения операции в Газе может обеспечить безопасность Израиля в краткосрочной перспективе, но подвергает стратегической опасности в долгосрочной. Избыточные жертвы среди мирного населения автоматически на порядки увеличивают вербовочную базу для ХАМАС, что будет иметь серьезные последствия на горизонте 5-10 лет и более.

Методика оценки сопутствующего ущерба

Как показано выше, точность пока не является сильной стороной ИИ-систем. Это подтверждают и официальные источники.

В октябре 2023 The New York Times вышел репортаж о системе, управляемой с военной базы на юге Израиля. Система ведет сбор информации с мобильных телефонов в секторе Газа и предоставляет военным оперативную оценку числа палестинцев, бежавших из северной части сектора Газа на юг. Бригадный генерал Уди Бен Муха сказал газете Times: «Это не стопроцентно совершенная система – но она дает вам информацию, необходимую для принятия решения. В системе красным цветом отмечены районы, где много людей, а зеленым и желтым – районы, в которых мало жителей».

Эта неточная и достаточно простая методика стала основой для подсчета сопутствующего ущерба, которая использовалась при принятии решения о нанесении авиаударов по Газе. Программа рассчитывала количество гражданских лиц, проживавших в каждом доме до начала войны, оценивая размер здания и изучая список его жителей. Затем эти цифры корректировались в зависимости от предполагаемой доли жителей, которые якобы эвакуировались из района.

Например, если военные АОИ предполагали, что половина жителей района уехала, эти данные вводились в систему. Программа считала дом, в котором обычно проживало 10 человек, как дом, в котором проживало пять человек. На основании этих данных наносились удары и писались примерные отчеты о жертвах среди мирных жителей. Чтобы сэкономить время, армия не обследовала дома, и не проверяла, сколько людей там на самом деле проживает, как это делалось в предыдущих операциях, чтобы убедиться в точности оценок программы.

В целом система оценки побочного ущерба ЦАХАЛ сейчас представляет собой достаточно абстрактную модель, не связанную с реальностью. Тем не менее она была принята на всех уровнях, потому что она быстро проводит оценку ущерба, полностью автоматизирована и работает на основании статистических данных, а не данных непосредственно из зоны конфликта.

Уничтожение семей вместе с домами

Между моментом, когда системы слежения, такие как `Где папочка?`, оповещали офицера, ответственного за целеуказание, о том, что цель вошла в свой дом, и фактическим поражением объекта, часто проходил значительный промежуток времени. Из-за этой задержки иногда погибали целые семьи, а цель не была ликвидирована. Рутиной стала ситуация при которой удар наносился по дому, где не было цели. В результате семьи гибли вообще без всякой причины.

Это связано с тем, что дополнительная проверка часто не проводилась в режиме реального времени. Иногда [цель] была у себя дома, а потом ночью перемещалась в другое место, скажем, под землю. Если информация об этом не поступает, просто принимается решение на авиаудар по дому.

Один из источников рассказал о похожем инциденте, который побудил его дать интервью: `Мы поняли, что цель была дома в 8 часов вечера. В итоге ВВС разбомбили дом в 3 часа ночи. Потом мы узнали, что [за это время] он успел переехать в другой дом вместе со своей семьей. В здании, которое мы разбомбили, было еще две семьи с детьми`.

Во время предыдущих войн в Газе, после уничтожения целей израильская разведка проводила процедуру оценки ущерба от авиаудара (Bombing Damage Assessment – BDA). Это было нужно чтобы выяснить, был ли убит старший командир и сколько гражданских лиц погибло вместе с ним. Проверка включала в себя прослушивание телефонных разговоров родственников, потерявших своих близких. Однако сейчас в отношении рядового и младшего командного состава ХАМАС, определенного в качестве целей с помощью ИИ, эта процедура была отменена для экономии времени. На данный момент у ЦАХАЛ нет точных данных сколько гражданских лиц было убито в результате каждого удара. Часто нет информации о том был ли уничтожен сам объект удара.

В текущем конфликте, только когда речь идет о высокопоставленных членах ХАМАС, применяется процедура BDA. В остальных случаях разведка получает отчет от ВВС о том, было ли уничтожено здание, и все. Нет времени оценивать величину сопутствующего ущерба. Нужно сразу переходить к следующей цели. Акцент автоматизированных систем был сделан на том, чтобы создать как можно больше целей, как можно быстрее.

Мониторинг большинства жителей Палестины и выявление возможных членов ХАМАС для возможного уничтожения после подтверждения задачи человеком

Программное обеспечение «Лаванда» анализирует информацию, собранную о большинстве из 2,3 миллиона жителей сектора Газа. Затем система оценивает вероятность того, что каждый человек является активным членом военного крыла ХАМАС. Система присваивает почти каждому жителю Газы рейтинг от 1 до 100, указывающий на вероятность того, что он имеет связи с вооруженными формированиями.

ИИ обучается на массивах данных об известных боевиках ХАМАС, информация о которых уже имеется, а затем находит эти же характеристики среди населения в целом. Человек, обладающий несколькими различными инкриминирующими признаками, получает высокий рейтинг и автоматически становится потенциальной целью для ликвидации.

В книге "Человеко-машинная команда", действующий командир подразделения 8200 описывает именно такую систему, не упоминая название проекта. Сам командир также не назван, но пять источников в подразделении 8200 подтвердили, что их командир является автором книги, о чем также сообщила газета Haaretz. Основная проблема, по мнению автора, в низкой скорости обработки информации персоналом.

Решением этой проблемы, по его мнению, является ИИ. В книге предлагается краткое руководство по созданию системы, похожей по описанию на «Лаванду», на основе алгоритмов ИИ и машинного обучения. В руководство включено несколько примеров сотен и тысяч характеристик, которые могут повысить рейтинг человека, например, нахождение в группе WhatsApp с известным членом ХАМАС или ПИД, смена мобильных телефонов каждые несколько месяцев и частая смена адресов.

Чем больше информации и чем она разнообразнее, тем лучше для тренировки ИИ. Данные видеонаблюдения, мультиспектральных армейских систем мониторинга, данные сотовой связи, информация в соцсетях, информация о поле боя, телефонные контакты, фотографии. Изначально эти данные выбирают люди, продолжает командир, но со временем система научится определять их самостоятельно. Это может позволить генерировать десятки тысяч целей, при этом решение об уничтожении пока останется за человеком.

Эта книга – не единственный случай, когда высокопоставленный израильский военачальник намекнул на существование генераторов целей, подобных «Лаванде». Журналисты изданий +972 Magazine и Local Call получили запись частной лекции командира секретного центра Data Science и AI подразделения 8200 «полковника Йоава» на неделе ИИ в Тель-Авивском университете в 2023 году.

В лекции речь идет о генераторе целей, используемом в АОИ. Система обнаруживает «опасных людей» на основе их сходства с существующими характеристиками известных целей, на которых она была обучена. «С помощью этой системы нам удалось идентифицировать командиров ракетных отрядов ХАМАСа», – говорит в лекции полковник Йоав, имея в виду военную операцию Израиля в Газе в мае 2021 года, когда система ИИ была применена впервые.

Слайды лекции, иллюстрируют принцип работы системы: ей передаются данные о действующих членах ХАМАС, она учится распознавать их характеристики и паттерны поведения, а затем оценивает других палестинцев по их сходству с этими объектами.

«Мы ранжируем результаты и определяем порог [при котором можно атаковать цель]», – сказал на лекции полковник Йоав, подчеркнув, что «в конечном итоге решения принимают люди из плоти и крови».

«В сфере обороны, с точки зрения этики, мы придаем этому большое значение. Эти инструменты призваны помочь [сотрудникам разведки] преодолеть их барьеры».

Однако на практике источники, использовавшие «Лаванду» позже в 2024 г, утверждали, что человеческое управление и точность были заменены массовой генерацией целей и огромными жертвами среди мирного населения.

2021: Книга о перспективах создания системы

Книга о том, как создать синергию между человеческим и искусственным интеллектом, которая перевернет наш мир, вышла в 2021 г на английском языке под псевдонимом Brigadier General Y.S. Автор – действующий командир израильского разведывательного подразделения 8200.

В книге рассмотрено создание системы на основе ИИ, способной быстро обрабатывать огромные объемы разведданных для выявления тысяч потенциальных военных целей прямо в ходе боевых действий. Технология должна позволить преодолеть ограничения, связанные с человеческим фактором, при поиске новых целей и принятии решений об их уничтожении.