The Washington Post: Израиль построил «фабрику искусственного интеллекта» для войны. Он запустил ее в Газе
После жестокой атаки ХАМАС 7 октября 2023 года Армия обороны Израиля засыпала Газу бомбами, опираясь на кропотливо собранную в течение многих лет базу данных с подробным списком домашних адресов, расположения туннелей и других объектов инфраструктуры, важных для боевиков.
Но потом банк целей иссяк. Чтобы сохранить бешеный темп войны, ЦАХАЛ прибегнул к помощи сложного инструмента искусственного интеллекта под названием «Хабсора» — или «Евангелие» — который мог быстро генерировать сотни дополнительных целей.
По словам двух человек, знакомых с операцией, использование ИИ для быстрого пополнения банка целей ЦАХАЛ позволило военным продолжать кампанию без перерыва.
Это пример того, как десятилетняя программа по внедрению передовых инструментов ИИ в центр разведывательных операций ЦАХАЛ способствовала жестокости 14-месячной войны Израиля в Газе.
ЦАХАЛ широко освещал существование этих программ, которые некоторые эксперты считают самой передовой военной инициативой в области ИИ из когда-либо развернутых. Однако расследование Washington Post раскрывает ранее не сообщавшиеся подробности внутренней работы программы машинного обучения, а также секретную десятилетнюю историю ее разработки.
Расследование также раскрывает ожесточенные дебаты в высших эшелонах армии, начавшиеся за несколько лет до 7 октября, о качестве разведданных, полученных с помощью ИИ, о том, достаточно ли тщательно проверяются рекомендации технологий и не ослабляет ли внимание к ИИ разведывательные возможности ЦАХАЛ.
Некоторые внутренние критики утверждают, что программа ИИ стала закулисной силой, увеличившей рост числа жертв в Газе. По данным министерства здравоохранения Газы, погибли 45 000 человек, более половины из которых — женщины и дети.
Люди, знакомые с практикой ЦАХАЛ, в том числе солдаты, которые служили на войне, говорят, что израильские военные значительно расширили число допустимых жертв среди гражданского населения по сравнению с историческими нормами.
Некоторые утверждают, что этому способствовала автоматизация, которая облегчила быструю генерацию большого количества целей, в том числе боевиков низкого уровня, участвовавших в атаках 7 октября.
«То, что происходит в Газе — предвестник более широких изменений в том, как ведутся войны», — сказал старший научный сотрудник Фонда Карнеги, изучающий использование искусственного интеллекта на войне, Стивен Фельдштейн.
Он отметил, что во время войны в Газе ЦАХАЛ, похоже, снизил порог допустимого числа жертв среди гражданского населения. «Соедините это с ускорением, которое предлагают эти системы, а также с вопросами точности — и в итоге количество жертв окажется выше, чем можно было представить себе на войне», — сказал Фельдштейн.
ЦАХАЛ заявил — утверждения, что использование ИИ ставит под угрозу жизни людей, «не соответствуют действительности». #Израиль #СекторГаза #ИИ
Подписаться.
После жестокой атаки ХАМАС 7 октября 2023 года Армия обороны Израиля засыпала Газу бомбами, опираясь на кропотливо собранную в течение многих лет базу данных с подробным списком домашних адресов, расположения туннелей и других объектов инфраструктуры, важных для боевиков.
Но потом банк целей иссяк. Чтобы сохранить бешеный темп войны, ЦАХАЛ прибегнул к помощи сложного инструмента искусственного интеллекта под названием «Хабсора» — или «Евангелие» — который мог быстро генерировать сотни дополнительных целей.
По словам двух человек, знакомых с операцией, использование ИИ для быстрого пополнения банка целей ЦАХАЛ позволило военным продолжать кампанию без перерыва.
Это пример того, как десятилетняя программа по внедрению передовых инструментов ИИ в центр разведывательных операций ЦАХАЛ способствовала жестокости 14-месячной войны Израиля в Газе.
ЦАХАЛ широко освещал существование этих программ, которые некоторые эксперты считают самой передовой военной инициативой в области ИИ из когда-либо развернутых. Однако расследование Washington Post раскрывает ранее не сообщавшиеся подробности внутренней работы программы машинного обучения, а также секретную десятилетнюю историю ее разработки.
Расследование также раскрывает ожесточенные дебаты в высших эшелонах армии, начавшиеся за несколько лет до 7 октября, о качестве разведданных, полученных с помощью ИИ, о том, достаточно ли тщательно проверяются рекомендации технологий и не ослабляет ли внимание к ИИ разведывательные возможности ЦАХАЛ.
Некоторые внутренние критики утверждают, что программа ИИ стала закулисной силой, увеличившей рост числа жертв в Газе. По данным министерства здравоохранения Газы, погибли 45 000 человек, более половины из которых — женщины и дети.
Люди, знакомые с практикой ЦАХАЛ, в том числе солдаты, которые служили на войне, говорят, что израильские военные значительно расширили число допустимых жертв среди гражданского населения по сравнению с историческими нормами.
Некоторые утверждают, что этому способствовала автоматизация, которая облегчила быструю генерацию большого количества целей, в том числе боевиков низкого уровня, участвовавших в атаках 7 октября.
«То, что происходит в Газе — предвестник более широких изменений в том, как ведутся войны», — сказал старший научный сотрудник Фонда Карнеги, изучающий использование искусственного интеллекта на войне, Стивен Фельдштейн.
Он отметил, что во время войны в Газе ЦАХАЛ, похоже, снизил порог допустимого числа жертв среди гражданского населения. «Соедините это с ускорением, которое предлагают эти системы, а также с вопросами точности — и в итоге количество жертв окажется выше, чем можно было представить себе на войне», — сказал Фельдштейн.
ЦАХАЛ заявил — утверждения, что использование ИИ ставит под угрозу жизни людей, «не соответствуют действительности». #Израиль #СекторГаза #ИИ
Подписаться.