
Израильское военное разведывательное Подразделение 8200 создало обширную базу данных перехваченных палестинских коммуникаций для разработки инструмента искусственного интеллекта, похожего на ChatGPT, утверждается в совместном расследовании The Guardian, +972 Magazine и Mekomit, опубликованном в четверг.
По сообщениям, Израиль рассчитывает, что этот ИИ-инструмент «изменит его возможности слежки».
Расследование этих трёх изданий показало, что Подразделение 8200 обучило крупную языковую модель (LLM) понимать разговорный арабский, в частности палестинский диалект, а также ливанские диалекты, используя для этого значительное количество перехваченных телефонных разговоров и текстовых сообщений.
Это было сделано с целью создания продвинутого чат-бота, способного отвечать на вопросы и предоставлять информацию о людях, за которыми ведётся наблюдение, сообщили три израильских источника журналу +972 Magazine и газете The Guardian.
На конференции по искусственному интеллекту в Тель-Авиве в прошлом году бывший сотрудник разведки Шакед Роджер Джозеф Сайедофф заявил, что принимал участие в разработке этой модели.
«Мы пытались создать максимально большой набор данных и собрать всю имеющуюся у государства Израиль информацию на арабском языке», — заявил Сайедофф.
«Дело не только в предотвращении вооружённых нападений», — сообщил один из источников +972 Magazine и The Guardian. «Я могу отслеживать правозащитников, контролировать палестинское строительство в зоне C [Иудея и Самария]. У меня есть больше инструментов, чтобы знать, чем занимается каждый человек в Иудее и Самарии».
The Guardian утверждает, что офицеры Подразделения 8200 были привлечены из крупных американских технологических компаний, таких как Google, Meta и Microsoft, поскольку имели опыт работы с крупными языковыми моделями (LLM).
Разработка LLM
По данным расследования, разработка языковой модели столкнулась с трудностями, поскольку многие открытые и коммерческие арабоязычные модели были обучены на стандартном письменном арабском, а не на разговорных диалектах.
Один из источников сообщил +972 Magazine и The Guardian: «В интернете нет стенограмм телефонных звонков или переписок в WhatsApp. В таких объемах, которые нужны для обучения подобной модели, эти данные просто не существуют».
Поэтому, по его словам, офицеры должны были собрать весь разговорный арабский текст, который имелся в распоряжении подразделения, и «свести его в централизованную базу».
Сайедофф отметил, что подразделение «фокусировалось только на [арабских] диалектах, которые нас ненавидят».
Источники также сообщили, что модель специально обучили распознавать военную терминологию, используемую террористическими группировками.
По словам источника, обучающий набор данных модели включает около 100 миллиардов слов.
Тем не менее, в ходе расследования не удалось установить, был ли ИИ-инструмент уже задействован, однако, по имеющимся данным, его обучение продолжалось во второй половине 2024 года.

Зак Кэмпбелл, ведущий исследователь систем наблюдения в Human Rights Watch (HRW), выразил обеспокоенность тем, что Подразделение 8200 может использовать LLM для принятия важных решений, влияющих на жизнь палестинцев в Иудее и Самарии.
«Это машина для угадываний», — заявил он трём изданиям, проводившим расследование. «И в конечном итоге эти догадки могут быть использованы для обвинений против людей».
Пресс-секретарь ЦАХАЛа сообщил The Jerusalem Post, что «ЦАХАЛ использует различные методы и инструменты разведки для выявления и нейтрализации террористической деятельности враждебных организаций на Ближнем Востоке».
При этом он добавил, что из-за конфиденциальности информации «невозможно раскрывать детали конкретных методов и процессов обработки данных».
Использование ИИ Израилем
Как отмечают The Guardian и +972 Magazine, Подразделение 8200 использует искусственный интеллект уже около десяти лет для анализа коммуникаций и выявления закономерностей. Кроме того, машинное обучение активно применяется с начала войны Израиля с ХАМАСом, в частности для идентификации целей.
В феврале агентство Associated Press сообщило, что после 7 октября использование ЦАХАЛом технологий Microsoft и OpenAI «резко возросло» и применялось, прежде всего, для быстрого выявления целей.
«Эти ИИ-инструменты делают разведывательный процесс более точным и эффективным», — заявили в ЦАХАЛе в комментарии AP. «Они позволяют находить больше целей быстрее, но не за счёт точности. Во многих случаях во время этой войны они помогли сократить число жертв среди гражданского населения».
Хотя разведывательные агентства многих стран используют LLM-модели или разрабатывают их, бывший глава одной из западных разведслужб заявил, что применение Израилем палестинских коммуникаций даёт ему возможности использования ИИ, которые были бы «неприемлемы» для других разведывательных структур.
Кэмпбелл назвал использование LLM-модели «вторжением в частную жизнь и несовместимым с правами человека».
«Речь идёт о сборе крайне личных данных у людей, которые не являются подозреваемыми в преступлениях, и об их использовании для обучения инструмента, который затем может способствовать выдвижению подозрений против них», — заявил он.
Брианна Розен, бывший сотрудник Совета национальной безопасности США и старший научный сотрудник Оксфордского университета, выразила обеспокоенность тем, что инструмент, похожий на ChatGPT, может основываться на ошибочных данных или допускать неточности.
«Ошибки неизбежны, и некоторые из них могут привести к крайне серьёзным последствиям», — отметила она.
ЦАХАЛ, по сообщениям, не ответил на запрос The Guardian о том, какие меры предпринимаются, чтобы избежать неточностей и предвзятости в работе Подразделения 8200.
«Однако ЦАХАЛ внедряет тщательный процесс при каждом использовании технологических возможностей», — добавили в армии. «Это включает в себя активное участие профессиональных специалистов в разведывательном процессе, чтобы обеспечить максимальную точность и надёжность информации».
Использование ИИ в ЦАХАЛе было впервые публично подтверждено высокопоставленными офицерами в феврале 2023 года. Они заявили, что Израиль применяет ИИ для помощи в принятии решений по целям, например, для определения, является ли объект военным или гражданским.
Кроме того, используются защитные ИИ-инструменты, такие как системы предупреждения о ракетных атаках и технологии, помогающие контролировать движение на границах.
В декабре 2024 года газета Washington Post сообщила о существовании ИИ-инструмента «А-бсора» («Благая весть»), который ЦАХАЛ использует для быстрого пополнения «банка целей» — списка боевиков ХАМАСа и «Хезболлы», подлежащих ликвидации в рамках военных операций, с указанием их местонахождения и распорядка дня.
Источник Jerusalem Post
Телеграм канал Радио Хамсин >>