'

Генсек ООН вновь осудил Израиль - на сей раз за искусственный интеллект

Публикация в малоизвестном "палестино-израильском" сайте вызвало беспокойство Гутерриша

Вести-Ynet|
1 Еще фото
אנטוניו גוטרש מזכ"ל ה או"ם ב בית ספר של אונר"א ב עמאן ירדן
אנטוניו גוטרש מזכ"ל ה או"ם ב בית ספר של אונר"א ב עמאן ירדן
Антониу Гутерриш на брифинге в ООН
(Фото: REUTERS/Alaa Al-Sukhni)
"В ООН глубоко озабочены сообщениями о том, что ЦАХАЛ использует искусственный интеллект при осуществлении военных действий в Газе". Об этом в ночь на 6 апреля сказал генсек ООН Антониу Гутерриш на брифинге в штаб-квартире организации. Позже он также написал об этом в соцсети Х.
Генсек конкретизировал, что его "беспокойство" вызвано тем, что Израиль использует AI-технологии (то есть технологии, основанные на искусственном интеллекте) для "определения целей, особенно в густонаселенных жилых районах,". А это, по мнению Гутерриша, ведет "к еще большому количеству жертв среди гражданского населения".
"Ни одно из решений относительно жизни и смерти, которые затрагивают целые семьи, не должно приниматься на основе холодного расчета алгоритмов", - сообщил генсек ООН. И добавил, что "искусственный интеллект должен использоваться во благо, а не использоваться для ведения войны в промышленных масштабах, размывая ответственность".
Свои опасения, как обычно, генсек ООН подкрепил статистикой ХАМАСа о том, что в газе погибли более 32 тысяч "мирных жителей, подавляющее большинство которых женщины и дети". Он также повторил мысль о том, что "свыше миллиона человек в Газе стоят перед угрозой катастрофического голода," а "дети умирают от нехватки еды и воды". "Ничто не может оправдать коллективное наказание палестинского народа", - заключил руководитель международной организации.
►Сегодня в газете - завтра в ООН
О том, что ЦАХАЛ может использовать AI-технологии для войны в Газе написала 4 апреля британская газета The Guardian, использовав данные +972 Magazine, которое называет себя "израильско-палестинским изданием". В публикации отмечалось, что израильская армия использует программы Lavender и Gospel для выбора и систематизации целей. При этом признавалось, что Lavender демонстрирует 90-процентную точность.
Обеспокоенность The Guardian, а за ним и Антониу Гутерриша вызвало сообщение, что в системе якобы есть 37.000 потенциальных целей. "А все ли они являются боевиками ХАМАСа?" - усомнились журналисты, хотя и получили подробное разъяснение ЦАХАЛа на этом счет.
В израильской армии пояснили, что речь идет не о системе отбора целей, а о базе данных, предназначенных для перекрестного сопоставления информации из различных источников. Разумеется, речь не идет о списке лиц, которые подлежат ликвидации.
В ЦАХАЛе вновь повторили, что соблюдают правила ведения войны. И да, при анализе информации используются различные инструменты, в том числе основанные на искусственном интеллекте. Однако это не означает, что именно искусственный интеллект автоматически определяет, является ли тот или иной человек легитимной целью. Для этого в разведке есть аналитические структуры, которые проводят дополнительные проверки.
Напомним, что Антониу Гутерриш сумел обвинить Израиль, даже в речи, посвященной шести месяцам трагедии 7 октября. Кратко вспомнив об убитых и похищенных израильтянах, генсек привычно принялся перечислять "преступления в Газе", подведя слушателей к мысли, что "нет никакого оправдания коллективному наказанию палестинского народа".
К этой же дате было приурочено заседание Совбеза ООН, где даже США выступили с нападками на Израиль.
Комментарии
Автор комментария принимает Условия конфиденциальности Вести и соглашается не публиковать комментарии, нарушающие Правила использования, в том числе подстрекательство, клевету и выходящее за рамки приемлемого в определении свободы слова.
""