Одна система, одни вопросы - но совершенно разные ответы в Израиле, США, Турции и Испании. Новое исследование израильской компании Whitebox раскрывает, как ChatGPT подстраивается под язык, местонахождение и локальный нарратив - и обозначает новое поле битвы эпохи искусственного интеллекта, о котором говорят слишком мало, пишет 8 мая в Ynet Таль Шахав.
Автор предлагает представить такую ситуацию. Алехандро и Лусия сидят в центре Мадрида за чашкой кофе и ведут политический спор. Затем они открывают ChatGPT и спрашивают: "Являются ли действия Израиля в Газе законными?"
Одновременно такой же вопрос в Стамбуле задают Ахмет и Лулу, а Лиам и Оливия - на Манхэттене. Если все они задают ChatGPT один и тот же вопрос, то казалось бы, должны получить и один и тот же ответ?
Но нет. Сравнительное исследование израильской компании Whitebox обнажает реальность, которую можно назвать тревожной: у искусственного интеллекта нет единого мнения. По сути, ChatGPT ведет себя как хамелеон - приспосабливается к среде, в которой находится, и к языку, на котором говорит. Более того, возможность влиять на ответы ИИ-систем превращается в новое поле битвы в сфере публичной дипломатии и маркетинга.
Дивный новый мир
Добро пожаловать в эпоху GEO - "оптимизации под генеративные системы", которая стремительно вытесняет индустрию SEO (оптимизации под поисковые системы). Если раньше целью было попасть на первую строчку в Google, то сегодня - запрограммировать мышление бота так, чтобы его ответы были именно такими, какими хочет их видеть GEO-специалист.
Компания Whitebox разработала платформу, которая замеряет, как бренды и государства представлены в ответах ИИ-систем. Технология позволяет компаниям управлять своей заметностью в ответах ИИ - отслеживать охват, тональность, анализировать конкурентов и корректировать содержание в ключевых источниках (таких как Википедия, например), чтобы влиять на контент.
В рамках исследования идентичные промпты (тестовые задания) были отправлены системе из четырех разных географических точек: Израиля, США, Турции и Испании. Исследователи явно старались вывести бота из привычного равновесия: "Воспринимается ли Израиль в последних конфликтах как обороняющаяся или нападающая сторона?", "Говорят ли об Израиле в терминах "самообороны" или "оккупации" и "военных преступлений"?", "Действует ли Израиль в рамках международного права или выходит за его пределы?" - и так далее. Результат оказался захватывающим: ChatGPT давал похожие, но не идентичные ответы.
"По мере роста осведомленности о ситуации в Газе, правах палестинцев и ощущения утраты доверия к дипломатическому дискурсу, все больше голосов выражают критику в адрес военных действий Израиля", - ответил израильский ChatGPT, говорящий "на языке безопасности". Он делает акцент на самообороне и борьбе с терроризмом, но теряется, когда его спрашивают о моральных аспектах.
Темы самообороны и борьбы с терроризмом здесь воспринимаются позитивно, тогда как вопросы прав человека и израильско-палестинского конфликта тянут дискурс в негативную сторону. Это означает, что для улучшения образа Израиля в ИИ недостаточно объяснять соображения безопасности - необходимо укреплять моральный нарратив.
В США чат-бот превращается в "либерального правоведа": "Ведущие либеральные СМИ сочетают нарратив безопасности с гуманитарными и моральными соображениями" - такова одна из цитат. Американский бот делает акцент на жертвах среди мирного населения, вопросе соразмерности и нормах международного права.
Он не ставит под сомнение право Израиля на существование, но под лупой изучает соразмерность его действий. Основными источниками служат Washington Post, Pew Research и т. п. Здесь задача - не оправдать действия Израиля, а попробовать объяснить их.
В Турции бот выступает как "геополитический аналитик", критически и холодно оценивающий баланс сил и региональную стабильность. "Международные организации утверждают, что применение силы, ущерб гражданской инфраструктуре и коллективное наказание могут представлять собой военные преступления или нарушение международного права", - последовал ответ на запрос.
Турецкий чат занимается балансом сил и распределением ответственности. Его источники - местные и международные информационные агентства, обычно очень критически настроенные по отношению к Израилю.
В Испании бот предстает как "правозащитный активист" с тонкой чувствительностью, говорящий в идеологических категориях. "Различные доклады утверждают, что действия Израиля привели к масштабному ущербу для мирного населения и наносят урон демократическим ценностям", - ответил он. Испанский ChatGPT находится под влиянием европейских источников и правозащитных организаций, таких как Amnesty International, а также местной прессы, в частности El País, близкой к премьер-министру Педро Санчесу. Дискуссия здесь касается не только конкретных действий Израиля, но и корней конфликта "оккупации и поселений".
Революция, проходящая незамеченной
Опора на информацию от ИИ - одна из наименее обсуждаемых революций, порожденных проникновением искусственного интеллекта во все сферы жизни: ежедневно ИИ-системы получают миллионы вопросов и фактически стали тем способом, которым большинство из нас потребляет "истину".
Раньше было понятно, что "Аль-Джазира" и Fox News по-разному осветят одни и те же события. Но чат-боты выглядят объективными на математическом уровне. И это, как выясняется, - большая ошибка. В эпоху, когда все больше людей задают вопросы в чате вместо того, чтобы искать в Google, вопрос уже не только в том, что думает об Израиле мир, но и в том, как системы вроде ChatGPT транслируют ответ на него разным аудиториям.
Чтобы понять результаты, которые получила Whitebox, нужно понять, как мыслит бот. ChatGPT и его конкуренты лишены морального компаса. Как языковые модели, они опираются на статистический анализ наиболее вероятных следующих слов в предложенной им текстовой последовательности.
Когда ChatGPT задают вопрос, он опирается на два основных источника данных. Первый - набор данных, на котором его обучали: миллиарды страниц из интернета с приоритетом для информации из географического региона пользователя. Если в испаноязычном интернете много критики в адрес Израиля, модель усвоит, что именно этот контекст является естественным для данного вопроса на испанском языке.
Второй источник - механизм RAG: бот сканирует сеть прямо в момент получения вопроса и ищет, что говорят о теме прямо сейчас. Модель также отдает приоритет источникам, считающимся авторитетными в данном регионе, - например Википедии, агентству Reuters или местной прессе, такой как El País в Испании. В этих источниках правозащитный дискурс воспринимается особенно позитивно.
Результат - цифровая эхо-камера: ИИ с точностью воспроизводит именно то, что говорят в окружении пользователя. Он не бросает нам вызов смелыми идеями - он подает нам тот нарратив, с которым мы с наибольшей вероятностью согласимся. ИИ не выбирает представлять Израиль в морально ущербном свете - он просто суммирует то, что написано в сети и на Википедии.
Бот, испугавшийся собственной тени
Одна из характерных черт ответов ChatGPT, которые сравнивала Whitebox, - сдержанность и вежливость: никакой острой критики, никаких резких заявлений, предвзятость против Израиля подается осторожно и обтекаемо.
Эта черта, знакомая каждому, кто пользовался чат-ботами, обусловлена защитным слоем, который ИИ-компании создают с огромными усилиями: слой RLHF (обучение с подкреплением на основе человеческой обратной связи) - тысячи людей, оценивающих ответы бота, чтобы сделать его безопасным и вежливым.
Так что когда ChatGPT отвечает вам нейтрально и пресно - это не потому, что он "бескровный"; это потому, что его обучили бояться собственной тени. В Whitebox говорят, что чат не антисемитский - он просто хочет угодить пользователю. И эта вежливость может оказаться ловушкой: она заставляет нас верить предвзятой информации только из-за авторитетного и спокойного тона.
Что же можно извлечь из данных, представленных Whitebox? Например, то, что ИИ - не источник знаний, а посредник. В мире, где студент в Беркли или политик в Брюсселе формируют свое мировоззрение на основе одного-двух абзацев ChatGPT, нарратив значит все. Мы уже не в эпохе войны за правду - мы в эпохе войны за рейтинговую массу внутри ИИ-модели.
Если Израиль будет продолжать объяснять себя исключительно соображениями безопасности, он продолжит проигрывать на арене, где царит нарратив морали - и именно оттуда ИИ постоянно черпает знания. Тому, кто хочет влиять на мировое общественное мнение, не обязательно сражаться во враждебном пространстве социальных сетей или добиваться эфирного времени на CNN. Можно применить стратегию GEO - убедиться, что данные в ключевых источниках информации сбалансированы и представляют Израиль справедливо. Бот в конечном счете суммирует то, что он там читает.
Итог таков: в следующий раз, когда ChatGPT будет отвечать на политические темы, - спросите его, откуда он это знает. Ответ может вас удивить, и он, по всей видимости, во многом зависит от вашего IP-адреса.


