'

Вы спросили у ИИ - он ошибся. Положена ли вам компенсация

Насколько закон защищает потребителей информации ИИ? Этот вопрос оказался в центре внимания в связи с одним громким судебным иском 

|
1 Еще фото
(Фото: shutterstock)
Сколько раз вы искали информацию в ChatGPT, а потом с изумлением понимали, что она ошибочна? А задавались ли вы вопросом, с кого получить компенсацию, если эта ошибка привела вас к расходам? Один гражданин в такой ситуации не сдался и подал иск в суд. Решение этого суда сейчас внимательно изучают юристы всего мира, в том числе в Израиле. Дело в том, что вопрос юридической (и финансовой) ответственности за ошибки ИИ совсем не так прост, как кажется.
А дело было так. Пользователь задал чат-сервису вопрос о том, как поступить в один китайский университет. Модель уверенно сообщила сведения о несуществующем кампусе. Когда пользователь попытался ее поправить, машина не только настояла на своем, но и великодушно пообещала выплатить сто тысяч юаней "в случае ошибки" и даже посоветовала обращаться в суд.
Человек так и сделал. Он подал иск к компании-разработчику, утверждая, что был введен в заблуждение, понес расходы и что ИИ заключил с ним договор, пообещав компенсацию в случае нарушения обязательств.
Для правовой системы, где само понятие автономного волеизъявления ИИ находится на уровне философского эксперимента, вопрос оказался неожиданно прямым: можно ли воспринимать цифрового собеседника всерьез в юридическом смысле слова?
Кратко говоря, суд ответил: нет. А почему? Давайте разберемся.
►Где кончается человек и начинается инструмент
Дело, о котором идет речь, вопрос рассматривал Ханчжоуский интернет-суд в Китае. Суд начал с очевидного: ИИ - не человек и не организация, он не способен выражать волю, следовательно, ничего "обещать" юридически не может.
Далее суд задался вопросом, могла ли компания-разработчик считаться автором этих обещаний?
Ответ снова отрицательный. Во-первых, фирма не поручала модели делать заявления от своего имени. Во-вторых, у пользователя не могло быть разумного основания считать, что перед ним живое лицо компании. Да, в массовом сознании бот часто воспринимается как цифровой представитель бренда, но юристы смотрят на это иначе: если не было явных признаков того, что компания наделила модель полномочиями говорить от её имени, вера в машинное слово не создает правовых последствий.
Любопытно, что суд оставил зазор на будущее. Он отметил, что в иных условиях — например, если бы речь шла о корпоративном чат-боте поддержки клиентов, который официально действует от имени компании, — ситуация могла бы трактоваться иначе.
Значит, китайское право постепенно готовит почву для новых форм юридической ответственности ИИ, но пока предпочитает наблюдать, а не действовать наугад.
►Осторожный оптимизм эпохи ИИ
Ценность решения суда - в его сбалансированности. Суд умудрился не впасть ни в техно-романтизм, ни в техно-панику. Он четко провел границу: разработчик обязан предотвращать незаконный, вредный контент, но не должен нести ответственность за обыкновенные неточности — те самые "галлюцинации ИИ", которые пока остаются частью технической природы языковых моделей.
Если искусственный интеллект ошибся, но его ответ не принес реального имущественного вреда, не разрушил деловую репутацию и не нарушил закон, речь не идет об ответственности. Суд подчеркнул: для признания ответственности необходимо доказать вину, причинно-следственную связь и ущерб.
Ни одно из этих звеньев в деле доказано не было.
Не менее важно, как суд отказался применять режим ответственности без вины, который обычно используется в делах о товарах, — тот самый, когда предприятие отвечает за вред, даже если не доказана его вина. Суд пояснил: генеративный ИИ — не товар, а услуга, его результат — не вещь, а информация. Поэтому в таком споре нельзя автоматически возлагать ответственность на разработчика только за сам факт неверного ответа: нужно еще доказать, что он был виновен.
►Как мир ищет баланс между точностью и свободой технологий
История из Ханчжоу не одинока, хотя пока редка. В США уже появился первый громкий спор, где радиоведущий Марк Уолтерс подал в окружной суд округа Гвиннетт, штат Джорджия, иск о диффамации против OpenAI, утверждая, что ChatGPT сочинил историю о его якобы причастности к растрате средств организации. В 2025 году суд отказал в иске в пользу компании, подчеркнув, что человек "не должен разумно полагаться на чат-бот как на источник достоверных фактов". В этом решении ясно звучит идея, которая теперь проходит через многие американские дела: алгоритм может создать клевету, но ответственность за это, как и в обычных случаях, строится на доказательстве вины, а не на автоматическом наказании за ошибку.
В США и Израиле регулярно всплывают кейсы, где адвокаты попадаются на суде с поддельными ссылками, выданными нейросетями, и сами получают санкции — не ИИ, а именно юристы, которые подали в суд ложные доводы, придуманные машиной.
В Европе подход другой: там не столько ищут виновного в отдельном споре, сколько рисуют общие правила игры. Европейский Акт об искусственном интеллекте, вступивший в силу в 2024 году, вовсе не превращает каждую ошибку ИИ в преступление и не требует, чтобы модели отвечали на все вопросы без единой неточности. Акт делает упор не на реакцию на уже случившееся, а на предотвращение самых опасных видов вреда, прежде всего — на ложь и дезинформацию, распространяемые через генеративные системы, и глубокие фейки.
В частности, закон обязывает операторов систем, которые создают или распространяют контент, определяемый в акте как "генерируемый ИИ", сообщать пользователям, что они взаимодействуют не с человеком, а с машиной, и в ряде случаев маркировать такой контент специальным способом — например, через техническую разметку в файлах. Для создателей так называемых глубоких фейков, то есть убедительных подделок видео или речи, вводятся отдельные требования по прозрачности: они не только обязаны предупреждать, что материал сгенерирован ИИ, но и, по сути, "подписывают" его, чтобы его было проще отслеживать и проверять.
Важно и то, что Европейский Акт стимулирует компании заранее минимизировать риски, а не только отвечать в суде, если что-то пошло не так. Речь идёт не о том, чтобы автоматически наказывать за каждую галлюцинацию, а о том, чтобы на этапе разработки и внедрения системы учитывать, какую именно информацию она будет генерировать, какие категории пользователей к ней попадают и в каких сферах (например, в политике, в новостях, в финансах) повышается риск дезинформации.
Машина — инструмент, и отвечать за нее должен тот, кто ею пользуется или выпускает в обращение. Но инструмент этот столь умен, что старые схемы начинают давать сбой. Судьи в Ханчжоу прямо сказали: нельзя накладывать на разработчиков обязанности, которые технологически невыполнимы. Куда разумнее обучать пользователей внимательности, чем расписывать законы под каждую строчку синтетического текста.
►Разумное недоверие как новая компетенция
Решение Ханчжоуского интернет-суда — урок здравого смысла. Суд не ищет виноватого между нейронами и кодом, но напоминает: пользоваться сложными инструментами надо с пониманием их природы.
Век ИИ требует от нас нового качества мышления — дисциплинированного недоверия. Мы должны уметь сомневаться в словах, даже если написаны они плавно и уверенно машиной. Верить нейросетям можно, но проверять — обязательно. И в этом, пожалуй, скрыта самая гуманная мысль всех технологических реформ: чем совершеннее становится наша техника, тем ценнее остается наш здравый смысл.
Автор - израильский адвокат
Комментарии
Автор комментария принимает Условия конфиденциальности Вести и соглашается не публиковать комментарии, нарушающие Правила использования, в том числе подстрекательство, клевету и выходящее за рамки приемлемого в определении свободы слова.
""