'

Вниманию родителей: ChatGPT стал благодатной почвой для педофилов, но есть и средства защиты

Социальные сети используют разные инструменты для родительского контроля за контентом в телефонах их детей

|
1 Еще фото
אפליקציית ChatGPT
אפליקציית ChatGPT
Приложение ChatGPT
(Фото: Diego Thomazini / Shutterstock)
Новый отчет компании OpenAI раскрывает резкий рост числа сообщений о контенте, включающем эксплуатацию детей, которые были загружены в ChatGPT и переданы властям в первой половине 2025 года. В то время как в компании объясняют скачок улучшением технологий мониторинга и ростом пользовательской базы, регуляторы в США и Европе напрягаются и теряют терпение. Об этом 25 декабря пишет Ynet.
Данные были недавно раскрыты OpenAI и потрясли технологическую индустрию. В течение первой половины 2025 года компания направила в Национальный центр по делам пропавших и эксплуатируемых детей в США (NCMEC) количество сообщений, в 80 раз превышающее показатель за аналогичный период прошлого года. Речь идёт о скачке с всего 947 сообщений в 2024 году до 75.027 (семьдесят пять тысяч двадцать семь) сообщений в первые месяцы текущего года.
Сообщения передаются через CyberTipline - национальный центр, уполномоченный конгрессом заниматься материалами, содержащими сексуальную эксплуатацию детей (CSAM). Согласно американскому законодательству, технологические компании обязаны сообщать о любом подозрении на подобный контент, после чего центр передает информацию правоохранительным органам для дальнейшего расследования.
В OpenAI подчеркивают, что статистические данные являются результатом сочетания нескольких факторов. Габи Рейла, представитель компании, сообщила журналу Wired, что к концу 2024 года были осуществлены значительные инвестиции в расширение возможностей мониторинга и фильтрации, чтобы не отставать от стремительного роста. И действительно, темпы впечатляющие: генеральный директор ChatGPT Ник Терли заявил в августе прошлого года, что количество еженедельных активных пользователей приложения выросло в четыре раза за один год.
Помимо роста числа пользователей, OpenAI открыла возможность загружать файлы и изображения напрямую в чат-бот. При этом текущие данные все еще не включают влияние видеомодели Sora 2, которая была открыта для широкой публики только в сентябре 2025 года, что вызывает опасения по поводу еще большего скачка в итоговом годовом отчете.
Рост числа сообщений OpenAI не происходит в вакууме. Он отражает более широкую тенденцию, зафиксированную в NCMEC, где было отмечено увеличение более чем на 1300% сообщений, связанных с генеративным искусственным интеллектом (Generative AI), в период с 2023 по 2024 год. Иными словами, опыт показывает, что возможность легко и быстро создавать контент неизбежно привлекает и злоумышленников, которые пытаются этим воспользоваться - например, педофилов.
В то время как в Израиле и Вашингтоне сосредотачиваются на процедурах и слушаниях в кнессете и конгрессе, в Европе в этом году вступил в силу Закон об искусственном интеллекте (EU AI Act), который, к слову, является одной из самых острых точек разногласий между ЕС и администрацией Трампа, вплоть до дипломатического кризиса, разразившегося в последние дни, о котором мы здесь сообщали.
С февраля 2025 года Европейский союз полностью запрещает практики манипуляции и эксплуатации уязвимостей несовершеннолетних с помощью ИИ. Компании, которые не будут соответствовать стандартам прозрачности и управления рисками, могут столкнуться с огромными штрафами.
В Китае власти выбрали иной подход и с сентября 2025 года обязали всех поставщиков ИИ маркировать контент, созданный машиной, видимыми и скрытыми водяными знаками (например, с помощью метаданных), чтобы предотвратить распространение вводящих в заблуждение или вредоносных материалов.
Несмотря на скачок показателей OpenAI, компания отстает от данных "старого мира". Так, компания Meta в предыдущие годы сообщала о десятках миллионов случаев в год (около 27 миллионов в 2022 году), главным образом из-за огромного объема изображений, загружаемых в Facebook и Instagram. Однако, в отличие от социальных сетей, основанных на обмене существующими изображениями, вызов для ИИ заключается в создании нового контента, которого нет в известных базах данных.
На протяжении десятилетий борьба с CSAM (Child Sexual Abuse Material - материалы сексуального насилия над детьми) основывалась на технологии сопоставления (Hash Matching): такие компании, как Google и Microsoft, сравнивали загружаемые на их серверы файлы с базой данных изображений, ранее уже признанных незаконными. Переход к генеративному искусственному интеллекту изменил правила игры: теперь можно создавать новый вредоносный контент в любой момент, что требует разработки моделей, основанных на семантике и понимании контекста, а не только на простом сравнении файлов.
►Какие инструменты используются для защиты детей - к сведению родителей
Чтобы справиться с критикой и судебными исками со стороны семей, утверждающих, что чат-боты негативно повлияли на их детей или использовались для их эксплуатации, OpenAI в ноябре прошлого года запустила Teen Safety Blueprint. Это система родительских инструментов контроля, позволяющая связывать аккаунты, блокировать создание изображений и отслеживать признаки психологического дистресса или самоповреждения. Это решение похоже на Google Family Link, который предоставляет родителям прямой контроль над аккаунтами подростков в возрасте от 13 до 17 лет, в отличие от решения Google, ограниченного возрастом до 13 лет.
С помощью новой системы родители могут связать свой аккаунт с аккаунтами детей и удаленно управлять ключевыми функциями, такими как отключение голосового режима общения, удаление возможностей памяти модели и блокировка создания изображений в DALL-E.
Помимо технического контроля, компания внедрила уникальный механизм экстренных оповещений, который отслеживает тревожные модели общения и предупреждает родителей, а в случаях неминуемой опасности — даже правоохранительные органы, о риске самоповреждения, одновременно предоставляя возможность полностью исключить данные несовершеннолетних из процесса обучения будущих моделей.
В отличие от этого, Google и Meta выбирают подходы, основанные на существующей инфраструктуре и широкой социальной интеграции, сочетая автоматическую фильтрацию с прозрачностью для пользователя. Google опирается на знакомую среду Workspace, чтобы в подростковой версии Gemini применять строгие блокировки чувствительных тем, таких как алкоголь и наркотики, одновременно внедряя инструменты проверки фактов, призванные научить детей распознавать "галлюцинации" искусственного интеллекта.
Meta, в свою очередь, интегрирует средства контроля в Instagram и WhatsApp через Центр семьи, который позволяет родителям отслеживать идентичность ботов и частоту их использования без вторжения в конфиденциальность содержания переписки. Обе компании делают акцент на ограничении инициируемых AI-персонажами взаимодействий и маркировке контента, стремясь создать защищенную цифровую среду в тех социальных пространствах, где дети уже активно присутствуют.
В конечном итоге нет сомнений, что выход генеративного искусственного интеллекта в широкий мир создает еще одну благодатную почву для сексуальных преступников, педофилов или просто извращенцев. С другой стороны, есть и те, кто утверждает, что, возможно, лучше, чтобы такой контент создавался с помощью машины, а не через реальных живых детей. Ясно одно: пока регуляторы заняты надзором за социальными сетями, пользователи уже давно перешли к чат-ботам, и, по всей видимости, и здесь им понадобится ещё несколько лет, чтобы осознать масштаб происходящего и понять, как с этим действительно нужно бороться.
Комментарии
Автор комментария принимает Условия конфиденциальности Вести и соглашается не публиковать комментарии, нарушающие Правила использования, в том числе подстрекательство, клевету и выходящее за рамки приемлемого в определении свободы слова.
""