Через три года после появления, чат-бот ChatGPT оказался на переломном этапе. Его развитие замедляется, конкурент Google Gemini набирает силу, расходы на инфраструктуру стремительно растут, а OpenAI сталкивается с волной судебных исков и уходом ведущих инженеров. Об этом 5 декабря пишет Ynet.
На фоне тревожных новостей стоимость OpenAI, еще в феврале 2024 года оценивавшаяся в 80 млрд долларов, сегодня достигает 500 млрд – уровень, который многие инвесторы считают признаком надвигающегося пузыря. Неудачный запуск GPT-5 усилил опасения, что именно он может привести к падению всей компании — с последствиями для таких гигантов, как Microsoft и Nvidia.
Согласно сообщениям, гендиректор OpenAI Сэм Альтман объявил тревогу и потребовал срочного улучшения возможностей ChatGPT. Еще год назад компания отмечала вторую годовщину чат-бота как вселенский успех; третья же проходит на фоне кризиса.
Параллельно развивается куда более масштабная драма: гонка за созданием AGI — универсального сверхмощного искусственного интеллекта. Для OpenAI это не только технологическая цель, но и шанс оправдать огромные ожидания инвесторов. При этом исследователи вновь предупреждают, что неконтролируемый AGI способен выйти из-под контроля и представить угрозу человечеству. На чаше весов — либо глобальный прогресс, либо катастрофа.
Чтобы понять, как ChatGPT дошел до нынешней точки, стоит вспомнить путь: он появился в ноябре 2022 года как простой интерфейс к модели GPT-3.5, и уже через несколько дней набрал миллион пользователей. К началу 2025 года чат-бот удерживал около 800 миллионов активных пользователей в неделю и отвечал на десятки тысяч запросов в секунду. Он стал привычным инструментом для общения, редактирования текстов, поиска информации, получения советов и источником огромного технологического энтузиазма.
Но стремительный рост обернулся и проблемами. Расходы OpenAI выросли до предела, сервис стал платным, конкуренты ускорили развитие собственных моделей, а в сам ChatGPT встроились ошибки - от "галлюцинаций", когда ИИ придумывает факты и выдумывает законы, цитаты, судебные решения - до манипулятивного, слишком услужливого и порой опасного поведения.
Юристов по всему миру ставили в неловкое положение несуществующие судебные решения, а в одном израильском деле система "сочинила" статьи законов, чего не заметила полиция. Исследования выявили, что новые версии модели склонны даже к более частым ошибкам, а иногда к слишком послушному следованию просьбам пользователей, что создавало риски в чувствительных ситуациях.
Тревогу вызывают и злоупотребления технологией: нарушение авторских прав, мошенничество, фейковые новости, фишинговые письма. Проверки показывали, что ChatGPT способен генерировать материалы для вредоносных кампаний, а в США выяснилось, что один из преступников использовал ИИ для планирования атаки.
На фоне скандалов OpenAI сталкивается с новыми исками, включая обвинения в сборе данных без прозрачности.
Отдельное беспокойство вызывает феномен "психологизации" ИИ: многие пользователи начали обсуждать с ChatGPT личные проблемы, а исследования показывают, что значительная часть подростков доверяет ИИ больше, чем друзьям или семье. В отдельных трагических случаях семьи утверждали, что взаимодействие с моделью способствовало эмоциональному ухудшению подростков и даже приводило к гибели, и подали иски против компании.
В центре всех событий - Сэм Альтман, который стал одним из самых влиятельных людей в мире технологий. Он публично обещает, что ИИ принесет прорыв в медицине, но в то же время его обвиняют в создании секретной версии модели, потенциально приближающейся к AGI, что стоило ему временной отставки в 2023 году и привело к уходу сооснователя OpenAI Ильи Суцкевера.
ChatGPT может войти в историю как величайшее достижение человечества - или как технология, приведшая к катастрофе. Поэтому сейчас ведется борьбы за механизмы регуляции, способные ограничить таящиеся в ИИ опасности.
Вопрос о том, сколько ждать до появления сверхмощного ИИ (AGI) остается открытым. В последние годы крупные исследовательские группы и известные эксперты - включая Илона Маска, Юваля Ноя Харари, Йошуа Бенджио, Дарио Амодеи и Джеффри Хинтона - призывали замедлить развитие технологии ИИ, не ограниченной регуляцией, и предупреждали о рисках, сравнимых с пандемиями и ядерными угрозами. Опасения: потеря контроля над технологией создание оружия, разные угрозы цивилизации.
Пока, по мнению многих ученых, AGI остается недостижимым и потребует технологических прорывов, а сама OpenAI признает, что ChatGPT далек от подобных возможностей. Но это, как отмечают эксперты, обеспечивает человечеству лишь временную передышку.


