Признавайтесь, как давно вам попадались абсурдные видео, сгенерированные с помощью Sora2? Вот мне буквально вчера. На видео кот побеждал в драке пятерых спецназовцев. Такие видео буквально заполонили мировой интернет с сентября 2025 года. Однако теперь их станет заметно меньше, по крайней мере пока на рынке не появится аналог Sora. Как сообщают в The Guardian, 24 марта 2026 года официальный представитель OpenAI объявил о внезапном закрытии проекта.
Прорывная технология
Первую версию видеоредактора со встроенным искусственным интеллектом Sora разработчики представили публике еще в 2024 году. Но свою огромную популярность программа получила через год, когда вышла вторая ее версия в виде отдельного приложения. Быстро осознав все возможности Sora2, пользователи стали массово генерировать самые сумасшедшие видеоролики и делиться ими в социальных сетях. Всего через несколько дней это приложение вышло в топ скачиваний на App Store.
Однако среди роликов про собак-поваров, вышагивающих по подиуму младенцев и говорящих овощей довольно часто встречались жестокие и унижающие чужое достоинство ИИ-видео. Также много споров было вокруг использования защищенных авторским правом мульт- и киноперсонажей. Самые недобросовестные авторы использовали нейросеть для создания дипфейков, при этом "замазывали" автоматически добавляемую плашку с надписью Sora. И далеко не все из роликов выкладывались в сеть в чисто развлекательных целях.
Внезапный уход
Интересно, что OpenAI не давали даже намеков на то, что рассматривают возможность закрытия проекта Sora. Буквально за день до объявления о закрытии проекта в официальном блоге проекта появилась статья о грядущих обновлениях. В ней авторы-разработчики рассказывали о том, как планируют отсеивать вредоносный контент, создаваемый в видеогенераторе, и защищать от него подростков.
Еще больше недопонимания вызывает тот факт, что всего месяц назад OpenAI заключили официальный договор с Disney. Согласно ему, пользователи приложения могли бы в течение 3 лет использовать для генерации более 200 персонажей студии, как мультипликационных, так и киногероев. Официальный представитель Walt Disney подтвердил, что студия разорвала отношения с OpenAI.
На официальном аккаунте разработчиков в социальной сети Х появилось сообщение, что вскоре они подробнее расскажут о сроках отключения Sora, а также о том, как пользователи могут сохранить уже созданные ими видео.
Пока остается только гадать, почему же буквально за несколько дней руководство OpenAI решило закрыть такой успешный, дорогостоящий и перспективный проект. Возможно, дело в давлении общественности, потенциальных правовых рисках, связанных с авторскими правами, финансовой неоправданностью. Думаю, со временем мы это узнаем.
Конец видеофейкам?
Не думаю, что после полного закрытия проекта Sora из интернета пропадут вертикальные ИИ-видео. Скорее всего, нишу Sora займет другое подобное приложение. И не было бы в этом ничего страшного, если бы такие ролики использовались исключительно в развлекательных целях. Но при помощи подобных программ создатели фейков массово создают очень правдоподобный контент, который используют в целях мошенничества или дезинформации. Так что нам, как потребителям, остается только вырабатывать насмотренность и учиться отличать реальные видео от сгенерированных. Особенно важно учить этому детей и людей пожилого возраста. Ведь они первыми становятся жертвами преступников.
Прорывная технология
Первую версию видеоредактора со встроенным искусственным интеллектом Sora разработчики представили публике еще в 2024 году. Но свою огромную популярность программа получила через год, когда вышла вторая ее версия в виде отдельного приложения. Быстро осознав все возможности Sora2, пользователи стали массово генерировать самые сумасшедшие видеоролики и делиться ими в социальных сетях. Всего через несколько дней это приложение вышло в топ скачиваний на App Store.
Однако среди роликов про собак-поваров, вышагивающих по подиуму младенцев и говорящих овощей довольно часто встречались жестокие и унижающие чужое достоинство ИИ-видео. Также много споров было вокруг использования защищенных авторским правом мульт- и киноперсонажей. Самые недобросовестные авторы использовали нейросеть для создания дипфейков, при этом "замазывали" автоматически добавляемую плашку с надписью Sora. И далеко не все из роликов выкладывались в сеть в чисто развлекательных целях.
Внезапный уход
Интересно, что OpenAI не давали даже намеков на то, что рассматривают возможность закрытия проекта Sora. Буквально за день до объявления о закрытии проекта в официальном блоге проекта появилась статья о грядущих обновлениях. В ней авторы-разработчики рассказывали о том, как планируют отсеивать вредоносный контент, создаваемый в видеогенераторе, и защищать от него подростков.
Еще больше недопонимания вызывает тот факт, что всего месяц назад OpenAI заключили официальный договор с Disney. Согласно ему, пользователи приложения могли бы в течение 3 лет использовать для генерации более 200 персонажей студии, как мультипликационных, так и киногероев. Официальный представитель Walt Disney подтвердил, что студия разорвала отношения с OpenAI.
На официальном аккаунте разработчиков в социальной сети Х появилось сообщение, что вскоре они подробнее расскажут о сроках отключения Sora, а также о том, как пользователи могут сохранить уже созданные ими видео.
Пока остается только гадать, почему же буквально за несколько дней руководство OpenAI решило закрыть такой успешный, дорогостоящий и перспективный проект. Возможно, дело в давлении общественности, потенциальных правовых рисках, связанных с авторскими правами, финансовой неоправданностью. Думаю, со временем мы это узнаем.
Конец видеофейкам?
Не думаю, что после полного закрытия проекта Sora из интернета пропадут вертикальные ИИ-видео. Скорее всего, нишу Sora займет другое подобное приложение. И не было бы в этом ничего страшного, если бы такие ролики использовались исключительно в развлекательных целях. Но при помощи подобных программ создатели фейков массово создают очень правдоподобный контент, который используют в целях мошенничества или дезинформации. Так что нам, как потребителям, остается только вырабатывать насмотренность и учиться отличать реальные видео от сгенерированных. Особенно важно учить этому детей и людей пожилого возраста. Ведь они первыми становятся жертвами преступников.








