Комментариев пока нет
OpenAI зарелизили ChatGPT 5 - очередную самую крутую модель своей нейросети. А что в итоге?
Мой промпт:
До этого спрашивал у 4-ки - предлагал ставить vite-bundle-visualizer. Сразу говорю - это не надо делать, всё уже есть встроенное. Сегодня появилась возможность спросить у 5-ки - повторно спросил. Пятый ChatGPT опять предлагает поставить пакет, на этот раз rollup-plugin-visualizer.
Окей, пытаюсь добиться у него информации, которая должна по моему мнению быть показана в ответе (CLI команды), ChatGPT 5 выдаёт:
Мой промпт:
Я делаю build nuxt 3 / nuxt 4 приложения. Как понять в какие чанки какие файлы залезли? Почему чанки такие большие?
До этого спрашивал у 4-ки - предлагал ставить vite-bundle-visualizer. Сразу говорю - это не надо делать, всё уже есть встроенное. Сегодня появилась возможность спросить у 5-ки - повторно спросил. Пятый ChatGPT опять предлагает поставить пакет, на этот раз rollup-plugin-visualizer.
Окей, пытаюсь добиться у него информации, которая должна по моему мнению быть показана в ответе (CLI команды), ChatGPT 5 выдаёт:
Пытаюсь узнать про "npx nuxi analyze", он ищет в интернете и долго думает и всё равно выдаёт:
OpenAI внезапно закрыла видеогенератор Sora
19 дн. назад
Признавайтесь, как давно вам попадались абсурдные видео, сгенерированные с помощью Sora2? Вот мне буквально вчера. На видео кот побеждал в драке пятерых спецназовцев. Такие видео буквально заполонили мировой интернет с сентября 2025 года. Однако теперь их станет заметно меньше, по крайней мере пока на рынке не появится аналог Sora. Как сообщают в The Guardian, 24 марта 2026 года официальный представитель OpenAI объявил о внезапном закрытии проекта.
Прорывная технология
Первую версию видеоредактора со встроенным искусственным интеллектом Sora разработчики представили публике еще в 2024 году. Но свою огромную популярность программа получила через год, когда вышла вторая ее версия в виде отдельного приложения. Быстро осознав все возможности Sora2, пользователи стали массово генерировать самые сумасшедшие видеоролики и делиться ими в социальных сетях. Всего через несколько дней это приложение вышло в топ скачиваний на App Store.
Однако среди роликов про собак-поваров, вышагивающих по подиуму младенцев и говорящих овощей довольно часто встречались жестокие и унижающие чужое достоинство ИИ-видео. Также много споров было вокруг использования защищенных авторским правом мульт- и киноперсонажей. Самые недобросовестные авторы использовали нейросеть для создания дипфейков, при этом "замазывали" автоматически добавляемую плашку с надписью Sora. И далеко не все из роликов выкладывались в сеть в чисто развлекательных целях.
Внезапный уход
Интересно, что OpenAI не давали даже намеков на то, что рассматривают возможность закрытия проекта Sora. Буквально за день до объявления о закрытии проекта в официальном блоге проекта появилась статья о грядущих обновлениях. В ней авторы-разработчики рассказывали о том, как планируют отсеивать вредоносный контент, создаваемый в видеогенераторе, и защищать от него подростков.
Еще больше недопонимания вызывает тот факт, что всего месяц назад OpenAI заключили официальный договор с Disney. Согласно ему, пользователи приложения могли бы в течение 3 лет использовать для генерации более 200 персонажей студии, как мультипликационных, так и киногероев. Официальный представитель Walt Disney подтвердил, что студия разорвала отношения с OpenAI.
На официальном аккаунте разработчиков в социальной сети Х появилось сообщение, что вскоре они подробнее расскажут о сроках отключения Sora, а также о том, как пользователи могут сохранить уже созданные ими видео.
Пока остается только гадать, почему же буквально за несколько дней руководство OpenAI решило закрыть такой успешный, дорогостоящий и перспективный проект. Возможно, дело в давлении общественности, потенциальных правовых рисках, связанных с авторскими правами, финансовой неоправданностью. Думаю, со временем мы это узнаем.
Конец видеофейкам?
Не думаю, что после полного закрытия проекта Sora из интернета пропадут вертикальные ИИ-видео. Скорее всего, нишу Sora займет другое подобное приложение. И не было бы в этом ничего страшного, если бы такие ролики использовались исключительно в развлекательных целях. Но при помощи подобных программ создатели фейков массово создают очень правдоподобный контент, который используют в целях мошенничества или дезинформации. Так что нам, как потребителям, остается только вырабатывать насмотренность и учиться отличать реальные видео от сгенерированных. Особенно важно учить этому детей и людей пожилого возраста. Ведь они первыми становятся жертвами преступников.
Прорывная технология
Первую версию видеоредактора со встроенным искусственным интеллектом Sora разработчики представили публике еще в 2024 году. Но свою огромную популярность программа получила через год, когда вышла вторая ее версия в виде отдельного приложения. Быстро осознав все возможности Sora2, пользователи стали массово генерировать самые сумасшедшие видеоролики и делиться ими в социальных сетях. Всего через несколько дней это приложение вышло в топ скачиваний на App Store.
Однако среди роликов про собак-поваров, вышагивающих по подиуму младенцев и говорящих овощей довольно часто встречались жестокие и унижающие чужое достоинство ИИ-видео. Также много споров было вокруг использования защищенных авторским правом мульт- и киноперсонажей. Самые недобросовестные авторы использовали нейросеть для создания дипфейков, при этом "замазывали" автоматически добавляемую плашку с надписью Sora. И далеко не все из роликов выкладывались в сеть в чисто развлекательных целях.
Внезапный уход
Интересно, что OpenAI не давали даже намеков на то, что рассматривают возможность закрытия проекта Sora. Буквально за день до объявления о закрытии проекта в официальном блоге проекта появилась статья о грядущих обновлениях. В ней авторы-разработчики рассказывали о том, как планируют отсеивать вредоносный контент, создаваемый в видеогенераторе, и защищать от него подростков.
Еще больше недопонимания вызывает тот факт, что всего месяц назад OpenAI заключили официальный договор с Disney. Согласно ему, пользователи приложения могли бы в течение 3 лет использовать для генерации более 200 персонажей студии, как мультипликационных, так и киногероев. Официальный представитель Walt Disney подтвердил, что студия разорвала отношения с OpenAI.
На официальном аккаунте разработчиков в социальной сети Х появилось сообщение, что вскоре они подробнее расскажут о сроках отключения Sora, а также о том, как пользователи могут сохранить уже созданные ими видео.
Пока остается только гадать, почему же буквально за несколько дней руководство OpenAI решило закрыть такой успешный, дорогостоящий и перспективный проект. Возможно, дело в давлении общественности, потенциальных правовых рисках, связанных с авторскими правами, финансовой неоправданностью. Думаю, со временем мы это узнаем.
Конец видеофейкам?
Не думаю, что после полного закрытия проекта Sora из интернета пропадут вертикальные ИИ-видео. Скорее всего, нишу Sora займет другое подобное приложение. И не было бы в этом ничего страшного, если бы такие ролики использовались исключительно в развлекательных целях. Но при помощи подобных программ создатели фейков массово создают очень правдоподобный контент, который используют в целях мошенничества или дезинформации. Так что нам, как потребителям, остается только вырабатывать насмотренность и учиться отличать реальные видео от сгенерированных. Особенно важно учить этому детей и людей пожилого возраста. Ведь они первыми становятся жертвами преступников.
ИИ-шлак уничтожает интернет. Не знаю, с каких таких доводов создатели контента решили, что нейросети помогают им улучшить производимый ими продукт, но я ИИ-слоп чую сразу.
Унылые ИИ-тексты видны опытному человеку. В них всегда много воды, повторяющиеся типовые для нейросетей речевые обороты и полное отсутствие чего-то нового. Этого дерьма становится всё больше, а некоторые люди, потребляющие такой контент, даже не видят работу генеративного производителя мусора. Да зайди ты на ChatGPT, попроси что-нибудь написать, он тебе этих статей нальёт несколько вёдер, обчитаешься по самые уши. Зачем для этого контент-площадки?
Где-то пытаются с этим чуть-чуть бороться (Хабр), где-то люди в комментах по полной матюкают ИИ-слоп (VC), где-то его засилье просто огромное (даже названия площадок не буду писать). На Фамабаре ИИ полностью запрещен в любом виде (кроме примеров, как в этой статье) - это очень правильно.
Мелкий ИП-шный бизнес взял генеративные нейросети на вооружение. И теперь нам показывают такую отталкивающую рекламу:
Унылые ИИ-тексты видны опытному человеку. В них всегда много воды, повторяющиеся типовые для нейросетей речевые обороты и полное отсутствие чего-то нового. Этого дерьма становится всё больше, а некоторые люди, потребляющие такой контент, даже не видят работу генеративного производителя мусора. Да зайди ты на ChatGPT, попроси что-нибудь написать, он тебе этих статей нальёт несколько вёдер, обчитаешься по самые уши. Зачем для этого контент-площадки?
Где-то пытаются с этим чуть-чуть бороться (Хабр), где-то люди в комментах по полной матюкают ИИ-слоп (VC), где-то его засилье просто огромное (даже названия площадок не буду писать). На Фамабаре ИИ полностью запрещен в любом виде (кроме примеров, как в этой статье) - это очень правильно.
Мелкий ИП-шный бизнес взял генеративные нейросети на вооружение. И теперь нам показывают такую отталкивающую рекламу:
Недавно мы обсуждали выступления недобросовестных артистов, которые только открывают рты под песни, полностью сгенерированные искусственным интеллектом. При этом некоторые из них даже продают билеты на такие концерты. Если будет интересно, можете почитать эти посты на моей странице на Famabara. Так вот, теперь ИИ стали использовать недобросовестные продавцы на Wildberries. И снова большая часть жертв находятся в возрастной категории 50+.
Волшебные саженцы
Весной многие владельцы дач и огородов закупают семена и саженцы. Сейчас для этого совсем необязательно ехать на специальный рынок или в магазин. Например, если вы хотите посадить на своем участке малину или клубнику, саженцы можно легко заказать, сидя на диване. На популярных маркетплейсах можно найти множество сортов этих растений. Но в этом сезоне там появились какие-то невероятные гибриды. Например, малина, растущая на двухметровом дереве вперемешку с клубникой.
Волшебные саженцы
Весной многие владельцы дач и огородов закупают семена и саженцы. Сейчас для этого совсем необязательно ехать на специальный рынок или в магазин. Например, если вы хотите посадить на своем участке малину или клубнику, саженцы можно легко заказать, сидя на диване. На популярных маркетплейсах можно найти множество сортов этих растений. Но в этом сезоне там появились какие-то невероятные гибриды. Например, малина, растущая на двухметровом дереве вперемешку с клубникой.
10 лет назад зрители осуждали артистов, выступающих под фонограмму. Через 5 лет они смирились с этим и даже полюбили эффектные шоу-программы с танцами и акробатикой. Но с появлением нейросети SUNO записывать фонограмму стало необязательно. Мы уже обсуждали феномен Алены Тарасенко, открывавшей рот под сгенерированную ИИ песню (пост можно найти на моей странице в Famabara). Сегодня речь пойдет о ее коллеге, которая пошла еще дальше.
ИИ-концерты
Алена не единственная певица, поющая цифровые песни цифровым голосом. В отличие от нее, Redjji выступает с такими треками на «живых» концертах, отрицая использование ИИ. Она утверждает, что пишет тексты и поет сама.
Да, в отличие от Алены Тарасенко, Регина (Redjji) пела и раньше. Изначально она была в составе команды репера T-killah, потом ушла в сольную карьеру и пела в стиле R&B. И если вы послушаете ее старые песни, сразу поймете, что в них звучит совсем другой (ее настоящий) голос. Интересно, что и голос, и манера пения, и сам репертуар резко изменились (у них появился сильно популярный сейчас «народный» стиль) ровно тогда, когда появилась та самая нейросеть SUNO. Эта программа способна создавать текст, музыку и даже звуковую дорожку по запросу пользователя.
И снова мы возвращаемся к этичности использования ИИ-музыки в медийном пространстве. Лично меня очень возмущает тот факт, что реальные люди приобрели билеты на выступление, где услышали цифровой трек, который могли послушать дома бесплатно. А веместо этого смотрели как артистка Redjji просто танцует и открывает рот.
Будущее музыки
Если честно, когда в чартах стало появляться все больше нейропесен, я думала, что через год-два они начнут приедаться публике, ведь многие из них ну очень похожи друг на друга. Но, по всей видимости, я оказалась неправа. Некоторые слушатели (особенно старшего возраста) просто не слышат разницу между настоящей и сгенерированной музыкой. Те же, кто эту разницу замечает, закрывают на это глаза, главное, чтобы песня нравилась. Стриминговые музыкальные сервисы сначала пытались бороться с ИИ-творчеством, но потом дали таким исполнителям зеленый свет.
Да, такое обилие «музыкального фастфуда» наносит ущерб живым талантливым артистам, но в глобальном смысле в этом нет катастрофы. Вопрос в другом. Важно, чтобы каждый сгенерированный ИИ трек особым образом помечался. И это касается не только музыкальных платформ, но в первую очередь таких исполнителей, как Алена Тарасенко и Redjji, которые выступают вживую и на ТВ.
Очень часто буква закона сильно отстает от новых технологий. С нейромузыкой сегодня та же ситуация. Даже если бдительные слушатели заподозрят исполнителя в использовании искусственного интеллекта, законных способов гарантированно доказать это пока нет.
Если будущее за нейромузыкой, тогда давайте выпускать на сцену цифровые аватары исполнителей. Например, в Японии огромной популярностью пользуется виртуальная певица Мику Хацунэ. Ее голографическое изображение собирает целые стадионы фанатов. Но при этом слушатели прекрасно понимают и осознанно отдают деньги за цифровую музыку и цифрового же персонажа. Это, по крайней мере, честно.
ИИ-концерты
Алена не единственная певица, поющая цифровые песни цифровым голосом. В отличие от нее, Redjji выступает с такими треками на «живых» концертах, отрицая использование ИИ. Она утверждает, что пишет тексты и поет сама.
Да, в отличие от Алены Тарасенко, Регина (Redjji) пела и раньше. Изначально она была в составе команды репера T-killah, потом ушла в сольную карьеру и пела в стиле R&B. И если вы послушаете ее старые песни, сразу поймете, что в них звучит совсем другой (ее настоящий) голос. Интересно, что и голос, и манера пения, и сам репертуар резко изменились (у них появился сильно популярный сейчас «народный» стиль) ровно тогда, когда появилась та самая нейросеть SUNO. Эта программа способна создавать текст, музыку и даже звуковую дорожку по запросу пользователя.
И снова мы возвращаемся к этичности использования ИИ-музыки в медийном пространстве. Лично меня очень возмущает тот факт, что реальные люди приобрели билеты на выступление, где услышали цифровой трек, который могли послушать дома бесплатно. А веместо этого смотрели как артистка Redjji просто танцует и открывает рот.
Будущее музыки
Если честно, когда в чартах стало появляться все больше нейропесен, я думала, что через год-два они начнут приедаться публике, ведь многие из них ну очень похожи друг на друга. Но, по всей видимости, я оказалась неправа. Некоторые слушатели (особенно старшего возраста) просто не слышат разницу между настоящей и сгенерированной музыкой. Те же, кто эту разницу замечает, закрывают на это глаза, главное, чтобы песня нравилась. Стриминговые музыкальные сервисы сначала пытались бороться с ИИ-творчеством, но потом дали таким исполнителям зеленый свет.
Да, такое обилие «музыкального фастфуда» наносит ущерб живым талантливым артистам, но в глобальном смысле в этом нет катастрофы. Вопрос в другом. Важно, чтобы каждый сгенерированный ИИ трек особым образом помечался. И это касается не только музыкальных платформ, но в первую очередь таких исполнителей, как Алена Тарасенко и Redjji, которые выступают вживую и на ТВ.
Очень часто буква закона сильно отстает от новых технологий. С нейромузыкой сегодня та же ситуация. Даже если бдительные слушатели заподозрят исполнителя в использовании искусственного интеллекта, законных способов гарантированно доказать это пока нет.
Если будущее за нейромузыкой, тогда давайте выпускать на сцену цифровые аватары исполнителей. Например, в Японии огромной популярностью пользуется виртуальная певица Мику Хацунэ. Ее голографическое изображение собирает целые стадионы фанатов. Но при этом слушатели прекрасно понимают и осознанно отдают деньги за цифровую музыку и цифрового же персонажа. Это, по крайней мере, честно.
В 2025 году пользователи стали активно осваиваивать нейросети, такие как SUNO, которая генерирует текст, музыку и вокал. В соцсетях появились нейропесни. Особенно популярной стала переработанная песня Энтина «Снегурочка», занявшая топовые места во многих чартах.
И все было бы хорошо, если бы некоторые авторы промтов (технических заданий для нейросети) не присваивали себе полное авторство.
Музыкант из ниоткуда
В конце 2025 года на федеральном телеканале вышел выпуск шоу «Песни от всей души» с Андреем Малаховым. Среди гостей была певица Алена Тарасенко. Она исполнила песню «Ярмарка судеб», но пела она под фонограмму, созданную с помощью ИИ. При этом Тарасенко утверждала, что написала и исполняет песню сама.
Целевая аудитория шоу — люди 50+, которые не заметили подвоха. В интернете, особенно среди молодежи, выступление вызвало бурную реакцию.
Давние подписчики Алены в TikTok утверждают, что полгода назад она отмечала песни как сгенерированные ИИ и рассказывала о работе с SUNO. Сейчас эти комментарии удалены.
Если послушать другие песни, авторства и исполнения Тарасенко, отчетливо слышно что в каждой из них звучит другой вокал. Это наводит на мысли об использовании нейросети, которая пока не может обеспечить одинаковое звучание в разных треках.
Интересно, что Алена Тарасенко как певица и автор появилась в интернете только в 2025 году. Обычно путь к славе требует времени и значительных усилий от творческих людей. До этого она не публиковала стихов, музыки или записей своего пения, а появилась словно из ниоткуда.
Самое неприятное в этой истории — то, что шоу на федеральном канале выдает нейромузыку за творчество живого человека, вводя в заблуждение взрослых зрителей. Они не могут отличить одно от другого и пользоваться этим как минимум неэтично.
Здорово, что сегодня цифровые инструменты позволяют создавать музыку без навыков пения или сочинения стихов. Но зачем обманывать слушателей? На ТВ можно было показать «Ярмарку душ» и рассказать о возможностях ИИ. О Тарасенко можно было бы рассказать как о талантливом человеке, создавшем популярный трек при помощи специальной программы. Это развлекло бы зрителей и расширило их знания о современных технологиях.
И все было бы хорошо, если бы некоторые авторы промтов (технических заданий для нейросети) не присваивали себе полное авторство.
Музыкант из ниоткуда
В конце 2025 года на федеральном телеканале вышел выпуск шоу «Песни от всей души» с Андреем Малаховым. Среди гостей была певица Алена Тарасенко. Она исполнила песню «Ярмарка судеб», но пела она под фонограмму, созданную с помощью ИИ. При этом Тарасенко утверждала, что написала и исполняет песню сама.
Целевая аудитория шоу — люди 50+, которые не заметили подвоха. В интернете, особенно среди молодежи, выступление вызвало бурную реакцию.
Давние подписчики Алены в TikTok утверждают, что полгода назад она отмечала песни как сгенерированные ИИ и рассказывала о работе с SUNO. Сейчас эти комментарии удалены.
Если послушать другие песни, авторства и исполнения Тарасенко, отчетливо слышно что в каждой из них звучит другой вокал. Это наводит на мысли об использовании нейросети, которая пока не может обеспечить одинаковое звучание в разных треках.
Интересно, что Алена Тарасенко как певица и автор появилась в интернете только в 2025 году. Обычно путь к славе требует времени и значительных усилий от творческих людей. До этого она не публиковала стихов, музыки или записей своего пения, а появилась словно из ниоткуда.
Самое неприятное в этой истории — то, что шоу на федеральном канале выдает нейромузыку за творчество живого человека, вводя в заблуждение взрослых зрителей. Они не могут отличить одно от другого и пользоваться этим как минимум неэтично.
Здорово, что сегодня цифровые инструменты позволяют создавать музыку без навыков пения или сочинения стихов. Но зачем обманывать слушателей? На ТВ можно было показать «Ярмарку душ» и рассказать о возможностях ИИ. О Тарасенко можно было бы рассказать как о талантливом человеке, создавшем популярный трек при помощи специальной программы. Это развлекло бы зрителей и расширило их знания о современных технологиях.
Я активно пользуюсь умной колонкой с голосовым помощником. И в последнее время стала обращать внимание, что нейронка все чаще стала давать откровенно неправильные ответы даже на самые простые вопросы. Например, когда не сработал будильник, установленный на каждый будний день, она аргументировала это тем, что среда - не будний день. Когда я стала искать отзывы других пользователей колонки, то оказалось, что давать сбои стали давать не только речевые модели конкретно этой нейросети, но и других тоже, в том числе и зарубежных. Покопав еще глубже, я нашла этому сразу несколько объяснений.
Слишком высокое доверие
Нейросеть не имеет собственного мнения или опыта. Чтобы выдать ответ на вопрос она анализирует огромные массивы данных и выдает ответ, который вероятнее всего окажется верным. Чем чаще пользователи прибегали к помощи нейронок, тем быстрее они обучались и тем лучше работали. В какой-то момент люди стали настолько доверять программам, что перестали проверять сгенерированные ими результаты и сразу выкладывать их в интернет.
К этим проблемам привело сразу два фактора:
1) По изначальной задумке нейросети должны были копировать ответы, которые давали в интернете компетентные живые люди. Со временем из-за большого количества сгенерированного контента нейронки стали цитировать самих себя.
2) Отсюда следует вторая проблема. ИИ стал многократно цитировать свои же сообщения, в которых уже есть те самые ошибки, которые не заметили и не исправили пользователи. Со временем таких неправильных ответов стало так много, что на это стали обращать внимание рядовые пользователи.
Необоснованная лесть
Еще одно дело, в котором нельзя полагаться на нейронку – критическая оценка чего либо. Даже если попросить AI критически оценить отчет, рассказ, план и т.д., скорее всего он выдаст очень сглаженный, подбадривающий автора ответ. Оказалось, что создатели специально так программируют нейросети, чтобы случайно не спровоцировать пользователя на агрессию и не допустить излишней грусти по этому поводу. Если вашу идею похвалила нейронка, это не значит практически ничего. Если вам все-таки нужен анализ, попросите нейросеть не дать оценку, а найти ошибки. При этом она должна рассуждать как специалист в той сфере, о которой идет речь.
В целом, углубившись (насколько это может сделать рядовой пользователь) в тему нейронок, я пришла к выводу, что восстание машин наступит еще очень нескоро.
Слишком высокое доверие
Нейросеть не имеет собственного мнения или опыта. Чтобы выдать ответ на вопрос она анализирует огромные массивы данных и выдает ответ, который вероятнее всего окажется верным. Чем чаще пользователи прибегали к помощи нейронок, тем быстрее они обучались и тем лучше работали. В какой-то момент люди стали настолько доверять программам, что перестали проверять сгенерированные ими результаты и сразу выкладывать их в интернет.
К этим проблемам привело сразу два фактора:
1) По изначальной задумке нейросети должны были копировать ответы, которые давали в интернете компетентные живые люди. Со временем из-за большого количества сгенерированного контента нейронки стали цитировать самих себя.
2) Отсюда следует вторая проблема. ИИ стал многократно цитировать свои же сообщения, в которых уже есть те самые ошибки, которые не заметили и не исправили пользователи. Со временем таких неправильных ответов стало так много, что на это стали обращать внимание рядовые пользователи.
Необоснованная лесть
Еще одно дело, в котором нельзя полагаться на нейронку – критическая оценка чего либо. Даже если попросить AI критически оценить отчет, рассказ, план и т.д., скорее всего он выдаст очень сглаженный, подбадривающий автора ответ. Оказалось, что создатели специально так программируют нейросети, чтобы случайно не спровоцировать пользователя на агрессию и не допустить излишней грусти по этому поводу. Если вашу идею похвалила нейронка, это не значит практически ничего. Если вам все-таки нужен анализ, попросите нейросеть не дать оценку, а найти ошибки. При этом она должна рассуждать как специалист в той сфере, о которой идет речь.
В целом, углубившись (насколько это может сделать рядовой пользователь) в тему нейронок, я пришла к выводу, что восстание машин наступит еще очень нескоро.




