Google Veo 3.1 теперь позволяет объединять разные фотографии в единое AI-видео

Google представила Veo 3.1 — новую версию модели для генерации видео с помощью ИИ, расширяющую функции, впервые показанные в Veo 3.
Версия 3.1 обещает более точную работу с промтами, более плавное преобразование изображений в видео и улучшенную генерацию звука. Veo 3.1 уже доступна через приложение Gemini, Vertex AI и Gemini API. Именно она лежит в основе видеоредактора Flow.
По словам Google, Veo 3.1 обеспечивает более точное соответствие запросам, создавая видео, лучше отражающие текстовые и визуальные инструкции. Система теперь может синхронно генерировать звук вместе с видео и поддерживает как горизонтальный, так и вертикальный формат. Эти улучшения делают модель более удобной для видеомейкеров, а не только для контента в соцсетях.
Обновление улучшило инструменты редактирования в Flow, добавив больше контроля и гибкости. Новая функция «Frame to Video» позволяет загрузить начальный и конечный кадр, а Veo создаст движение между ними. Google заявляет, что инструмент также может генерировать звук для таких клипов, создавая более завершённый результат. Другие функции Flow, такие как «Ingredients to Video» и «Extend», теперь тоже могут интегрировать сгенерированный звук.
Veo 3.1 вводит возможность добавлять новые объекты в кадр с сохранением визуального стиля. Google также сообщает, что скоро появится и удаление объектов. Модель позволяет вставить объект в видео так, чтобы он органично сливался с изображением. Функция удаления объектов находится в разработке.
Помимо Flow, Veo 3.1 и её более быстрая и недорогая версия Veo 3.1 Fast распространяются по всей AI-экосистеме Google. Разработчики могут получить доступ к инструментам через Gemini и Vertex API, а приложение Gemini продолжает поддерживать референсные изображения для генерации клипов. По данным Google, пользователи Flow уже создали более 275 миллионов видео с момента запуска в мае.
Компания отмечает, что расширенная поддержка вертикального видео в Veo может открыть путь к интеграции инструментов ИИ в YouTube Shorts и другие платформы коротких форматов.

За последние годы опасения по поводу ИИ выросли в разы. Дело не только в лени людей, которые больше не хотят читать и писать, но и в возможности заполнять интернет поддельными видео — не просто сбивающими с толку, а намеренно лгущими.
Теперь, когда вышла Sora 2 и собрала беспрецедентный миллион загрузок всего за несколько дней, интернет наводнили способы убрать водяной знак с видео. Исчезает единственный маркер, который сообщал зрителю: перед ним ролик, созданный ИИ.
Что может пойти не так?

Sora 2 — последняя версия модели от OpenAI. Она точнее, реалистичнее и лучше управляется, чем предыдущие системы. Появятся синхронизированные диалоги и звуковые эффекты, а также улучшенная производительность, что особенно полезно начинающим AI-кинематографистам и цифровым художникам.
Генеративное видео ИИ уже стало реальностью. Вот всё, что нужно знать о Sora 2 — и это может вас удивить.

Это казалось неизбежным, и наконец появилась новость о том, что готовится полностью сгенерированный ИИ фильм. Новый фильм под названием Critterz поддерживается самим OpenAI вместе с партнёрами из Лос-Анджелеса и Лондона — Native Foreign и Vertigo Films.
Их цель — представить фильм на Каннском кинофестивале в следующем мае. Фильм создаётся почти полностью с помощью искусственного интеллекта.

Warner Bros. Discovery подала в суд на Midjourney за нарушение авторских прав в крупном судебном процессе, который может иметь серьёзные последствия для нынешнего состояния генеративного ИИ.

Компании, работающие с ИИ, находятся под пристальным вниманием за то, что они сканируют интернет и присваивают идеи.
Мы находимся, пожалуй, в самый важный момент в недавней истории Голливуда. И, на самом деле, для всех творческих людей. Компании ИИ испытываются в суде на предмет того, насколько им разрешено использовать свои программы для обработки идей, которые мы создали с нуля.
Они обучали своё программное обеспечение на наших материалах, и теперь сталкиваются с судебными исками из-за этого. Эти первые иски устанавливают прецеденты для того, как будут рассматриваться все последующие.

Одно из лучших качеств Netflix — их открытость в отношении своей политики и правил. И когда дело касается использования ИИ в ваших проектах, важно, чтобы всё было максимально ясно.
ИИ — одна из горячих тем, которая одновременно и спорная, и неизбежная. Он уже здесь, и нам нужно с этим работать. Но это не значит, что мы обязаны его использовать, и это не значит, что можно игнорировать правила.
Дело в том, что большинство компаний устанавливают очень конкретные случаи, когда можно применять ИИ, и Netflix — не исключение.
Давайте посмотрим на их правила.

Сгенерировано в Gemini Storybook
Новый генеративный инструмент Google, Gemini Storybook, превращает простые текстовые запросы и загруженные пользователем изображения в иллюстрированные и озвученные истории.
Одно из первых, что нас впечатлило в Storybook, — это возможность использовать изображения, текст и даже PDF-файлы с историями, чтобы сгенерировать детскую книгу. Всё, что нужно сделать, — загрузить материалы, и Gemini выдаст готовую историю.
Это могут быть истории с моралью, с объяснением устройства мира или просто смешные рассказы. Фактически любой может «выдать» книгу.

Showrunner — новый инструмент ИИ для создания контента. Он создан стартапом Fable (именно туда Amazon направил свои инвестиции). Они создают «Netflix на базе ИИ» — платформу, которая позволяет любому человеку создавать анимационные сериалы с помощью простых текстовых подсказок.
Чтобы продемонстрировать возможности инструмента, они создали эпизоды «Южного парка», сгенерированные ИИ, которые стали вирусными, но были удалены из-за обоснованных претензий по авторскому праву.

Недавнее исследование лаборатории AI for Good от Microsoft подчёркивает, насколько людям трудно распознать изображения, созданные ИИ. Согласно исследованию, способность распознавать такие изображения была «лишь немного выше, чем у подбрасывания монетки».
Runway выпустила новую AI-модель для видео, которая может редактировать существующий материал по текстовым подсказкам — в отличие от генерации синтетического видео с нуля.