Adobe Firefly AI получает генеративные звуковые эффекты и новые функции для видео

Adobe сегодня сделала крупные анонсы для своей видеомодели Firefly. Одним из главных стало добавление функции генерации звуковых эффектов, которая должна упростить и ускорить редактирование аудио и видео.
Firefly также получит новые видеофункции, включая улучшенную реалистичность движений и расширенные инструменты управления видео — всё для ускорения работы и повышения точности и выразительности в приложениях Adobe.
Если вы следите за последними AI-видеомоделями от компаний вроде Runway или Google Veo, вам будет интересно узнать, как Adobe планирует расширить свои сервисы, чтобы включить эти модели в приложение Firefly.
Вот всё, что вам нужно знать об этих обновлениях.
Обновлённая модель Adobe Firefly

Хотя видеомодель Firefly от Adobe и раньше хорошо справлялась с генерацией динамичных пейзажей и городских сцен, ей не хватало реалистичности движений и поведения. Новое обновление видеомодели Firefly обещает улучшенную достоверность движений: видео теперь будут двигаться естественнее, с плавными переходами и реалистичной точностью.
Пользователи Adobe Firefly также получат расширенный доступ к другим AI-видеомоделям внутри приложения Firefly, включая недавно обновлённые модели, такие как Runway Gen-4 Video и Google Veo3. Adobe сообщает, что в Firefly появятся и другие партнёрские модели, включая:
-
Topaz (инструменты увеличения разрешения изображений и видео) и Moonvalley Marey — скоро появятся в Firefly Boards.
-
Luma AI Ray 2 и Pika 2.2 — уже доступны в Boards и вскоре будут добавлены в Generate Video.
Эти модели помогут с созданием всего — от раскадровок до полноценных анимационных роликов. Всё это будет доступно в веб- и мобильных приложениях Firefly, где пользователи смогут выбирать AI-модель, подходящую для каждой части их проекта.
От раскадровки до готовой анимации — веб- и мобильные приложения Firefly позволяют выбирать нужную AI-модель на каждом этапе, при этом сохраняя стиль и творческий контроль.
Расширенное управление AI-видео
В духе других AI-видеомоделей с функциями "режиссёрского" контроля Adobe добавляет новые мощные инструменты, позволяющие авторам поднимать качество своих видео.
Вот некоторые из них:
Composition Reference for Video: Обеспечивает структуру и последовательность видеоконтента. Загрузите референс-видео, опишите свою идею, и Firefly сгенерирует новое видео, передавая оригинальную композицию — идеально для согласованности сцен или обновления старого контента в новом стиле.
Стилевые пресеты (Style Presets): Примените нужный визуальный стиль одним кликом. Выбирайте из шаблонов вроде пластилиновой анимации, аниме, линейной графики или 2D. Отличный инструмент как для презентации концепта, так и для финальной работы.
Кадрирование по ключевым кадрам (Keyframe Cropping): Удобный инструмент обрезки без необходимости менять приложение. Загрузите первый и последний кадры, выберите формат, опишите сцену — Firefly сгенерирует видео, которое подойдёт под ваш формат. Быстро, гибко, без лишних шагов.
Все эти функции направлены на то, чтобы дать авторам больше контроля, скорости и творческой свободы.
Генерация звуковых эффектов

Главной новостью для многих видеомонтажёров стала функция Generate Sound Effects, которая уже доступна в бета-версии. Она решает давнюю задачу поиска и создания звуков для видео.
Как и другие генеративные модели Firefly, Generate Sound Effects (beta) обещает коммерческую безопасность, позволяя авторам создавать звуки — от рёва льва до природной атмосферы — без юридических рисков.
Функция работает с простыми текстовыми подсказками. Также можно использовать голос для управления таймингом и интенсивностью звука. После добавления эффектов в проект их можно экспортировать прямо в Adobe Express.
Если вам интересно узнать больше о новых возможностях Firefly, посетите сайт Adobe.

В то время как творческие люди продолжают разбираться с технологией искусственного интеллекта (ИИ) — как она вписывается в их рабочий процесс и стоит ли её использовать вообще — Google представила пример видео, созданного ИИ, используя «винтажную фотографию» в качестве основы.

Runway — один из наиболее известных брендов в сфере ИИ — представляет свое новое поколение модели захвата движений, которое обещает значительно улучшить качество генерации благодаря своей AI-технологии mocap.
Давайте рассмотрим подробнее и оценим, может ли это быть интересно для специалистов киноиндустрии.

Node Mill представил LensNode — мощный и технически продвинутый плагин для DaVinci Resolve, позволяющий цифровым способом эмулировать реальные оптические свойства объективов.
Благодаря использованию данных о классических и современных объективах, LensNode переносит нюансы оптических несовершенств старой оптики в современные цветокоррекционные пайплайны — без затрат и трудностей, связанных с арендой или покупкой редких кинообъективов.
В то время как на рынке уже есть множество плагинов для эмуляции киноплёнки и "диффузной" мягкости, LensNode отличается тем, что воссоздаёт именно поведение реальных объективов — не плёнки, не размытия, а точные до пикселя оптические эффекты, полученные из измеренных данных.

Компания Moonvalley выпустила Marey — модель генерации видео с помощью искусственного интеллекта, ориентированную на профессиональных режиссёров и студии. Сделав ставку на творческий контроль, юридическую безопасность и этичное использование данных, Marey позиционируется как серьёзная альтернатива таким инструментам, как Sora от OpenAI и Veo 3 от Google.

YouTube готовит важное обновление своей политики, направленное на борьбу с потоком низкокачественного AI-контента — так называемого «AI slop» (в переводе: «искусственный мусор»), который массово заполонил платформу.
С 15 июля 2025 года в рамках программы монетизации YouTube Partner Program (YPP) вступят в силу новые правила. Отныне контент должен быть достаточно оригинальным и подлинным, чтобы иметь право на монетизацию.

Искусственный интеллект вызвал споры, сомнения и породил множество мифов. Останемся ли мы все без работы? Давайте разбираться.

Вслед за значительным релизом DaVinci Resolve 20, компания Blackmagic Design выпустила пусть и не крупное, но всё же важное обновление для своей популярной монтажной платформы.
DaVinci Resolve получила ряд полезных улучшений, включая обновлённое поведение функции перетаскивания клипов из медиатеки, а также улучшенное определение тактовых маркеров при изменении длины музыкальных треков в AI-редакторе музыки Resolve.
Давайте подробно рассмотрим всё новое, что появилось в DaVinci Resolve 20.0.1, и узнаем, как обновить программу, чтобы использовать её возможности по максимуму.

Вокруг AI-инструментов для видеомонтажа сегодня царит настоящий ажиотаж. Многие из них обещают всё — от моментального монтажа до полностью синтетических продакшенов, но на деле чаще всего производят больше шума, чем реальных результатов. Однако для профессиональных видеомонтажёров и креаторов вопрос не в том, является ли ИИ будущим, а в том, может ли он уже сейчас экономить время и улучшать творческий результат.
К счастью, некоторые AI-инструменты уже вышли за рамки маркетинговых трюков. Они реально решают задачи пост-продакшна: ускоряют рутинные процессы, улучшают качество и открывают новые творческие возможности. Ниже — шесть AI-инструментов, которые мы протестировали и считаем действительно полезными для профессиональных и начинающих видеоредакторов.

После нескольких месяцев в бета-тестировании Adobe Premiere Pro в своей стабильной версии получил поддержку ускорения с помощью графических процессоров Nvidia для редактирования видео с цветовой субдискретизацией 4:2:2.
По словам Adobe, формат цвета 4:2:2 — это настоящий прорыв для профессиональных видеомонтажёров. Он предоставляет в два раза больше цветовой информации по сравнению с типичным форматом 4:2:0, при этом увеличивая размер исходного файла всего на 30%. Это приводит к заметным улучшениям в работе:

Сценаристы, продюсеры и начинающие писатели всё чаще обращаются к нейросетям для анализа сценариев.
Причина проста: это очень дёшево и моментально.
Такой подход провоцирует бурную дискуссию о месте искусственного интеллекта в профессии, которая десятилетиями опиралась на человеческую интуицию и творческое чутьё.
Полностью заменить вкус и опыт живого читателя невозможно, но в условиях, когда сервисов по анализу сценариев становится всё меньше, авторы хватаются за любую возможность.
Основной сценарный кейс использования Gemini (или ChatGPT) — это возможность быстро проанализировать и выдать фидбэк на весь сценарий. Пользователи загружают свои тексты в формате PDF и с помощью подробных запросов получают развёрнутые рецензии. Как правило, в промпте просят нейросеть выступить в роли опытного скрипт-доктора и оценить сценарий по классической схеме.
Давайте разберёмся, что происходит — и какие именно запросы используют авторы.