Runway Act-Two: Революция в захвате движений

Записали 10-секундный ролик на телефон, показали, как моргаете, улыбаетесь, машете рукой. Загрузили изображение персонажа — рисованного героя, 3D-модель, портрет из фотошопа, вообще кого угодно. Нажали кнопку и через пару минут персонаж в точности повторяет ваши движения, мимику, эмоции. Не приблизительно. Не «похоже». Идентично. Движения глаз, бровей, губ, поворот головы, жесты рук, даже дыхание — всё скопировано и перенесено. 

Runway Act-Two — это технология захвата движения без костюмов, маркеров и дорогого оборудования. Только камера телефона и ИИ, который понимает человеческую анатомию лучше профессиональных аниматоров. Голливудские студии тратят миллионы на motion capture. Теперь это делает каждый за пару минут.

Попробуйте Runway Act-Two на FICHI.AI

Что такое Runway Act-Two и как это меняет анимацию

[Источник]

Act-Two — это модель захвата движения нового поколения от Runway, встроенная в архитектуру Gen-4. Но в отличие от Gen-4, которая генерирует видео с нуля из текста, Act-Two переносит живое выступление на любого персонажа.

Две версии: от Act-One к Act-Two

Act-One (2024) был первой попыткой Runway сделать простой motion capture. Работало неплохо, но были проблемы: неточная передача мимики, сбои при сложных жестах, нестабильность движений рук, ограниченная поддержка разных стилей персонажей.

Act-Two (июль 2025) — полная переработка. Новая модель построена на улучшенной архитектуре с акцентом на точность, согласованность и естественность движений. Результаты настолько хороши, что профессиональные аниматоры уже беспокоятся за свои рабочие места.

Как работает технология

Процесс выглядит волшебно, но внутри — сложная инженерия.

Шаг 1: Анализ видео-выступления

Вы записываете видео — себя или кого-то другого. Модель анализирует каждый кадр:

  • Положение головы (повороты, наклоны, тряска)
  • Выражение лица (движения бровей, глаз, губ, щёк)
  • Верхняя часть тела (плечи, торс, осанка)
  • Руки и кисти (жесты, пальцы, положение относительно тела)
  • Фон и камера (движение камеры, глубина, перспектива)

Строится карта движений — цифровое представление всех физических действий в кадре.

Шаг 2: Анализ целевого персонажа

Загружаете изображение или видео персонажа, которого нужно анимировать. Модель анализирует:

  • Анатомию (где голова, глаза, рот, руки)
  • Стиль (реализм, мультфильм, 3D, пиксель-арт)
  • Освещение и текстуры
  • Позу по умолчанию

Шаг 3: Синтез анимации

Act-Two переносит карту движений на персонажа. Здесь происходит магия:

  • Адаптация анатомии. Если у персонажа большие мультяшные глаза, а у вас обычные — модель масштабирует движения правильно.
  • Сохранение стиля. Персонаж в стиле аниме получит мимику в стиле аниме, но с вашими эмоциями.
  • Физически корректные движения. Голова поворачивается как реальная голова, руки двигаются естественно, мимика соответствует речи.
  • Автоматическое добавление фона. Если загружено просто изображение персонажа без фона — Act-Two создаёт окружение с правильным освещением и движением камеры.

Шаг 4: Рендеринг

Модель генерирует финальное видео: персонаж выполняет все ваши движения в своём стиле, с правильным освещением, тенями, перспективой.

Результат: Ощущение, что персонаж реально существует и его сняли на камеру, а не создали в компьютере.

Ключевые возможности Act-Two

Что конкретно умеет технология?

[Источник]

Полный захват выступления: от головы до рук

Act-Two захватывает всё тело одновременно. Не нужно отдельно записывать лицо, потом тело, потом руки. Одно видео — полная анимация.

Голова: Повороты, наклоны, тряска. Модель видит микродвижения — когда вы чуть наклоняете голову, задумываясь, или резко поднимаете, удивляясь.

Лицо: Брови, глаза, веки, нос, рот, щёки, подбородок. Даже асимметричные выражения (одна бровь поднята, другая нет) передаются точно.

Верхняя часть тела: Плечи, торс, осанка. Если вы жестикулируете и плечи двигаются — персонаж повторит.

Руки и кисти: Положение рук, жесты, даже пальцы. Показали «окей» пальцами? Персонаж покажет. Помахали рукой? Помашет.

Синхронизация речи: Губы персонажа синхронизированы с вашей речью. Не приблизительно — кадр в кадр.

Это комплексный захват, не доступный большинству конкурентов.

Гибкость входных данных: изображение или видео

Act-Two принимает два типа целевых персонажей:

Статичное изображение: Загружаете PNG/JPG персонажа. Модель оживляет его. Автоматически добавляет движение окружения (фон, освещение, камера), чтобы результат выглядел естественно, а не как неподвижный персонаж на статичном фоне.

Видео-референс: Загружаете короткий видеоролик персонажа. Act-Two переносит ваше выступление, но сохраняет контекст оригинального видео (фон, освещение, стиль камеры).

Преимущество изображения: Можно анимировать любую иллюстрацию — нарисованную, сгенерированную ИИ, из фотошопа. Даже если это просто портрет без тела — модель дорисует тело и руки, анимирует всё.

Контроль жестов (Gesture Control)

Революционная функция для работы с изображениями персонажей. Когда загружаете статичное изображение, можете включить Gesture Control — это позволяет управлять интенсивностью жестикуляции.

Режимы:

  • Low: Минимальные жесты, фокус на мимике. Персонаж почти не двигает руками.
  • Medium: Умеренные жесты. Баланс между мимикой и жестикуляцией.
  • High: Полная передача жестов. Персонаж активно использует руки, как в исходном видео.

Зачем это нужно? Иногда референсное изображение показывает персонажа в определённой позе (например, сидит, руки на столе). Если вы в видео активно машете руками, полный перенос жестов может выглядеть странно. Gesture Control позволяет адаптировать анимацию под контекст.

Поддержка разных стилей и нечеловеческих персонажей

Act-Two не ограничен фотореализмом. Модель одинаково хорошо работает с:

Фотореалистичными персонажами: Реальные люди, цифровые двойники, гиперреалистичные модели.

Мультяшными стилями: 2D-анимация, карикатуры, стилизованные персонажи, аниме, комиксы.

3D-рендерами: Персонажи из 3D-редакторов (Blender, Maya), игровые модели.

Нечеловеческими существами: Животные, фэнтезийные существа (эльфы, орки), роботы, даже объекты (например, говорящий тостер с лицом).

Модель понимает, что мимика человека и мимика, скажем, дракона — разные, но эмоция одна. Переносит эмоциональный контекст, адаптируя под анатомию целевого персонажа.

Автоматическое создание окружения

Если загружаете просто изображение персонажа (без фона) — Act-Two генерирует окружение:

  • Подходящий фон (нейтральный, студийный или стилизованный)
  • Правильное освещение (тени, блики, отражения)
  • Движение камеры (зумы, панорамы для естественности)

Результат не выглядит как «вырезанный персонаж на картинке» — это полноценная сцена.

Длина и форматы

Длительность: До 30 секунд в одной генерации. Это в 6 раз больше, чем у Runway Aleph (5 сек) и большинства конкурентов.

Разрешения:

  • 16:9 — 1280×720 (горизонтальное, для YouTube)
  • 9:16 — 720×1280 (вертикальное, для TikTok/Reels)
  • 1:1 — 960×960 (квадратное, для Instagram)
  • 4:3, 3:4, 21:9 — дополнительные форматы

Частота кадров: 24 FPS (кинематографический стандарт).

Протестируйте Act-Two на FICHI.AI

Как пользоваться Runway Act-Two: пошаговая инструкция

Процесс простой — справится человек без опыта анимации.

Шаг 1: Подготовка видео-выступления (Driving Performance)

Это ключевой элемент. От качества вашего выступления зависит результат.

Требования к видео:

  • Длина: От 3 до 30 секунд
  • Разрешение: Минимум 720p (лучше 1080p)
  • Освещение: Хорошее, равномерное. Лицо должно быть видно чётко.
  • Фон: Желательно простой, без отвлекающих элементов.
  • Камера: Стабильная (штатив или гимбал лучше, чем рука). Допускаются движения камеры, но не трясите.
  • Кадр: Персонаж должен быть в кадре полностью — голова, плечи, руки. Средний план или план по пояс.

Что делать в видео:

  • Покажите эмоции и мимику, которые нужны в финальной анимации
  • Жестикулируйте руками (если хотите, чтобы персонаж жестикулировал)
  • Говорите (синхронизация губ автоматическая)
  • Двигайтесь естественно — не старайтесь быть роботом

Совет: Запишите несколько дублей. Иногда лучший результат с неожиданного варианта.

Шаг 2: Подготовка целевого персонажа

Вариант 1: Изображение

Загружаете PNG или JPG персонажа. Требования:

  • Разрешение: Минимум 512×512 (лучше 1024×1024 или выше)
  • Качество: Чёткое, без размытий
  • Содержание: Персонаж в кадре (голова видна, лучше — верхняя часть тела)
  • Фон: Может быть любым (модель умеет работать с прозрачным фоном)

Вариант 2: Видео

Загружаете короткий видеоролик персонажа. Длина 3-10 секунд. Это может быть:

  • Кусок другого видео с этим персонажем
  • 3D-рендер в движении
  • Анимационный клип

Act-Two возьмёт стиль движения из референсного видео, но заменит содержание на ваше выступление.

Шаг 3: Загрузка в Runway

  1. Заходите в Runway Dashboard (на runwayml.com или через FICHI.AI)
  2. Открываете новый проект
  3. Выбираете модель Gen-4 Video
  4. Переключаетесь в режим Act-Two
  5. Загружаете Driving Performance (ваше видео)
  6. Загружаете Character (изображение или видео персонажа)

Шаг 4: Настройка параметров

Gesture Control: Выбираете уровень (Low, Medium, High) — только для изображений персонажей.

Соотношение сторон: Выбираете формат вывода (16:9, 9:16, 1:1 и т.д.).

Длительность: Система автоматически подгоняет под длину вашего driving performance (максимум 30 сек).

Шаг 5: Генерация

Нажимаете Generate. Процесс занимает 2-5 минут в зависимости от длины и загрузки серверов.

Можете следить за прогрессом в реальном времени. Runway показывает очередь и примерное время ожидания.

Шаг 6: Оценка результата

Смотрите сгенерированное видео. Проверяете:

  • Точность мимики: Совпадают ли выражения лица?
  • Синхронизацию речи: Губы двигаются в такт?
  • Жесты: Руки повторяют ваши движения?
  • Естественность: Нет ли странных артефактов, дёрганий?

Если не устраивает — пробуйте другое референсное изображение персонажа или другой дубль driving performance.

Шаг 7: Скачивание и использование

Скачиваете готовое видео. Форматы: MP4 (H.264).

Используете в проектах: клипы, реклама, обучающие видео, игры, соцсети.

Стоимость и тарифы

Act-Two встроен в платформу Runway. Работает по кредитной системе.

Стоимость генерации: 5 кредитов за секунду видео. Минимум 3 секунды (15 кредитов).

Пример: 10-секундный ролик = 50 кредитов.

Тарифные планы:

Free (бесплатный): Несколько кредитов при регистрации для тестирования. Быстро кончаются.

Standard ($12/месяц): 625 кредитов в месяц. Этого хватит на ~10-12 роликов по 10 секунд.

Pro ($28/месяц): 2250 кредитов в месяц + дополнительные покупки по сниженной цене.

Unlimited ($76/месяц): Неограниченное GPU-время. Можно генерировать сколько угодно.

Enterprise (индивидуально): Для студий и компаний. Выделенные ресурсы, приоритет, техподдержка.

Для российских пользователей удобнее через FICHI.AI — оплата российскими картами, без необходимости международных транзакций.

Используйте Act-Two и другие инструменты на FICHI.AI

Практические кейсы: кто использует Act-Two

Для каких задач технология наиболее ценна?

Аниматоры и студии

Проблема: Традиционная анимация персонажей — долго и дорого. Ручная покадровая анимация занимает недели. Motion capture требует костюмов, маркеров, дорогого оборудования.

Решение Act-Two:

  • Актёр записывает выступление на телефон за 5 минут
  • Через 5 минут получаете анимацию персонажа профессионального качества
  • Экономия недель работы и тысяч долларов на оборудовании

Применение:

  • Анимационные фильмы и сериалы
  • Рекламные ролики с мультяшными персонажами
  • Образовательный контент с анимированными ведущими

Разработчики игр

Задача: Создать кат-сцены (cutscenes) с анимированными персонажами.

Традиционный путь: Аниматор вручную создаёт анимацию в движке, настраивает риггинг, ключевые кадры. Недели работы.

С Act-Two:

  • Актёр озвучки записывает выступление
  • Act-Two переносит на игрового персонажа
  • Импортируете в движок — готово

Экономия: 80-90% времени на создание кат-сцен.

Создатели контента и блогеры

Идея: Создать виртуального ведущего — анимированного персонажа, который ведёт канал вместо реального человека (или вместе с ним).

Как это работает:

  • Создаёте персонажа (рисуете, генерируете в MidJourney, заказываете у художника)
  • Записываете выступление — говорите в камеру, объясняете материал
  • Act-Two анимирует персонажа вашими движениями

Результат: Уникальный контент с запоминающимся виртуальным ведущим. Выделяетесь среди миллионов блогеров с обычными видео.

Примеры:

  • Образовательные каналы с анимированными учителями
  • Обзоры от вымышленных персонажей
  • Виртуальные влогеры с узнаваемым стилем

Маркетинг и реклама

Задача: Создать рекламный ролик с персонажем бренда (маскотом).

Традиционно: Нанять аниматоров, ждать недели, платить десятки тысяч.

С Act-Two:

  • Маркетолог сам записывает нужную сценку (улыбается, показывает продукт, жестикулирует)
  • Act-Two переносит на маскота
  • Готовый ролик за час

Возможности:

  • Персонализированная реклама (сотни вариантов роликов под разные аудитории)
  • Быстрая реакция на тренды (новость вышла утром → ролик с реакцией готов к вечеру)
  • A/B тестирование креативов без дополнительных затрат

Образование и корпоративное обучение

Задача: Создать обучающие видео с виртуальным тренером.

Преимущества виртуального тренера:

  • Не нужно нанимать актёра, монтировать студию
  • Можно быстро обновлять материалы (записал новое выступление → обновил персонажа)
  • Единый стиль всех видео (один персонаж ведёт весь курс)

Применение:

  • Корпоративные тренинги
  • Онлайн-курсы
  • Инструкции по безопасности
  • Обучающие материалы для сотрудников

Персональное использование

Идеи для обычных людей:

Виртуальный аватар для соцсетей: Создайте анимированную версию себя (или фантазийного персонажа), ведите аккаунт от его лица.

Поздравления и открытки: Запишите поздравление, перенесите на забавного персонажаоотправьте друзьям.

Креативные эксперименты: Анимируйте исторических личностей, мемных персонажей, героев любимых книг.

Ограничения и недостатки Act-Two

Технология впечатляет, но не универсальна.

Длина видео: хорошо, но не идеально

30 секунд — это в 6 раз больше, чем у Aleph, но всё ещё мало для полноценных сцен. Диалоги, длинные монологи, сложные сцены требуют нескольких генераций и склейки.

Зависимость от качества driving performance

Мусор на входе → мусор на выходе. Если ваше видео-выступление снято плохо (плохое освещение, дрожащая камера, лицо частично закрыто), результат будет соответствующим.

Act-Two не может «додумать» то, чего не видит. Если рука вышла из кадра на секунду — в этот момент персонаж не будет её показывать.

Артефакты при экстремальных движениях

Быстрые, резкие движения (прыжки, резкие повороты головы, размахивание руками) могут вызывать:

  • Временные искажения (персонаж «дёргается»)
  • Размытие частей тела
  • Потерю деталей на долю секунды

Для медленных, плавных движений результат идеален. Для динамичных экшн-сцен — есть проблемы.

Ограниченный контроль

Вы не можете тонко настроить результат. Нет слайдеров «усилить мимику на 20%», «уменьшить жестикуляцию в этом фрагменте». Что сгенерировала модель — то и есть.

Если не нравится — нужно менять входные данные и генерировать заново.

Стоимость для частого использования

5 кредитов/секунда значит, что минута видео = 300 кредитов. На тарифе Standard ($12/мес, 625 кредитов) хватит на ~2 минуты видео в месяц.

Для серьёзной работы нужен Unlimited за $76/месяц. Для фрилансеров и малых студий это ощутимо.

Доступ ограничен

На момент запуска Act-Two доступен только корпоративным клиентам Runway. Обещают открыть для всех «в ближайшее время», но конкретных дат нет.

Для российских пользователей — через FICHI.AI можно получить доступ раньше или использовать аналоги.

Сравнение с конкурентами

Как Act-Two выглядит на фоне других решений?

Act-Two vs Traditional Motion Capture

Традиционный motion capture: Костюмы с датчиками, специальные камеры, студия. Стоимость сессии — $5000-50 000.

Act-Two: Телефон, 10 секунд записи, $2-5 за результат.

Качество: Traditional MC точнее для профессионального кино. Act-Two достаточно хорош для 95% задач и в тысячи раз дешевле.

Act-Two vs Live Portrait

Live Portrait — технология от ByteDance (создатели TikTok), тоже переносит мимику на изображения.

Что лучше у Live Portrait:

  • Бесплатно (открытая модель)
  • Работает быстрее (секунды вместо минут)

Что лучше у Act-Two:

  • Захват всего тела (Live Portrait — только лицо)
  • Жесты рук (Live Portrait не поддерживает)
  • Лучшее качество анимации и согласованности
  • Автоматическое окружение

Вывод: Live Portrait для быстрых экспериментов с лицом. Act-Two для профессионального результата с полным телом.

Act-Two vs D-ID

D-ID — платформа для создания говорящих голов (avatars).

Сходства: Оба анимируют персонажей.

Различия:

  • D-ID специализируется на говорящих головах (только лицо, без тела)
  • Act-Two — полное тело с жестами
  • D-ID проще в использовании (загрузил фото, написал текст — готово)
  • Act-Two гибче (можешь контролировать каждое движение через driving performance)

Вывод: D-ID для простых презентаций и аватаров для веб-сайтов. Act-Two для сложной анимации с эмоциями и жестами.

Act-Two vs Wonder Dynamics

Wonder Dynamics — ИИ для переноса выступлений актёров на CG-персонажей.

Специализация: Wonder ориентирован на киноиндустрию. Поддерживает полнотелую анимацию, сложные сцены, интеграцию с VFX-пайплайнами.

Что лучше у Wonder:

  • Более продвинутые инструменты для профессионалов
  • Лучшая интеграция с 3D-редакторами

Что лучше у Act-Two:

  • Проще в использовании (не нужны навыки VFX)
  • Быстрее (минуты vs часы)
  • Дешевле для небольших проектов

Вывод: Wonder для голливудских студий. Act-Two для независимых создателей.

Будущее Act-Two и анимации с ИИ

Куда движется технология?

Реальное время

Самая амбициозная цель — live анимация. Включаешь веб-камеру, двигаешься — персонаж повторяет мгновенно. Стриминг с виртуальными аватарами, интерактивные презентации, виртуальные встречи.

Сейчас обработка занимает минуты. Через 1-2 года — реальное время.

Полнотелая анимация

Act-Two захватывает верхнюю часть тела. Следующий шаг — ноги, походка, полное тело. Запись в полный рост → анимация персонажа целиком.

Интеграция с игровыми движками

Прямой экспорт в Unity, Unreal Engine. Создал анимацию в Act-Two → импортировал в игру одной кнопкой.

Групповые сцены

Сейчас Act-Two работает с одним персонажем. Будущее — несколько персонажей в одной сцене. Записываешь диалог двух людей → анимируются два персонажа одновременно.

Снижение стоимости

По мере оптимизации алгоритмов цена упадёт. Возможно, появятся открытые аналоги — бесплатные, но с меньшим качеством.

Заключение

Runway Act-Two — это демократизация профессиональной анимации. То, что раньше требовало студий, оборудования за миллионы, команд аниматоров — теперь делает один человек с телефоном за минуты. Полный захват движения: голова, лицо, тело, руки, синхронизация речи. Поддержка любых стилей: от фотореализма до мультфильмов. До 30 секунд анимации в одной генерации. Автоматическое создание окружения для статичных изображений.

Да, есть ограничения: зависимость от качества исходного видео, артефакты при экстремальных движениях, ограниченный контроль результата, стоимость для активного использования. Но барьер входа в профессиональную анимацию рухнул. Аниматоры получили инструмент, ускоряющий работу в десятки раз. Создатели контента — способ выделиться виртуальными ведущими. Бизнес — дешёвый способ создавать рекламу с брендовыми персонажами.Для российских пользователей Runway Act-Two и другие инструменты анимации доступны через FICHI.AI — без VPN, с русскоязычным интерфейсом, оплатой российскими картами. Оживите любого персонажа своими движениями — зарегистрируйтесь на FICHI.AI, загрузите видео выступления и изображение персонажа, получите профессиональную анимацию за минуты. Будущее, где каждый может быть аниматором, уже здесь.

Предыдущий пост

Runway Aleph: Революция в видеомонтаже

Следующий пост

Как пользоваться ChatGPT