Записали 10-секундный ролик на телефон, показали, как моргаете, улыбаетесь, машете рукой. Загрузили изображение персонажа — рисованного героя, 3D-модель, портрет из фотошопа, вообще кого угодно. Нажали кнопку и через пару минут персонаж в точности повторяет ваши движения, мимику, эмоции. Не приблизительно. Не «похоже». Идентично. Движения глаз, бровей, губ, поворот головы, жесты рук, даже дыхание — всё скопировано и перенесено.
Runway Act-Two — это технология захвата движения без костюмов, маркеров и дорогого оборудования. Только камера телефона и ИИ, который понимает человеческую анатомию лучше профессиональных аниматоров. Голливудские студии тратят миллионы на motion capture. Теперь это делает каждый за пару минут.
Что такое Runway Act-Two и как это меняет анимацию
Act-Two — это модель захвата движения нового поколения от Runway, встроенная в архитектуру Gen-4. Но в отличие от Gen-4, которая генерирует видео с нуля из текста, Act-Two переносит живое выступление на любого персонажа.
Две версии: от Act-One к Act-Two
Act-One (2024) был первой попыткой Runway сделать простой motion capture. Работало неплохо, но были проблемы: неточная передача мимики, сбои при сложных жестах, нестабильность движений рук, ограниченная поддержка разных стилей персонажей.
Act-Two (июль 2025) — полная переработка. Новая модель построена на улучшенной архитектуре с акцентом на точность, согласованность и естественность движений. Результаты настолько хороши, что профессиональные аниматоры уже беспокоятся за свои рабочие места.
Как работает технология
Процесс выглядит волшебно, но внутри — сложная инженерия.
Шаг 1: Анализ видео-выступления
Вы записываете видео — себя или кого-то другого. Модель анализирует каждый кадр:
- Положение головы (повороты, наклоны, тряска)
- Выражение лица (движения бровей, глаз, губ, щёк)
- Верхняя часть тела (плечи, торс, осанка)
- Руки и кисти (жесты, пальцы, положение относительно тела)
- Фон и камера (движение камеры, глубина, перспектива)
Строится карта движений — цифровое представление всех физических действий в кадре.
Шаг 2: Анализ целевого персонажа
Загружаете изображение или видео персонажа, которого нужно анимировать. Модель анализирует:
- Анатомию (где голова, глаза, рот, руки)
- Стиль (реализм, мультфильм, 3D, пиксель-арт)
- Освещение и текстуры
- Позу по умолчанию
Шаг 3: Синтез анимации
Act-Two переносит карту движений на персонажа. Здесь происходит магия:
- Адаптация анатомии. Если у персонажа большие мультяшные глаза, а у вас обычные — модель масштабирует движения правильно.
- Сохранение стиля. Персонаж в стиле аниме получит мимику в стиле аниме, но с вашими эмоциями.
- Физически корректные движения. Голова поворачивается как реальная голова, руки двигаются естественно, мимика соответствует речи.
- Автоматическое добавление фона. Если загружено просто изображение персонажа без фона — Act-Two создаёт окружение с правильным освещением и движением камеры.
Шаг 4: Рендеринг
Модель генерирует финальное видео: персонаж выполняет все ваши движения в своём стиле, с правильным освещением, тенями, перспективой.
Результат: Ощущение, что персонаж реально существует и его сняли на камеру, а не создали в компьютере.
Ключевые возможности Act-Two
Что конкретно умеет технология?
Полный захват выступления: от головы до рук
Act-Two захватывает всё тело одновременно. Не нужно отдельно записывать лицо, потом тело, потом руки. Одно видео — полная анимация.
Голова: Повороты, наклоны, тряска. Модель видит микродвижения — когда вы чуть наклоняете голову, задумываясь, или резко поднимаете, удивляясь.
Лицо: Брови, глаза, веки, нос, рот, щёки, подбородок. Даже асимметричные выражения (одна бровь поднята, другая нет) передаются точно.
Верхняя часть тела: Плечи, торс, осанка. Если вы жестикулируете и плечи двигаются — персонаж повторит.
Руки и кисти: Положение рук, жесты, даже пальцы. Показали «окей» пальцами? Персонаж покажет. Помахали рукой? Помашет.
Синхронизация речи: Губы персонажа синхронизированы с вашей речью. Не приблизительно — кадр в кадр.
Это комплексный захват, не доступный большинству конкурентов.
Гибкость входных данных: изображение или видео
Act-Two принимает два типа целевых персонажей:
Статичное изображение: Загружаете PNG/JPG персонажа. Модель оживляет его. Автоматически добавляет движение окружения (фон, освещение, камера), чтобы результат выглядел естественно, а не как неподвижный персонаж на статичном фоне.
Видео-референс: Загружаете короткий видеоролик персонажа. Act-Two переносит ваше выступление, но сохраняет контекст оригинального видео (фон, освещение, стиль камеры).
Преимущество изображения: Можно анимировать любую иллюстрацию — нарисованную, сгенерированную ИИ, из фотошопа. Даже если это просто портрет без тела — модель дорисует тело и руки, анимирует всё.
Контроль жестов (Gesture Control)
Революционная функция для работы с изображениями персонажей. Когда загружаете статичное изображение, можете включить Gesture Control — это позволяет управлять интенсивностью жестикуляции.
Режимы:
- Low: Минимальные жесты, фокус на мимике. Персонаж почти не двигает руками.
- Medium: Умеренные жесты. Баланс между мимикой и жестикуляцией.
- High: Полная передача жестов. Персонаж активно использует руки, как в исходном видео.
Зачем это нужно? Иногда референсное изображение показывает персонажа в определённой позе (например, сидит, руки на столе). Если вы в видео активно машете руками, полный перенос жестов может выглядеть странно. Gesture Control позволяет адаптировать анимацию под контекст.
Поддержка разных стилей и нечеловеческих персонажей
Act-Two не ограничен фотореализмом. Модель одинаково хорошо работает с:
Фотореалистичными персонажами: Реальные люди, цифровые двойники, гиперреалистичные модели.
Мультяшными стилями: 2D-анимация, карикатуры, стилизованные персонажи, аниме, комиксы.
3D-рендерами: Персонажи из 3D-редакторов (Blender, Maya), игровые модели.
Нечеловеческими существами: Животные, фэнтезийные существа (эльфы, орки), роботы, даже объекты (например, говорящий тостер с лицом).
Модель понимает, что мимика человека и мимика, скажем, дракона — разные, но эмоция одна. Переносит эмоциональный контекст, адаптируя под анатомию целевого персонажа.
Автоматическое создание окружения
Если загружаете просто изображение персонажа (без фона) — Act-Two генерирует окружение:
- Подходящий фон (нейтральный, студийный или стилизованный)
- Правильное освещение (тени, блики, отражения)
- Движение камеры (зумы, панорамы для естественности)
Результат не выглядит как «вырезанный персонаж на картинке» — это полноценная сцена.
Длина и форматы
Длительность: До 30 секунд в одной генерации. Это в 6 раз больше, чем у Runway Aleph (5 сек) и большинства конкурентов.
Разрешения:
- 16:9 — 1280×720 (горизонтальное, для YouTube)
- 9:16 — 720×1280 (вертикальное, для TikTok/Reels)
- 1:1 — 960×960 (квадратное, для Instagram)
- 4:3, 3:4, 21:9 — дополнительные форматы
Частота кадров: 24 FPS (кинематографический стандарт).
Как пользоваться Runway Act-Two: пошаговая инструкция
Процесс простой — справится человек без опыта анимации.
Шаг 1: Подготовка видео-выступления (Driving Performance)
Это ключевой элемент. От качества вашего выступления зависит результат.
Требования к видео:
- Длина: От 3 до 30 секунд
- Разрешение: Минимум 720p (лучше 1080p)
- Освещение: Хорошее, равномерное. Лицо должно быть видно чётко.
- Фон: Желательно простой, без отвлекающих элементов.
- Камера: Стабильная (штатив или гимбал лучше, чем рука). Допускаются движения камеры, но не трясите.
- Кадр: Персонаж должен быть в кадре полностью — голова, плечи, руки. Средний план или план по пояс.
Что делать в видео:
- Покажите эмоции и мимику, которые нужны в финальной анимации
- Жестикулируйте руками (если хотите, чтобы персонаж жестикулировал)
- Говорите (синхронизация губ автоматическая)
- Двигайтесь естественно — не старайтесь быть роботом
Совет: Запишите несколько дублей. Иногда лучший результат с неожиданного варианта.
Шаг 2: Подготовка целевого персонажа
Вариант 1: Изображение
Загружаете PNG или JPG персонажа. Требования:
- Разрешение: Минимум 512×512 (лучше 1024×1024 или выше)
- Качество: Чёткое, без размытий
- Содержание: Персонаж в кадре (голова видна, лучше — верхняя часть тела)
- Фон: Может быть любым (модель умеет работать с прозрачным фоном)
Вариант 2: Видео
Загружаете короткий видеоролик персонажа. Длина 3-10 секунд. Это может быть:
- Кусок другого видео с этим персонажем
- 3D-рендер в движении
- Анимационный клип
Act-Two возьмёт стиль движения из референсного видео, но заменит содержание на ваше выступление.
Шаг 3: Загрузка в Runway
- Заходите в Runway Dashboard (на runwayml.com или через FICHI.AI)
- Открываете новый проект
- Выбираете модель Gen-4 Video
- Переключаетесь в режим Act-Two
- Загружаете Driving Performance (ваше видео)
- Загружаете Character (изображение или видео персонажа)
Шаг 4: Настройка параметров
Gesture Control: Выбираете уровень (Low, Medium, High) — только для изображений персонажей.
Соотношение сторон: Выбираете формат вывода (16:9, 9:16, 1:1 и т.д.).
Длительность: Система автоматически подгоняет под длину вашего driving performance (максимум 30 сек).
Шаг 5: Генерация
Нажимаете Generate. Процесс занимает 2-5 минут в зависимости от длины и загрузки серверов.
Можете следить за прогрессом в реальном времени. Runway показывает очередь и примерное время ожидания.
Шаг 6: Оценка результата
Смотрите сгенерированное видео. Проверяете:
- Точность мимики: Совпадают ли выражения лица?
- Синхронизацию речи: Губы двигаются в такт?
- Жесты: Руки повторяют ваши движения?
- Естественность: Нет ли странных артефактов, дёрганий?
Если не устраивает — пробуйте другое референсное изображение персонажа или другой дубль driving performance.
Шаг 7: Скачивание и использование
Скачиваете готовое видео. Форматы: MP4 (H.264).
Используете в проектах: клипы, реклама, обучающие видео, игры, соцсети.
Стоимость и тарифы
Act-Two встроен в платформу Runway. Работает по кредитной системе.
Стоимость генерации: 5 кредитов за секунду видео. Минимум 3 секунды (15 кредитов).
Пример: 10-секундный ролик = 50 кредитов.
Тарифные планы:
Free (бесплатный): Несколько кредитов при регистрации для тестирования. Быстро кончаются.
Standard ($12/месяц): 625 кредитов в месяц. Этого хватит на ~10-12 роликов по 10 секунд.
Pro ($28/месяц): 2250 кредитов в месяц + дополнительные покупки по сниженной цене.
Unlimited ($76/месяц): Неограниченное GPU-время. Можно генерировать сколько угодно.
Enterprise (индивидуально): Для студий и компаний. Выделенные ресурсы, приоритет, техподдержка.
Для российских пользователей удобнее через FICHI.AI — оплата российскими картами, без необходимости международных транзакций.
Практические кейсы: кто использует Act-Two
Для каких задач технология наиболее ценна?
Аниматоры и студии
Проблема: Традиционная анимация персонажей — долго и дорого. Ручная покадровая анимация занимает недели. Motion capture требует костюмов, маркеров, дорогого оборудования.
Решение Act-Two:
- Актёр записывает выступление на телефон за 5 минут
- Через 5 минут получаете анимацию персонажа профессионального качества
- Экономия недель работы и тысяч долларов на оборудовании
Применение:
- Анимационные фильмы и сериалы
- Рекламные ролики с мультяшными персонажами
- Образовательный контент с анимированными ведущими
Разработчики игр
Задача: Создать кат-сцены (cutscenes) с анимированными персонажами.
Традиционный путь: Аниматор вручную создаёт анимацию в движке, настраивает риггинг, ключевые кадры. Недели работы.
С Act-Two:
- Актёр озвучки записывает выступление
- Act-Two переносит на игрового персонажа
- Импортируете в движок — готово
Экономия: 80-90% времени на создание кат-сцен.
Создатели контента и блогеры
Идея: Создать виртуального ведущего — анимированного персонажа, который ведёт канал вместо реального человека (или вместе с ним).
Как это работает:
- Создаёте персонажа (рисуете, генерируете в MidJourney, заказываете у художника)
- Записываете выступление — говорите в камеру, объясняете материал
- Act-Two анимирует персонажа вашими движениями
Результат: Уникальный контент с запоминающимся виртуальным ведущим. Выделяетесь среди миллионов блогеров с обычными видео.
Примеры:
- Образовательные каналы с анимированными учителями
- Обзоры от вымышленных персонажей
- Виртуальные влогеры с узнаваемым стилем
Маркетинг и реклама
Задача: Создать рекламный ролик с персонажем бренда (маскотом).
Традиционно: Нанять аниматоров, ждать недели, платить десятки тысяч.
С Act-Two:
- Маркетолог сам записывает нужную сценку (улыбается, показывает продукт, жестикулирует)
- Act-Two переносит на маскота
- Готовый ролик за час
Возможности:
- Персонализированная реклама (сотни вариантов роликов под разные аудитории)
- Быстрая реакция на тренды (новость вышла утром → ролик с реакцией готов к вечеру)
- A/B тестирование креативов без дополнительных затрат
Образование и корпоративное обучение
Задача: Создать обучающие видео с виртуальным тренером.
Преимущества виртуального тренера:
- Не нужно нанимать актёра, монтировать студию
- Можно быстро обновлять материалы (записал новое выступление → обновил персонажа)
- Единый стиль всех видео (один персонаж ведёт весь курс)
Применение:
- Корпоративные тренинги
- Онлайн-курсы
- Инструкции по безопасности
- Обучающие материалы для сотрудников
Персональное использование
Идеи для обычных людей:
Виртуальный аватар для соцсетей: Создайте анимированную версию себя (или фантазийного персонажа), ведите аккаунт от его лица.
Поздравления и открытки: Запишите поздравление, перенесите на забавного персонажаоотправьте друзьям.
Креативные эксперименты: Анимируйте исторических личностей, мемных персонажей, героев любимых книг.
Ограничения и недостатки Act-Two
Технология впечатляет, но не универсальна.
Длина видео: хорошо, но не идеально
30 секунд — это в 6 раз больше, чем у Aleph, но всё ещё мало для полноценных сцен. Диалоги, длинные монологи, сложные сцены требуют нескольких генераций и склейки.
Зависимость от качества driving performance
Мусор на входе → мусор на выходе. Если ваше видео-выступление снято плохо (плохое освещение, дрожащая камера, лицо частично закрыто), результат будет соответствующим.
Act-Two не может «додумать» то, чего не видит. Если рука вышла из кадра на секунду — в этот момент персонаж не будет её показывать.
Артефакты при экстремальных движениях
Быстрые, резкие движения (прыжки, резкие повороты головы, размахивание руками) могут вызывать:
- Временные искажения (персонаж «дёргается»)
- Размытие частей тела
- Потерю деталей на долю секунды
Для медленных, плавных движений результат идеален. Для динамичных экшн-сцен — есть проблемы.
Ограниченный контроль
Вы не можете тонко настроить результат. Нет слайдеров «усилить мимику на 20%», «уменьшить жестикуляцию в этом фрагменте». Что сгенерировала модель — то и есть.
Если не нравится — нужно менять входные данные и генерировать заново.
Стоимость для частого использования
5 кредитов/секунда значит, что минута видео = 300 кредитов. На тарифе Standard ($12/мес, 625 кредитов) хватит на ~2 минуты видео в месяц.
Для серьёзной работы нужен Unlimited за $76/месяц. Для фрилансеров и малых студий это ощутимо.
Доступ ограничен
На момент запуска Act-Two доступен только корпоративным клиентам Runway. Обещают открыть для всех «в ближайшее время», но конкретных дат нет.
Для российских пользователей — через FICHI.AI можно получить доступ раньше или использовать аналоги.
Сравнение с конкурентами
Как Act-Two выглядит на фоне других решений?
Act-Two vs Traditional Motion Capture
Традиционный motion capture: Костюмы с датчиками, специальные камеры, студия. Стоимость сессии — $5000-50 000.
Act-Two: Телефон, 10 секунд записи, $2-5 за результат.
Качество: Traditional MC точнее для профессионального кино. Act-Two достаточно хорош для 95% задач и в тысячи раз дешевле.
Act-Two vs Live Portrait
Live Portrait — технология от ByteDance (создатели TikTok), тоже переносит мимику на изображения.
Что лучше у Live Portrait:
- Бесплатно (открытая модель)
- Работает быстрее (секунды вместо минут)
Что лучше у Act-Two:
- Захват всего тела (Live Portrait — только лицо)
- Жесты рук (Live Portrait не поддерживает)
- Лучшее качество анимации и согласованности
- Автоматическое окружение
Вывод: Live Portrait для быстрых экспериментов с лицом. Act-Two для профессионального результата с полным телом.
Act-Two vs D-ID
D-ID — платформа для создания говорящих голов (avatars).
Сходства: Оба анимируют персонажей.
Различия:
- D-ID специализируется на говорящих головах (только лицо, без тела)
- Act-Two — полное тело с жестами
- D-ID проще в использовании (загрузил фото, написал текст — готово)
- Act-Two гибче (можешь контролировать каждое движение через driving performance)
Вывод: D-ID для простых презентаций и аватаров для веб-сайтов. Act-Two для сложной анимации с эмоциями и жестами.
Act-Two vs Wonder Dynamics
Wonder Dynamics — ИИ для переноса выступлений актёров на CG-персонажей.
Специализация: Wonder ориентирован на киноиндустрию. Поддерживает полнотелую анимацию, сложные сцены, интеграцию с VFX-пайплайнами.
Что лучше у Wonder:
- Более продвинутые инструменты для профессионалов
- Лучшая интеграция с 3D-редакторами
Что лучше у Act-Two:
- Проще в использовании (не нужны навыки VFX)
- Быстрее (минуты vs часы)
- Дешевле для небольших проектов
Вывод: Wonder для голливудских студий. Act-Two для независимых создателей.
Будущее Act-Two и анимации с ИИ
Куда движется технология?
Реальное время
Самая амбициозная цель — live анимация. Включаешь веб-камеру, двигаешься — персонаж повторяет мгновенно. Стриминг с виртуальными аватарами, интерактивные презентации, виртуальные встречи.
Сейчас обработка занимает минуты. Через 1-2 года — реальное время.
Полнотелая анимация
Act-Two захватывает верхнюю часть тела. Следующий шаг — ноги, походка, полное тело. Запись в полный рост → анимация персонажа целиком.
Интеграция с игровыми движками
Прямой экспорт в Unity, Unreal Engine. Создал анимацию в Act-Two → импортировал в игру одной кнопкой.
Групповые сцены
Сейчас Act-Two работает с одним персонажем. Будущее — несколько персонажей в одной сцене. Записываешь диалог двух людей → анимируются два персонажа одновременно.
Снижение стоимости
По мере оптимизации алгоритмов цена упадёт. Возможно, появятся открытые аналоги — бесплатные, но с меньшим качеством.
Заключение
Runway Act-Two — это демократизация профессиональной анимации. То, что раньше требовало студий, оборудования за миллионы, команд аниматоров — теперь делает один человек с телефоном за минуты. Полный захват движения: голова, лицо, тело, руки, синхронизация речи. Поддержка любых стилей: от фотореализма до мультфильмов. До 30 секунд анимации в одной генерации. Автоматическое создание окружения для статичных изображений.
Да, есть ограничения: зависимость от качества исходного видео, артефакты при экстремальных движениях, ограниченный контроль результата, стоимость для активного использования. Но барьер входа в профессиональную анимацию рухнул. Аниматоры получили инструмент, ускоряющий работу в десятки раз. Создатели контента — способ выделиться виртуальными ведущими. Бизнес — дешёвый способ создавать рекламу с брендовыми персонажами.Для российских пользователей Runway Act-Two и другие инструменты анимации доступны через FICHI.AI — без VPN, с русскоязычным интерфейсом, оплатой российскими картами. Оживите любого персонажа своими движениями — зарегистрируйтесь на FICHI.AI, загрузите видео выступления и изображение персонажа, получите профессиональную анимацию за минуты. Будущее, где каждый может быть аниматором, уже здесь.