Стабильные персонажи в Midjourney: решено
!
Главная головная боль при работе с AI-генераторами — получить одного и того же персонажа в разных позах, сценах и с разными эмоциями. Стандартные методы вроде Omni Reference
работают нестабильно. В итоге — часы работы, сотни генераций и результат, близкий к лотерее.
Наткнулся на подробный воркфлоу, который превращает эту лотерею в управляемый производственный процесс. Подход сложный, многоступенчатый, но результат предсказуемый.
Вся работа делится на три логических этапа:
1. Создание ассетов (заготовок).
2. Композиция сцены (сборка черновика).
3. Финализация и доработка.
Разберем по шагам.
Шаг 1: Создание «банка ассетов»
Задача этого этапа — получить не одну картинку, а целую библиотеку «запчастей» для вашего персонажа.
1. Генерация референса. Сначала создается «двойное» изображение: на одной картинке — лицо персонажа крупным планом, на другой — он же в полный рост. Это решает проблему детализации: лицо получается качественным, и есть референс всего тела.
2. Создание видео с позами. Это «двойное» изображение используется как основа для генерации коротких AI-видео в Midjourney. Цель — заставить персонажа медленно двигаться, менять выражения лица, жестикулировать.
3. Извлечение кадров. Из полученных видео извлекаются самые удачные стоп-кадры. Не скриншотами, а через скачивание видео и сохранение нужных кадров — так качество будет выше.
4. Удаление фона. У всех полученных кадров удаляется фон. Можно в Photoshop, либо в любом бесплатном сервисе, удаляющий фон.
Итог этапа: у вас есть папка с десятками изображений вашего персонажа в разных позах и с разными эмоциями. Все — с прозрачным фоном. Это ваш «банк» готовых ассетов.
Шаг 2: Сборка сцены как конструктора
Теперь из полученных ассетов собирается нужная сцена.
1. Работа со слоями. В редакторе Midjourney используется функция слоев (Layers
). Вы просто перетаскиваете ваши заготовки (персонажей, объекты) с компьютера, и они появляются как отдельные слои.
2. Композиция. Каждый слой можно двигать, масштабировать и вращать, выстраивая нужную сцену. Можно добавлять любое количество персонажей, располагая их друг за другом.
3. Замена лица. Практический совет от автора: даже для фигур в полный рост лучше вырезать и подставлять лицо с крупного плана. Это дает максимальную детализацию и качество эмоций.
Шаг 3: «Запекание» сцены и пакетная доработка
Когда персонажи расставлены, нужно создать для них окружение.
1. Генерация фона. Вы стираете всех персонажей, оставляя только фон (если он был), и просите Midjourney дорисовать окружение по вашему промпту. Затем возвращаете композицию с персонажами на место.
2. Пакетная обработка. Это самый эффективный прием. Чтобы не исправлять каждый кадр будущей анимации или серии картинок по отдельности, несколько кадров «сшиваются» в одну большую картинку. Эту сетку вы отправляете в Midjourney с командой внести правки (например, «добавить всем синий оттенок» или «исправить форму воротника»). Midjourney обрабатывает все сразу, сохраняя единый стиль. Затем картинка «нарезается» обратно на отдельные кадры.
Бонусный инструмент: ImageRag
Автор метода для упрощения всего этого процесса разработал свой онлайн-инструмент — ImageRag. Его основная задача — автоматизировать рутину по «сшиванию» и «разрезанию» изображений для пакетной обработки, а также помогать вносить мелкие правки (например, поправить татуировку или деталь одежды) сразу на всех кадрах, сохраняя консистентность.
Вывод
Да, это сложный, многоступенчатый процесс, который требует времени на освоение. Но это — переход от случайных генераций к управляемому производству.
Результат — полный контроль над персонажем, предсказуемость и возможность создавать целые серии изображений, комиксы или анимации в едином стиле, не нанимая для этого 3D-художника или иллюстратора.
Подписывайся на наши каналы🔖
Threads | TikTok | Youtube | VK | Insta