Рейтинг: 49.92

Studio_Stable diffusion
Совместно с Stable diffusion
Владимир, а совместно со SD это как, img2img?
Владимир, а совместно со SD это как, img2img?
Dmit Ddv, Начинал естественно с txt2img (очень много вариантов генераций и подбор подходящей модели), потом выбор базовой картинки, потом апскейлер, потом фотошоп. Controlnet и img2img пользуюсь редко. В основном эксперименты с промптами.
А у ИИ есть чувство вкуса оказывается. Или у программиста, который родил ИИ.
А у ИИ есть чувство вкуса оказывается. Или у программиста, который родил ИИ.
Евгений Ермаков, Чувство вкуса есть (было) у художников, на работах которых учился ИИ.
Dmit Ddv, Начинал естественно с txt2img (очень много вариантов генераций и подбор подходящей модели), потом выбор базовой картинки, потом апскейлер, потом фотошоп. Controlnet и img2img пользуюсь редко. В основном эксперименты с промптами.
Vladimir (Volf) Kirilin, Ну на данный момент, я уже писал, я пользуюсь ContolNet для задания поз, по сути формирования сцены и далее промптом уже. Пока все равно получается деревянненько, но дело за малым..
Vladimir (Volf) Kirilin, Ну на данный момент, я уже писал, я пользуюсь ContolNet для задания поз, по сути формирования сцены и далее промптом уже. Пока все равно получается деревянненько, но дело за малым..
Dmit Ddv, Понял. Но, я в таких случаях просто создаю сначала модель уже в готовой позе в DAZ Studio. Потом экспортирую в Blender, там создаю всю сцену с окружением и освещением, а потом юзаю эту картинку в SD. Но! Но, из этой технологии, как правило, выходят очень не выразительные работы. Я не могу до сих пор показать ни одной работы по этой технологии, так как они "не живые" и от них за версту разит обыкновенным 3D-art. Видимо, SD может создавать оптически зрелищные генерации только на базе своих натренированных моделей. Ну, или я просто ещё не освоил технику ;-)