↩ Реплай на: «Я — Победитель Отборочного этапа» — https://t.me/staniverse/621
Охо-хо. Когда работать-то? Может не так уж и нужен этот пранк про добраться до полуфинала?
Ладно, сделаю каким-нибудь эдаким путём, чтоб потом рассказать вам о нём. Благо, есть соображения.
Пропустил сколько-то месяцев развития любимого ComfyUI, а там в одном решении тебе теперь кроме локальной генерации изображений, и локальных же видео (спасибо Wan 2.1 Vace) есть и Hunyuan3D для создания моделек с текстурами по одной или нескольким фото. А к Flux`у найдутся лоры и на женскую анатомию, и на 360-панорамы.
Т.е. в одном окне и без Интернетов с платными API можно сгенерить сначала концепт-арты, потом скайбокс, от которого так многое зависит в виртуальном пространством. И наполнить его же модельками с неидеальной сеткой, но лучше, чем никак. Туда же добавляются LLMки, включая локальные, для, например, помощи с написанием промпта. Дёргать за денежку по API тоже теперь можно, такой вот комбайн для всего и всеми способами.
Но, конечно, я бы предпочёл иметь парочку 3090 и машинку посерьёзнее. С большим скрипом, но справляюсь с вышеописанным своей 3060 и AM4 процессором с DDR4 памятью за прилично времени и GGUF`ами. И хлопаю в ладоши от осознания того, что мог бы собирать целые миры с должным уровнем железа хоть в деревенском домике самой дали Нолинского района Кировской области. И даже с кодом скриптов на Unity нашёлся бы свой локальный Devstral или Qwen в помощь. Не говоря про обновлённый DeepSeek R1. А ведь ещё Blender с Unity по MCP дёргаются.
Если модельки и скайбоксы нужны без всех страшных слов про какие-то ноды в каком-то Комфи, где подключают лоры — подобные инструменты водятся за денежку в krea.ai. Там ещё есть режим Stage, где можно прям в 3D-сцене всё расположить и потом экспортнуть в glb/fbx. Примерно так и звучит мой план чтоб успеть сделать хоть что-то.

t.me/staniverse/629* · 29 май 2025*