Shadowman UAC General
 | | 8868 |
Doom Rate: 2.02 Posts quality: +2411 |
Отправлено: 29.11.25 00:59:15 | |
|
klerk
Т.е. ты ставишь на комп и сам генерируешь, используя свои ресурсы?
Затратно, увы... Я такое не могу себе позволить, да и жалко комп. А онлайн wan 2.2 где-то доступен?
Попробовал еще ради любопытства картинки в сберовском ГигаЧате. Не ждал ничего от грефа, и был прав: качество хуже, чем у квена и тем более перплексити, кое-что общее есть с гроком, но у грока лучше.
И да, цензура тут запредельная: то, что квен и перплексити мне рисовали, грефовская ИИ наотрез отказывается. Ну ее тогда к лешему вместе с грефом. Все-равно толку от нее нет. |
Рейтинг сообщения: +1, отметил(и): klerk |
|
klerk - 2nd Lieutenant -
 | | 1372 |
 Doom Rate: 1.15 Posts quality: +1073 |
Отправлено: 29.11.25 02:22:26 | |
|
| Shadowman пишет: | | Затратно, увы... Я такое не могу себе позволить, да и жалко комп. |
Да я не знаю таких, кто может себе позволить серверный ускоритель с 80 Гб VRAM. Это фантастика. Ну кто-то виртуальные сервера с GPU арендует, сейчас полно таких услуг, только при виде цен желание также сразу отпадает.
| Shadowman пишет: | | А онлайн wan 2.2 где-то доступен? |
Я так понимаю, видео в Qwen делает именно эта модель. Также он доступен в Шедевруме (можно переключить с v.2 Beta на Wan 2.2). Но он не позволяет закидывать свою картинку или брать кадр из видео и генерить дальше. Поэтому практически бесполезен для создания роликов. Генерит только 5-секундные фрагменты из тех картинок, которые сам предложит по текстовому запросу (и там можно выбрать всего лишь из 2 картинок, в то время как при генерации изображений предоставляется 4 в базовой версии и 6 в про).
| Shadowman пишет: | | Ну ее тогда к лешему вместе с грефом. Все-равно толку от нее нет. |
Низкая точность и плохое понимание запросов характерны для пожатых моделей с малым количеством параметров. Gemma c 4 млрд тоже часто ведёт себя неадекватно, плохо распознаёт текст с картинок, даже при поиске в интернете не может правильно интерпретировать текст, чтобы ответить на вопрос. Но зато работает даже на слабом железе и за какое-то вменяемое время (обычно от 2 до 5 минут) какой-то ответ выдаёт. У Сбера оборудование помощнее, но и Сбердоге отвечает очень быстро, что наводит на мысли об использовании там именно сжатых маленьких моделей, ну само собой ради экономии. На качество, видимо, забили, в угоду скорости и ограничений памяти.
P.S.: говоря о локальной генерации, скорее всего адекватнее будет юзать Ryzen 9 AI HX 370, который с отдельным нейроблоком, чем выделенный ускоритель. Мини-ПК на нём стоят от 100 тыс. на маркетплейсах, ну это остатки до того как цены на DDR5 подняли. Видимо, после НГ и на них цены улетят в космос, но вот пока они есть. Опять-таки, в плане поддержки ничего не могу сказать, может быть Ollama и PyTorch не поддерживают такое оборудование, хотя вроде бы должны. Может быть, это нормальная альтернатива, но это пока не у кого спросить, потому что они новые и толком никто такое не покупал.
P.P.S.: статья про Ollama вышла на Doomguy: https://doomguy.ru/598-ollama-ai.html |
|
|