Я заметил, что если поднять количество источников в веб-поиске, то полезность локальной Gemma 3 существенно возрастает. Всё-таки главный недостаток слабой модели в том, что она мало знает, но если дать ей искать, в целом ряде вопросов этот недостаток можно сократить. Конечно, она не сравнится с большой нейросетью, но учитывая смешные требования к оборудованию, отношение пользы к затраченным ресурсам получается впечатляющее.
Ollama теперь обновляется почти каждый день, и в текущей версии 0.9.0 впилили поддержку режима рассуждения (thinking mode), сходу же была обновлена модель DeepSeek для Ollama, которая теперь его поддерживает на этой версии. До этого в основном фиксили баги и вносили мелкие правки. DeepSeek тяжеловата, я всё ещё жду (хоть об этом никто и не объявлял), что релизнут новую Gemma 3n, где будет настоящая мультимодальность, а требования к ресурсам - ещё ниже. Надеюсь, такой релиз будет и эта Джемма не останется "эксклюзивом" AI Studio и её реально можно будет крутить локально (а ради этого вроде как она и существует, в отличие от большой Gemini).
Я же пытался с помощью DeepSeek сгенерировать движок для блога на PHP, чтобы посмотреть, как он справится с такой задачей.
Думаю, вы уже догадались, что...
Попробовал преобразовать в нейросетевую работу в стиле Миядзаки один из моих рисунков.
Скрытый текст:
Вроде бы гарпия вышла ничего, ребенок - ну пойдет. А вот персонажи слева: самым удачным и точным вышел Рексар, Кэрн превратился в какого-то покемона, Тралл - ящер, а Рохан пожелтел и поменял бороду на клюв.