Всі статті
Admin
·1 хв12

Gemopus-4-26B-A4B-it GGUF: квантизована Gemma 4 на даних Opus

Read in English
photo_2478.jpg

Gemopus-4-26B-A4B-it GGUF

На Hugging Face ентузіаст виклав квантизовану Gemma 4, навчену на даних Опуса

Думаю, хто користувався Опусом, знає, що його перевага — в якості відповідей: порівняно з більшістю LLM, вони, мабуть, найприродніші та найчитабельніші

Інстракт тюрнед (it) — означає, що її спеціально донавчили для точних команд і діалогів

Запуститься в LM Studio, Ollama, GPT4All або через голий llama.cpp

Для комфортної роботи з квантуванням Q4_K_M або Q5 знадобиться близько 16–24 ГБ ОЗП/VRAM сумарно

https://huggingface.co/Jackrong/Gemopus-4-26B-A4B-it-GGUF

Поділитися:
Автор
Admin

Адміністратор блогу VibeCode. Пишу про vibe coding, AI та open source.

Коментарі

Щоб залишити коментар, увійдіть або зареєструйтеся
Завантаження...

Схожі статті