添加Qwen 3.6 35B A3B指令
This commit is contained in:
@@ -7,6 +7,11 @@ context_size 128K = 131072
|
|||||||
No thinking: --chat-template-kwargs "{\"enable_thinking\": false}"
|
No thinking: --chat-template-kwargs "{\"enable_thinking\": false}"
|
||||||
|
|
||||||
|
|
||||||
|
## Qwen3.6 35B A3B
|
||||||
|
|
||||||
|
./llama-server --model /home/jimmy/NVME/model/Qwen3.6-35B-A3B-UD-IQ4_NL.gguf --alias "Qwen3.6-35B-A3B" --temp 0.6 --top-p 0.95 --top-k 20 --min-p 0.00 --host 0.0.0.0 --port 11434 --kv-unified --cache-type-k q8_0 --cache-type-v q8_0 --flash-attn on --fit on --ctx-size 262144 --jinja --no-mmap -t 24 -np 4 -ngl 999
|
||||||
|
|
||||||
|
|
||||||
## Qwen3.5 27B
|
## Qwen3.5 27B
|
||||||
|
|
||||||
./llama-server --model /home/jimmy/NVME/model/Qwopus3.5-27B-v3-Q4_K_S.gguf --alias "Qwen3.5-35B-A3B" --temp 0.6 --top-p 0.95 --top-k 20 --min-p 0.00 --host 0.0.0.0 --port 11434 --kv-unified --cache-type-k q8_0 --cache-type-v q8_0 --flash-attn on --fit on --ctx-size 262144 --jinja --no-mmap -t 24 -np 4 -ngl 999
|
./llama-server --model /home/jimmy/NVME/model/Qwopus3.5-27B-v3-Q4_K_S.gguf --alias "Qwen3.5-35B-A3B" --temp 0.6 --top-p 0.95 --top-k 20 --min-p 0.00 --host 0.0.0.0 --port 11434 --kv-unified --cache-type-k q8_0 --cache-type-v q8_0 --flash-attn on --fit on --ctx-size 262144 --jinja --no-mmap -t 24 -np 4 -ngl 999
|
||||||
|
|||||||
Reference in New Issue
Block a user