#quantization

Rost Glukhovros@techhub.social
2026-02-09

Compare GGUF, GPTQ, and AWQ quantization formats for LLMs on consumer GPUs. Learn how to balance model quality, speed, and memory usage with Q4_K_M, IQ4_XS, and Q3_K_S variants for optimal inference performance.

#GGUF #quantization #LLM inference #GPU optimization #model deployment

dasroot.net/posts/2026/02/gguf

StepFun (@StepFun_ai)

Step 3.5 Flash가 MLX로 Apple 실리콘 환경에서 동작하는 시연 영상. 6비트 양자화(6bit quant)를 적용해 경량화했고, 툴 호출(tool calling)이 완벽하게 작동하며 단일 M3 Ultra에서 스네이크 게임을 코딩하는 등 로컬 에이전트형 AI의 실사용 가능성과 성능을 보여준다.

x.com/StepFun_ai/status/202036

#mlx #applesilicon #quantization #localai

Hunter (@huntermbown)

ZMLX가 GLM 4.7용 Flash 4bit 양자화에서 디코드 성능을 약 +8% 향상시켰으며, 해당 개선이 ExoLabs 환경에서도 작동한다고 보고했습니다.

x.com/huntermbown/status/20190

#glm #quantization #4bit #zmlx #exolabs

Hunter (@huntermbown)

GLM 4.7 Flash 4bit에서 디코드 성능이 +8% 향상되었다는 보고. 해당 개선은 ZMLX에서 제공한 것으로 보이며, @exolabs 환경에서도 작동이 확인되었다고 언급됨.

x.com/huntermbown/status/20190

#glm #4bit #quantization #zmlx #exolabs

Hunter (@huntermbown)

ZMLX의 GLM 4.7 Flash 4bit에서 디코딩 성능이 약 +8% 향상되었고, 해당 개선이 ExoLabs 환경에서도 작동한다는 업데이트입니다. 저비트 양자화(4bit) 기반 모델 최적화와 실사용 환경 호환성 측면에서 중요한 성능 개선 소식입니다.

x.com/huntermbown/status/20190

#glm #quantization #4bit #zmlx #exolabs

Simon Willison (@simonw)

Unsloth 가이드에 따르면 46GB로 양자화된 모델이 Claude Code나 Codex CLI 같은 코딩 에이전트를 구동할 수 있을 가능성이 제기되었다. 다른 로컬 모델들이 <64GB 환경에서 제대로 동작하지 않아 어려움이 있었는데, 이 모델이 실용적으로 작동하면 로컬에서 코딩 에이전트를 활용하는 데 큰 변화가 될 수 있다.

x.com/simonw/status/2018726915

#unsloth #quantization #localllm #codingagent

zast (@zast57)

NF4(Normal Float 4-bit) 모델을 사용하고 있다는 짧은 기술 언급으로, 4비트 정밀도(양자화) 형식을 사용해 모델을 구동하고 있음을 밝힘. 경량화/저비용 추론 관련 기술 사용 신호.

x.com/zast57/status/2018782216

#nf4 #quantization #model #normalfloat

Zimo (@Zimo41650079726)

사용자는 OpenrouterAI와 NIM을 비교하며 일본어 성능 평가를 공유합니다. NIM이 응답의 일관성 및 영어·중국어 혼입이 적어 일본어에 더 강했고, OpenrouterAI는 질문에 더 깊게 들어갔다고 평가합니다. 작성자는 양자화(quantization)가 모델의 정렬(alignment)을 손상시켰을 가능성도 제기합니다.

x.com/Zimo41650079726/status/2

#openrouterai #nim #quantization #alignment #multilingual

Tarjei Mandt (@kernelpool)

Kimi-K2.5-3bit 모델을 단일 M3 Ultra에서 실행한 사례 공유. 작성자는 MLA absorption 없이 최대 8k 토큰 컨텍스트까지 테스트했다고 밝힘 — 경량화/양자화된 모델을 고성능 Apple 칩에서 운용한 실험적 결과로 해석됨.

x.com/kernelpool/status/201790

#llm #quantization #m3ultra #contextwindow

2026-02-01

🧠 Tại sao định dạng NVFP8/MXFP8 không được quan tâm trong llama.cpp hay VLLM dù có độ chính xác cao hơn FP8 và được tối ưu trên kiến trúc Blackwell? Câu hỏi mở cho cộng đồng AI!
#AI #MachineLearning #Quantization #ĐịnhDạng #TríTuệNhânTạo #HọcMáy

reddit.com/r/LocalLLaMA/commen

2026-01-31

Một người dùng Reddit đã so sánh 3 phương pháp lượng tử hóa 4-bit (Q4_K_M, Q4_K_XL và MXFP4) trên mô hình GLM-4.7-Flash và Nemotron-3-nano. MXFP4 cho perplexity thấp hơn (10.72 PPL) và tải nhanh hơn so với Q4_K_M (16.17 PPL). Nó cũng tiết kiệm 17% VRAM và tăng tốc xử lý lên 5% so với Q4_K_XL. Kết quả này cho thấy MXFP4 có thể là lựa chọn tối ưu cho mô hình lớn từ 30–32B tham số. #AI #Quantization #MôHìnhĐịnhLượng #TríTuệNhânTạo #HọcMáy

reddit.com/r/LocalLLaMA/commen

2026-01-31

So sánh quantization MXFP4 vs Q4_K_M/XL trên mô hình GLM-4.7-Flash:

📉 Kết quả bất ngờ: MXFP4 có chỉ số Perplexity (PPL) thấp hơn (~10.72) so với Q4_K_XL (~15.73), dù kích thước file nhỏ hơn (15.79 GiB so với 16.31 GiB).
🚀 Tốc độ: MXFP4 cho tốc độ xử lý nhanh hơn và tiết kiệm VRAM hơn.
🤔 Câu hỏi đặt ra: Liệu PPL thấp hơn có đồng nghĩa với việc cải thiện khả năng gọi công cụ (tool-calling) và lập trình?

#LLM #AI #Quantization #MXFP4 #MachineLearning #CongNghe #LocalLLM

reddit.com

Q*Satoshi (@AiXsatoshi)

Kimi-k2.5는 파라미터가 매우 커서 4bit 상태로 그대로 실행하려면 Mac Studio 512GB 두 대가 필요하지만, IQ3_XXS는 415GB로 단일 Mac에서 동작한다. 작성자는 IQ3_XXS가 메인 모델이 될 것으로 보며, 두 대를 이용한 분산 추론은 아직 안정적이지 않다고 보고함.

x.com/AiXsatoshi/status/201699

#llm #quantization #inference #macstudio

2026-01-30

🔍 Benchmark: Qwen 2.5 7B trên RTX 4070 Super 12GB. FP16 (15.3 GB) phải chuyển sang RAM, tốc độ chỉ 0.7 TPS → giảm 72×. AWQ Int4 (9.9 GB) nằm trong VRAM, đạt 50.9 TPS. Bài học: vượt quá giới hạn VRAM khiến tốc độ sụt giảm mạnh; cần lượng tử (Int4) cho card 12GB. #AI #Benchmark #VRAM #GPU #LLM #Quantization #TríTuệNhânTạo #KiểmĐịnh #MôHìnhNgônNgữ

reddit.com/r/LocalLLaMA/commen

2026-01-30

Benchmark trên RTX 4070 Super (12 GB) cho thấy Qwen 2.5 Coder 7B (AWQ Int4) nhanh hơn 24 % (44.6 TPS) và dùng ít VRAM hơn (9.49 GB) so với Qwen 2.5 3B FP16 (35.9 TPS, 10 GB). Kết luận: mô hình lớn đã được định lượng đáp ứng tốt hơn trên GPU tiêu dùng. #AI #Quantization #Benchmark #RTX4070 #LLM #TríTuệNhânTạo #địnhlượng #đánhgiá

reddit.com/r/LocalLLaMA/commen

2026-01-29

Tôi đang chạy mô hình QwQ 32B trên LM Studio với lượng hóa 4 bit, tối ưu K/V cache giúp tăng tốc độ xử lý lên 3 lần (40k context thay vì 10k), đồng thời giảm VRAM xuống 19GB/24GB. Tuy nhiên, việc giảm K/V cache xuống 4 bit có ảnh hưởng nhiều đến độ chính xác? Đây là cách tối ưu hiệu quả cho vai trò trò chuyện/role-play với LLM cục bộ. #AI #MáyHọc #LLM #TốiƯuHóa #Quantization #KVTuning

reddit.com/r/ollama/comments/1

cedric (@cedric_chee)

로컬에서 Kimi K2.5 모델의 INT4 양자화(quant)를 사용해 8대의 RTX Pro 6000 GPU(8x)로 추론을 수행한 결과를 공유한 트윗입니다. 처리량은 8–40 TPS 범위였고, 고전적 추론 문제(아버지-외과의사 수수께끼)와 단어 세기 과제를 모두 정답으로 풀었으며 각각 약 58초·55초의 사고 시간을 기록했습니다. 로컬 INT4 양자화 성능과 추론 지연/처리량 정보가 핵심입니다.

x.com/cedric_chee/status/20168

#kimi #int4 #quantization #localinference #rtx6000

Scott (@scottstts)

LM Studio에서 mlx 4비트 버전 GLM 4.7 Flash 모델(mlx-community/GLM-4.7-Flash-4bit)을 사용할 때 발생하는 문제에 대한 문의입니다. 작성자는 mlx 런타임이 최신이라고 보고하며 동일한 문제를 겪는 사람이 있는지 @lmstudio와 @awnihannun에 묻고 있습니다.

x.com/scottstts/status/2015807

#glm #mlx #lmstudio #quantization #4bit

Ivan Fioravanti ᯅ (@ivanfioravanti)

GLM-4.7-Flash-4bit의 MLX 벤치마크 두 번째 결과가 공개되었고, @N8Programs와 @awnihannun의 개선 PR이 main에 병합된 이후의 결과임. M3 Ultra 512 환경에서 측정한 V2는 prefill이 약간 느리지만 텍스트 생성 성능과 메모리 사용량이 크게 개선되었다는 보고입니다.

x.com/ivanfioravanti/status/20

#glm #glm4.7 #mlx #benchmark #quantization

Aivan Monceller (@aivandroid)

llama.cpp(ggml_org)가 Anthropic API를 네이티브로 지원하기 시작했다는 개발자 도구 업데이트입니다. 이를 통해 GLM-4.7-Flash( Zai_org )를 Claude Code 내에서 프록시 없이 사용 가능해졌고, UnslothAI의 4비트 양자화 설정을 3090 GPU에서 테스트 중이라는 내용입니다.

x.com/aivandroid/status/201421

#llama.cpp #anthropic #glm4.7 #quantization #ggml

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst