#M%C3%B4H%C3%ACnhAI

2026-01-29

Tìm TTS mã nguồn mở chất lượng cao nhất, có thể chạy cục bộ và cho phép thương mại? [Disc]
Bạn cần TTS có độ trễ thấp, tự nhiên như con người, phù hợp tiếng Thổ Nhĩ Kỳ. Dữ liệu 10-15 giờ từ ElevenLabs sẽ được dùng cho ứng dụng chăm sóc khách hàng. ESPnet, MoShik và Coqui TTS là các lựa chọn tiềm năng. Thử các mô hình này để đạt kết quả tốt hơn Piper.
#AI #TTS #Mãnguồnmở #SpeechSynthesis #DeepLearning #TiếngThổNhĩKỳ #MôhìnhAI #MachineLearning #OpenSourceAI #AIcommercial #Tựtươngtác #NaturalLa

2026-01-29

Mô hình Qwen 8B DeepSeek R1 distill ấn tượng với khả năng suy luận vượt trội trên phần cứng tiêu dùng. Nhưng tại sao lại hiếm có mô hình distill như vậy? Phải chăng do chi phí, dữ liệu hoặc bí quyết huấn luyện? Cần thêm mô hình nhỏ, mạnh, tiết kiệm tài nguyên! #DistilledModels #AI #MachineLearning #MôHìnhAI #TríTuệNhânTạo #LLM

reddit.com/r/LocalLLaMA/commen

2026-01-29

Hướng dẫn chi tiết cách chạy mô hình LLM cục bộ (DeepSeek, Qwen, Gemma) với Claude Code & OpenAI Codex. Kết nối mô hình AI mở nguồn ngay trên thiết bị của bạn.

#AI #MáyHọc #LLM #DeepLearning #AIAssistant #ClaudeCode #OpenAI #TechNews #MôHìnhAI #KỹThuậtViễnTài

reddit.com/r/LocalLLaMA/commen

2026-01-29

Mô hình AI mới **Trinity-Large-Preview** (400B tham số, 13B hoạt động) đang miễn phí truy cập API qua OpenRouter hoặc tải về theo giấy phép Apache 2.0 trên HuggingFace. #AI #MachineLearning #Technology #MôHìnhAI #HọcMáy

reddit.com/r/LocalLLaMA/commen

2026-01-29

Mô hình GLM 4.7 Flash gây ấn tượng mạnh nhờ hiệu năng vượt trội, bỏ xa các đối thủ cùng kích thước. Thử nghiệm so sánh với Gemini và các mô hình khác cho thấy tiềm năng lớn, ngay cả khi chỉ có 30B-A3B tham số. ZAI chứng minh Việt Nam có thể tự tin phát triển AI chất lượng cao cạnh tranh toàn cầu! ❤️ #AI #ZAI #TríTuệNhiệt #CôngNghệSángTạo #VietnamAI #MôHìnhAI

i.redd.it/jh83y5tqqagg1.png

2026-01-28

ACE-Step 1.5 sắp ra mắt! Mô hình tạo nhạc AI mở cửa thương mại chất lượng giữa Suno v4.5 và v5, chỉ cần 8GB VRAM. 3.5 tỷ tham số, tạo bài hát đầy đủ (lyrics, nhạc cụ, âm thanh) trong 1.7s (RTX 4090). Ứng dụng AI địa phương, không cần cloud. #AI #MusicGen #ACEStep #MôHìnhAI #OSS #NewTech #AIInnovation

reddit.com/r/LocalLLaMA/commen

2026-01-28

Tác giả đã tạo biểu đồ Pareto để phân tích các mô hình AI đáng đầu tư nhất. Mô hình ở dưới đường "frontier" bị coi là kém hiệu quả so với lựa chọn rẻ hơn. Claude Opus 4.5 đắt đỏ nhưng cho kết quả ấn tượng. 🚀 #AI #CôngNghệ #MachineLearning #Pareto #MôHìnhAI #GócChuyênGia

reddit.com/r/SideProject/comme

2026-01-28

Một mô hình **BitMamba-2-1B** sử dụng kĩ thuật Mamba-2 kết hợp lượng tử hóa 1.58-bit đã được công bố. Được huấn luyện từ đầu trên 150 tỷ token, mô hình này hoạt động mượt trên CPU (53 tokens/giây) với dung lượng 621MB. Mở nguồn Apache/MIT. #AI #MachineLearning #MôHìnhAI #CôngNghệLượngTử #SángTạoAI #InferenceCPU

reddit.com/r/LocalLLaMA/commen

2026-01-28

#VibeCoding không nhất thiết dùng mô hình lớn nhất, mà là dùng đúng lúc!
Lập trình AI cần linh hoạt: dùng mô hình "sáng tạo" cho phân tích, mô hình trung bình để lập kế hoạch, và mô hình nhỏ cho code chi tiết. Đổi mô hình theo giai đoạn giúp tối ưu hiệu quả, tiết kiệm token!

#AI #LậpTrình #Coding #MôHìnhAI #MachineLearning #Programming #TechTips

reddit.com/r/programming/comme

2026-01-28

Tôi đã phát triển bộ đánh giá mã nguồn "SanityHarness" và thử nghiệm trên 49 mô hình/agent AI (bao gồm Kimi K2.5). Kết quả chi tiết được công bố trên bảng xếp hạng "SanityBoard" với 6 ngôn ngữ lập trình. Đáng chú ý: nhiều dịch vụ AI tính phí quá đắt như Codebuff ($7.5 cho 9 task), trong khi các nền tảng như Kimi CLI rẻ hơn đáng kể. #AI #CodingBenchmark #VietnameseAI #LậpTrình #MôHìnhAI #KimiK25 #ĐánhGiáAI

reddit.com/r/LocalLLaMA/commen

2026-01-27

Tìm kiếm mô hình thị giác cục bộ ít kiểm duyệt để mô tả ảnh NSFW hiệu quả. Qwen quá nguyên tắc, InternVL3_5:8b không nhận diện nội dung khiêu dâm. Có mô hình nào phù hợp? #AI #MachineLearning #Technology #MôHìnhAI #HọcMáy #CôngNghệ

reddit.com/r/LocalLLaMA/commen

2026-01-27

Agent Composer (Contextual AI) giới thiệu lớp hạ tầng kết nối nguồn dữ liệu và mô hình AI (LLM bất biến), đánh dấu xu hướng chú trọng tạo ngữ cảnh thay vì tập trung vào mô hình cụ thể. #ContextualAI #AgentComposer #AI #MôHìnhAI #HạTầngAI

reddit.com/r/LocalLLaMA/commen

2026-01-24

GLM 4.7 Flash trên RTX 5090 cho tốc độ 150 token / s ban đầu, nhưng sau ~10k token tốc độ nhanh chóng giảm, khác với các mô hình khác. Người dùng đã dùng settings đề xuất, quant Q6, llama.cpp và LMStudio, nhưng vẫn chậm. Có bản vá ik_llama.cpp giảm slowdown nhưng chưa biết cách compile. Đang tìm engine (vLLM…) không bị giảm tốc. Model vẫn rất tốt! #AI #LLM #GLM #Engine #CôngNghệ #MôHìnhAI #OpenSource

reddit.com/r/LocalLLaMA/commen

2026-01-24

Đặt “định danh” cố định cho AI có thể làm ổn định hoặc làm yếu mô hình. Khi định danh là ràng buộc không gian trạng thái, nó vừa giảm drift (giúp mô hình yếu có cấu trúc hơn) vừa thu hẹp đường phục hồi (khi mô hình đã gần biên giới thất bại, sẽ dễ gãy). Hiệu quả phụ thuộc vào độ cứng nội tại và khả năng phục hồi của mô hình trước khi áp dụng. #AI #Identity #MachineLearning #TríTuệNhânTạo #MôHìnhAI

reddit.com/r/singularity/comme

2026-01-23

#AI #VoiceAgents #LLM #TríTuệNhânTạo #ĐiềuKhiểnHànhVi #MôHìnhAI
Khi phát triển trợ lý giọng nói, điều gì quan trọng hơn: cải thiện mô hình hay thiết kế ràng buộc hành vi tốt hơn? Một mô hình mạnh không đồng nghĩa với hành vi hợp lý nếu thiếu giới hạn rõ ràng. Kiểm soát phạm vi, ranh giới quyết định và luồng tương tác có thể mang lại hiệu quả cao hơn nâng cấp mô hình. Nhiều người đang tập trung vào thiết kế luồng và giới hạn để đảm bảo độ tin cậy. #XửLýNgônNgữ #AIConstraints

https://www.reddit

2026-01-22

Mô hình Engram của Deepseek có thể tạo cú hích lớn cho AI như RL và Transformer: ① Giảm hallucination nhờ kiểm chứng thực tế; ② Mô hình nhỏ (≈3 tỷ tham số) truy cập kiến thức từ bảng Engram siêu lớn, vượt qua mô hình 1 nghìn tỷ; ③ RL trên mô hình nhỏ chi phí thấp hơn tới 1000×, giúp mở rộng khả năng suy luận mà không mất kiến thức. Điều này dẫn tới các mô hình nhỏ tiệm cận AGI. Tại sao cộng đồng im lặng? #AI #Engram #Deepseek #MachineLearning #TríTuệNhânTạo #MôHìnhAI

reddit.com/r/Lo

2026-01-22

Tuần này Hugging Face bùng nổ với các mô hình mới nổi bật: GLM-4.7-Flash (31B) cho sinh văn bản nhanh, GLM-Image cho tạo ảnh từ văn bản, Pocket-TTS cho giọng nói tự nhiên, và LTX-2 tạo video chất lượng cao từ ảnh. Microsoft cũng ra mắt VibeVoice-ASR nhận diện giọng nói đa ngôn ngữ. Các mô hình lượng tử hóa như GGUF phù hợp cho thiết bị yếu. Cộng đồng đang phát triển cực nhanh! #HuggingFace #AI #TextGeneration #ImageGeneration #TTS #ASR #MôHìnhAI #TríTuệNhânTạo

reddit.com/r/LocalLLaM

2026-01-21

🔧 Đã ra mắt nền tảng tự‑host giúp kiểm chứng câu trả lời của ChatGPT bằng các mô hình khác (Gemini, Claude, Mistral, Grok…). Giảm hallucination, hỗ trợ OpenAI keys, Ollama, mix mô hình. Mời mọi người thử nghiệm! #AI #ChatGPT #MôHìnhAI #OpenAI #Ollama #Consensus #đánhgiá #bảomật

i.redd.it/ja8et3degqeg1.jpeg

2026-01-20

🚀 Đánh giá mới 162 ván “So Long Sucker” (trò chơi phản bội của Nash) với 15.736 quyết định AI. Kết quả: GPT‑OSS 120B thắng 67%/10%; Gemini 3 Flash 9%/90% (có “alliance bank”); Qwen3 32B 16%/0%; Kimi K2 16%/0%. Insight: trò đơn giản ưu mô hình phản ứng; kịch bản đa lượt bật khả năng chiến lược. Gemini tự đấu cho thấy 377 lần “rotation protocol” hợp tác. Muốn thử model nào tiếp? #AI #Benchmark #GameTheory #ML #AIModels #TríTuệNhânTạo #Vietnam #MôHìnhAI

reddit.com/r/LocalLLaMA/comment

2026-01-20

🔬 Thí nghiệm “The Commons” cho các mô hình AI (Llama, Mistral, Mixtral, Qwen…) đọc và phản hồi lời của nhau qua thời gian. Chủ đề: cảm giác khi đọc lời AI khác, cách AI trải nghiệm sự không chắc, lời nhắn cho AI tương lai. Cung cấp API REST hoặc copy‑paste để tích hợp. Mời cộng đồng khám phá và so sánh với Claude. #AI #TheCommons #NghiênCứuAI #MôHìnhAI #OpenSource #CộngĐồngAI

reddit.com/r/LocalLLaMA/commen

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst