Who are using #devstral-small-2 with #Cline plugin on #intellij ? Do you think that they are the perfect combination to replace #Junie ?
Mistral Vibe 2.0 bringt KI-Agenten in das Terminal. Anstatt auf IDE-Plugins zu setzen, integriert sich das Tool direkt in die Shell und Dateisysteme. Spezialisierte Sub-Agenten werden über Slash-Commands gesteuert. Ein neues Klärungssystem verhindert Halluzinationen durch Auswahlmenüs bei Unklarheiten. Zugriff auf das volle Tool erfordert kostenpflichtige Pläne. #MistralVibe #MistralAI #Devstral
https://www.all-ai.de/news/news26top/mistral-vibe-2
Hướng dẫn nhanh cấu hình Aider với mô hình local: tạo 3 file trong ~/.
1️⃣ ~/.aider.conf.yml → endpoint, API‑key, model và đường dẫn file khác.
2️⃣ ~/.aider.model.settings.yml → định dạng diff, repo map, v.v.
3️⃣ ~/.aider.model.metadata.json → max tokens, chi phí.
Lưu ý: luôn prepend “openai/” vào model ID; Aider sẽ tự xóa khi gửi tới server. #Aider #CấuHình #LLM #OpenAI #Mistral #Devstral #Linux
https://www.reddit.com/r/LocalLLaMA/comments/1qis3y9/aiders_documentation_for_getting_conne
Mistral Devstral-Small-2-24B đang nổi lên như "ông vua" mới cho lập trình local trên hệ thống 72GB VRAM (3xRTX 3090).
Điểm mạnh vượt trội:
- Chạy mượt ở định dạng Q8 với context window lớn (>150k token).
- Hỗ trợ xử lý hình ảnh (Multimodal) giúp kiểm tra UI/UX và sơ đồ thiết kế.
- Tốc độ phản hồi cực nhanh khi nằm trọn trong VRAM.
- Khả năng tuân thủ chỉ dẫn tốt khi kết hợp với các Agent như Kilo Code.
#MistralAI #Devstral #AI #Coding #LocalLLM #VRAM #AIProgramming #LậpTrình #CôngNghệ
https:/
Trải nghiệm lập trình local với Devstral Small 2 (24B) trên card RTX 5060 Ti 16GB cực mượt!
🔹 Setup: Devstral-Small-2 (Q4_K_M), context 24k, chạy hoàn toàn trên 16GB VRAM.
🔹 Tốc độ: Xử lý prompt ~650 tok/s, tạo token 9-11 tok/s.
🔹 Kết hợp: Dùng với Zed Agent mang lại hiệu quả cao hơn Claude Code nhờ hệ thống prompt ngắn gọn.
🔹 Chất lượng: Xử lý tốt các tác vụ code phức tạp, tự động đọc file, chạy lệnh test và sửa lỗi khi có hướng dẫn chi tiết.
🔧 #OpenRouter launches Response Healing: automatically fixes malformed #JSON responses from #LLMs before they reach your app #AI #API #devops
📊 Results from 1.6M+ requests analyzed at inference time:
• #Gemini 2.0 Flash: 80% defect reduction (99.61% → 99.92%)
• #Qwen3 235B: 99.8% defect reduction (88% → 99.98%)
• #Deepseek Chat v3.1: 85% defect reduction (82.5% → 97.4%)
• #Devstral 2512: 99.6% defect reduction (96.6% → 99.99%)
🧵 👇
Cập nhật bảng xếp hạng SWE-rebench tháng 11/2025 với các mô hình mới: **Claude Code**, **GPT-5.2**, **DeepSeek v3.2** (mô hình mã nguồn mở tiên tiến) và **Devstral 2** (chạy cục bộ). Các hệ thống thử nghiệm 47 nhiệm vụ hợp quy GitHub mới, cải thiện minh bạch với chỉ số **cached-tokens**.
#AI #DeepSeek #Devstral #LậpTrình #SWEbench #MôHìnhAI #TechVN
https://www.reddit.com/r/LocalLLaMA/comments/1pozr6f/claude_code_gpt52_deepseek_v32_and_selfhosted/
Mistral released new coding models:
* Devstral 2 (123 B)
* Devstral Small 2 (24 B)
https://mistral.ai/news/devstral-2-vibe-cli
Plus, Mistral Vibe CLI, a CLI based coding agent:
https://github.com/mistralai/mistral-vibe
I didn't even have a chance yet to try out Mistral 3 Large. According to their benchmark, Devstral 2 is competing with the best open weight models (DeepSeek V3.2). Not quite at the level of the best closed-sources ones, but more cost-efficient:
> Devstral 2 is currently offered free via our API. After the free period, the API pricing will be $0.40/$2.00 per million tokens (input/output) for Devstral 2 and $0.10/$0.30 for Devstral Small 2.
Devstral Small 2 can be run locally on a 24 GB GPU.
Mit dem aktuellen Update der #LMStudio #MLX Runtime (0.36.1) laufen seit heute auch die Ministral- und Devstral-Modelle im entsprechenden Format.
ministral-3-14b-reasoning liefert dabei auf meinem 2022er MacBook Pro M1 brauchbare 16tok/sec - dem #LLM beim "Denken" zuzugucken ist dabei recht amüsant: Im Vergleich zu anderen Reasoning-Modellen finde ich es irgendwie sympathisch "verkopft" und unentschlossen.
La #start-up #française #Mistral se lance dans la course au #vibe-coding et publie #Devstral 2 sous une #licence #MIT modifiée? une nouvelle génération de son modèle d' #IA #AI conçu pour le #codage
#dev #tech #FrenchTech #frenchtech #france
intelligence-artificielle.developpez.com/actu/378346/...
La start-up fran�aise Mistral ...
Нейро-дайджест: ключевые события мира AI за 2-ю неделю декабря 2025
Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий. Неделя выдалась насыщенной: Mistral выкатили Devstral 2 , Photoshop, Express и Acrobat встроили прямо в ChatGPT , а исследования показывают, что более 80% вайб-кода могут содержать уязвимости. Криштиану Роналду инвестирует в Perplexity, а Сэм Альтман считает, что сейчас невозможно воспитывать детей без ИИ. Всё самое важное — в одном месте. Поехали! Читать дайджест →
https://habr.com/ru/companies/timeweb/articles/975520/
#новости #ии #дайджест #нейросети #devstral #openrouter #timeweb_дайджест #искусственный_интеллект #perplexity #сэм_альтман
Cả hai mô hình Devstral-Small-2-24B q6k (Unsloth và Bartowski) đều bị lặp vô hạn khi chạy trên llama.cpp với ngữ cảnh 24k token. Người dùng báo cáo đã thử nhiều thiết lập (-cache-type-k q8_0, n-gpu-layers 99) nhưng lỗi vẫn xảy ra. Câu hỏi: Q6 có bị lỗi? Cần thêm flags mới không? #AI #MachineLearning #MôHìnhLLM #LỗiCông Nghệ #VietnamAI #LlamaCPP #Devstral
👉 Đánh giá 4 mô hình LLM trong thử thách lập trình: theo dõi chi tiêu đa tiền tệ. 🥇 Claude Opus (88/100) vượt trội, 🥈 Sonnet (86) hiện đại, 🥉 Devstral 2 (85) toàn diện về kiểm tra lỗi, còn OpenCode (62) yếu kém, thiếu type hints. Devstral 2 tiềm năng! #LLM #AI #Python #Devstral #Mistral #OpenCode #Benchmark #Côngnghệ
https://www.reddit.com/r/LocalLLaMA/comments/1piy3k1/devstral_benchmark/
My favorite thing about Mistral's new Vibe CLI is simply that it is open source so I can learn from it!
There are so many different frameworks and techniques for agents these days, it is nice to see the plumbing and examine how it works together. (And in #Python, bless you ❤️).
Also excited about the new "Devstral 2" code models. I'm a Mistral fan in general. Mistral:7b is still a great model for tuning.
✨ Behold, a groundbreaking update from the Future where #Mistral releases #Devstral 2 with a whopping 72.2% of #SWE-Bench verification, because, apparently, real-world utility is soooo last century. 🤖 Meanwhile, the Vibe CLI promises to take your coding monotony to new heights of agentic glory, because who doesn't want their command line to have vibes? 📟🚀
https://mistral.ai/news/devstral-2-vibe-cli #VibeCLI #codingInnovation #HackerNews #ngated
Mistral Releases Devstral 2 (72.2% SWE-Bench Verified) and Vibe CLI
https://winbuzzer.com/2025/12/09/ai-coding-mistral-ai-launches-devstral-2-model-and-vibe-cli-xcxwbn/
AI Coding: Mistral AI Launches Devstral 2 Model and Vibe CLI
#AI #AICoding #MistralAI #Devstral #Devstral2 #OpenSourceAI #AgenticAI #VibeCoding #LLM #GenAI#EnterpriseAI
@ankoeln @muellertadzio Ein mglw. relevanter LLM-Skill mag das selber-Hosten auf eigener Hardware sein. Geht auch für Schönschreibtools.
Dabei helfe ich im Sinne der von Herrn Matzat geforderten "Auseinandersetzung mit der Technologie" gerne, denn mit dem Punkt [wir sollten] "zugewandt, freundlich, hilfsbereit und geduldig agieren" hat er natürlich Recht.
Mistral AI: Europe’s Bold Answer to Big Tech 🇫🇷
Launched in 2023, Mistral AI is shaking up the AI world with open-source models, local trust, and rapid innovation. Its chatbot Le Chat hit 1M+ downloads after President Macron's endorsement, and its model zoo (like Devstral, Magistral, and Voxtral) is powering everything from code to speech.
#MistralAI #LeChat #OpenSourceAI #FrenchTech #AIForAll #Devstral #MistralCompute #EuropeanAI #TECHi
Read Full Article Here :- https://www.techi.com/mistral-ai-french-open-source-leader/