#reasoning_models

2025-10-09

[Перевод] Актуальные вопросы по ИИ и перспективным технологиям

Эксперты Gartner дают краткие ответы на свежие вопросы клиентов о перспективных технологиях. Фокус на принятии решений: когда инвестировать в агентный ИИ и DSLM, какие метрики измерять и как масштабировать без потери контроля.

habr.com/ru/articles/954788/

#ai #claude_sonnet_45 #genai #mcp #agentic_ai #llm #reasoning #reasoning_models #gpt5 #domain_model

2025-09-23

Облачные технологии в контексте агентских AI-систем

В настоящее время процветает разработка агентов — приложений на базе Generative AI, реализующих автономные рабочие процессы . Извлечение и анализ данных, управление детерминированными программами и так далее. Массу вещей можно автоматизировать с помощью LLM и вызова функций , отсюда и спрос на такие системы. Как и традиционное ПО, агенты обычно реализуют принцип разделения логики на специализированные узлы обработки конкретных задач , например, один парсит данные по определенной инструкции, другой их анализирует, третий формирует конечный результат. Необходимость применения такого подхода диктуется не только архитектурным принципом единой ответственности , который делает систему более предсказуемой, но и ограничениями самого ИИ . При попытке выполнить несколько задач вызовом одного промпта ограничивающим фактором является механизм внимания , который лучше справляется, если его не слишком перегружать вводными данными. А при использовании разных промптов для разных задач главное ограничение — в том, на сколько доменов модель успешно генерализуется без дообучения под каждый из них .

habr.com/ru/articles/949650/

#ai_агенты #generative_ai #llm #reasoning #reasoning_models #эмбеддинги

2025-08-15

Универсальные подсказки по промптам (рассуждающие модели). Часть 4

Итак, продолжаем разбираться с промптами. Настало время познакомиться с рассуждающими моделями. Это те самые o3, o4-mini, o4-mini-hight, и GPT-5 thinking (вот угораздило меня растянуть резину аж до выхода GPT-5), DeepSeek R1 и т.д. которые вроде как думают перед ответом.

habr.com/ru/articles/937558/

#reasoning #reasoning_models #prompt #promptengineering #gpt #gpt5 #gpt4 #deepseek

2025-02-28

Важность времени на размышления: как работают вычисления во время инференса

Еще в 2020 году в статье о GPT-3 появился график, заслуживающий отдельного внимания: чем больше языковые модели, тем лучше они справляются с задачами без дообучения (zero-shot). Пять лет этот график был путеводной звездой для исследователей ИИ, влияя на всё — от архитектуры моделей до разработки железа. C выпуском o1 OpenAI пришел с новым графиком. На этот раз речь не только о размере — а о том, чтобы дать моделям время думать .

habr.com/ru/companies/raft/art

#reasoning_models #llmмодели

2025-02-03

DeepSeek-R1 для чайников

В последние месяцы всё чаще слышим про «reasoning-модели», способные не просто продолжать текст, а действительно шаг за шагом решать сложнейшие задачи цепочкой рассуждений (chain-of-thought). Впервые такой подход эффектно показали в OpenAI o1, но, к сожалению, подробности там остаются секретными. Недавно же команда DeepSeek наделала шуму с открытыми вариантами R1 и R1-Zero , созданными поверх их собственной большой MoE-модели DeepSeek-V3 . В этом посте я не стану углубляться в вопрос «чья модель лучше — o1 или R1». Зато разберу, какие главные технические детали стоят за R1, почему Zero-версия выглядит особо захватывающе, и как именно авторам удалось обучить модель мыслить.

habr.com/ru/articles/879178/

#DeepSeek #chatgpt #llm #nlp #reasoning_models #rlhf

2025-01-13

Думающие модели o1-3: краткий обзор и чего программистам ждать дальше

Когда LLM впервые появились, они были немного похожи на детей - говорили первое, что приходило им в голову, и не особо заботились о логике. Им нужно было напоминать: «Подумай, прежде чем отвечать». Многие утверждали, что из-за этого у моделей нет настоящего интеллекта и что их необходимо дополнять либо человеческой помощью, либо каким-то внешним каркасом поверх самой LLM, например Chain of Thought.

habr.com/ru/companies/raft/art

#o1 #reasoning_models #llmмодели

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst