#APDEX

2026-02-26

Оптимизация кода 1С и архитектуры вместо покупки железа (конкретная история)

За 15 лет в разработке и анализе производительности 1С я понял одну простую, но неприятную вещь: когда высоконагруженная система начинает тупить, мы инстинктивно виним платформу, железо или СУБД. Но в реальности, даже на тяжёлых бэкендах с тысячами пользователей, узкое горлышко — это почти всегда наш собственный код. Сегодня я расскажу, как мы построили систему мониторинга своими руками, сэкономили 20% на железе (которого у нас, к слову, не «терабайты и сотни ядер», а вполне вменяемые конфигурации) и почему стандартный APDEX может нагло врать вам в лицо. — Платформа 1С 8.3.24. — СУБД Postgres Pro. — Больше 40 серверов 1С в разных контурах (внутренний для сотрудников, внешний для поставщиков). — В пике — более 4000 пользователей. Ежечасно (!) крутятся тысячи фоновых заданий и сотни интеграционных сценариев.

habr.com/ru/companies/greenato

#Рostgres_Pro #ClickHouse #оптимизация_кода #производительность #мониторинг_систем #SQLзапросы #RLS #APDEX

2025-11-13

Новый подход к оценке производительности облачной инфраструктуры для 1С: от теста Гилева к реальным нагрузочным тестам

Привет, Хабр! В статье поговорим о том, почему традиционные методы оценки производительности серверов для 1С не работают в облачной инфраструктуре и как мы нашли решение этой проблемы. А еще приглашаем вас на бесплатный вебинар 18 ноября в 11:00 мск , где разберем реальные провалы и фатальные ошибки при работе 1С в облаке. Поговорим о том, почему CPU не покажет реальных проблем, расскажем про кейс с дедлоками при нормальных показателях железа и объясним, почему 40% нагрузки должны стать вашим новым максимумом. Всем зарегистрировавшимся пришлем чек-лист по критическим настройкам 1С из практики обслуживания 7000 пользователей.

habr.com/ru/companies/beeline_

#нагрузочное_тестирование #облачные_технологии #тест_гилева #виртуализация #openstack #vmware #iaas # #apdex #erpсистемы

2024-03-26

Как добавить системности в мониторинг продакшна: параметры и тулинг для инцидент-менеджмента

На проде что-то сломалось – такова суровая реальность, случается с лучшими из нас, увы. Что часто происходит в подобных случаях: ловим алерты, бежим смотреть графики и логи, вызваниваем из отпуска разработчика, который занимался этой функциональностью, выкатываем фикс, проводим пост-мортем. Это реакция на уровне здравого смысла, классика. Но когда речь заходит о недозаработанных из-за инцидента деньгах, расстроенных пользователях – любое улучшение, даже небольшое, на доли процента – может принести ощутимый результат. Давайте поговорим, как подойти к вопросу мониторинга методологически – задействовать инструментарий инцидент-менеджмента. Обсудим, как оценивать критичность сервисов и какие системы могут быть полезны для отслеживания проблем. Статья ориентирована в первую очередь на тех, кто прямо сейчас занимается мониторингом на уровне общей инженерной грамотности, но пока не использует в явном виде инцидент-менеджмент как подход. А что дальше?

habr.com/ru/companies/sravni/a

#инцидентменеджмент #apdex #sloth #grafana_oncall #деплой #сравни #сравниру

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst