#cgroup

2026-01-14

第60回 Linuxカーネルのコンテナ機能 ―cgroup v2から使うメモリコントローラ(5)
gihyo.jp/article/2026/01/linux

#gihyo #技術評論社 #gihyo_jp #Linux #LXC #cgroup

Hacker Newsh4ckernews
2025-12-28

tc-ematch(8) extended matches for use with "basic", "cgroup" or "flow" filters

man7.org/linux/man-pages/man8/

-ematch

2025-12-08

第59回 Linuxカーネルのコンテナ機能 ―cgroup v2から使うメモリコントローラ(4)
gihyo.jp/article/2025/12/linux

#gihyo #技術評論社 #gihyo_jp #Linux #LXC #cgroup

2025-09-22

#TIL #cgroups' memory.current metric includes any #pagecache entries that a process in the #cgroup caused to be inserted, even if other processes are accessing it too.

This means that anything related to #systemd unit's memory accounting also inherits this property.

If your #emacs systemd unit reports insane memory usage (usually ~10G for me), this is why.
It's actually not emacs' fault for once ;)

#linux #kernel #MemoryAccounting

2025-08-15

第58回 Linuxカーネルのコンテナ機能 ―cgroup v2から使うメモリコントローラ(3)
gihyo.jp/article/2025/08/linux

#gihyo #技術評論社 #gihyo_jp #Linux #LXC #cgroup

2025-07-24








When su - error "Failed to connect to bus no medium found"

Investigated causes based on njroute22.com/failed-to-connec

Image1: $ systemctl status dbus. "CGroup" led me to systemd control groups.

Image2: $ systemd-cgls. From entry user-1234.slice ONLY configurations for originally created host user (i.e., ID 1234 user in sudoers), BUT NO ENTRY for root (i.e., user-0)

Q: Can root be made a member of systemd control group like user-1234 is?

Bash output (partial) of command systemctl status dbus

 someUser@someHost:~$ systemctl status dbus
 ● dbus.service - D-Bus System Message Bus
      Loaded: loaded (/lib/systemd/system/dbus.service; static)
     Drop-In: /run/systemd/system/service.d
              └─zzz-lxc-service.conf
      Active: active (running) since Wed 2025-07-23 17:49:48 PDT; 21s ago
 TriggeredBy: ● dbus.socket
        Docs: man:dbus-daemon(1)
    Main PID: 129 (dbus-daemon)
       Tasks: 1 (limit: 4915)
      Memory: 2.8M
      CGroup: /system.slice/dbus.service
              └─129 /usr/bin/dbus-daemon --system --address=systemd: --nofork --nopidfile --systemd-activation --syslog-onlyBash partial output of command systemd-cgls (systems control groups)

    $ systemd-cgls
    Control group /:
    -.slice
    ├─user.slice (#64)
    │ → user.invocation_id: 676c6e66a671456096ea71a0e19e61de
    │ └─user-1234.slice (#166)
    │   → user.invocation_id: e999674c4c67444a4d74e24655ef29d2
    │   └─user@1234.service … (#174)
    │     → user.invocation_id: 6e19ae7f02c14f2641f264ae76694fe5
    │     → user.delegate: 1
    │     ├─session.slice (#206)
2025-06-02

"#Linux #cgroup, from first principles"

« On va apprendre à limiter la mémoire, le CPU, et l'envie de hurler devant #systemd. Bref, c’est moche, c’est bas niveau, c’est Linux. Et c’est fascinant. » #RudeOps

fzakaria.com/2025/05/26/linux-

2025-03-05
Is there seriously no alternative to cgroups' cgroupfs configuration than systemd-run? Really?

#cgroup #linux
2025-02-08

Замедление работы pg_repack с помощью cgroup

Операция VACUUM FULL полностью пересоздаёт таблицу, предельно оптимизируя её. Она требует полной блокировки таблицы, поэтому высоконагруженные таблицы обрабатывать ею без простоя системы нельзя. Вместо VACUUM FULL можно использовать расширение pg_repack . Оно создаёт на обрабатываемой таблице триггер, отслеживающей модификации, создаёт копию таблицы, догоняет набежавшие изменения. В конце работы берётся короткая блокировка, старая таблица удаляется, новая становится на её место. Недостатком pg_repack является то, что она работает СЛИШКОМ БЫСТРО – фактически данные копируются и удваиваются в объёме (по отношению к исходной таблице). Каталог pg_wal забивается с такой скоростью, что архиватор не успевает обрабатывать файлы. Далее описывается способ замедления работы pg_repack с использованием механизма cgroup .

habr.com/ru/articles/880646/

#postgresql #pg_repack #cgroup

Awesome. Can't read the documentation. Thanks #RedHat

access.redhat.com/articles/373

#cgroup migration

2024-12-24

第57回 Linuxカーネルのコンテナ機能 ―cgroup v2から使うメモリコントローラ(2)
gihyo.jp/article/2024/12/linux

#gihyo #技術評論社 #gihyo_jp #Linux #LXC #cgroup

2024-09-30

Ok writing some #eBPF which hooks onto a #cgroup and limits its network access while leaving the rest of the host unaffected, this is fun! Bit of #c and #golang

Using
- ebpf-go.dev/guides/getting-sta
- nfil.dev/coding/security/ebpf-

2024-08-16

第56回 Linuxカーネルのコンテナ機能 - cgroup v2から使うメモリコントローラ(1)
gihyo.jp/article/2024/08/linux

#gihyo #技術評論社 #gihyo_jp #LXC #Linux #コンテナ #cgroup

2024-05-28

Next, a #container is a #cgroup of processes running in their own PID namespace. This cgroup is cleaned up when the container is stopped. Any zombies that are in a container are removed on stop. They don't reach the hosts init.

10/n

2023-12-08

Systemd future feature removals:

* Support for System V service scripts is now deprecated and will be removed in a future release.

* We intend to remove cgroup v1 support from a systemd release after the end of 2023.

github.com/systemd/systemd/rel

#Linux #Systemd #SystemV #cgroup

ck 👨‍💻ck@noc.social
2023-11-20

Another week - a new troubleshooting case. And it's only Monday...

Simply executed the widely used htop command in a #Debian 12 (Bookworm) #LXC container and saw all the physical cpu cores from the host - even though #cgroup limits are set.

First expected a bug in LXC/lxcfs or cgroup handling in Bookworm but it turns out that htop itself seems to show a wrong cpu count...

Bug? Regression? Feature? Not sure yet...

claudiokuenzler.com/blog/1365/

2023-11-08

第54回 Linuxカーネルのコンテナ機能 ―cgroup v2から使うCPUの帯域幅制限(2)
gihyo.jp/article/2023/11/linux
#gihyo #技術評論社 #gihyo_jp #Linux #コンテナ #cgroup #CPUコントローラ

Patryk Krawaczyńskiagresor@infosec.exchange
2023-08-15
ck 👨‍💻ck@noc.social
2023-03-09

When a #Linux System #Container is unable to start, there can be a couple of reasons.

By forwarding the #LXC start log into a file and increase the loglevel, the real errors can (usually) be identified.

In this particular situation a wrong CPU number was added into the LXC's #cgroup limit configuration. A typical human counting vs. machine counting error. 😅

claudiokuenzler.com/blog/1299/

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst