#mocap

저비용 웹캠으로 작동하는 완전 오픈소스 모션캡처 'FreeMoCap' 소개. 하드·소프트웨어 비종속적이며 연구급 성능을 최소비용으로 제공해 분산형 과학 연구, 교육, 훈련에 활용 가능. 소스와 설치 가이드는 GitHub에 공개. 주간 로봇·AI 인사이트 구독 링크 포함.

x.com/IlirAliu_/status/2024198

#freemocap #mocap #opensource #robotics #computervision

Ilir Aliu (@IlirAliu_)

저가형 웹캠으로 동작하는 완전 오픈소스 모션 캡처 시스템 'The FreeMoCap Project'를 소개함. 하드웨어·소프트웨어 비종속적이며 저비용·연구급 품질을 목표로 하는 분산 과학 연구, 교육 및 훈련용 모션캡처 플랫폼 프로젝트임.

x.com/IlirAliu_/status/2024198

#freemocap #mocap #opensource #motioncapture

2026-01-20

Addon WIP
Editing complex mocap animation in 4 minutes.
Video with audio 🔈

#b3d #mocap

2026-01-19

Auto Foot Lock WIP update 3
New Algorithm and option to select axis to analyze
#b3d #mocap

Marcel (@onlyMarcelM)

@levelsio의 PhotoAI MOCAP 기능을 사용해 원본 영상과 AI로 생성한 영상을 글리치로 교차 전환하는 자동 영상 효과를 구상·구현한 사례. 글리치로 AI 효과를 '드러내는' 표현을 위해 스크립트를 직접 코딩해 시연한 창의적 응용 사례임.

x.com/onlyMarcelM/status/20133

#photoai #mocap #videofx #ai #creativecoding

2026-01-18

Auto Foot Slide Fix Update
Now as an addon and added some smoothness to it

Probably this is not the best animation since the foot is moving sideways since the start.
I'll have to try with a better animation.

First is the raw animation, then applying the foot slide fix

#b3d #mocap

el.cine (@EHuanglu)

AI 기반 모션 캡처가 VFX 분야를 빠르게 바꾸고 있다는 내용입니다. 신체 동작·표정·입 모양을 빠르게 복사해 다른 배우에게 적용할 수 있고, 배경·의상·외형 등 씬의 요소도 편집 가능하며, 5분 만에 처리하는 워크플로우를 소개한다고 주장합니다. VFX 작업의 자동화·생산성 향상 사례입니다.

x.com/EHuanglu/status/20121490

#mocap #vfx #animation #ai

Anyone have any FOSS mocap software that they've used in a Blender workflow and recommend?

I'm running a Linux workstation.

I know there's a lot of options but I'd like some second opinions before I try to dig in to a few of these.

The intended goal is ultimately an animated short.

#FOSS #Blender #mocap #linux

Кути'й Пингвин'ычCutePenguin@mastodon.ml
2026-01-07

Продолжаю генерить анимированные позы на основе китайской аэробики
(я, реально, так и не нашёл никакого лучше варианта, чем китайская аэробика, потому что там, как правило, 2 и 3 персонажа, и персонажа справа как раз можно вырезать и на ней и генерить позы)
Пока генерил, обнаружил парочку новых подводных камней:
- НИКОГДА не надо растягивать видео больше, чем на 50%!!! Это, прям, вот, очень важно!!! А то нейронку мандраж хватать начнёт, и она начёт отдельные кадры при захвате пропускать!!! А лечить это потом больно и долго!!!
- НИКОГДА не надо захватывать движения в нейронке с персонажа в жёлтой майке на фоне заката или в зелёной майке на фоне моря!!! От этого тоже куча пропущенных кадров генерируется, и это тоже долго и больно лечить!!! Персонаж для захвата должен быть одетым в одежду контрастного с фоном цвета!!! (в принципе, фон можно и другой нейронкой вырезать, правда, я пока что не понял, какой)
#generativeai #comfyui #mocap #china #fitness

2026-01-05

Here is an example of why I say "it depends" when someone asks what is the best monocular mocap solution.

Most would say that PromptHMR is the best one today. Is it?

I was just giving a try on a video and turns out, that, in my opinion
1º- 4d humans
2º- GVHMR
3º- PromptHMR

But this is a fast acrobatic video. Looks like for unusual movements, 4d humans works better.
#b3d #mocap

2026-01-04

CEB Hubmocap WIP, adding StableMotion.

The sample model that is available has some funny results 😊
#b3d #mocap

2026-01-03

Video created using CEB Hubmocap PromptHMR and Hamer for hands
github.com/carlosedubarreto/ce

Environment done using HDRI Maker
superhivemarket.com/products/h

#b3d #mocap

2026-01-03

CEB Hubmocap 0.08 released.

Now there is a resource monitor to check the system status (its off by default)

A fix on hamer, where it was having problem when you didnt have hands detected since the start of the video

github.com/carlosedubarreto/ce
#b3d #mocap

Кути'й Пингвин'ычCutePenguin@mastodon.ml
2026-01-01

GVHMRi просто прекрасно работает
Да, медленно, 30 секунд видео она около часа обрабатывает (минут ~30 на экстракт поз и минут ~30 на сборку в SMPL),
но, да,
результат окупает издержки
НО... всё бы ничего, да вот в DAZ STUDIO позы нормально НЕ РАБОТАЮТ:
модель всё равно клинит и болтает во все стороны, хотя в VRoid и MMD всё вообще отлично: даже плавность, наконец-то, появилась (небольшой люфт по осям сохраняется, но не критично - подровняю потом, если мешать начнёт...)
В общем, буду кляньчить у товарища Маска Илоновича Грока решение проблемы с D|S, а так рабочий поток налажен - уже текучка пошла...
(проблемы с D|S не критичны, ибо я МоКап под MMD поднимал, но, да, есть один проект и для дазовских прог'... Причём, ощущение такое, будто во всём виновата их внутренняя система кинематики)
#generativeai #comfyui #ViTPose #GVHMRinference #MoCap

Кути'й Пингвин'ычCutePenguin@mastodon.ml
2025-12-31

Наконец, MMD!
(то, ради чего всё и затевалось, собcтвенн@)
Ну, как бы уже без комментариев с моей стороны, да?..
Короче, запускаю следующую генерацию из других танцевальных видео,
а сам пока проконсультируюсь с Гроком по-поводу того, как чинить эти движения зомби и упырей...
Повторюсь, что принимаю любые полезные советы!! Мне важно ваше мнение, я в этой теме всерьёз и до полусмерти!!
#mmd #anime #game #bvh #mocap

Кути'й Пингвин'ычCutePenguin@mastodon.ml
2025-12-31

Видео пример со сгенерированной BVH-анимацией в ComfyUI на моей видео-карте из веб-вьювера:
(не очень похож на оригинальное видео, в частности, на видео нет поворотов тела на 90 градусов, но... НО)
#web #viewer #webview #bvh #mocap

Кути'й Пингвин'ычCutePenguin@mastodon.ml
2025-12-31

Я, наконец-то, собрал воркфлоу для ComfyUI для МокАпа
Скачал чужое танцевальное видео и захватил движения из него
ЭТО БЫЛО БОЛЬНО И ТЯЖЕЛО, но, кажется, мы справились..?
Видео примеры - далее, но сначала - скриншот самого рабочего потока:
(Я не спец по нейронкам, и это не окончательный вариант - у меня сейчас какие-то глюки сразу в 3 приложениях с готовым BVH файлом, поэтому принимаю любые полезные советы по улучшению рабочего потока!!!)
#generativeai #comfyui #motioncapture #mocap #nvidia

На изображении представлен узел в программном обеспечении для обработки изображений или видео, настроенный для преобразования видеозаписи в данные захвата движения BVH.

На изображении показана графическая схема узлов, соединенных линиями, каждый из которых представляет определенный шаг в процессе обработки видео для создания данных захвата движения. В левой части экрана находится узел "Load Video (Upload)", отвечающий за загрузку видео. От него отходят соединения к узлу "SAM3 Video Segmentation", затем к "Load GVHMR Models" и "Mask From Color". От "SAM3 Video Segmentation" и "Load GVHMR Models" соединения идут к "GVHMR Inference", который, в свою очередь, соединяется с узлом "SMPL to BVH Converter" в правой части изображения. В каждом узле есть настраиваемые параметры, такие как "prompt_mode", "frame_idx", "score_threshold", "focal_length_mm", "fps" и "scale". В целом, схема представляет собой визуальное представление конвейера для автоматического создания данных захвата движения на основе видео. Атмосфера техническая и аналитическая, передающая шаг за шагом процесс для решения конкретной задачи.

Client Info

Server: https://mastodon.social
Version: 2025.07
Repository: https://github.com/cyevgeniy/lmst