제품
-
Virdyn mHand Pro 가상 현실용 관성 모션 캡처 장갑
양손과 손가락의 뒷면에는 16개의 센서가 있습니다. "mHand Studio" 엔진이 장착되어 손 제스처를 실시간으로 3D 모델의 움직임으로 변환할 수 있습니다. 내장된 완전 자체 개발 제스처 인식 모델은 15개 이상의 제스처 유형을 지원하며 다양한 VR 인터랙티브 콘텐츠를 쉽게 지원합니다. SDK를 지원하고 손 위치 추적을 위한 광학 추적기를 지원하며 Windows 및 Android 시스템과 호환됩니다.
당신이 우리에게서 얻는 것:
● 16 센서 웨어러블 풀 핸드&핑거 모캡 장갑
● 빠른 전세계 배송:우리는 전 세계적으로 빠른 배송을 지원합니다. 동아시아의 경우 3-5일, 북미, 호주의 경우 5-7일, 유럽 및 중앙 아시아의 경우 7-15일, 라틴 아메리카, 아프리카의 경우 15-25일입니다.
● 무료 Mocap 소프트웨어:우리는 무료 mocap 소프트웨어가 포함된 모션 캡처 장치를 제공할 것입니다.
● 무료 소프트웨어 업데이트:MStudio
● 무료 게임 엔진 및 3D 소프트웨어 플러그인:Unity/UE4.24-5.5/ICLONE7-8/BLENDER/MAYA/MOTIONBUILDER/3DS MAX
● 무료 Android 플랫폼 플러그인:Windows 및 Android 플랫폼 개발 모두 지원
●무료 C++SDK 패키지
● 1년 및 보증 기간 연장:모든 장치 구성 요소의 경우
● 최고의 일대일 고객 지원 엔지니어
●12시간 빠른 응답
●결제 후 48시간 배송
대량 주문, 리셀러, 교육/학생, 소규모 스튜디오 등을 위한 특별 제안이 있습니다. 자세한 내용은 문의 이메일을 보내주세요!
귀하의 국가에서 PayPal이 지원되지 않는 경우 다른 결제 방법도 지원됩니다. 자세한 내용은 당사에 문의하세요!
-
전신 기능을 위한 Virdyn VDSuit Full 관성 모션 캡처 수트
영화, 3D 애니메이션, 게임 개발, VR 개발자 및 스포츠 광신자 분야에서 사용되는 전문 관성 모션 캡처 기술 하드웨어 장치입니다.
당신이 우리에게서 얻는 것:
● 27 개의 센서 웨어러블 전신 MoCap 슈트에는 손과 손가락 캡처가 포함됩니다.
●우리는 전 세계적으로 빠른 배송을 지원합니다.동아시아의 경우 3-5 일, 호주 북아메리카의 경우 5-7 일, 유럽 및 아시아 중부의 경우 7-15 일, 아프리카 라틴 아메리카의 경우 15-25 일.
● 무료 소프트웨어 업데이트
● 무료 게임 엔진 및 3D 소프트웨어 플러그인:Unity/UE4.24-5.5/ICLONE7-8/BLENDER/MAYA/MOTIONBUILDER/3DS MAX
●Steam 플랫폼을 지원하는 무료 플러그인:Vtuber용 VRChat/Warudo
●무료 C++SDK 패키지
●1년 및 보증 기간 연장: 모든 장치 구성 요소에 대해
●최고의 일대일 고객 지원 엔지니어
●12시간 빠른 응답
●결제 후 48시간 배송
대량 주문, 리셀러, 교육/학생, 소규모 스튜디오 등을 위한 특별 제안이 있습니다. 자세한 내용은 문의 이메일을 보내주세요!
귀하의 국가에서 PayPal이 지원되지 않는 경우 다른 결제 방법도 지원됩니다. 자세한 내용은 당사에 문의하세요!
-
VDSuitMini 하프바디 모캡 시스템 | 로봇 데이터 수집 및 원격조작 | 자유 소프트웨어
Product OverviewThe VDSuitMini Half-Body Motion Capture System is an all-in-one professional solution designed for robotics R&D and teleoperation. It combines high-precision wearable hardware with VDSuitMini Studio — powerful, free perpetual motion capture software included with your purchase.To match your specific needs for precision and control, the system is offered in two versions:-
VDSuitMini Core: Features intuitive hand-held controllers for full-body and arm motion capture.
-
VDSuitMini Flex: Equips high-fidelity data gloves with 12 sensors for capturing nuanced finger and hand articulation.
Tailored for accurate human motion data acquisition, real-time robot teleoperation, and robotic arm control, both versions deliver the low-latency, high-fidelity performance needed to accelerate your development workflow.Core Value Propositions-
Free Perpetual Software: VDSuitMini Studio is included free of charge with every hardware purchase — no recurring fees, no subscription costs.
-
Robotics-Centric Design: Optimized for robot motion data collection, humanoid robot teleoperation, and dual-arm robotic arm control.
-
Fast Setup & Easy Use: Get your system operational in under 15 minutes with minimal calibration requirements.
-
Environmentally Flexible: Works reliably in indoor labs, outdoor fields, and magnetically challenging environments.
-
-
Camera Optical Markerless Motion Capture Solution – Virdyn YanDong | Real-Time Full Body, Hands, Face
Adopting a completely wearable-free design, the YanDong system requires no motion capture suits, helmets, or physical markers throughout the entire capturing process. It utilizes multi-camera synchronous video acquisition to perform all-round tracking of the human body, delicate fingers, and facial expressions. Powered by advanced artificial intelligence algorithms, the system conducts real-time AI human detection and 3D human reconstruction, followed by precise AI skeleton motion solving. Combined with forward and inverse kinematics calculation logic, the system further optimizes raw motion data through a temporal transformer network, achieving intelligent motion correction and frame-to-frame smoothing for stable, jitter-free, and highly natural motion output.
대량 주문, 리셀러, 교육/학생, 소규모 스튜디오 등을 위한 특별 제안이 있습니다. 자세한 내용은 문의 이메일을 보내주세요!
귀하의 국가에서 PayPal이 지원되지 않는 경우 다른 결제 방법도 지원됩니다. 자세한 내용은 당사에 문의하세요!
-
VDA분석 | 댄스, 스포츠, 재활 및 교육을 위한 시각화된 지능형 모션 데이터 분석 소프트웨어
Product Overview
VDAnalyze is a professional, objective, data-driven and real-time motion data analysis software. It transforms abstract motion standards into quantifiable data to deliver Precise Analysis + Scientific Scoring + Targeted Improvement.Powered by advanced computer vision algorithms, VDAnalyze provides a full workflow solution: motion capture → pose comparison → automated scoring → training suggestions. It supports real-time feedback and multi-dimensional data management, widely used in dance training, competitive sports, physical education and clinical rehabilitation. -
HD 1080p 내장형 RGB 카메라가 장착된 AH 이중 카메라 기반 얼굴 캡처 헬멧
Virdyn’s first markerless facial expression capture system is now upgraded to the AH-D Dual-Camera Facial Capture Helmet! Equipped with dual high-definition 1080p embedded RGB cameras, it requires no extra wearable electronic devices for operation.Our self-developed algorithm supports ARKit standard 52 BS bindings and drivers, enabling highly precise and realistic facial reconstruction. It seamlessly integrates with full-body motion capture systems and works perfectly with both inertial and optical motion capture setups.The AH-D supports wired + wireless dual connection modes, delivering stable performance free from network interference. It comes with a 5-meter extension cable to guarantee real-time high-frame-rate and low-latency data transmission.Built-in 940nm infrared fill lights ensure clear facial tracking even in low-light environments. Weighing only 320g, the helmet offers lightweight comfort for long sessions.Multiple SDK plugins are supported, allowing facial expression capture data to be directly imported into mainstream animation software and engines for efficient content production.대량 주문, 리셀러, 교육/학생, 소규모 스튜디오 등을 위한 특별 제안이 있습니다. 자세한 내용은 문의 이메일을 보내주세요!
귀하의 국가에서 PayPal이 지원되지 않는 경우 다른 결제 방법도 지원됩니다. 자세한 내용은 당사에 문의하세요!
-
DreamsCap X1 Full-Body, Hand & Face Motion Capture for Humanoid Robot Data Collection & Teleoperation
DreamsCap X1 Full Performance Capture는 몸 전체의 31개 핵심 노드를 통합하고 손가락 관절까지 정확하며 원버튼 구동, 3차원 공간에서 연기자의 궤적을 실시간 재구성하고 실제 인간 배우의 움직임을 정확하게 캡처하며, 디지털 모델로의 실시간 변환, 3차원 컴퓨터 애니메이션의 동시 생성;
광학 위치 추적 및 동작 인식과 함께 손등과 손가락 뒷면에 있는 16개의 센서 노드를 통합하면 물리적 세계와 디지털 가상 세계 사이의 원활한 인터페이스가 됩니다.
정확한 표정 캡처 알고리즘을 통해 사람의 표정을 디지털 캐릭터와 실시간으로 동기화할 수 있으며, 알고리즘은 52개 이상의 표정 데이터를 지원합니다.
Dreamscap X1에서 얻을 수 있는 것:
●바디 모캡 슈트: DreamsCap Body●핸드앤핑거스 모캡 장갑 : 드림스캡 글러브
●카메라 기반 얼굴 캡처 헬멧: DreamsCap Face
●전문 모션 캡처 소프트웨어 시스템: DreamsCap Studio
●액세서리: 7포트 확장기/64GB 모바일 하드 드라이브/소프트웨어 키/사용 설명서/안전 보관함
● FAST worldwide shipping: We support fast shipping worldwide. 3-5 days for East Asia, 5-7 days for North America, Australia. 7-12 days for Europe and Mid-Asia, 15-25 days for Latin America, Africa.
● 무료소프트웨어 업데이트
● 무료 game engine and 3D softwares Plug-ins: Unity/UE4.24-5.5/IClone7-8/Blender/Maya/MotionBuilder/3DS MAX
● 무료플러그인 지원 Steam 플랫폼: Vtuber용 VRChat/Warudo
● 무료C++SDK 패키지
● 1년보증 기간 연장: 모든 장치 구성 요소에 대해
● 최고의 일대일고객 지원 엔지니어
● 12 시간빠른 응답
● 48 시간지불 후 배송
견적을 원하시면 이메일을 보내주세요. 대량 주문, 리셀러, 교육/학생, 소규모 스튜디오 등을 위한 특별 제안이 있습니다.
-
VDRobot Studio: 로봇공학을 위한 모션 데이터 수집 및 변환 플랫폼 | 버딘
From Raw Capture to Robot-Ready Commands in One Platform
Stop juggling multiple software tools to clean, edit, and retarget motion data. VDRobot Studio is the integrated software platform designed specifically to transform raw human motion capture into precise, deployable trajectories for your robots. Streamline your workflow, ensure kinematic accuracy, and accelerate from concept to execution.The Critical Gap in Robot Development: Motion Data Translation
Capturing human motion is only the first step. The real challenge lies in the translation—converting that data into clean, feasible commands your specific robot can execute. Disconnected tools for cleaning, retargeting, and exporting create bottlenecks, errors, and inefficiencies.VDRobot Studio eliminates this friction by providing a unified, robot-centric environment for the entire post-capture pipeline. -
AI LingSi 시스템 | 로봇 지능형 창작 플랫폼 및 지능형 음성 상호 작용
The AI LingSi System is a professional intelligent upgrade solution built exclusively for humanoid robots. It deeply integrates three core modules: Smart Voice Engine Backpack, Smart Vision Helmet, and Robotic Smart Control Cloud Creation Platform, enabling robots to See, Hear, Speak, and Act with full‑dimensional intelligence. This system greatly improves scene adaptability and accelerates the commercial deployment of humanoid robots.
-
휴머노이드 로봇 지능형 음성 상호 작용 개발 키트
The Humanoid Robot Intelligent Voice Interaction Development Kit integrates the high-performance Smart Voice Engine Backpack and Smart Vision Helmet to build a unified multi-perception system combining voice, vision, and navigation. It forms a complete closed loop of robot environmental cognition, understanding, and interaction.This kit supports rapid deployment in exhibition halls, government service centers, entertainment, education, retail, tourism and other human-machine interaction scenarios, empowering humanoid robots with smarter, more natural interactive capabilities. -
즉시 사용 가능한 로봇 모션 데이터 세트 | 버딘
Product OverviewVirdyn Humanoid Robot Motion Datasets provide a comprehensive, production-ready library of over 135 high-fidelity motion sequences, engineered specifically for the Unitree G1 (29-DOF) humanoid robot. This dataset is crafted through a rigorous three-stage pipeline—combining high-precision inertial motion capture, professional retargeting algorithms, and meticulous manual correction—to ensure every movement is both natural and physically viable for the target platform. It undergoes stringent validation for positional/orientational stability, motion smoothness, and, critically, a 0% motor-angle over-limit rate, guaranteeing hardware safety. Stored in a plug-and-play CSV format adapted to the robot’s native coordinate system, it enables developers, researchers, and educators to bypass months of motion programming and debugging, accelerating deployment in applications from teleoperation and reinforcement learning to dynamic demonstrations. -
로봇 및 손재주 가상 시뮬레이션 교육 패키지
실제와 심의 격차 해소: 인간의 움직임부터 로봇 제어까지 단 몇 분 만에 완료
1. MuJoCo, RViz 및 Isaac Sim 플랫폼에서 시뮬레이션된 로봇이나 능숙한 손으로 전신 모션 데이터를 리디렉션하여 모델 리디렉션 효과를 동기적으로 표시하도록 지원합니다.
2. 각도 구동 또는 토크 구동 작동을 지원하는 23-DOF, 29-DOF 및 Comp 버전을 포함하여 Unitree G1 로봇으로의 리디렉션을 지원합니다.
3. Unitree 세 손가락 능숙한 손 Dex3-1, 시간 기반 다섯 손가락 능숙한 손 DFQ 및 FTP로의 리디렉션을 지원하여 각도 기반 작업을 지원합니다.
4. 시뮬레이션 드라이버 소스코드, UDP 데이터 수신 SDK, 로봇 및 손재주 시뮬레이션 모델 파일, 사용자 매뉴얼을 제공합니다.











