春のセール!誰でもモーション キャプチャ スーツとモーション グローブを最大 30% オフでお楽しみいただけます

製品

  • Virdyn mHand Pro およびバーチャル リアリティ用の慣性モーション キャプチャ グローブ

    Virdyn mHand Pro およびバーチャル リアリティ用の慣性モーション キャプチャ グローブ

    両手と指の裏に16個のセンサーがあります。 「mHand Studio」エンジンを搭載し、手のジェスチャーをリアルタイムで3Dモデルの動きに転写することができます。 組み込みの完全に自己開発されたジェスチャー認識モデルは、15 種類以上のジェスチャーをサポートし、さまざまな VR インタラクティブ コンテンツを簡単にサポートします。 SDKをサポートし、手の位置を追跡するための光学トラッカーをサポートし、WindowsおよびAndroidシステムと互換性があります。

     

    あなたが私たちから得るもの:

     

    16 センサー ウェアラブル フルハンド&フィンガー モーション キャプチャ グローブ

    FAST worldwide shipping: We support fast shipping worldwide. 3-5 days for East Asia, 5-7 days for North America,  Australia, 7-15 days for Europe and Mid-Asia, 15-25 days for Latin America, Africa. 

    無料のモーションキャプチャ ソフトウェア:無料のモーション キャプチャ ソフトウェアを備えたモーション キャプチャ デバイスを提供します。

    無料のソフトウェアアップデート:Mスタジオ

    無料のゲーム エンジンと 3D ソフトウェア プラグイン:Unity/UE4.24-5.5/IClone7-8/Blender/Maya/MotionBuilder/3DS MAX

    無料の Android プラットフォーム プラグイン:Windows と Android プラットフォームの両方の開発をサポート

    ●無料のC++SDKパッケージ

    1 年間と保証期間の延長:すべてのデバイスコンポーネント用

    最高のマンツーマンカスタマーサポートエンジニア

    ●12時間のクイックレスポンス

    ●支払い後48時間発送

     

     

     

    大量注文、再販業者、教育/学生、小規模スタジオなど向けの特別オファーをご用意しております。詳細についてはお問い合わせメールをお送りください。

     

    PayPal があなたの国でサポートされていない場合は、他の支払い方法もサポートしていますので、詳細についてはお問い合わせください。

     

     

  • Virdyn VDSuit Full for Full Body Function Inertia モーション キャプチャ スーツ

    Virdyn VDSuit Full for Full Body Function Inertia モーション キャプチャ スーツ

    映画、3D アニメーション、ゲーム開発、VR 開発者、スポーツ愛好家の分野で使用される、プロフェッショナルな慣性モーション キャプチャ テクノロジのハードウェア デバイスです。

     

    あなたが私たちから得るもの:

     

    ●27 センサーのウェアラブル全身モーション スーツには手と指のキャプチャが含まれます

    世界中への迅速な発送をサポートしています。東アジアでは 3 ~ 5 日、北米、オーストラリアでは 5 ~ 7 日、ヨーロッパおよび中央アジアでは 7 ~ 15 日、ラテンアメリカ、アフリカでは 15 ~ 25 日です。

    無料のソフトウェアアップデート

    無料のゲーム エンジンと 3D ソフトウェア プラグイン:Unity/UE4.24-5.5/IClone7-8/Blender/Maya/MotionBuilder/3DS MAX

    ●Steamプラットフォームをサポートする無料のプラグイン:VRChat/わるど for Vtuber

    ●無料のC++SDKパッケージ

    ●1年間と延長保証期間:すべてのデバイスコンポーネントが対象

    ●最高のマンツーマンカスタマーサポートエンジニア

    ●12時間のクイックレスポンス

    ●支払い後48時間発送

     

     

     

    大量注文、再販業者、教育/学生、小規模スタジオなど向けの特別オファーをご用意しております。詳細についてはお問い合わせメールをお送りください。

     

    PayPal があなたの国でサポートされていない場合は、他の支払い方法もサポートしていますので、詳細についてはお問い合わせください。

     

     

  • VDSuitMini 半身モーキャップ システム |ロボットのデータ収集と遠隔操作 |フリーソフトウェア

    VDSuitMini 半身モーキャップ システム |ロボットのデータ収集と遠隔操作 |フリーソフトウェア

    Product Overview
    The VDSuitMini Half-Body Motion Capture System is an all-in-one professional solution designed for robotics R&D and teleoperation. It combines high-precision wearable hardware with VDSuitMini Studio​ — powerful, free perpetual motion capture software included with your purchase.
    To match your specific needs for precision and control, the system is offered in two versions:
    • VDSuitMini Core:​ Features intuitive hand-held controllers for full-body and arm motion capture.
    • VDSuitMini Flex:​ Equips high-fidelity data gloves with 12 sensors for capturing nuanced finger and hand articulation.
    Tailored for accurate human motion data acquisition, real-time robot teleoperation, and robotic arm control, both versions deliver the low-latency, high-fidelity performance needed to accelerate your development workflow.
    Core Value Propositions
    • Free Perpetual Software:​ VDSuitMini Studio is included free of charge with every hardware purchase — no recurring fees, no subscription costs.
    • Robotics-Centric Design:​ Optimized for robot motion data collection, humanoid robot teleoperation, and dual-arm robotic arm control.
    • Fast Setup & Easy Use:​ Get your system operational in under 15 minutes with minimal calibration requirements.
    • Environmentally Flexible:​ Works reliably in indoor labs, outdoor fields, and magnetically challenging environments.
  • Camera Optical Markerless Motion Capture Solution – Virdyn YanDong | Real-Time Full Body, Hands, Face

    Camera Optical Markerless Motion Capture Solution – Virdyn YanDong | Real-Time Full Body, Hands, Face

    Adopting a completely wearable-free design, the YanDong system requires no motion capture suits, helmets, or physical markers throughout the entire capturing process. It utilizes multi-camera synchronous video acquisition to perform all-round tracking of the human body, delicate fingers, and facial expressions. Powered by advanced artificial intelligence algorithms, the system conducts real-time AI human detection and 3D human reconstruction, followed by precise AI skeleton motion solving. Combined with forward and inverse kinematics calculation logic, the system further optimizes raw motion data through a temporal transformer network, achieving intelligent motion correction and frame-to-frame smoothing for stable, jitter-free, and highly natural motion output.

     

     

    大量注文、再販業者、教育/学生、小規模スタジオなど向けの特別オファーをご用意しております。詳細についてはお問い合わせメールをお送りください。

     

    PayPal があなたの国でサポートされていない場合は、他の支払い方法もサポートしていますので、詳細についてはお問い合わせください。

     

     

  • VDAnalyze | Visualized Intelligent Motion Data Analysis Software for Dance, Sports, Rehabilitation & Education

    VDAnalyze | Visualized Intelligent Motion Data Analysis Software for Dance, Sports, Rehabilitation & Education

    Product Overview

    VDAnalyze is a professional, objective, data-driven and real-time motion data analysis software. It transforms abstract motion standards into quantifiable data to deliver Precise Analysis + Scientific Scoring + Targeted Improvement.
     
    Powered by advanced computer vision algorithms, VDAnalyze provides a full workflow solution: motion capture → pose comparison → automated scoring → training suggestions. It supports real-time feedback and multi-dimensional data management, widely used in dance training, competitive sports, physical education and clinical rehabilitation.
  • AH ダブルカメラベースのフェイスキャプチャヘルメット、HD 1080p 埋め込み RGB カメラ付き

    AH ダブルカメラベースのフェイスキャプチャヘルメット、HD 1080p 埋め込み RGB カメラ付き

    Virdyn’s first markerless facial expression capture system is now upgraded to the AH-D Dual-Camera Facial Capture Helmet! Equipped with dual high-definition 1080p embedded RGB cameras, it requires no extra wearable electronic devices for operation.
     
    Our self-developed algorithm supports ARKit standard 52 BS bindings and drivers, enabling highly precise and realistic facial reconstruction. It seamlessly integrates with full-body motion capture systems and works perfectly with both inertial and optical motion capture setups.
     
    The AH-D supports wired + wireless dual connection modes, delivering stable performance free from network interference. It comes with a 5-meter extension cable to guarantee real-time high-frame-rate and low-latency data transmission.
     
    Built-in 940nm infrared fill lights ensure clear facial tracking even in low-light environments. Weighing only 320g, the helmet offers lightweight comfort for long sessions.
     
    Multiple SDK plugins are supported, allowing facial expression capture data to be directly imported into mainstream animation software and engines for efficient content production.

     

     

    大量注文、再販業者、教育/学生、小規模スタジオなど向けの特別オファーをご用意しております。詳細についてはお問い合わせメールをお送りください。

     

    PayPal があなたの国でサポートされていない場合は、他の支払い方法もサポートしていますので、詳細についてはお問い合わせください。

     

     

     

  • DreamsCap X1 Full-Body, Hand & Face Motion Capture for Humanoid Robot Data Collection & Teleoperation

    DreamsCap X1 Full-Body, Hand & Face Motion Capture for Humanoid Robot Data Collection & Teleoperation

    DreamsCap X1 フル パフォーマンス キャプチャは、全身の 31 のキー ノードを統合し、指の関節まで正確に、ボタン 1 つで駆動し、3 次元空間でのパフォーマーの軌道をリアルタイムに再構築し、実際の人間の俳優の動きを正確にキャプチャします。デジタルモデルへのリアルタイム変換、3次元コンピュータアニメーションの同期生成。

     

    手と指の甲に 16 個のセンサー ノードを統合し、光学式位置追跡およびジェスチャ認識と組み合わせることで、物理世界とデジタル仮想世界の間のシームレスなインターフェイスが実現します。

     

    正確な表情キャプチャ アルゴリズムにより、人間の表情をデジタル キャラクターにリアルタイムで同期でき、アルゴリズムは 52 を超える表情データをサポートします。

     

    Dreamscap X1 から得られるもの:

     
    ●ボディモーションキャプチャスーツ:DreamsCap Body

    ●Hand&Fingers モーションキャプチャ グローブ: DreamsCap Glove

    ●カメラベースのフェイスキャプチャヘルメット:DreamsCap Face

    ●プロ仕様のモーションキャプチャソフトウェアシステム:DreamsCap Studio

    ●付属品:7ポートエキスパンダー/64GBモバイルハードドライブ/ソフトウェアキー/ユーザーマニュアル/セーフティボックス

    FAST worldwide shipping: We support fast shipping worldwide. 3-5 days for East Asia, 5-7 days for North America, Australia.  7-12 days for Europe and Mid-Asia, 15-25 days for Latin America, Africa.  

    無料ソフトウェアのアップデート

    無料 game engine and 3D softwares Plug-ins: Unity/UE4.24-5.5/IClone7-8/Blender/Maya/MotionBuilder/3DS MAX

    無料プラグインは Steam プラットフォームをサポートします: VRChat/Warudo for Vtuber

    無料C++SDK パッケージ

    1年間保証期間の延長: すべてのデバイス コンポーネントが対象

    最高のマンツーマンカスタマーサポートエンジニア

    12時間素早い対応

    48時間支払い後の発送

     

     

    見積もりについてはメールでお問い合わせください。 大量注文、再販業者、教育/学生、小規模スタジオなど向けの特別オファーをご用意しています。

  • VDRobot Studio: ロボット工学向けモーション データ収集&変換プラットフォーム |ヴァーディン

    VDRobot Studio: ロボット工学向けモーション データ収集&変換プラットフォーム |ヴァーディン

    From Raw Capture to Robot-Ready Commands in One Platform

    Stop juggling multiple software tools to clean, edit, and retarget motion data. VDRobot Studio​ is the integrated software platform designed specifically to transform raw human motion capture into precise, deployable trajectories for your robots. Streamline your workflow, ensure kinematic accuracy, and accelerate from concept to execution.

    The Critical Gap in Robot Development: Motion Data Translation

    Capturing human motion is only the first step. The real challenge lies in the translation—converting that data into clean, feasible commands your specific robot can execute. Disconnected tools for cleaning, retargeting, and exporting create bottlenecks, errors, and inefficiencies.
    VDRobot Studio eliminates this friction by providing a unified, robot-centric environment​ for the entire post-capture pipeline.
  • AI LingSi システム |ロボットによるインテリジェントな創造プラットフォームとインテリジェントな音声インタラクション

    AI LingSi システム |ロボットによるインテリジェントな創造プラットフォームとインテリジェントな音声インタラクション

    The AI LingSi System is a professional intelligent upgrade solution built exclusively for humanoid robots. It deeply integrates three core modules: Smart Voice Engine Backpack, Smart Vision Helmet, and Robotic Smart Control Cloud Creation Platform, enabling robots to See, Hear, Speak, and Act with full‑dimensional intelligence. This system greatly improves scene adaptability and accelerates the commercial deployment of humanoid robots.

  • ヒューマノイドロボットインテリジェント音声インタラクション開発キット

    ヒューマノイドロボットインテリジェント音声インタラクション開発キット

    The Humanoid Robot Intelligent Voice Interaction Development Kit integrates the high-performance Smart Voice Engine Backpack and Smart Vision Helmet to build a unified multi-perception system combining voice, vision, and navigation. It forms a complete closed loop of robot environmental cognition, understanding, and interaction.
     
    This kit supports rapid deployment in exhibition halls, government service centers, entertainment, education, retail, tourism and other human-machine interaction scenarios, empowering humanoid robots with smarter, more natural interactive capabilities.
  • すぐに使えるロボット動作データセット |ヴァーディン

    すぐに使えるロボット動作データセット |ヴァーディン

    Product Overview
    Virdyn Humanoid Robot Motion Datasets provide a comprehensive, production-ready library of over 135 high-fidelity motion sequences, engineered specifically for the Unitree G1 (29-DOF) humanoid robot. This dataset is crafted through a rigorous three-stage pipeline—combining high-precision inertial motion capture, professional retargeting algorithms, and meticulous manual correction—to ensure every movement is both natural and physically viable for the target platform. It undergoes stringent validation for positional/orientational stability, motion smoothness, and, critically, a 0% motor-angle over-limit rate, guaranteeing hardware safety. Stored in a plug-and-play CSV format adapted to the robot’s native coordinate system, it enables developers, researchers, and educators to bypass months of motion programming and debugging, accelerating deployment in applications from teleoperation and reinforcement learning to dynamic demonstrations.
  • ロボット&器用なハンドの仮想シミュレーショントレーニングパッケージ

    ロボット&器用なハンドの仮想シミュレーショントレーニングパッケージ

    Bridge the Real-to-Sim Gap: From Human Motion to Robot Control in Minutes

    1. Supports redirecting full-body motion data to simulated robots or dexterous hands on MuJoCo, RViz, and Isaac Sim platforms, synchronously displaying the model redirection effect.

    2. Supports redirection to the Unitree G1 robot, including 23-DOF, 29-DOF, and Comp versions, supporting angle-driven or torque-driven operation.

    3. Supports redirection to the Unitree three-finger dexterous hand Dex3-1, the Time-Based five-finger dexterous hand DFQ, and FTP, supporting angle-driven operation.

    4. Provides simulation driver source code, UDP data reception SDK, robot and dexterous hand simulation model files, and user manuals.

123 次へ> >> Page 1 / 3