ข่าวดีส่งท้ายปี 2025 สำหรับเหล่านักพัฒนาและครีเอเตอร์สาย 3D ครับ! Tencent ได้ประกาศเปิดตัว HY-Motion 1.0 โมเดล Text-to-Motion อัจฉริยะที่เปลี่ยนข้อความให้กลายเป็นท่าทางการเคลื่อนไหวของตัวละคร 3D ที่สมจริงและลื่นไหล โดยเปิดให้ใช้งานแบบ Open-source บน GitHub และ Hugging Face แล้ววันนี้
🌟 ไฮไลท์สำคัญของ HY-Motion 1.0: เหนือกว่าทุกโมเดลที่เคยมีมา
Tencent ได้สร้างมาตรฐานใหม่ให้กับวงการ Motion Generation ด้วยคุณสมบัติระดับพระกาฬดังนี้ครับ:
🐝 สถาปัตยกรรม DiT ขนาด 1 พันล้านพารามิเตอร์: เป็นการนำ Diffusion Transformer (DiT) มาขยายสเกลจนถึงระดับ 1B+ พารามิเตอร์ ทำให้ AI เข้าใจคำสั่งที่ซับซ้อนได้แม่นยำ และสร้างท่าทางที่ละเอียดอ่อนได้ดีกว่าเดิม 🐝 ระบบการฝึกฝนแบบครบวงจร (Full-Stage Training): เป็นเจ้าแรกในอุตสาหกรรมที่ใช้ลูป Pre-training → SFT → RL (Reinforcement Learning) เพื่อปรับปรุงให้ท่าทางที่สร้างออกมาถูกต้องตามหลักฟิสิกส์ และตรงตามความหมายของคำสั่งมากที่สุด 🐝 ครอบคลุมกว่า 200 หมวดหมู่: รวบรวมท่าทางการเคลื่อนไหวไว้มากที่สุดในวงการ แบ่งเป็น 6 กลุ่มหลัก ครอบคลุมทุกกิจกรรมตั้งแตชีวิตประจำวันไปจนถึงท่าทางเฉพาะทาง
🛠️ พลิกโฉมการทำงานสาย 3D Pipeline
สิ่งที่ทำให้ HY-Motion 1.0 น่าสนใจมากสำหรับสตูดิโอและศิลปินคือ:
🐝 Seamless Integration: ไฟล์แอนิเมชันที่สร้างออกมาสามารถนำไปใช้ในโปรแกรม 3D มาตรฐาน (เช่น Maya, Blender, Unreal Engine) ได้ทันทีโดยไม่ต้องแก้ไขเยอะ 🐝 High Fidelity: ท่าทางมีความลื่นไหล ไม่ติดขัด (Jitter-free) และมีความหลากหลายสูง ไม่ซ้ำซากจำเจ 🐝 Instruction Following: ไม่ว่าจะสั่งให้ตัวละคร “เดินอย่างเศร้าๆ” หรือ “เต้นระบำท่ามกลางสายฝน” AI ก็สามารถตีความอารมณ์และท่าทางออกมาได้อย่างน่าทึ่ง
📍 ช่องทางการเข้าถึง (Open-source)
Tencent ใจป้ำปล่อยข้อมูลให้เข้าถึงได้ฟรีเพื่อกระตุ้น Ecosystem ของ AI 3D ครับ:
- 💻 GitHub: Tencent-Hunyuan/HY-Motion-1.0
- 🤗 Hugging Face: tencent/HY-Motion-1.0
- 📄 Technical Report: อ่านรายละเอียดเชิงลึกได้ที่ arXiv:2512.23464

