Kostenlose Alternativen könnte es geben, wenn Du gezielt nach den SDK für den alten Sensor suchst. Da gab es über die Jahre eine Menge, die aber auch weiter entwickelt wurden und vllt. nicht mehr so interessant sind, weil der alte Sensor nicht die Qualität hat wie der neue. Bei der Suche danach bin ich hierüber gestolpert:
https://www.heise.de/make/meldung/Gratis-von-Microsoft-3D-Scan-App-fuer-Kinect-2-3031794.html
https://www.heise.de/ct/ausgabe/2013-13-Test-3D-Scansoftware-fuer-Kinect-Co-2320432.html
Achnee das war auch nur 3D Scan, der zu den obigen Artikeln führte:
https://www.heise.de/make/artikel/Beruehrungslos-erfasst-3119643.html
Dennoch muss es auch zu den SDKs Rohversionen von MoCap Programmen geben. Aber die sind dann auch nur begrenzt brauchbar, oder zu den heutigen, doch sehr günstigen MoCap Varianten herangereift.
Ach guck
Nicht nur der Scanner, auch MoCap for free. Aber eben nicht in bester Qualität ^^
http://brekel.com/kinect-3d-scanner/
Ein bisschen probieren kannst Du auch mit mixamo. Die bieten fertiges Rigging und jede Menge Animationen an, für einen "bestimmten Zeitraum" kostenlos. Wie es danach weitergeht, weiß ich nicht
https://www.mixamo.com/
Der
Kinect v2 MoCap Animator war auch mal frei, kostet mit 10$ aber auch nicht die Welt:
https://www.assetstore.unity3d.com/en/?_escaped_fragment_=/content/51090#!/content/51090
Und noch eine sehr interessante Diskussion, die die gesamte, umfängliche Nutzung von Günstig-Software und Kinect Sensoren in Frage stellt:
https://steamcommunity.com/app/221200/discussions/0/828934424284729591/
Richtig ist auf jeden Fall, dass man sehr günstig bis umsonst an MoCap Daten im Netz kommt. Es gibt (oder gab zumindest) riesige Datenbanken mit kostenlosen Bewegungsabläufen.
================
Exportieren müsstest Du MoCap Daten mit MB genauso können wie mit iPi Studio, sonst würde man den Kram ja auch nicht in Maya, Max und Co. weiter bearbeiten oder rendern können. Für Skelettanimation ist das idR. BVH bzw. FBX (das kommt vom MB), bei Facial gehen unterschiedliche Formate, da kenne ich mich mit den Standards nicht genug aus, vllt. kann kraid auch mehr zu dem Thema sagen. Der ist näher am Gaminggeschehen dran.
Skelettanimation geht auch im Gesicht, ist aber umständlich und deshalb eher selten. Alternativ werden dort die Meshes eher auf Punkteebene verzerrt, aber ich weiß immer noch nicht, wie man die von Figur A auf B überträgt, da das direkt nur dann geht, wenn beide Figuren exakt das gleiche Mesh, genauer, die gleiche Vertex-Verteilung haben. Sicher, es gibt Envelope-Techniken, wo eine Hülle animiert wird, und die kann man dann über jedes Gesicht stülpen. Aber wie gesagt, wie das heute genau gehandhabt wird und was da Standard ist, k.A. Bei Brekel findet man ein paar Videos mit Demodaten dazu. Ob diese Techniken State of the Art sind, weiß ich nicht.
Wenn Du mehr in der Richtung machen willst: sicher ist es gut, sich auch mit den Meshes auszukennen und dem ganzen Wichtungs- und Rigging-Prozess, weil du dann als Animator erkennen kannst, woran es hakt, wenn es mal hakt. Wenn das Mesh falsch aufgebaut oder schlecht gewichtet ist, kannst du das sonst nur ahnen und erst recht nicht ändern, wenn du die Materie nicht kennst. Ich kann auch besser animieren als riggen oder wichten, aber ich kann auch einigermaßen sehen wo Fehler sitzen. Denn es gibt auch da eine Menge Dinge, die nicht oder nicht einwandfrei in 3D umsetzbar sind. Bestimmte Gelenkbewegungen und dazu gehörige Muskelanimationen, mit denen du bisher noch nichts am Hut hattest, nehme ich an. "Sekundäranimationen", weil sie nur indirekt durch das Skelett bewegt werden, und nicht vom Animator. Hautfaltenverformungen et al., vor allem an Knie und Ellbogen, wenn man Arme oder Beine zusammendrückt, aber auch an anderen Körperstellen. Halsdrehung, Armdrehung. Bau ein Skelett am Handgelenk mit nur einem Joint auf und erlebe die Zerknautschung Deines Lebens. Tut richtig weh, dem zuzusehen ^^ Und eine normal geriggte Figur ist nicht unbedingt dazu in der Lage, in einem Kung Fu Film mitzuspielen. Deshalb werden für verschiedene Bewegungsabläufe u.U. die Chars neu geriggt werden, im Extremfall auch ummodelliert wegen der Polyloops, so dass man für verschiedene Szenen auch verschiedene Chars nutzt.
Denn das Mesh sollte einen bestimmten, der Anatomie und den Muskeln folgenden Aufbau haben, damit es beim Animieren nicht "komisch" verzerrt wird. Deshalb sollte man schon Charaktere grundsätzlich auch modellieren können. Wie du siehst, setzt es noch tiefer an, nämlich bei der Anatomie. Das gilt auch für Monster und Aliens, weil die im Grunde von unserer Anatomie abgeleitet wurde, egal wie unmenschlich Sie aussehen. Gehen wir zu weit vom Menschen oder bekannten Tieren weg, werden sie vom Zuschauer nicht mehr akzeptiert.
Die Reihenfolge wäre allerdings normal erst Mesh und Material, dann Animation. Man baut ja auch erst ein Haus und malt es dann an und verlegt Leitungen, nicht umgekehrt. Der hinkt etwas, aber so die Richtung ^^