Antworten auf deine Fragen:
Neues Thema erstellen

Welcher Kinect Sensor ist für MoCap am besten geeignet?

ineffected

Noch nicht viel geschrieben

Hallo,

ich möchte endlich mit meinen Animationen starten und da ich viele menschliche Models animieren möchte, bietet sich das MoCap-Verfahren ziemlich an. Die einzig bezahlbare Möglichkeit scheinen mir hier nur die Kinect-Sensoren zu sein, von denen es aber auch mehrere Versionen gibt. Die einzige Frage, die ich mir stelle ist, welche denn für meine Zwecke am besten geeignet ist.
Damit ihr erst mal wisst was ich meine:
So in etwa soll das vom Prinzip her ablaufen. Es sind ja immer 2 Sensoren für bestmögliche Ergebnisse zu empfehlen, aber was genau ich jetzt kaufen muss, bleibt leider etwas unklar. Okay, dass ich die Windows Kinect-Sensoren holen sollte, ist klar. Naja, auch wenn ich einen Xbox-Sensor kaufen würde, müsste ich doch eigentlich nur einen Adapter mit bestellen, oder?
Was mich noch verwirrt sind die Preise. Auf Ebay finde ich die Xbox 360 Sensoren für 35 Euro, die One Sensoren für 50 Euro und den für Windows finde ich jetzt so gar nicht... kann mir irgend jemand helfen? Ich will nicht unnötig viel Geld ausgeben, weil manche Sensoren kosten ja auch 200 Euro, da frage ich mich, wo ist der große Unterschied?
Meine Zwecke sind eigentlich nur das erstellen von Animationen in bestmöglicher Qualität, um diese dann an Models zu riggen. Hoffe jemand kann mir helfen.
 

KBB

Mod 3D | Blaubaer

Teammitglied
Generell ist der Kinect 2, normal als Kinect One Sensor bezeichnete, höherwertig.
Er hat neue und verbesserte Sensoren (1080px Cam.) und Elektronik plus Software, die besser erfassen (verbesserte Tiefenanalyse, genauere Skelettstruktur, Gewichtsanalyse, Messung erhöhter Pulsfrequenz etc.) und höher auflösen. Auch ein IR Sensor ist mit an Bord.
http://www.gamepro.de/artikel/xbox-...-der-controller,3012587,seite2.html#kinect-20

Diesen Sensor gibt es nicht (mehr) als Windows Version, das ist dann immer der 1.
https://www.golem.de/news/kinect-fo...-sich-auf-den-kinect-adapter-1504-113314.html
D.h. ohne Adapter wird das unter Win mit dem One Sensor leider nichts. Was umso ärgerlicher ist, weil der auch mit 30,- noch relativ teuer ist, wo eigentlich nur ein paar Verdrahtungen innen geändert und ein 12V Stecker angebracht werden müssten.

Kinect one arbeitet völlig anders als der 1. Deine Software muss den kennen. Ist sie nur für den 1. Sensor ausgelegt, kann sie wie die Xbox 360 damit nichts anfangen.

Edit: ach Du bist der SFM und Euphoria User ^^
Zur Qualität in SFM kann ich nichts sagen, bin aber froh, dass iClone bzw. Reallusion auch dem Xbox One Sensor ein Plugin spendiert hat. Sollte ich je damit arbeiten (müssen), poste ich es gerne hier rein ;)
 
Zuletzt bearbeitet:

ineffected

Noch nicht viel geschrieben

Klar, wenn du mal was zu zeigen hast, immer her damit :D

Das ist mir gestern auch noch klar geworden, dass es jetzt der One Sensor anstatt dem für Windows. Was mir eher Kopfzerbrechen bereitet ist die sau teure Software, die man scheinbar benötigt, wie der gute Mann hier erklärt:
Ipisoft heißt sie. Ich habe auch nirgendwo etwas gefunden, wie man sie "anders" her bekommt. Die ist um einiges teurer als beide Sensoren + Adapter zusammen und das möchte ich für mein neues Hobby nicht ausgeben bzw. kann ich gerade gar nicht. Ist die denn notwendig? Die in den Kommentaren tun nämlich auch so, als sei es der Fall.
 

KBB

Mod 3D | Blaubaer

Teammitglied
Ach, wollte ich noch verlinken. Die sprechen hier auch von iPi MoCap 2:
https://steamcommunity.com/app/1840/discussions/0/626329820906640446/

Anscheinend ist iPi ebenfalls auf den Zug der Mietsoftware aufgesprungen, Adobe sei dank. Immerhin nur 100$ für Studenten. So wie es aussieht, konnte man die 2er mal für 200£ kaufen. K.A. wo man das heute noch für den Preis herbekommen könnte.
Bist du nicht Student? Dann kannst du dir alles von Autodesk kostenlos ziehen, wenn du dich dort anmeldest. Da ist u.a der Motion builder dabei, das Tool in Sachen Character Animation und MoCap schlechthin, quasi Industriestandard (zumindest war er das mal ;)). Ansonsten kann ich gerne nochmal das schon erwähnte iCloud ins Spiel bringen, kostet aber ebenfalls Geld, wenn man die Daten exportieren will.
Hier wollte jemand sein gesamtes Paket verkaufen, k.A. Ob das noch da ist. Oder wie gut es ist, denn iClone arbeitet m.W. nurmit 1 Sensor, nicht mit zweien wie das MoCap Studio.

Edit: hast du dir Brekel mal angeschaut?
Und auch für Blender gibt es MoCap Plugins für den Kinect Sensor. Kostet leider wieder n Hunni/Jahr:
https://ni-mate.com
Oder fastMoCap, noch günstiger:
https://www.fastmocap.com/buy.php

Scheint noch mehr zu geben. Nicht alle unterstützen den Kinect One Sensor, nicht alle arbeiten mit zwei oder mehr davon. Brekel finde ich interessant, weil die Hand in Hand auch Software für Facial Animation und für die Hand Animation anbieten. Das ist oft bei den anderen nicht dabei, und die machen ihr bisher den besten Eindruck. Aber über die Qualitäten der Programme kann ich nichts sagen.
Pardon, Brekel Hands scheint für einen anderen Sensor geschrieben zu sein. Face und Body scheinen aber direkt mit dem gleichen Kinect Sensor zu arbeiten, und das mit mehreren Personen gleichzeitig.

Edit 2: inklusive Xbox-Adapter ^^
 
Zuletzt bearbeitet:

ineffected

Noch nicht viel geschrieben

Danke für die Antwort.

Also nee, ich bin kein Student. Es gibt ja scheinbar keine kostenlose Alternative :/ Autodesk klingt interessant. Kommt man auch an die Software, wenn man kein Student ist? Ich sehe auf der Website den Motionbuilder, mit dem sollte das ja genauso klappen, oder?
Hat allerdings auch einen "Buy" Button...
Auf der offiziellen Seite gibt es ja eine Testversion, die ja scheinbar alle Features enthält:
Wenn das der Fall ist, könnte man diese ja auch "öfter" holen... oder?
Edit: Ich schätze aber mal, dass man in der Trial nichts speichern kann oder so. Ich schaus mir morgen mal an :)
 

KBB

Mod 3D | Blaubaer

Teammitglied
Kostenlose Alternativen könnte es geben, wenn Du gezielt nach den SDK für den alten Sensor suchst. Da gab es über die Jahre eine Menge, die aber auch weiter entwickelt wurden und vllt. nicht mehr so interessant sind, weil der alte Sensor nicht die Qualität hat wie der neue. Bei der Suche danach bin ich hierüber gestolpert:
https://www.heise.de/make/meldung/Gratis-von-Microsoft-3D-Scan-App-fuer-Kinect-2-3031794.html
https://www.heise.de/ct/ausgabe/2013-13-Test-3D-Scansoftware-fuer-Kinect-Co-2320432.html
Achnee das war auch nur 3D Scan, der zu den obigen Artikeln führte:
https://www.heise.de/make/artikel/Beruehrungslos-erfasst-3119643.html

Dennoch muss es auch zu den SDKs Rohversionen von MoCap Programmen geben. Aber die sind dann auch nur begrenzt brauchbar, oder zu den heutigen, doch sehr günstigen MoCap Varianten herangereift.

Ach guck :) Nicht nur der Scanner, auch MoCap for free. Aber eben nicht in bester Qualität ^^
http://brekel.com/kinect-3d-scanner/

Ein bisschen probieren kannst Du auch mit mixamo. Die bieten fertiges Rigging und jede Menge Animationen an, für einen "bestimmten Zeitraum" kostenlos. Wie es danach weitergeht, weiß ich nicht ;)
https://www.mixamo.com/

Der Kinect v2 MoCap Animator war auch mal frei, kostet mit 10$ aber auch nicht die Welt:
https://www.assetstore.unity3d.com/en/?_escaped_fragment_=/content/51090#!/content/51090

Und noch eine sehr interessante Diskussion, die die gesamte, umfängliche Nutzung von Günstig-Software und Kinect Sensoren in Frage stellt:
https://steamcommunity.com/app/221200/discussions/0/828934424284729591/
Richtig ist auf jeden Fall, dass man sehr günstig bis umsonst an MoCap Daten im Netz kommt. Es gibt (oder gab zumindest) riesige Datenbanken mit kostenlosen Bewegungsabläufen.

================

Exportieren müsstest Du MoCap Daten mit MB genauso können wie mit iPi Studio, sonst würde man den Kram ja auch nicht in Maya, Max und Co. weiter bearbeiten oder rendern können. Für Skelettanimation ist das idR. BVH bzw. FBX (das kommt vom MB), bei Facial gehen unterschiedliche Formate, da kenne ich mich mit den Standards nicht genug aus, vllt. kann kraid auch mehr zu dem Thema sagen. Der ist näher am Gaminggeschehen dran.
Skelettanimation geht auch im Gesicht, ist aber umständlich und deshalb eher selten. Alternativ werden dort die Meshes eher auf Punkteebene verzerrt, aber ich weiß immer noch nicht, wie man die von Figur A auf B überträgt, da das direkt nur dann geht, wenn beide Figuren exakt das gleiche Mesh, genauer, die gleiche Vertex-Verteilung haben. Sicher, es gibt Envelope-Techniken, wo eine Hülle animiert wird, und die kann man dann über jedes Gesicht stülpen. Aber wie gesagt, wie das heute genau gehandhabt wird und was da Standard ist, k.A. Bei Brekel findet man ein paar Videos mit Demodaten dazu. Ob diese Techniken State of the Art sind, weiß ich nicht.

Wenn Du mehr in der Richtung machen willst: sicher ist es gut, sich auch mit den Meshes auszukennen und dem ganzen Wichtungs- und Rigging-Prozess, weil du dann als Animator erkennen kannst, woran es hakt, wenn es mal hakt. Wenn das Mesh falsch aufgebaut oder schlecht gewichtet ist, kannst du das sonst nur ahnen und erst recht nicht ändern, wenn du die Materie nicht kennst. Ich kann auch besser animieren als riggen oder wichten, aber ich kann auch einigermaßen sehen wo Fehler sitzen. Denn es gibt auch da eine Menge Dinge, die nicht oder nicht einwandfrei in 3D umsetzbar sind. Bestimmte Gelenkbewegungen und dazu gehörige Muskelanimationen, mit denen du bisher noch nichts am Hut hattest, nehme ich an. "Sekundäranimationen", weil sie nur indirekt durch das Skelett bewegt werden, und nicht vom Animator. Hautfaltenverformungen et al., vor allem an Knie und Ellbogen, wenn man Arme oder Beine zusammendrückt, aber auch an anderen Körperstellen. Halsdrehung, Armdrehung. Bau ein Skelett am Handgelenk mit nur einem Joint auf und erlebe die Zerknautschung Deines Lebens. Tut richtig weh, dem zuzusehen ^^ Und eine normal geriggte Figur ist nicht unbedingt dazu in der Lage, in einem Kung Fu Film mitzuspielen. Deshalb werden für verschiedene Bewegungsabläufe u.U. die Chars neu geriggt werden, im Extremfall auch ummodelliert wegen der Polyloops, so dass man für verschiedene Szenen auch verschiedene Chars nutzt.

Denn das Mesh sollte einen bestimmten, der Anatomie und den Muskeln folgenden Aufbau haben, damit es beim Animieren nicht "komisch" verzerrt wird. Deshalb sollte man schon Charaktere grundsätzlich auch modellieren können. Wie du siehst, setzt es noch tiefer an, nämlich bei der Anatomie. Das gilt auch für Monster und Aliens, weil die im Grunde von unserer Anatomie abgeleitet wurde, egal wie unmenschlich Sie aussehen. Gehen wir zu weit vom Menschen oder bekannten Tieren weg, werden sie vom Zuschauer nicht mehr akzeptiert.

Die Reihenfolge wäre allerdings normal erst Mesh und Material, dann Animation. Man baut ja auch erst ein Haus und malt es dann an und verlegt Leitungen, nicht umgekehrt. Der hinkt etwas, aber so die Richtung ^^
 
Zuletzt bearbeitet:
Bilder bitte hier hochladen und danach über das Bild-Icon (Direktlink vorher kopieren) platzieren.
Antworten auf deine Fragen:
Neues Thema erstellen

Willkommen auf PSD-Tutorials.de

In unseren Foren vernetzt du dich mit anderen Personen, um dich rund um die Themen Fotografie, Grafik, Gestaltung, Bildbearbeitung und 3D auszutauschen. Außerdem schalten wir für dich regelmäßig kostenlose Inhalte frei. Liebe Grüße senden dir die PSD-Gründer Stefan und Matthias Petri aus Waren an der Müritz. Hier erfährst du mehr über uns.

Stefan und Matthias Petri von PSD-Tutorials.de

Nächster neuer Gratisinhalt

03
Stunden
:
:
25
Minuten
:
:
19
Sekunden

Flatrate für Tutorials, Assets, Vorlagen

Zurzeit aktive Besucher

Statistik des Forums

Themen
118.611
Beiträge
1.538.341
Mitglieder
67.524
Neuestes Mitglied
BSKGA
Oben