Skip to Content
VFXGesicht tracken

Video Tutorial

Loading thumbnail...

Zusammenfassung: Facial Motion Capture in Blender

Dieses Tutorial zeigt, wie man Blender für Motion-Capturing von Gesichtsanimationen nutzen kann - ohne zusätzliche Plugins, nur mit einer Handykamera und einem Marker/Schminke.

Schnellnavigation

0:00Zum Anfang springen 0:27Übersicht der 6 Schritte 22:25Finale Animation und Ergebnis

Benötigte Materialien

  • Blender
  • Smartphone-Kamera für die Aufnahme
  • Tracking-Marker: Schwarzer Marker, Schminke oder Whiteout (Schminke empfohlen, da hautfreundlicher und leichter abwaschbar)

Der 6-Schritte-Workflow

1. Footage aufnehmen

1:54Schritt 1: Recording starten
  • Marker platzieren: Kleine Punkte auf dem Gesicht anbringen, besonders dicht in Bereichen mit viel Bewegung (Mund, Augen, Augenbrauen)
  • Symmetrisch arbeiten: Marker gleichmässig auf beiden Gesichtshälften verteilen
  • Kameraposition: Frontalaufnahme ohne Kamerabewegung für beste Ergebnisse
  • Vermeiden: Verdeckte Marker (z.B. unter der Nase, seitlich) und Kameraschwenks
2:20Marker-Materialien und Anwendung

2. Tracking in Blender

5:10Schritt 2: Tracking beginnen
  • Footage vorbereiten: Video in Bildsequenz konvertieren (bessere Performance)
  • Tracker-Einstellungen optimieren:
    • Motion Model: “Affine” (für Verzerrungen)
    • Normalize aktivieren (für Lichtänderungen)
    • Correlation auf 0.9 setzen (90% Konfidenz)
  • Tracking-Prozess: Marker einzeln oder in Gruppen tracken, bei Problemen Pattern Area aktualisieren
6:20Tracker-Einstellungen anpassen

3. Gesichtsmesh erstellen

10:24Schritt 3: Gesichtsmesh Methoden

Drei Möglichkeiten:

  • MakeHuman (Open Source, anpassbar mit Slidern)
  • Kostenlose Modelle von Turbosquid (schnell, aber wenig Kontrolle)
  • FaceGen Modeler Demo (generiert 3D-Modell aus Fotos - am genauesten)
11:05MakeHuman vorstellen 11:42FaceGen Modeler Demo

4. Tiefe hinzufügen & Armature erstellen

13:43Schritt 4: Tiefe hinzufügen
  • Mesh ausrichten: Gesichtsmesh mit dem ersten Frame des Footages abgleichen
  • Empties projizieren: Tracking-Daten auf das 3D-Mesh übertragen
  • Bones platzieren: An jedem Tracking-Punkt eine Armature (Knochen) erstellen
  • Python-Script nutzen: Automatisierung für schnellere Bearbeitung
15:00Python-Script für Automatisierung

5. Rigging

17:39Schritt 5: Rigging starten
  • Automatic Weights: Mesh mit Armature verbinden
  • Weight Painting: Einflussbereich jedes Knochens manuell anpassen
  • Optimierung: Sicherstellen, dass Knochen nur ihre jeweiligen Bereiche beeinflussen
18:20Weight Painting Details

6. Animation verknüpfen

21:13Schritt 6: Animation verknüpfen
  • Constraints hinzufügen: Copy Location Constraint für jeden Knochen
  • Z-Achse deaktivieren: Nur X/Y-Daten vom Tracking verwenden
  • Influence anpassen: Bei problematischen Bones reduzieren
  • Bake Action: Animation in Keyframes umwandeln für bessere Performance
22:00Animation baken und finalisieren

Automatisierung

Das Tutorial stellt ein Python-Script zur Verfügung, das die Schritte 3-6 grösstenteils automatisiert und den Workflow erheblich beschleunigt.

Tipps für beste Ergebnisse

  • Zeit in die initiale Ausrichtung des Meshes investieren
  • Weight Maps individuell optimieren
  • Bei Tracking-Problemen: Pattern Area aktualisieren und Search Area vergrössern
  • Marker nahe den Augenbrauen (nicht Augenlidern) platzieren für stabileres Tracking

Ergebnis

Ein vollständig animiertes 3D-Gesicht, das die aufgenommenen Gesichtsbewegungen wiedergibt.

Last updated on