Jott hat geschrieben: ↑Mo 23 Aug, 2021 10:29
pillepalle hat geschrieben: ↑Sa 21 Aug, 2021 10:50
Wenn man krumme und nicht krumme Videos richtig behandelt (mit passendem TC), läuft da auch nichts asynchron. Aber natürlich ist das nicht ideal, weil man beim Bild eben Frames verliert.
Man verliert eben
keine Frames bei richtiger Behandlung.
Wie sieht den diese richtige Behandlung aus?
Nehmen wir als Szenario die Aufnahme eines Interviews, bei dem die interviewte Person in der Totale von einer 24fps-Kamera aufgenommen wird und in der Nahaufnahme von einer 23.976fps-Kamera. Der Ton wird extern aufgenommen, beide Kameras sowie der Audiorecorder werden per Timecode synchronisiert.
Wenn man jetzt im Schnitt die Timeline auf 24fps festlegt, wie soll man die Nahaufnahmen der 23.976fps-Kamera schneiden, ohne dass man ab bestimmten Punkten doppelte Frames in den Nahaufnahmen bekommt?
Konformieren des 23.976fps-Materials auf 24fps ist keine Lösung, weil es dann asynchron zum Ton wird.
Die einzige Lösung, die ich sehe, ist, dass man das 23.976fps-Material erst mit dem Ton unterlegt und Bild- und Tonspurkoppelt, dann diesen Clip auf 24fps konformiert (was zu einer Änderung der Samplerate des Tons führt - suboptimal) und dann damit im Schnitt ohne Frameversatz arbeitet. Nur ist das aus der Sicht des Tonschnitts extrem suboptimal, weil man dann die originale Tonspur und deren Timecode wegwerfen muss bzw. der ganze Timecode-basierte Workflow kaputtgeht.