Problem: Verzögerungsmessungen von Videosystemen
Hallo Leute!
Ich habe gerade ein Praktikum bei der Siemens AG absolviert und mich hier u.a. mit dem Betrachten der Qualität von 2 verschiedenen Videosystemen auseinander gesetzt. Eine Kamera nimmt Bilder auf, versendet diese über ein Netzwerk an den CODEC. Dieser digitalisiert auch und die Bilder sollen in einem Videoplayer am PC angezeigt werden. Über einen etwas komplexeren Versuchsaufbau soll nun die Verzögerung beider Systeme gemessen und verglichen werden. Die Videosysteme werden mit MPEG4 betrieben. Damit ein direkter vergleich möglich ist, muß ja auch die Anzahl der verarbeiteten Frames übereinstimmen. Hier tritt das Problem auf:
Videosystem1 lässt sich nur mit 25 Fields (entspricht 12,5 Frames). Videosystem2 lässt sich nur mit 25 Frames betreiben. Videosystem1 ist deutlich langsamer (höhere Verzögerung) als Videosystem2.
Meine Vermutung ist ja, dass bei höherer Framerate des Videosystem1 die Verzögerung eher weiter zunehmen wird, wenn die Framerat steigt: Es müssen ja mehr Bilder verarbeitet werden. Somit würde die Differenz der Verzögerung beider Systeme (bei hypotetischer Steigerung der Framerate von Videosystem1 auf 25 Frames) eher noch größer werden. Ist diese Annahme korrekt? Kann ich sagen, die Verzögerung steigt mit zunehmender Framerate? Kennt jemand vielleicht sogare eine Stelle in der Literatur, die dass sogar belegt?
Danke für eure Hilfe,
Jan |