[Sammelthread] Fragen, die die Welt nicht braucht

24 Bilder pro sekunde wurde 1920 als internationaler Kinostandard festgelegt. Ist die wiederholfrequenz durch 24 teilbar, kann dieser Standard passend dargestellt werden. Daher 144Hz. Falls du dich fragst, wo die anderen herkommen: standard tv war 60 und 50 hertz. Weiss nimmer was usa und was EU war.
Genau genommen ist die framerate in vielen Fällen nicht 24fps sondern 23.976 fps.


Woher ich das weiß? Ich verarbeite häufig Filmclips. Und als ich die bis auf die Pixel runter analysierte stellte ich fest, dass die sampling rate bei vielen Clips eben 23.976 pro Sekunde war. Ich dachte erst, dass das ein Fehler in der Datei oder in meinem Python script war. Als ich dann begann zu googeln fand ich die Infos dazu, dass 23.976 wohl für NTSC Kompabilität sind. Es wird zwar oberflächlich häufig trotzdem 24fps angegeben, stimmt aber häufig nicht genau.

Ich meine nur weil hier von teilbarkeit durch 24 gesprochen wurde... ist eben relativ häufig kein integer sondern float value.

EDIT: Will damit nur sagen, dass ich nicht denke, dass das was mit der Hz Zahl des Monitors zutun hat. ;)
 
Zuletzt bearbeitet:
Wenn Du diese Anzeige nicht sehen willst, registriere Dich und/oder logge Dich ein.
Als ich dann begann zu googeln fand ich die Infos dazu, dass 23.976 wohl für NTSC Kompabilität sind.
Wie ich weiter oben schon schrieb, ist NTSC genaugenommen auch nicht 60Hz, sondern eben 59,96Hz... Inwiefern das zur Frequenz des Stromnetzes passt, sei mal dahingestellt, aber die 0,04Hz Differenz sollten vernachlässigbar sein. Das lag aber an der anlogen TV-Ausstrahlung.
Kinofilme dagegen wurden von Filmrollen abgespielt und zwar mit ~24fps. Weil da Film abgewickelt wurde, glaube ich kaum das DAS was mit der Stromnetzfrequenz zu tun hatte.
Ob das da dann genaugenommen 23,976fps gewesen sein sollen, weiß ich nicht. Noch weniger warum das so gewesen sein sollte.

Ich meine nur weil hier von teilbarkeit durch 24 gesprochen wurde... ist eben relativ häufig kein integer sondern float value.
Imho hat das wenig bis gar nichts damit zu tun, warum man bei (PC-)Monitoren exakt 144Hz gewählt hat.
Die 144Hz stammen auch aus dem PC-Bereich, nicht aus dem Hifi-Bereich. Ich denke also nicht, das die 144Hz großartig was mit 23,976/24/25/29,96/30fps diverser Senderstandarts zu tun haben/hatten. Die kommen einfach daher, das 144Hz deutlich flexibler ist als 60Hz oder auch 120Hz, vorallem eben wenn man nicht von fixen Wiederholraten... bzw. FPS ausgehen kann.
Im Hifi-Bereich waren über 60Hz auch lange eher 120Hz Standard. Damit konnte man eben 24fps und 60fps "ruckelfrei" wiedergeben. Und die 0,0x Abweichung zu 23,976 oder 29,96Hz hat man einfach ignoriert... die fällt halt auch kaum auf, schon gar nicht bei analoger Interlacewiedergabe.
In Europa deswegen nebenbei auch lange 100Hz statt 120Hz... weil halt basierend auf 50Hz PAL.

Kinofilme die mit 24fps aufgezeichnet wurden, wurden im PAL-TV oder auch auf PAL-DVD später häufig einfach mit 25fps abgespielt, die liefen also einfach nur ein bisschen schneller.
Funfact: SNES-Spiele liefen in der EU/PAL-Version einfach mit 25 statt knapp 30fps, also ~16% langsamer. Bei actionreichen Titeln wie z.B. Street Fighter merkte man das wenn man denn mal einen Vergleich hatte deutlich.

Bei den 144Hz war obendrein auch die Bandbreite zwischen Quelle und Monitor ein "Problem". Die war einfach beschränkt und deswegen konnte man nicht einfach 196, 240 oder sonstwas Hz nehmen. HDMI konnte bis vor Version 1.3 (2006) in FHD nur maximal 73fps (16Bit Farbtiefe) übertragen.

Allgemein ist da vieles ein Relikt aus der analogen Signalübertragung (nicht zuletzt das vermalledeite Interlaced, was diverse TV-Sender heute noch in 1080i senden). Ich hab mich ja Mitte der 2000er schon gefragt, warum die aufkommenden TFT-Monitore überhaupt eine fixe Wiederholrate haben, statt einfach das Bild anzuzeigen, wenn es halt kommt. Von der Anzeigetechnik her war das eigentlich nichtmehr nötig... aber man brauchte es halt trotzdem um TFT-Monitore an z.B. VGA-Anschlüssen betreiben zu können.

Wie ebenfalls schon gesagt: Mit sowieso derart hohen Frequenzen und noch dazu Techniken wie VRR... mittlerweile sowieso alles weitgehend obsolet.
Wenn man 25fps auf 60Hz abspielt, wirkt das durchaus störend. Auf einem 60Hz-Monitor sind 50fps ein Graus. Entweder man hat sichtbare Mikroruckler oder Tearing. Auf einem 144Hz Monitor dagegen fällt das kaum mehr auf, obwohl natürlich immernoch vorhanden. Das ist auch selbsterklärend: Wenn man bei 60Hz einen Framesync verpasst, hat man ein Standbild von 32ms ausserhalb der 16ms regulären Updates. Das merkt man durchaus. Auf einem 144Hz-Monitor hat man bei einem verpasstem Sync lediglich 14ms Standbild.... also sogar noch weniger als man bei einem 60Hz-Monitor ein reguläres Bild sehen würde.
 
Zuletzt bearbeitet:
Imho hat das wenig bis gar nichts damit zu tun, warum man bei (PC-)Monitoren exakt 144Hz gewählt hat.
Genau das meinte ich ja. Der Rest den du schreibst war mir bekannt, auch der SNES funfact. Der größere Funfact ist eigentlich, dass die alten CRT Monitore und Fernseher eigentlich auf memory Technik beruhen und man erst später erkannte, dass man mit dieser Technik ja auch ein Bild darstellen kann. :d

Aber um zur Frage zu kommen: die "schiefen" Hz Werte bzw. refresh rates haben häufig sicher mehr praktische Gründe, also dass z.B. die Hardware in Fall X oder Y aus bestimmten Gründen so limitiert ist, aber seltener weil man genau aus einen bestimmten Grund einen bestimmten Wert haben wollte. Korrigiert mich wenn ich falsch liege, denn ich finde die Frage auch sehr interessant.
 
Absolut richtig... ich merke gerade, dass ich mich im Thread geirrt hatte :fresse2: Egal... BTT passt immer :p
 
Danke für die rege Teilnahme an der Diskussion zu meiner Frage. :)
So leicht scheint das also doch nicht zu beantworten. 144Hz leuchtet bezugnehmend auf 24Hz zwar ein, aber dann wäre ja 120Hz trotzdem besser, weil auch durch 30 und 60 teilbar ist. 165Hz scheint hingegen willkürlich und
610Hz ebenso. Eigentlich müsste doch 600Hz die "goldene Mitte" sein, da durch 24, 30, 50 und 60 teilbar, warum dann nun 610Hz? :confused:
 
Weil es mit sehr hoher Sicherheit nicht an der Teilbarkeit bei heutigen framerates and refresh rates liegt, so wie @Liesel Weppen das meiner Meinung nach schon richtig beschrieben hat.
Das mit der genauen Teilbarkeit ist eher historisch, genauso wie viele Berechnungen in Computern schneller sind wenn man eine power of two nimmt: also z.B. eine FFT mit nfft 64, 128, 256, 512 etc berechnet anstelle mit 63, 500, etc. (power of two ist viel schneller bedingt durch Details wie die Berechnung auf der Hardwareebene erfolgt, ist zu komplex das hier zu erklären). Heute muss man aber keine power of two mehr nehmen weil die Hardware so schnell geworden ist das es praktisch (bis auf Ausnahmen) keinen Unterschied mehr macht. Das gleiche gilt analog zu den refresh rates des Monitors...
 
So leicht scheint das also doch nicht zu beantworten. 144Hz leuchtet bezugnehmend auf 24Hz zwar ein, aber dann wäre ja 120Hz trotzdem besser, weil auch durch 30 und 60 teilbar ist.
Deswegen wurde im TV/Hifi/Heimkino ja auch 120Hz genommen.
144Hz haben aber einen ganzzahligen Teiler mehr... ist also ein bisschen flexibler und im PC-Bereich waren die 24/25/30fps aus dem TV- und Kinobereich schon immer irrelevant.
Früher hat man sehr oft V-Sync benutzt. Bei 60Hz ging also nur 15, 30 oder 60fps. Wenn man nur 55fps geschafft hat, musste man wegen V-Sync direkt auf 30fps zurückfallen. Bei 120Hz hätte man noch 40fps als Zwischenschritt. Bei 144Hz hättest du in dem Bereich aber sogar 36 und 48fps. Man verliert also weniger, wenn man die nächst höhere Marke nur knapp verfehlt.
Entsprechend ist/war auch eher die untere Hälfte interessanter, also die maximale Zahl. Den Luxus das sogar Spiele mit 144fps laufen, gibts noch gar nicht sooooo lange.
Doom, Quake, X-Wing, etc... haben damals viele mit <20fps gespielt. :d

610Hz ebenso. Eigentlich müsste doch 600Hz die "goldene Mitte" sein, da durch 24, 30, 50 und 60 teilbar, warum dann nun 610Hz? :confused:
Es geht/ging nicht darum... wie gesagt, PC-Technik, nicht TV-Technik... exat 24,30,50,60 erreichen zu können, sondern darum möglichst viele ganzzahlige Werte zu erreichen.
600Hz war damals viel zu aufwändig umzusetzen und damit auch zu teuer und wie ebenfalls oben schon geschrieben, es gab lange keine Displayanschlüsse über die man solche Werte überhaupt übertragen hätte können.
Und da landen wir vermutlich genau beim Punkt. DP2.0 kann im Übertragungsmodus UHBR20, auch bekannt als DP80, bei 1440p/8Bit maximal 609Hz übertragen... Zufall? ;)

Die Teilbarkeit ist ja mittlerweile egal. Bei 610Hz erkennt kein Mensch mehr evtl. auftretendes Tearing oder nimmt einen gedroppten Frame noch als Mikroruckler wahr, ausser vielleicht er heisst Timo Boll. Sofern dir Rate nicht sowieso mit VRR angepasst wird, was das ja auch wieder verhindert.
So hohe Hertzzahlen sind offensichtlich auch nichtmehr so ultrateuer in der Umsetzung, also macht man das Maximum was geht, weil das macht sich gut auf dem Werbebild. Und irgendjemand wird bestimmt auch mal Monitore mit 1000Hz anbieten ungeachtet dessen das es gar keinen Anschluss/Kabel gibt mittels dem 1000Hz überhaupt zum Display übertragen werden könnten. ;)
 
Hardwareluxx setzt keine externen Werbe- und Tracking-Cookies ein. Auf unserer Webseite finden Sie nur noch Cookies nach berechtigtem Interesse (Art. 6 Abs. 1 Satz 1 lit. f DSGVO) oder eigene funktionelle Cookies. Durch die Nutzung unserer Webseite erklären Sie sich damit einverstanden, dass wir diese Cookies setzen. Mehr Informationen und Möglichkeiten zur Einstellung unserer Cookies finden Sie in unserer Datenschutzerklärung.


Zurück
Oben Unten refresh