Input Lag durch Free Sync?

08/24/2019 18:58 Achileus#16
Quote:
Originally Posted by fenster3000 View Post
Das liegt wohl eher daran, dass NVIDIAs Implementation rein auf dem Treiber basiert.
AMD basiert halt auf VESAs Adaptive-Sync, welche direkt in den DP-Spezifikationen verankert ist (mal deren Implementation via HDMI ignoriert).

Was NVIDIA nun anders gemacht hat weiß ich nicht. Da es ja aber auch schon bei vielen "FreeSync" Monitoren zu Problemen kommt (in Kombination mit NVIDIAs Adaptive Sync), scheinen die wohl im ursprünglichen Design eben dieses Feature nicht berücksichtigt. Zwar nutzt NVIDIA ja auch DP, aber jeder Hersteller kann ja selber entscheiden, ob er Features implementieren will. Mag sein, das NVIDIA eben das nicht bedacht hat und nun am Treiber rumschrauben muss. Was ggf. eben einen Einfluss auf den Inputlag haben kann. Spannend wird es dann wohl eher werden, wenn die das in zukünftigen Karten korrekt implementieren. Erst dann wird man wirklich sehen, ob es einen Unterschied zwischen G-Sync und FreeSync gibt.

NVIDIA beschreibt G-Sync btw wie folgt:


In der entsprechenden VESA Norm für Adaptive Sync steht folgendes:


Was das Antilag Zeugs angeht hat AMD meine ich auch auf der Bühne gesagt, dass es extra für Leute ist, die eben kein FreeSync usw. nutzen können. Zumindest ist hier der Ansatz, dass alle Leute in der Lage sind ihren Inputlag zu reduzieren. Kann aber auch sein, dass das Antilag Zeugs dafür ist den Inputlag insgesamt nochmals zu reduzieren.




Quote:
In der entsprechenden VESA Norm für Adaptive Sync steht folgendes:

"This helps ensure that a frame is almost always displayed as soon as possible, avoiding lag. "
Sehr schwammig beschrieben, steht halt nichts davon dass es kein Inputlag seitens der Technologie & oder Software entsteht, sondern sie nur verringert /verbessert

"
Quote:
Diese Displays bieten ein beeindruckendes Erlebnis ohne Tearing, Ruckeln oder Eingabeverzögerungen."
Naja, das diese Aussage nicht stimmt siehst ja jetzt, Hersteller umwerfen sich gerne mit Aussagen die nicht ganz korrekt sind. Siehe Ryzen und den Turboboost, der absolut unklar beschrieben wird, und wetten kann das die meisten bis heute immer noch nicht genau sagen können wie es funktioniert.

An was es liegt, ist ja erst mal egal, Fakt ist das Resultat ist nicht frei von Inputlags. Wo es am Ende harkt ist Problem vom Hersteller.

Und wenn es so ist wie du es auf der Bühne gehört hast, würden ja FreeSync nutzer danach noch mehr benachteiligt werden. Besser wäre dann natürlich die Verbesserung für beides.
08/24/2019 19:06 fenster3000#17
Die Aussage ist eigentlich recht eindeutig.
Da ist ja nicht von "reduced", sondern von "vermeiden" die Rede. Eben so lange du im entsprechenden Range bist, damit die Frames sobald wie möglich dargestellt werden.

Ansonsten gibt es im WWW auch noch genug Aussagen zu dem Thema
08/24/2019 21:33 Achileus#18
Quote:
Originally Posted by fenster3000 View Post
Die Aussage ist eigentlich recht eindeutig.
Da ist ja nicht von "reduced", sondern von "vermeiden" die Rede. Eben so lange du im entsprechenden Range bist, damit die Frames sobald wie möglich dargestellt werden.

Ansonsten gibt es im WWW auch noch genug Aussagen zu dem Thema
Naja da im Hauptsatz steht "helps" steht wirds schwammig.

Wenn da stehen würde "es vermeidet Inputlag" ist es eindeutiger als wenn da steht es hilft dabei inputlag zu vermeiden.

Bin zwar kein Ass in Englisch der Satz generell ist aber ziemlich beschissen gebaut einfach am ende zu schreiben mit "," avoiding lag ist generell gefühlt nichtssagend XD.

Auch so Widersprechen sich deine Aussagen, da du erst sagtest, dass Inputlag nicht entsteht und dann in anderen setzen, dass da ein alter Treiber war der mehr Inputlag verursacht hat, aber auf der anderen Seite sagst du wieder das die Technologie perfekt läuft.

Und ja im Internet steht vermehrt das der Inputlag damit beinahe eliminiert ist aber nicht ganz weg ist.


Es gibt 2 Szenarien es läuft perfekt und man braucht da nichts mehr dran zu schrauben weil es ja wie du sagtest "nur noch der restliche Monitor inputlag ist", oder es läuft noch nicht so gut und man muss dran arbeiten dies zu verbessern.

Die Graphen sind ja auch irgendwo eindeutig man sieht auch das alle unterschiedlich sind. Mit und ohne V-Sync obs Freesync oder G-Sync ist.

PS²: In deiner Quelle ich zitiere:
Quote:
"DisplayPort Adaptive-*‐Sync provides the ideal solution for smooth gameplay with decreased lag and virtually no tearing"
Also selbst deine eigene Quelle sagt "verringert", sprich es ist noch existent ^^.
08/25/2019 00:47 .UnlimiTeD#19
Um auf einen Punkt zu kommen: 60Herz Monitor mit ner Rx580 lieber FreeSync auslassen?
08/25/2019 00:49 Special#20
Quote:
Originally Posted by .UnlimiTeD View Post
Um auf einen Punkt zu kommen: 60Herz Monitor mit ner Rx580 lieber FreeSync auslassen?
Teste aus, was sich für dich besser anfühlt.

Wir könnten nun endlos hier diskutieren und Elitisten-Wissen anwenden, schlussendlich kommt es aber nur darauf an was komfortabler für dein eigenes Erlebnis ist.
08/25/2019 00:53 Achileus#21
Quote:
Originally Posted by .UnlimiTeD View Post
Um auf einen Punkt zu kommen: 60Herz Monitor mit ner Rx580 lieber FreeSync auslassen?

Kurz mal erklärt (sehr gekürzt) für dich du hast bei FreeSync eine Range 42-72hz zB bei dir dann capped man die FPS auf 70 das geht Anhand von dem Spiel selber oder über die Graka Software. So hast du FreeSync ohne das es sich deaktiviert...... Wenn du in dem Spiel unter 42 FPS kriegst das kannst natürlich nicht verhindern, dann bringt es eher weniger.

Wenn du bei einem Spiel aber so 50-70 FPS hast ist FreeSync Gold wert da es sich einfach smooth anfühlt.

Wenn du ein game hast wie CSGO League of Legends wo du irgenwdo FPS bei 200 hast kannst das einfach ausmachen.

Viele schwören aber halt drauf und lassen es immer an, muss auch sagen, dass FreeSync die beste Technologie ist die ich je so bei Monitorfeatures gesehen habe^^.

Habe sie selbst erst seit 1 Woche btw.

@ .Special™
Hier redet die Technologie keiner schlecht wir diskutieren über was ganz anderes.
08/25/2019 00:53 .UnlimiTeD#22
Quote:
Originally Posted by .Special™ View Post
Teste aus, was sich für dich besser anfühlt.

Wir könnten nun endlos hier diskutieren und Elitisten-Wissen anwenden, schlussendlich kommt es aber nur darauf an was komfortabler für dein eigenes Erlebnis ist.
Ich würde behaupten ich merk kein Unterschied z.B in lol

Sobald ich eine Eingabe tätige ist Sie für mich Instant da.
08/25/2019 00:59 Achileus#23
Quote:
Originally Posted by .UnlimiTeD View Post
Ich würde behaupten ich merk kein Unterschied z.B in lol

Sobald ich eine Eingabe tätige ist Sie für mich Instant da.
Es ist wie gesagt sehr gering. Zudem ist League auch wenn man es nicht glauben mag ein langsamer Spiel, habe LoL und andere games verglichen du merkst in Csgo und anderen Spielen die 144Hz wesentlich mehr als bei Leauge. Das ist zumindest meine Erfahrung.

Habe aber komisches Flackern wenn ich FreeSync aktiviere bei Leauge. Hast du so was auch?
08/25/2019 01:11 .UnlimiTeD#24
Quote:
Originally Posted by Achileus View Post
Es ist wie gesagt sehr gering. Zudem ist League auch wenn man es nicht glauben mag ein langsamer Spiel, habe LoL und andere games verglichen du merkst in Csgo und anderen Spielen die 144Hz wesentlich mehr als bei Leauge. Das ist zumindest meine Erfahrung.

Habe aber komisches Flackern wenn ich FreeSync aktiviere bei Leauge. Hast du so was auch?
Hi,

Ja habe das auch aber ohne oder mit Sync
08/25/2019 09:49 Achileus#25
Quote:
Originally Posted by .UnlimiTeD View Post
Hi,

Ja habe das auch aber ohne oder mit Sync
Mhm komisch, das darf eigentlich nicht sein.
08/25/2019 14:12 fenster3000#26
Quote:
Originally Posted by Achileus View Post
Sehr schwammig beschrieben, steht halt nichts davon dass es kein Inputlag seitens der Technologie & oder Software entsteht, sondern sie nur verringert /verbessert
Gut, habe jetzt noch mal fix ein paar Messwerte rausgekramt:

[Only registered and activated users can see links. Click Here To Register...]

Ich war mal so frei und habe die Wichtigsten direkt rausgeschnitten. Wobei es auch noch nicht so viele TVs gibt, mit denen man das testen kann. Aber hey.

Die Werte zeigen zum Großteil, dass der Inputlag mit VRR geringer ist.
Stellenweise sind die Inputlags gleich. In einigen Fällen ist der ohne VRR geringer. Dabei fällt aber auf:
- Das 8K Gerät hat mit VRR einen höheren Inputlag. Wieso? Keine Ahnung. Kann ich nur spekulieren. Wird evtl. etwas mit der Skalierung zu tun haben.
- In den anderen beiden Fällen wo der VRR-Inputlag höher ist, ist die differenz wirklich niedrig (5,8 vs. 6,1; 6,1 vs. 6,2.). Da ist nun die Frage, wie es bei anderen Messungen aussehen würde. Vielleicht wäre dann der Inputlag auch gleich. Gilt natürlich auch in die andere Richtung. Unterm Strich würde ich in den Fällen aber sagen, dass sich in den Fällen in Sachen Inputlag nichts tut.

Was das 4K@120 angeht bzw. das 4k@120@VRR bei dem Q90R angeht ist ebenfalls komisch. Allerdings muss man hier sagen, dass der Input ein normaler 18G HDMI Port ist. Entsprechend wird hier mit 4:2:0 Chroma Subsampling gearbeitet ("Farbkompression"). Das halte ich aber auch nicht für sonderlich praxisrelevant, da das kein Mensch freiwillig nutzen würde. Wieso der Inputlag in dem Szenario aber höher ist, steht auch auf einem anderen Stern. Wahrscheinlich weil der TV dort etwas verkackt.

Insgesamt kann man sich jetzt wohl denken was man will. Die Messwerte in dem Fall zeigen aber, dass VRR/FreeSync (und wohl auch G-Sync) an sich kein zusätzlichen Inputlag verursachen. Zumindest so lange die Hersteller der Monitore/TVs ordentliche Arbeit bei der Implementation leisten.


[Only registered and activated users can see links. Click Here To Register...]
08/25/2019 14:27 Achileus#27
Quote:
Originally Posted by fenster3000 View Post
Gut, habe jetzt noch mal fix ein paar Messwerte rausgekramt:

[Only registered and activated users can see links. Click Here To Register...]

Ich war mal so frei und habe die Wichtigsten direkt rausgeschnitten. Wobei es auch noch nicht so viele TVs gibt, mit denen man das testen kann. Aber hey.

Die Werte zeigen zum Großteil, dass der Inputlag mit VRR geringer ist.
Stellenweise sind die Inputlags gleich. In einigen Fällen ist der ohne VRR geringer. Dabei fällt aber auf:
- Das 8K Gerät hat mit VRR einen höheren Inputlag. Wieso? Keine Ahnung. Kann ich nur spekulieren. Wird evtl. etwas mit der Skalierung zu tun haben.
- In den anderen beiden Fällen wo der VRR-Inputlag höher ist, ist die differenz wirklich niedrig (5,8 vs. 6,1; 6,1 vs. 6,2.). Da ist nun die Frage, wie es bei anderen Messungen aussehen würde. Vielleicht wäre dann der Inputlag auch gleich.

Was das 4K@120 angeht bzw. das 4k@120@VRR bei dem Q90R angeht ist ebenfalls komisch. Allerdings muss man hier sagen, dass der Input ein normaler 18G HDMI Port ist. Entsprechend wird hier mit 4:2:0 Chroma Subsampling gearbeitet ("Farbkompression"). Das halte ich aber auch nicht für sonderlich praxisrelevant, da das kein Mensch freiwillig nutzen würde. Wieso der Inputlag in dem Szenario aber höher ist, steht auch auf einem anderen Stern. Wahrscheinlich weil der TV dort etwas verkackt.

Insgesamt kann man sich jetzt wohl denken was man will. Die Messwerte in dem Fall zeigen aber, dass VRR/FreeSync (und wohl auch G-Sync) an sich kein zusätzlichen Inputlag verursachen. Zumindest so lange die Hersteller der Monitore/TVs ordentliche Arbeit bei der Implementation leisten.


[Only registered and activated users can see links. Click Here To Register...]

Wir sprechen über gamingmonitore und du kommst mit TVs um die Ecke, da werde und lese ich mich ganz bestimmt nicht ein. Weil es hier um Gaming Monitore geht.

Deine eigene Quelle sagt, dass ein Inputlag existiert. Das ist das Originale Script.


Wie ich schon sagte auch wenn sagen wir FreeSync/GSync alleine ohne Software etc kein Inputlag erzeugen würde, das interessiert ja kein, am Ende zählt das Ergebnis und wie man sieht kriegt man zurzeit nur die Technologien mit zusätzlichen Inputlag am laufen, sonst gäbe es ja nicht stetige Updates.


Du kommst halt mit Fernsehern um die Ecke,wenn wir hier klar und deutlich über gaming Monitore reden. Mag ja sein dass das beim TV keinen Unterschied macht, alleine schon da man ja nicht die Graka/Treiber Anbindung hat etc, aber das ist hier absolut nicht das Thema

Wie gesagt wenn die Architekten und Manager von AMD selbst sagen, dass die Technologie das nur verringert, wen soll ich glauben? Du schickst halt eine sehr gute Quellen rein die deine eigene aussage widerlegen was soll ich dann bitte glauben?
08/25/2019 14:38 fenster3000#28
Quote:
Originally Posted by Achileus View Post
Wir sprechen über gamingmonitore und du kommst mit TVs um die Ecke, da werde und lese ich mich ganz bestimmt nicht ein. Weil es hier um Gaming Monitore geht.
Es ist Jacke wie Hose, ob es ein TV, normaler Monitor oder "Gaming Monitor" ist. Die Implementation ist dieselbe.

Quote:
Originally Posted by Achileus View Post
Deine eigene Quelle sagt, dass ein Inputlag existiert. Das ist das Originale Script.
Ist halt kein CRT, wo es grundsätzlich keinen Inputlag gibt. Aber die Technologie selber hat eben trotzdem das Ziel keinen zusätzlichen Inputlag zu verursachen bzw. die aktuellen noch zu verringern.


Quote:
Originally Posted by Achileus View Post
Wie ich schon sagte auch wenn sagen wir FreeSync/GSync alleine ohne Software etc kein Inputlag erzeugen würde, das interessiert ja kein, am Ende zählt das Ergebnis und wie man sieht kriegt man zurzeit nur die Technologien mit zusätzlichen Inputlag am laufen, sonst gäbe es ja nicht stetige Updates.
Und das Ergebnis siehst du in den Messwerten.
Würde VRR also grundsätzlich einen Inputlag hinzufügen, müsste der Inputlag mit VRR ja konsequent höher sein. Ist er ja aber nicht, sondern in vielen Fällen sogar geringer oder gleich.

Quote:
Originally Posted by Achileus View Post
Du kommst halt mit Fernsehern um die Ecke,wenn wir hier klar und deutlich über gaming Monitore reden. Mag ja sein dass das beim TV keinen Unterschied macht, alleine schon da man ja nicht die Graka/Treiber Anbindung hat etc, aber das ist hier absolut nicht das Thema
Wie gesagt. Es macht kein Unterschied, ob die Technologie in einem TV oder Gaming Monitor implementiert ist. Was du mit "Graka"/"Treiberanbindung" meinst weiß ich allerdings nicht. Wenn du deinen PC an einen TV anschließt ist es genau so, als würdest du ihn an einen normalen Monitor anschließen.

Quote:
Originally Posted by Achileus View Post
Wie gesagt wenn die Architekten und Manager von AMD selbst sagen, dass die Technologie das nur verringert, wen soll ich glauben? Du schickst halt eine sehr gute Quellen rein die deine eigene aussage widerlegen was soll ich dann bitte glauben?
Verringern, weil du halt noch immer den normalen Inputlag von dem Monitor hast. Den bekommst du halt so erst mal nicht weg. Aber im Gegensatz zu VSync soll halt eben kein zusätzlicher Inputlag hinzugefügt werden. Was anderes wird auch in den Spezifikationen nicht gesagt.
08/25/2019 14:46 Achileus#29
Quote:
Es ist Jacke wie Hose, ob es ein TV, normaler Monitor oder "Gaming Monitor" ist. Die Implementation ist dieselbe.
Weil ich mich auf Fachgebieten, wo ich absolut keine Ahnung habe gar nicht erst versuche mich zu äußern. Auch wenn Grundsätzlich wohl wie du sagst ziemlich identisch sind, habe ich mich primär nie mit Fernsehr befasst, also enthalte ich mich hier.

Quote:
Ist halt kein CRT, wo es grundsätzlich keinen Inputlag gibt. Aber die Technologie selber hat eben trotzdem das Ziel keinen zusätzlichen Inputlag zu verursachen bzw. die aktuellen noch zu verringern.
Ja das ist halt genau was ich seit sec 1 sage. Das Ziel ist natürlich klar, aber das ist gewiss noch nicht erreicht.



Quote:
Wie gesagt. Es macht kein Unterschied, ob die Technologie in einem TV oder Gaming Monitor implementiert ist. Was du mit "Graka"/"Treiberanbindung" meinst weiß ich allerdings nicht. Wenn du deinen PC an einen TV anschließt ist es genau so, als würdest du ihn an einen normalen Monitor anschließen.
Stimmt nicht so ganz. Zumindest nicht wenn wir von gaming sprechen ->

[Only registered and activated users can see links. Click Here To Register...]

PS: Weil du von Treiber gesprochen hattest.

Quote:
Verringern, weil du halt noch immer den normalen Inputlag von dem Monitor hast. Den bekommst du halt so erst mal nicht weg. Aber im Gegensatz zu VSync soll halt eben kein zusätzlicher Inputlag hinzugefügt werden
Ja den Monitor inputlag ist fix. Nur sagst du wieder es "soll" nicht hinzugefügt werden. Genau das macht die Technologie aber es heißt dann noch lange nicht, dass sie es zu 100% schafft. Darum geht es hier seit dem ersten Post.
08/25/2019 14:54 fenster3000#30
Quote:
Originally Posted by Achileus View Post

Stimmt nicht so ganz. Zumindest nicht wenn wir von gaming sprechen ->

[Only registered and activated users can see links. Click Here To Register...]

Was soll das Bild jetzt genau sagen?
Beziehungsweise wo sagt das Bild aus, dass es einen Unterschied macht,
ob du einen PC an einen TV oder Monitor anschließt?

Quote:
Originally Posted by Achileus View Post
Ja den Monitor inputlag ist fix. Nur sagst du wieder es "soll" nicht hinzugefügt werden. Genau das macht die Technologie aber es heißt dann noch lange nicht, dass sie es zu 100% schafft. Darum geht es hier seit dem ersten Post.
Ich kann nur wieder auf die Messwerte von Rtings verweisen.
Die sprechen halt eine relativ klare Sprache. Deiner Theorie nach müsste der Inputlag ja grundsätzlich höher sein mit VRR bzw. dürfte nie niedriger sein als der mit VRR Off. Ist er in einem Großteil der Fälle aber.

Wie erklärst du das?