|
You last visited: Today at 20:17
Advertisement
Input Lag durch Free Sync?
Discussion on Input Lag durch Free Sync? within the Technical Support forum part of the Off-Topics category.
08/24/2019, 18:58
|
#16
|
elite*gold: 74
Join Date: Apr 2009
Posts: 5,908
Received Thanks: 2,386
|
Quote:
Originally Posted by fenster3000
Das liegt wohl eher daran, dass NVIDIAs Implementation rein auf dem Treiber basiert.
AMD basiert halt auf VESAs Adaptive-Sync, welche direkt in den DP-Spezifikationen verankert ist (mal deren Implementation via HDMI ignoriert).
Was NVIDIA nun anders gemacht hat weiß ich nicht. Da es ja aber auch schon bei vielen "FreeSync" Monitoren zu Problemen kommt (in Kombination mit NVIDIAs Adaptive Sync), scheinen die wohl im ursprünglichen Design eben dieses Feature nicht berücksichtigt. Zwar nutzt NVIDIA ja auch DP, aber jeder Hersteller kann ja selber entscheiden, ob er Features implementieren will. Mag sein, das NVIDIA eben das nicht bedacht hat und nun am Treiber rumschrauben muss. Was ggf. eben einen Einfluss auf den Inputlag haben kann. Spannend wird es dann wohl eher werden, wenn die das in zukünftigen Karten korrekt implementieren. Erst dann wird man wirklich sehen, ob es einen Unterschied zwischen G-Sync und FreeSync gibt.
NVIDIA beschreibt G-Sync btw wie folgt:
In der entsprechenden VESA Norm für Adaptive Sync steht folgendes:
Was das Antilag Zeugs angeht hat AMD meine ich auch auf der Bühne gesagt, dass es extra für Leute ist, die eben kein FreeSync usw. nutzen können. Zumindest ist hier der Ansatz, dass alle Leute in der Lage sind ihren Inputlag zu reduzieren. Kann aber auch sein, dass das Antilag Zeugs dafür ist den Inputlag insgesamt nochmals zu reduzieren.
|
Quote:
In der entsprechenden VESA Norm für Adaptive Sync steht folgendes:
"This helps ensure that a frame is almost always displayed as soon as possible, avoiding lag. "
|
Sehr schwammig beschrieben, steht halt nichts davon dass es kein Inputlag seitens der Technologie & oder Software entsteht, sondern sie nur verringert /verbessert
"
Quote:
|
Diese Displays bieten ein beeindruckendes Erlebnis ohne Tearing, Ruckeln oder Eingabeverzögerungen."
|
Naja, das diese Aussage nicht stimmt siehst ja jetzt, Hersteller umwerfen sich gerne mit Aussagen die nicht ganz korrekt sind. Siehe Ryzen und den Turboboost, der absolut unklar beschrieben wird, und wetten kann das die meisten bis heute immer noch nicht genau sagen können wie es funktioniert.
An was es liegt, ist ja erst mal egal, Fakt ist das Resultat ist nicht frei von Inputlags. Wo es am Ende harkt ist Problem vom Hersteller.
Und wenn es so ist wie du es auf der Bühne gehört hast, würden ja FreeSync nutzer danach noch mehr benachteiligt werden. Besser wäre dann natürlich die Verbesserung für beides.
|
|
|
08/24/2019, 19:06
|
#17
|
elite*gold: 206
Join Date: Oct 2009
Posts: 7,260
Received Thanks: 2,930
|
Die Aussage ist eigentlich recht eindeutig.
Da ist ja nicht von "reduced", sondern von "vermeiden" die Rede. Eben so lange du im entsprechenden Range bist, damit die Frames sobald wie möglich dargestellt werden.
Ansonsten gibt es im WWW auch noch genug Aussagen zu dem Thema
|
|
|
08/24/2019, 21:33
|
#18
|
elite*gold: 74
Join Date: Apr 2009
Posts: 5,908
Received Thanks: 2,386
|
Quote:
Originally Posted by fenster3000
Die Aussage ist eigentlich recht eindeutig.
Da ist ja nicht von "reduced", sondern von "vermeiden" die Rede. Eben so lange du im entsprechenden Range bist, damit die Frames sobald wie möglich dargestellt werden.
Ansonsten gibt es im WWW auch noch genug Aussagen zu dem Thema
|
Naja da im Hauptsatz steht "helps" steht wirds schwammig.
Wenn da stehen würde "es vermeidet Inputlag" ist es eindeutiger als wenn da steht es hilft dabei inputlag zu vermeiden.
Bin zwar kein Ass in Englisch der Satz generell ist aber ziemlich beschissen gebaut einfach am ende zu schreiben mit "," avoiding lag ist generell gefühlt nichtssagend XD.
Auch so Widersprechen sich deine Aussagen, da du erst sagtest, dass Inputlag nicht entsteht und dann in anderen setzen, dass da ein alter Treiber war der mehr Inputlag verursacht hat, aber auf der anderen Seite sagst du wieder das die Technologie perfekt läuft.
Und ja im Internet steht vermehrt das der Inputlag damit beinahe eliminiert ist aber nicht ganz weg ist.
Es gibt 2 Szenarien es läuft perfekt und man braucht da nichts mehr dran zu schrauben weil es ja wie du sagtest "nur noch der restliche Monitor inputlag ist", oder es läuft noch nicht so gut und man muss dran arbeiten dies zu verbessern.
Die Graphen sind ja auch irgendwo eindeutig man sieht auch das alle unterschiedlich sind. Mit und ohne V-Sync obs Freesync oder G-Sync ist.
PS²: In deiner Quelle ich zitiere:
Quote:
"DisplayPort Adaptive-*‐Sync provides the ideal solution for smooth gameplay with decreased lag and virtually no tearing"
|
Also selbst deine eigene Quelle sagt "verringert", sprich es ist noch existent ^^.
|
|
|
08/25/2019, 00:47
|
#19
|
elite*gold: 6
Join Date: Mar 2014
Posts: 603
Received Thanks: 26
|
Um auf einen Punkt zu kommen: 60Herz Monitor mit ner Rx580 lieber FreeSync auslassen?
|
|
|
08/25/2019, 00:49
|
#20
|
elite*gold: 31
Join Date: Dec 2010
Posts: 3,140
Received Thanks: 2,382
|
Quote:
Originally Posted by .UnlimiTeD
Um auf einen Punkt zu kommen: 60Herz Monitor mit ner Rx580 lieber FreeSync auslassen?
|
Teste aus, was sich für dich besser anfühlt.
Wir könnten nun endlos hier diskutieren und Elitisten-Wissen anwenden, schlussendlich kommt es aber nur darauf an was komfortabler für dein eigenes Erlebnis ist.
|
|
|
08/25/2019, 00:53
|
#21
|
elite*gold: 74
Join Date: Apr 2009
Posts: 5,908
Received Thanks: 2,386
|
Quote:
Originally Posted by .UnlimiTeD
Um auf einen Punkt zu kommen: 60Herz Monitor mit ner Rx580 lieber FreeSync auslassen?
|
Kurz mal erklärt (sehr gekürzt) für dich du hast bei FreeSync eine Range 42-72hz zB bei dir dann capped man die FPS auf 70 das geht Anhand von dem Spiel selber oder über die Graka Software. So hast du FreeSync ohne das es sich deaktiviert...... Wenn du in dem Spiel unter 42 FPS kriegst das kannst natürlich nicht verhindern, dann bringt es eher weniger.
Wenn du bei einem Spiel aber so 50-70 FPS hast ist FreeSync Gold wert da es sich einfach smooth anfühlt.
Wenn du ein game hast wie CSGO League of Legends wo du irgenwdo FPS bei 200 hast kannst das einfach ausmachen.
Viele schwören aber halt drauf und lassen es immer an, muss auch sagen, dass FreeSync die beste Technologie ist die ich je so bei Monitorfeatures gesehen habe^^.
Habe sie selbst erst seit 1 Woche btw.
@ .Special™
Hier redet die Technologie keiner schlecht wir diskutieren über was ganz anderes.
|
|
|
08/25/2019, 00:53
|
#22
|
elite*gold: 6
Join Date: Mar 2014
Posts: 603
Received Thanks: 26
|
Quote:
Originally Posted by .Special™
Teste aus, was sich für dich besser anfühlt.
Wir könnten nun endlos hier diskutieren und Elitisten-Wissen anwenden, schlussendlich kommt es aber nur darauf an was komfortabler für dein eigenes Erlebnis ist.
|
Ich würde behaupten ich merk kein Unterschied z.B in lol
Sobald ich eine Eingabe tätige ist Sie für mich Instant da.
|
|
|
08/25/2019, 00:59
|
#23
|
elite*gold: 74
Join Date: Apr 2009
Posts: 5,908
Received Thanks: 2,386
|
Quote:
Originally Posted by .UnlimiTeD
Ich würde behaupten ich merk kein Unterschied z.B in lol
Sobald ich eine Eingabe tätige ist Sie für mich Instant da.
|
Es ist wie gesagt sehr gering. Zudem ist League auch wenn man es nicht glauben mag ein langsamer Spiel, habe LoL und andere games verglichen du merkst in Csgo und anderen Spielen die 144Hz wesentlich mehr als bei Leauge. Das ist zumindest meine Erfahrung.
Habe aber komisches Flackern wenn ich FreeSync aktiviere bei Leauge. Hast du so was auch?
|
|
|
08/25/2019, 01:11
|
#24
|
elite*gold: 6
Join Date: Mar 2014
Posts: 603
Received Thanks: 26
|
Quote:
Originally Posted by Achileus
Es ist wie gesagt sehr gering. Zudem ist League auch wenn man es nicht glauben mag ein langsamer Spiel, habe LoL und andere games verglichen du merkst in Csgo und anderen Spielen die 144Hz wesentlich mehr als bei Leauge. Das ist zumindest meine Erfahrung.
Habe aber komisches Flackern wenn ich FreeSync aktiviere bei Leauge. Hast du so was auch?
|
Hi,
Ja habe das auch aber ohne oder mit Sync
|
|
|
08/25/2019, 09:49
|
#25
|
elite*gold: 74
Join Date: Apr 2009
Posts: 5,908
Received Thanks: 2,386
|
Quote:
Originally Posted by .UnlimiTeD
Hi,
Ja habe das auch aber ohne oder mit Sync
|
Mhm komisch, das darf eigentlich nicht sein.
|
|
|
08/25/2019, 14:12
|
#26
|
elite*gold: 206
Join Date: Oct 2009
Posts: 7,260
Received Thanks: 2,930
|
Quote:
Originally Posted by Achileus
Sehr schwammig beschrieben, steht halt nichts davon dass es kein Inputlag seitens der Technologie & oder Software entsteht, sondern sie nur verringert /verbessert
|
Gut, habe jetzt noch mal fix ein paar Messwerte rausgekramt:
Ich war mal so frei und habe die Wichtigsten direkt rausgeschnitten. Wobei es auch noch nicht so viele TVs gibt, mit denen man das testen kann. Aber hey.
Die Werte zeigen zum Großteil, dass der Inputlag mit VRR geringer ist.
Stellenweise sind die Inputlags gleich. In einigen Fällen ist der ohne VRR geringer. Dabei fällt aber auf:
- Das 8K Gerät hat mit VRR einen höheren Inputlag. Wieso? Keine Ahnung. Kann ich nur spekulieren. Wird evtl. etwas mit der Skalierung zu tun haben.
- In den anderen beiden Fällen wo der VRR-Inputlag höher ist, ist die differenz wirklich niedrig (5,8 vs. 6,1; 6,1 vs. 6,2.). Da ist nun die Frage, wie es bei anderen Messungen aussehen würde. Vielleicht wäre dann der Inputlag auch gleich. Gilt natürlich auch in die andere Richtung. Unterm Strich würde ich in den Fällen aber sagen, dass sich in den Fällen in Sachen Inputlag nichts tut.
Was das 4K@120 angeht bzw. das 4k@120@VRR bei dem Q90R angeht ist ebenfalls komisch. Allerdings muss man hier sagen, dass der Input ein normaler 18G HDMI Port ist. Entsprechend wird hier mit 4:2:0 Chroma Subsampling gearbeitet ("Farbkompression"). Das halte ich aber auch nicht für sonderlich praxisrelevant, da das kein Mensch freiwillig nutzen würde. Wieso der Inputlag in dem Szenario aber höher ist, steht auch auf einem anderen Stern. Wahrscheinlich weil der TV dort etwas verkackt.
Insgesamt kann man sich jetzt wohl denken was man will. Die Messwerte in dem Fall zeigen aber, dass VRR/FreeSync (und wohl auch G-Sync) an sich kein zusätzlichen Inputlag verursachen. Zumindest so lange die Hersteller der Monitore/TVs ordentliche Arbeit bei der Implementation leisten.
|
|
|
08/25/2019, 14:27
|
#27
|
elite*gold: 74
Join Date: Apr 2009
Posts: 5,908
Received Thanks: 2,386
|
Quote:
Originally Posted by fenster3000
Gut, habe jetzt noch mal fix ein paar Messwerte rausgekramt:
Ich war mal so frei und habe die Wichtigsten direkt rausgeschnitten. Wobei es auch noch nicht so viele TVs gibt, mit denen man das testen kann. Aber hey.
Die Werte zeigen zum Großteil, dass der Inputlag mit VRR geringer ist.
Stellenweise sind die Inputlags gleich. In einigen Fällen ist der ohne VRR geringer. Dabei fällt aber auf:
- Das 8K Gerät hat mit VRR einen höheren Inputlag. Wieso? Keine Ahnung. Kann ich nur spekulieren. Wird evtl. etwas mit der Skalierung zu tun haben.
- In den anderen beiden Fällen wo der VRR-Inputlag höher ist, ist die differenz wirklich niedrig (5,8 vs. 6,1; 6,1 vs. 6,2.). Da ist nun die Frage, wie es bei anderen Messungen aussehen würde. Vielleicht wäre dann der Inputlag auch gleich.
Was das 4K@120 angeht bzw. das 4k@120@VRR bei dem Q90R angeht ist ebenfalls komisch. Allerdings muss man hier sagen, dass der Input ein normaler 18G HDMI Port ist. Entsprechend wird hier mit 4:2:0 Chroma Subsampling gearbeitet ("Farbkompression"). Das halte ich aber auch nicht für sonderlich praxisrelevant, da das kein Mensch freiwillig nutzen würde. Wieso der Inputlag in dem Szenario aber höher ist, steht auch auf einem anderen Stern. Wahrscheinlich weil der TV dort etwas verkackt.
Insgesamt kann man sich jetzt wohl denken was man will. Die Messwerte in dem Fall zeigen aber, dass VRR/FreeSync (und wohl auch G-Sync) an sich kein zusätzlichen Inputlag verursachen. Zumindest so lange die Hersteller der Monitore/TVs ordentliche Arbeit bei der Implementation leisten.

|
Wir sprechen über gamingmonitore und du kommst mit TVs um die Ecke, da werde und lese ich mich ganz bestimmt nicht ein. Weil es hier um Gaming Monitore geht.
Deine eigene Quelle sagt, dass ein Inputlag existiert. Das ist das Originale Script.
Wie ich schon sagte auch wenn sagen wir FreeSync/GSync alleine ohne Software etc kein Inputlag erzeugen würde, das interessiert ja kein, am Ende zählt das Ergebnis und wie man sieht kriegt man zurzeit nur die Technologien mit zusätzlichen Inputlag am laufen, sonst gäbe es ja nicht stetige Updates.
Du kommst halt mit Fernsehern um die Ecke,wenn wir hier klar und deutlich über gaming Monitore reden. Mag ja sein dass das beim TV keinen Unterschied macht, alleine schon da man ja nicht die Graka/Treiber Anbindung hat etc, aber das ist hier absolut nicht das Thema
Wie gesagt wenn die Architekten und Manager von AMD selbst sagen, dass die Technologie das nur verringert, wen soll ich glauben? Du schickst halt eine sehr gute Quellen rein die deine eigene aussage widerlegen was soll ich dann bitte glauben?
|
|
|
08/25/2019, 14:38
|
#28
|
elite*gold: 206
Join Date: Oct 2009
Posts: 7,260
Received Thanks: 2,930
|
Quote:
Originally Posted by Achileus
Wir sprechen über gamingmonitore und du kommst mit TVs um die Ecke, da werde und lese ich mich ganz bestimmt nicht ein. Weil es hier um Gaming Monitore geht.
|
Es ist Jacke wie Hose, ob es ein TV, normaler Monitor oder "Gaming Monitor" ist. Die Implementation ist dieselbe.
Quote:
Originally Posted by Achileus
Deine eigene Quelle sagt, dass ein Inputlag existiert. Das ist das Originale Script.
|
Ist halt kein CRT, wo es grundsätzlich keinen Inputlag gibt. Aber die Technologie selber hat eben trotzdem das Ziel keinen zusätzlichen Inputlag zu verursachen bzw. die aktuellen noch zu verringern.
Quote:
Originally Posted by Achileus
Wie ich schon sagte auch wenn sagen wir FreeSync/GSync alleine ohne Software etc kein Inputlag erzeugen würde, das interessiert ja kein, am Ende zählt das Ergebnis und wie man sieht kriegt man zurzeit nur die Technologien mit zusätzlichen Inputlag am laufen, sonst gäbe es ja nicht stetige Updates.
|
Und das Ergebnis siehst du in den Messwerten.
Würde VRR also grundsätzlich einen Inputlag hinzufügen, müsste der Inputlag mit VRR ja konsequent höher sein. Ist er ja aber nicht, sondern in vielen Fällen sogar geringer oder gleich.
Quote:
Originally Posted by Achileus
Du kommst halt mit Fernsehern um die Ecke,wenn wir hier klar und deutlich über gaming Monitore reden. Mag ja sein dass das beim TV keinen Unterschied macht, alleine schon da man ja nicht die Graka/Treiber Anbindung hat etc, aber das ist hier absolut nicht das Thema
|
Wie gesagt. Es macht kein Unterschied, ob die Technologie in einem TV oder Gaming Monitor implementiert ist. Was du mit "Graka"/"Treiberanbindung" meinst weiß ich allerdings nicht. Wenn du deinen PC an einen TV anschließt ist es genau so, als würdest du ihn an einen normalen Monitor anschließen.
Quote:
Originally Posted by Achileus
Wie gesagt wenn die Architekten und Manager von AMD selbst sagen, dass die Technologie das nur verringert, wen soll ich glauben? Du schickst halt eine sehr gute Quellen rein die deine eigene aussage widerlegen was soll ich dann bitte glauben?
|
Verringern, weil du halt noch immer den normalen Inputlag von dem Monitor hast. Den bekommst du halt so erst mal nicht weg. Aber im Gegensatz zu VSync soll halt eben kein zusätzlicher Inputlag hinzugefügt werden. Was anderes wird auch in den Spezifikationen nicht gesagt.
|
|
|
08/25/2019, 14:46
|
#29
|
elite*gold: 74
Join Date: Apr 2009
Posts: 5,908
Received Thanks: 2,386
|
Quote:
|
Es ist Jacke wie Hose, ob es ein TV, normaler Monitor oder "Gaming Monitor" ist. Die Implementation ist dieselbe.
|
Weil ich mich auf Fachgebieten, wo ich absolut keine Ahnung habe gar nicht erst versuche mich zu äußern. Auch wenn Grundsätzlich wohl wie du sagst ziemlich identisch sind, habe ich mich primär nie mit Fernsehr befasst, also enthalte ich mich hier.
Quote:
|
Ist halt kein CRT, wo es grundsätzlich keinen Inputlag gibt. Aber die Technologie selber hat eben trotzdem das Ziel keinen zusätzlichen Inputlag zu verursachen bzw. die aktuellen noch zu verringern.
|
Ja das ist halt genau was ich seit sec 1 sage. Das Ziel ist natürlich klar, aber das ist gewiss noch nicht erreicht.
Quote:
Wie gesagt. Es macht kein Unterschied, ob die Technologie in einem TV oder Gaming Monitor implementiert ist. Was du mit "Graka"/"Treiberanbindung" meinst weiß ich allerdings nicht. Wenn du deinen PC an einen TV anschließt ist es genau so, als würdest du ihn an einen normalen Monitor anschließen.
|
Stimmt nicht so ganz. Zumindest nicht wenn wir von gaming sprechen ->
PS: Weil du von Treiber gesprochen hattest.
Quote:
|
Verringern, weil du halt noch immer den normalen Inputlag von dem Monitor hast. Den bekommst du halt so erst mal nicht weg. Aber im Gegensatz zu VSync soll halt eben kein zusätzlicher Inputlag hinzugefügt werden
|
Ja den Monitor inputlag ist fix. Nur sagst du wieder es "soll" nicht hinzugefügt werden. Genau das macht die Technologie aber es heißt dann noch lange nicht, dass sie es zu 100% schafft. Darum geht es hier seit dem ersten Post.
|
|
|
08/25/2019, 14:54
|
#30
|
elite*gold: 206
Join Date: Oct 2009
Posts: 7,260
Received Thanks: 2,930
|
Quote:
Originally Posted by Achileus
Stimmt nicht so ganz. Zumindest nicht wenn wir von gaming sprechen ->

|
Was soll das Bild jetzt genau sagen?
Beziehungsweise wo sagt das Bild aus, dass es einen Unterschied macht,
ob du einen PC an einen TV oder Monitor anschließt?
Quote:
Originally Posted by Achileus
Ja den Monitor inputlag ist fix. Nur sagst du wieder es "soll" nicht hinzugefügt werden. Genau das macht die Technologie aber es heißt dann noch lange nicht, dass sie es zu 100% schafft. Darum geht es hier seit dem ersten Post.
|
Ich kann nur wieder auf die Messwerte von Rtings verweisen.
Die sprechen halt eine relativ klare Sprache. Deiner Theorie nach müsste der Inputlag ja grundsätzlich höher sein mit VRR bzw. dürfte nie niedriger sein als der mit VRR Off. Ist er in einem Großteil der Fälle aber.
Wie erklärst du das?
|
|
|
 |
|
Similar Threads
|
[Java]could not get audio input stream from input file
07/29/2013 - General Coding - 7 Replies
Ich Habe das Spiel Tetris geschrieben mit einer Hintergrundmusik, die bis zum GameOver in einem Loop läuft, passt alles auch. Die Datei ist 35,4 MB groß und .mp3. Wenn ich aber nen GameOver habe, soll eine andere Musi kommen und die alte stoppen. Klappt auch soweit, aber wenn er die neue Musik abspielen will, kommt die Exception daoben. Die Datei ist nur 282 KB groß und dauert 17 Sekunden, die andere 4 min. Weiß wer Rat, bzw. braucht ihr Code-Teile?
Die ganze Exception:
Jul 28, 2013...
|
input box as an image like php input boxes
03/22/2012 - AutoIt - 2 Replies
is it posible to do that?
like... -> use image -> and put input box as image in gui
so u can enter text in the image but u wont see this crappy input white box :)
as i tryed and searched i dont think but maybe someone has figured it out
|
KerKava LAG LAG LAG!
01/04/2012 - DarkOrbit - 11 Replies
anyone here know how to fix the big lag in Kerkava.? :(
|
lag lag lag
05/30/2008 - Conquer Online 2 - 0 Replies
is there any1 else on babyicey or any server 4 that matter thats been haveing a lag issue, it drivin me crazy i always lagging it makein me not want 2 play{i have dsl and a wireless but i dont think thats it i used 2 borrow a signle that was weak and i had less lag. ty not so much of a question more cryin then question. is it all the useless features or r they just lazzy
|
All times are GMT +1. The time now is 20:18.
|
|