Das liegt wohl eher daran, dass NVIDIAs Implementation rein auf dem Treiber basiert (zwar auch Adaptive Sync, aber wohl auf einer anderen Ebene).
AMD basiert halt auf VESAs Adaptive-Sync, welche direkt in den DP-Spezifikationen verankert ist (mal deren Implementation via HDMI ignoriert).
Was NVIDIA nun anders gemacht hat weiß ich nicht. Da es ja aber auch schon bei vielen "FreeSync" Monitoren zu Problemen kommt (in Kombination mit NVIDIAs Adaptive Sync), scheinen die wohl im ursprünglichen Design eben dieses Feature nicht berücksichtigt. Zwar nutzt NVIDIA ja auch DP, aber jeder Hersteller kann ja selber entscheiden, ob er Features implementieren will. Mag sein, das NVIDIA eben das nicht bedacht hat und nun am Treiber rumschrauben muss. Was ggf. eben einen Einfluss auf den Inputlag haben kann. Spannend wird es dann wohl eher werden, wenn die das in zukünftigen Karten korrekt implementieren. Erst dann wird man wirklich sehen, ob es einen Unterschied zwischen G-Sync und FreeSync gibt.
NVIDIA beschreibt G-Sync btw wie folgt:
Quote:
|
Diese Displays bieten ein beeindruckendes Erlebnis ohne Tearing, Ruckeln oder Eingabeverzögerungen.
|
In der entsprechenden VESA Norm für Adaptive Sync steht folgendes:
Quote:
|
This helps ensure that a frame is almost always displayed as soon as possible, avoiding lag.
|
Was das Antilag Zeugs angeht hat AMD meine ich auch auf der Bühne gesagt, dass es extra für Leute ist, die eben kein FreeSync usw. nutzen können. Zumindest ist hier der Ansatz, dass alle Leute in der Lage sind ihren Inputlag zu reduzieren. Kann aber auch sein, dass das Antilag Zeugs dafür ist den Inputlag insgesamt nochmals zu reduzieren.