AMD Free Sync - Die G-Sync Alternative

Ich hatte mich immer gewundert das immer eine geringe Anzahl an Spielen für die Benchmarks verwendet werden und die meisten von den eine Seite bevorzugt. Wieso sind eigentlich Spielen von Ubisoft eigentlich so bliebt dabei?
 
Na 3x darfst du raten. *suspect*
 
So und nun mal Neuigkeiten zu GSync und den angeblichen 30-40 Hz Uterschieden und dem Support der Frequenzen:
http://www.pcper.com/reviews/Graphics-Cards/Dissecting-G-Sync-and-FreeSync-How-Technologies-Differ
Below that 40 FPS mark though things shift. The red line shows how AMD's FreeSync and Adaptive Sync work: the refresh rate stays static at 40 Hz even as the frame rate dips below 40 FPS, to 35 FPS, 30 FPS, etc. G-Sync works differently, doubling the refresh rate and inserting duplicate frames starting at around the 37 FPS mark. This continues until the game frame rate hits 19/20 FPS where a third frame is inserted and the refresh rate is increased again. The result is the dashed line representing the effective experience of G-Sync.

gsync2.png
Hier wird gezeigt, wie Nvidia die 30 Hz erreichen - nämlich gar nicht. Die Frequenzangabe 30-144 Hz war schlicht eine Lüge, da lediglich 40-144 HZ Panels verbaut werden. Tatsächlich verdoppelt Nvidia die Hz ab 40 FPS abwärts.
 
Für den User dürfte es aber relativ egal sein, was der Monitor hier macht, ... Ob da jetzt V-Sync aktiviert ist oder nicht, interessiert ja nicht, inputlag hängt hauptsächlich von den FPS ab und wenn beide das neue Frame rechtzeitig ausgeben, dann ist doch egal, was der Monitor macht.
 
Die Verfechter behaupten jedoch, dass gerade diese angeblich vorhandenen 10 Hz nach unten einen großen Vorteil darstellen.
 
Fakt ist, dass der Gsync Monitor zu keinem Zeitpunkt 30Hz Frequenz hat. Das hat Nvidia aber behauptet. Schon wieder ein Kommunikationsproblem zwischen Technik und Marketing?
 
erinnert an:"you're holding it wrong" etc.
Zwei Firmen, eine Art mit den Kunden umzugehen. Und das Faszinierende: Alle sind trotzdem glücklich und verteidigen es auch noch, weil sie soviel Geld dafür gezahlt haben, dass sie sich nicht eingestehen wollen, wenn mal was nicht passt.

Fakt ist damit aber: Die Argumente gegen Freesync wirken nun noch grotesker.
 
@
Fakt ist, dass der Gsync Monitor zu keinem Zeitpunkt 30Hz Frequenz hat. Das hat Nvidia aber behauptet. Schon wieder ein Kommunikationsproblem zwischen Technik und Marketing?

Ging es dabei nicht eher darum das der Monitor damit angesteuert werden kann?
Das die Frequenz dann intern verdoppelt wird ist dafür ziemlich egal.

Wie dem auch sei...
Da gab e doch mal nen Spruch aus einem Film, ich weiss nur gerade ncht welcher es war.
"Die Kunst ist es den anderen so schnell über den Tisch zu ziehen das die dabei entstandene Reibung als Nestwärme empfunden wird."
 
Zuletzt bearbeitet:
mhh da könnt ich meine 3x27" ersetzen. aber 5760x1080 sind halt mehr als 2560x1080. aber für den monitor nicht schlecht

LG 34UM67-P

 
However, FreeSync is capable of operating with vsync disabled outside of the display's refresh range. In the event of a collision with a required refresh, Glen pointed out, FreeSync can optionally swap to a new frame in the middle of that refresh.
Mit dieser Aussage ist ein Panelbuffer offiziell bestätigt der das alte Bild refresht, auf der maximalen Monitorfrequenz, sobald die VBLANK-Periode zu Ende ist. So lange, bis die GPU ein neues Bild schickt. Gäbe es dieses Panelbufer nicht, könnte das Bild nicht während der Darstellung unterbrochen werden durch ein aktuelles Bild von der GPU. AMD verlängert so zu sagen die VBLANK-Periode des Frames um die Länge der Darstellung des Frames bei maximaler Frequenz. Somit hätte in solchen Szenarien 144 Hz doch Vorteile gegenüber 75Hz.

Es wird zu testen sein ob die feinere Granularität der höherfrequenten Panels Vorteile in der Wahrnehmung bieten werden bei Kostenvorteil gegenüber Panels die niedrigere Refreshes und somit längere VBLANK-Perioden unterstützen bis runter zu 23 Hz. Mal schauen ob jemand von den Monitorherstellern die goldene Mitte oder den Spagat in einem vernünftigen Kostenrahmen bringen kann.
 
Es wurde ein Monitor vorgestellt, der in einer Variante FreeSync und in einer anderen G-Sync unterstützt. Die G-Sync Variante gerät gleich ins Hintertreffen, weil sie nur HDMI 1.4 statt 2.0 unterstützt. Das ist bitter, weil das Panel auf beinah 5 Megapixel kommt. HDMI 1.4 dürfte die Bandbreite dafür fehlen. Dabei gibt es mit GeForce GTX 960, 970, 980 und Titan X bereits Grafikkarten, die HDMI 2.0 unterstützen (abgesehen von HDCP 2.2). Bei dem einem britischen Händler, der den Monitor bereits listet, offenbart sich obendrein ein Preisunterschied. Das war jedoch zu erwarten und sollte zum jetztigen Zeitpunkt nicht überbewertet werden. Wer mehr darüber lesen möchte: ComputerBase - UWQHD mit FreeSync oder G-Sync auf krummen 34 Zoll
 
Ich vermute der Freesync-Monitor wir Aufgrund der maximalen Frequenz von 75 Hz schlechter abschneiden als der GSync-Monitor zwischen 30-40 FPS wenn das Limit nicht von 40 Hz auf 30 Hz gesunken ist mit dem Panel. Hier könnte auch bei AMDs Freesync stärkeres flimmern auftreten Augrund er Umsetzung unter der min. Frequenz.
 
FreeSync für HDMI kommt...
Darüber hinaus hat es AMD in Zusammenarbeit mit Realtek geschafft, FreeSync über HDMI zu realisieren. (...) Eine spezielle Firmware für den Monitor und ein proprietäres Protokoll des Catalyst-Treibers seien dazu notwendig gewesen.
...zwar proprietär, aber die Einflussnahme bei HDMI wird sich schwieriger gestalten als bei DP, sodass es wohl nicht anders ging.

Quelle: http://www.computerbase.de/2015-06/interview-amd-nvidia-freeync-g-sync/
 
Könnte vor allem für die Konsolen interessant werden. Ich denke darauf läuft es zumindest teilweise auch raus.
 
Was man aus dem Artikel vor allem mit nehmen sollte:

Ein erstes Resultat der laufenden Zusammenarbeit mit Panel- und Monitorherstellern sei der zur Computex mit weiteren technischen Daten versehene Monitor NX-VUE24 von Nixeus, der FreeSync erstmals bis zu einer unteren Grenzfrequenz von 30 Hz unterstützen wird.

http://www.legitreviews.com/nixeus-...-amd-freesync-gaming-monitor-announced_165087
Refresh Rate: 144Hz with 30Hz -144Hz Adaptive-Sync Range
 
Ja, aber die Nvidia-Gläubigen werden auch dann wieder Argumente suchen....und natürlich finden. Und dann wird das von mehreren News-Seiten in Pseudo-Tests untersucht und gebetsmühlenartig wiederholt, bis es feste Meinung bei vielen Lesern wird. Same procedure as every time.
Ich frag mich manchmal, was AMD eigentlich den Leuten getan hat, außer ihnen nicht das Geld aus der Tasche zu ziehen. Aber das scheinen viele in Zeiten des Kapitalismus geradezu als frech zu empfinden, wenn sie sich nicht von der armen Masse abheben können, indem sie Dinge als Luxusgut kaufen, die eigentlich keines sind.
 
Mei, NV hat immer noch Frame-Verdopplung und -Verdreifachung bei unter 30 Hz per Scaler sowie Treiber. AMD (noch) nicht - Fakt.
 
Ja, messbar ist vieles. Die Frage die sich stellt, ist dabei mMn immer: Merkt man das wirklich oder glaubt man das zu merken, weil man einen leichten Technik-Fetisch hat?
Das trifft derzeit leider auf so vieles zu (Messbare vs. spürbare Leistung etc.)...Man redet bedauerlicherweise an vielen Stellen Nvidia derzeit gerne das Wort, ohne darüber nachzudenken, was die eigentlich für ein Spiel spielen.

Sie fahren die proprietäre Schiene wo sie nur können und gerade die PC-Enthusiasten, die sich dafür interessieren müssten, stört das nicht. Dass der PC dabei als (nicht im) Prinzip hops geht, juckt offensichtlich niemanden, weil man schlicht zu kurzsichtig ist und aus der Geschichte nichts lernt.
Für mich ist das proprietäre Gehabe ein deutlich größerer Negativpunkt als die Mie-Mie-Mie-40 Hz-Threnodien die ständig geträllert werden, weil ich ein Freund der offenen Plattform PC bin (daher verabscheue ich übrigens auch dieses NUC-Zeug, aber das ist eine anderer Geschichte und soll ein andermal erzählt werden.)

Freesync ist halt frei und trägt gerade dadurch enorm zu einer für die Nutzer gewinnbringenden Konkurrenz-Situation bei, nicht nur gegenüber G-Sync, sondern auch innerhalb der Freesync-Partner. Freiheit bringt aber halt auch immer Verantwortung mit sich. Klar, es gibt einen größeren Qualitätsquerschnitt als bei vor-überwachten Produkten wie G-Sync. Und klar, dadurch muss ich etwas genauer hinschauen, was ich kaufe; aber wenn ich ein mündiger Mensch bin und weiß, welche Portale man noch lesen kann, die fair berichten (eures zähle ich da übrigens ausdrücklich dazu), dann kann ich mich informieren.

Wenn ich allerdings sehe, wie viel einseitiger Müll inzwischen auf Hardware-Portalen zu finden ist, dann wird's langsam auch für mündige Bürger schwer. Daher meine Elegie da oben. Es stirbt nicht nur der PC, es stirbt auch der neutrale Journalismus. (Daher zahle ich auch gerne das Abo für gute Seiten, sofern das dazu beiträgt die Unabhängigkeit zu wahren. Ein positives Beispiel ist mMn der Artikel zu den GCN DX-Feature Levels, der wirklich schön die Fakten auf den Tisch legt und Hintergründe erklärt, ohne abzudriften. Computerbase schreibt dagegen z.B. von Tier 3 etc. gar nichts. Oder man betrachte mal Mobilegeeks, die nun schön ASUS oben stehen haben und bei denen geschätzt 80% der Computex-News ASUS-Produkte betrafen.)
 
Zuletzt bearbeitet:
Freesync ist halt frei
Nö. Freesync ist AMD proprietär.
Du meinst aber bestimmt den Vesa Standard "Adaptive Sync". Der ist frei, wird in den Monitoren verbaut die diesen Standard unterstützen und kann von jedem Grafikhersteller genutzt werden.
 
Was ist daran proprietär außer dem Namen? Aber klar, du hast recht, es wäre besser gewesen, von Adaptive Sync zu sprechen.
 
Zuletzt bearbeitet:
Mei, NV hat immer noch Frame-Verdopplung und -Verdreifachung bei unter 30 Hz per Scaler sowie Treiber. AMD (noch) nicht - Fakt.
Soweit ich gesehen habe gibt es keinen Gsync Monitor der unter 37 Hz taktet. Dort fängt Nvidias Frameverdoppelung an. Nur was ist daran besser als Freesyncs Methode die Frames auf die maximalen 144Hz zu schalten?
Oder Alternativ einen Monitor mit Freesync der echte 30Hz kann wie der oben verlinkte?
 
Zuletzt bearbeitet:
Ja, messbar ist vieles. Die Frage die sich stellt, ist dabei mMn immer: Merkt man das wirklich oder glaubt man das zu merken, weil man einen leichten Technik-Fetisch hat?
Schnapp dir mal den LG 34UM67, der hat nur 48 bis 75 Hz als Freesync-Range. Mit hohen Details und VSR landet man da auch mit einer 290X gerne mal bei unter 48 Hz und dann merkt man das Stottern von V-Sync sehr.

Soweit ich gesehen habe gibt es keinen Gsync Monitor der unter 37 Hz taktet. Dort fängt Nvidias Frameverdoppelung an. Nur was ist daran besser als Freesyncs Methode die Frames auf die maximalen 144Hz zu schalten? Oder Alternativ einen Monitor mit Freesync der echte 30Hz kann wie der oben verlinkte?
Von was redest du? Frames auf 144 Hz schalten?! Per G-Sync bist du nach unten hin nie nicht ge-G-sync, bei Freesync je nach Monitor bei unter 48 bis 30 Hz - das merkt man. 30 Hz Minimum für Freesync wurden erst angekündigt, nicht verfügbar ... unter 30 fps ist eh schwammig.
 
Zuletzt bearbeitet:
Hier wird gezeigt, wie Nvidia die 30 Hz erreichen - nämlich gar nicht.

Schnapp dir mal den LG 34UM67, der hat nur 48 bis 75 Hz als Freesync-Range. Mit hohen Details und VSR landet man da auch mit einer 290X gerne mal bei unter 48 Hz und dann merkt man das Stottern von V-Sync sehr.
Das ist ja wohl nicht das Problem von Freesync, wenn ein Monitorhersteller seinen Monitor so baut. Dafür gibt es Testberichte. V-Sync kann man abschalten und dann taktet der Monitor mit 75 Hz wenn er unter 48 HZ kommt, sofern der Hersteller dies in seinem EDID-Profil so veranlasst.

Von was redest du? Frames auf 144 Hz schalten?! Per G-Sync bist du nach unten hin nie nicht ge-G-sync, bei Freesync je nach Monitor bei unter 48 bis unter 30 Hz - das merkt man. 30 Hz Minimum für Freesync wurden erst angekündigt, nicht verfügbar ... unter 30 fps ist eh schwammig.
Von was redest DU denn? Kein Monitor kann unter seinem Limit takten. Mindesttaktraten sind genau dies.
Und angekündigt wurde der Nixeus im Januar: http://www.computerbase.de/2015-01/zehn-freesync-monitore-machen-den-anfang/

Einerseits schreibst du Freesync geht bis unter 30 Hz (was völliger Humbug ist, da das Paneel bestimmt wie tief es takten kann aufgrund der Pixel-Haltbarkeit - und das ist genau da wo Adaptive Sync bei Nvidia und auch bei AMD keine niedrigeren Frequenzen bieten kann) und andererseits das Minimum sei erst angekündigt worden.
Der Widerspruch entsteht weil du Hz=FPS verwendest in deinem lesen und schreiben.

Du hättest dir die Quellen hier im Thread von BoMbY sorgfältiger durch lesen sollen, dann wüsstest du, dass der BenQ XL2730Z bei deaktiviertem VSync auf 144 Hz taktet sobald die 40 FPS Grenze unterschritten wird.

Im Gegensatz zu PCper haben Techreport nicht nur Nvidias Tom Peterson nach der Funktionsweise befragt, sondern auch AMDs David Glen, einen der Entwickler von Freesync. Der sagt deutlich dort:
The basic behavior is similar to G-Sync's. If the wait for a new frame exceeds the display's tolerance, Glen said, "we show the frame again, and show it at the max rate the monitor supports." Once the screen has been painted, which presumably takes less than 6.94 ms on a 144Hz display, the monitor should be ready to accept a new frame at any time.
Das selbe sagen die Messergebnisse, die eben mit VSync On und VSync Off durchgeführt wurden. PCPer hat lediglich mit VSync On getestet und das Verhalten in den Grafiken für VSync Off unter 40 FPS einfach übernommen, da dies ja das typische und bekannte Verhalten von VSync ist - dabei aber eine bessere Qualität bemerkt. Dem Grund sind sie nicht nach gegangen und AMD haben sie auch nicht gefragt.

Der einzige Unterschied zwischen GSync und Freeesync unterhalb von 40 FPS ist, dass GSync versucht exakt die doppelten Hz anzulegen wie die FPS welche die GPU auswirft, während AMD sich diese Berechnung spart und Framekollisionen vermeidet indem der neue Frame den alten Frame sofort unterbrechen darf, sofern dieser mindestens einmal wiederholt wurde zuvor (bei 144 Hz nach 6,94 ms) anstatt die Hz zu verdoppeln und weiter die exakten FPS zu messen unterhalb von 40 FPS.
 
Zuletzt bearbeitet:
Zurück
Oben Unten