AMD Free Sync - Die G-Sync Alternative

Denn ansonsten sehe ich Nvidia weit hinterher mit allem. DX-Featurelevel, Speichertecnologie, Fertigung.
Maxwell v2 unterstützt soweit bekannt ein höheres D3D12 Feature Level als AMDs GCN 1.1 (nur Tonga mit v1.2 ist neuer), hat HBM vor AMD (öffentlich) angekündigt und hängt mit der 390X fest, zudem ist NV gerade mit einem sehr effizienten 600mm²-Chip gestartet. Wenn derzeit jemand hinterher ist, dann AMD ... vor allem, wenn sich bestätigt, dass unter Fiji nur Rebrands kommen.
 
Das hat aber alles wenig mit A-Sync/G-Sync zu tun, beim Syncthema wird man denke ich in einem Jahr schon ein Fazit ziehen können.
 
Nvidia ist doch schon wieder hinterher:
http://gamingbolt.com/directx-12-an...tures-executeindirect-performance-comparisons
dx12-features-xbox-one-pc-mobile-5-1024x579.jpg

https://forums.geforce.com/default/topic/818065/gtx-900-directx12-feature-level-tier-level/
Based on the D3D12 resource binding table from GDC, this is true. Resource binding TIER3 requires unlimited resources (SRVs, USVs, CBVs) and samplers, and only AMD has the architecture to support this kind of resource binding model. Basically GCN is only limited by the device memory. Resource binding TIER3 is designed for the Xbox One, which is also use a GCN integrated graphics unit. I think Microsoft don't want to limit the PC so they will allow this resource binding level for the PC hardwares as well. I'm pretty sure that all future GPUs will support resource binding TIER3, but for now it's limited to GCN.

As for your question, GeForce 960/970/980 can support resource binding TIER2. This is also a very good resource binding level, it's bindless, and the program can use 1 048 576 samplers and SRVs per stage. This is exactly the same number what GeForce 960/970/980 can support based on the 2nd gen Maxwell whitepaper.
Tja mal wieder 1 Jahr hinterher bis Pascal mit HBM und diesen Features auftaucht. Und was Nvidia ankündigt ist eines, was sie verbauen was anderes. Demnach hatte Maxwell auch vollmundig Unified Memory versprochen bekommen - wo ist es? GCN ist da schon lange und setzt die Dinge direkt um: SFR z.B.

Das ist das Problem einer guten Marketing-Abteilung, wenn die Technik da nciht mit zieht. Mir ist als Kunde dann der Folienpraktikant lieber als der gute Verkäufer der Nvidias Murks zu 70% Marktanteil verhilft.

--- Update ---

@errate
Du hast natürlich recht. Doch diese "Hinterher"-Gequatsche ist teilweise echt nervtötend. So hat Apple auch die Smartphones erfunden.
 
Zuletzt bearbeitet:
Du hast natürlich recht. Doch diese "Hinterher"-Gequatsche ist teilweise echt nervtötend.

Kann dich da verstehen, mir hat es auch in den Fingern gejuckt.
 
Binding Tier3 alleine macht kein FL 12_1, Unterstützung von HBM auf Kosten von T2M ist auch nicht der Hit.
 
Was auch immer -Nvidia ist da zurück.

Wenn T2M "Time to Market" heissen soll ist das der nächste Blödsinn. Wenn nicht drück dich bitte so aus, dass man weis was du meinst. Nvidia ist locker 1 Jahr im Zyklus hinterher. Zähl doch mal wie viele GPU-Chips Nvidia gebaut hat seit Mitte 2013 und wie viele AMD:
http://www.computerbase.de/forum/showthread.php?t=1459853&p=17187942#post17187942
Also das mit den Generation will ich doch mal genau wissen:
Fermi->Kepler->Maxwell 1.0->Maxwell 2.0

Evergreen war vor Fermi am Markt - gute 6 Monate
Northern Island vor Kepler - 1 Jahr und 3 Monate
Southern Island vor Maxwell 1.0 - 2 Jahre und 2 Monate
Volcanic Islands (GCN) vor Maxwell 2.0 - 11 Monate
Pirate Islands mit HBM...da steht im Moment noch lange kein Kandidat für Nvidia bereit auch wenn GM210 zumindest den Anschluß niciht verlieren sollte bis Pascal kommt in 2016.

Und hierbei sollte man bedenken, dass Maxwell ein ganzes Jahr zu spät kam und die erste Version sage und schreibe eine einzige Karte hervorgebracht hat: GTX 750 Ti
Maxwell 2.0 hat dann einen einzigen Chip (GM204) hervorgebracht bis im Januar diesen Jahre endlich mal 5 Monate später ein zweiter (GM206) released wurde und eben kürzlich noch GM210

Das macht sage und schreibe 4 GPUs zwischen Mitte 2013 und Heute die Nvidia hergestellt hat.
AMD hat in dem selben Zeitraum Oland, Cape-Verde, Bonaire, Tahiti, Tonga und Hawaii raus gebracht und Fiji steht vor der Tür.
 
Fakt ist, NV hat derzeit die moderneren und effizienteren Karten am Markt sowie das schnellste Modell.
 
Das schnellste Modell mit der ältesten bis auf Gerippe abgespeckte Architektur, meinst du wohl.
Titan Preispunkt wurde mit seinen Computing-Fähigkeiten als Semi-Professionell begründet. Keine DP mehr bei der Titan X und dafür der überteuerte Preis der bleibt für eine Karte die bei erscheinen schon nicht das aktuellste Featureset bieten kann.

Und ich würde wirklich gerne mal einen Moderator denjenigen bestrafen sehen der immer diese Unwahrheiten in Einzeilern als Offtopic hier einbringt. Da braucht es 3 Seiten wieder um den Lesern darzulegen dass du mit deinem Schwachsinn ohne Quellen nur AMD bashst.

--- Update ---

Und von Effizienz-Vorsprung ist bei der Titan auch nichts zu sehen. Schöner Mythos.....
 
Zuletzt bearbeitet:
Keine DP-Einheiten in der Titan und daher kaum DP-Leistung. 1/32 der SP Leistung.
Perf./Watt kann man vergleichen wenn man das gleiche leisten kann. Wie gesagt die Titan hatte ihren Preispunkt wegen der DP-Leistung die bei der Titan X nicht mehr vorhanden ist.

Solange Features fehlen kann man niemals die Performance als gleichwertig ansehen.
Oder würdest du eine AMD-Karte mit schlechterem AA einen höhere Effizienz attestieren?
Und Nvidia wird sicherlich A-Sync unterstützen, da sie sonst kein DP 1.3 hätten - mit dem derzeitigen Gsync-Modul kann man die VESA-Spezifikation wohl kaum erfüllen. Vor allem ist bei DP 1.3 ja A-Sync mit onBoard.
 
Ich bin dir immer zu blöd wenn du mit deinen Phantasien in Einzeilerformet durch das Forum ziehst.
 
Behauptungen und Interpretationen von Fakten. Und andere Fakten ignorierst du. Daher sind deine Einzeiler auch so gehaltlos.
 
In Sachen Effizienz. Bitte jetzt keine Diskussion über Sinn und Unsinn. Es steht nun mal gegenwärtig im Fokus, warum auch immer.
Weil Nvidia da im Moment vorne ist, zumindest in Spielen. Bei Fermi hat es natürlich noch keinen interessiert. :]


Denn ansonsten sehe ich Nvidia weit hinterher mit allem. DX-Featurelevel, Speichertecnologie, Fertigung. Da ist Nvidia immer 6-12 Monate später dran als AMD seit Evergreen/Fermi - da kann man auch effizientere Chips bringen wenn die fertigung 6-12 Monate reifer ist.
Nicht erst seit Evergreen/Fermi. Das war auch schon vorher so, sogar schon vor der Unified Shader Revolution mit DirectX 10. Nvidia steht im Moment in Spielen effizienter da, das muss man ihnen lassen. Technologisch hinkten sie aber eigentlich immer hinterher. Das ist auch heute nicht anders. Feature-Level von Grafik-APIs, Speichertechnologie (HBM), Computing Support, Integration (HSA) usw. Fast überall hinkt Nvidia im Grunde ein bis mehrere Generationen hinterher. AMD (ATI) designed da einfach die moderneren und zukunftsfähigeren Architekturen. Sieht man alleine schon daran, dass Nvidia mit Kepler den gleichen Weg eingeschlagen hat wie AMD. Weg von den aufwändigen und doppelt so hoch taktenden Shadern, hin zu schlanken und mit Kerntakt laufenden Shadern. Das hatte ich im HWL Forum zu G92/G200 Zeiten schon mal vorausgesagt und dass Nvidia nur so wieder konkurrenzfähig werden kann. Die Nvidia Fanboys wollten es natürlich nicht glauben und dachten, die G80 Architektur sei das beste überhaupt.

Keine DP-Einheiten in der Titan und daher kaum DP-Leistung.
Richtig. Der GM200 ist eigentlich ein ziemlicher Krüppel im HPC Markt, wo oft DP gefordert wird. Sowohl was Performance als auch Effizienz betrifft. Bin mir nicht sicher, ob Nvidia damit einen ziemlichen Bock geschossen hat, auf DP-Einheiten zu verzichten. Was man bisher an Reaktionen so hört und liest, klingt jedenfalls alles andere als positiv für Nvidia. Sehr wahrscheinlich werden sie so weiter an Marktanteilen im professionellen Bereich verlieren. Und die paar Gamer, denen man eine >1000 Euro Karte für 20-30% mehr FPS im Vergleich zur GTX 980 andrehen kann, wird es am Ende auch nicht rausreissen.
 
Zuletzt bearbeitet:
Sagt mal auch wenn ich wieder Ärger bekomme, reicht es jetzt nicht mit dem Offtopic. Kaum ist Ruhe kommt der Nächste mit dem selben Unsinn um die Ecke.
 
Ob nun Nvidia nun für eine Titan X 500, 1000 oder 10000 € verlangt, ist ihnen überlassen. Sie sind alt genug und lange genug dabei es selbst zu entscheiden.
An sich war die Idee mit dem Gsync-Modul nicht doof. Immerhin haben sie auf diese Weise die Kompatibilitätsprobleme, die gerade AMD hat, umgangen. Auch ist die Umsetzung ist leichter und schneller. Nur kostet diese hat mehr Geld. Aber das scheint nicht wirklich ein Problem zu sein. Schlimmer finde ich das in den Reaktion meistens einseitig nach irgendwelchen Vorgaben arbeiten. Von daher ist der recht positive Klang bei Freesync etwas verwunderlich. Ich bin mir sicher das ich demnächst ein Artikel heraus kommt bei dem Freesync nicht mehr gut wegkommt.
 
Ich bin mir sicher das ich demnächst ein Artikel heraus kommt bei dem Freesync nicht mehr gut wegkommt.
Warum sollte es schlechter als G-Sync abschneiden? FreeSync bietet technisch keinerlei Angriffspunkte.
 
Schlimmer finde ich das in den Reaktion meistens einseitig nach irgendwelchen Vorgaben arbeiten.
Belege diese haltlose Unterstellung erstmal ... einziges Problem aktuell sind IMHO die 40 Hz, das liegt aber an den Panels.

Behauptungen und Interpretationen von Fakten.
Wo sind die gezeigten Links Behauptungen und Interpretationen? Rechne die Perf/Watt in Anno 2070 aus und du wirst sehen, alle Maxwell v2 schlagen hinsichtlich der Effizienz deutlich. Selbst gruffi hat das erkannt ...
 
Und was habe ich Gegenteiliges geschrieben?
Ich schrieb es gibt effizienter oder weniger Effizient - einen Vorsprung bei Effizienz gibt es nicht.

Wenn eine GPU etwas gar nicht kann weil ihr Hardwareeinheiten fehlen ist sie aber nicht effizienter, sondern abgespeckt in der Leistung um effizienter zu wirken. Erst mal eine GPU die das selbe an Hardware verbaut hat, dann können wir Effizienz vergelichen. Solange Nvidia es nicht schafft seinen Shadercores einfach DP beizubringen ohne separate DP Einheite, die sie nun auch gestrichen haben, kann die GPU nicht effizienter sein, weil sie einen Teil der Hardware gar nicht besitzt. DP-Precision und DX Feature-Level auf Augenhöhe und wir schauen uns die Effizienz dann mal erneut an. Wenn beide GPUs die selben Fähigkeiten haben, kannst du einzelne Tests anfangen zu vergleichen, weil dann auch alle den selben Test durchführen können.
 
So kann man es freilich auch schön reden, wenn man über das Ziel hinaus schießt.
 
Zumindest ist es anders als noch bei der GeForce GTX 780 Ti oder der Radeon R9 290X keine künstliche Beschränkung.

Künstliche Beschränkungen finde ich persönlich immer ärgerlicher als den Umstand, dass das Design nicht mehr hergibt.
 
Da stimme ich dir zu. Doch ich kann auch verstehen wenn ein Unternehmen einen Effizienten Chip baut den er in 2 Märkten nutzen kann.
 
Zurück
Oben Unten