App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD Free Sync - Die G-Sync Alternative
- Ersteller Duplex
- Erstellt am
y33H@
Admiral Special
- Mitglied seit
- 16.05.2011
- Beiträge
- 1.768
- Renomée
- 10
Maxwell v2 unterstützt soweit bekannt ein höheres D3D12 Feature Level als AMDs GCN 1.1 (nur Tonga mit v1.2 ist neuer), hat HBM vor AMD (öffentlich) angekündigt und hängt mit der 390X fest, zudem ist NV gerade mit einem sehr effizienten 600mm²-Chip gestartet. Wenn derzeit jemand hinterher ist, dann AMD ... vor allem, wenn sich bestätigt, dass unter Fiji nur Rebrands kommen.Denn ansonsten sehe ich Nvidia weit hinterher mit allem. DX-Featurelevel, Speichertecnologie, Fertigung.
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 22.888
- Renomée
- 3.204
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Das hat aber alles wenig mit A-Sync/G-Sync zu tun, beim Syncthema wird man denke ich in einem Jahr schon ein Fazit ziehen können.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.978
- Renomée
- 459
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Nvidia ist doch schon wieder hinterher:
http://gamingbolt.com/directx-12-an...tures-executeindirect-performance-comparisons
https://forums.geforce.com/default/topic/818065/gtx-900-directx12-feature-level-tier-level/
Das ist das Problem einer guten Marketing-Abteilung, wenn die Technik da nciht mit zieht. Mir ist als Kunde dann der Folienpraktikant lieber als der gute Verkäufer der Nvidias Murks zu 70% Marktanteil verhilft.
--- Update ---
@errate
Du hast natürlich recht. Doch diese "Hinterher"-Gequatsche ist teilweise echt nervtötend. So hat Apple auch die Smartphones erfunden.
http://gamingbolt.com/directx-12-an...tures-executeindirect-performance-comparisons
https://forums.geforce.com/default/topic/818065/gtx-900-directx12-feature-level-tier-level/
Tja mal wieder 1 Jahr hinterher bis Pascal mit HBM und diesen Features auftaucht. Und was Nvidia ankündigt ist eines, was sie verbauen was anderes. Demnach hatte Maxwell auch vollmundig Unified Memory versprochen bekommen - wo ist es? GCN ist da schon lange und setzt die Dinge direkt um: SFR z.B.Based on the D3D12 resource binding table from GDC, this is true. Resource binding TIER3 requires unlimited resources (SRVs, USVs, CBVs) and samplers, and only AMD has the architecture to support this kind of resource binding model. Basically GCN is only limited by the device memory. Resource binding TIER3 is designed for the Xbox One, which is also use a GCN integrated graphics unit. I think Microsoft don't want to limit the PC so they will allow this resource binding level for the PC hardwares as well. I'm pretty sure that all future GPUs will support resource binding TIER3, but for now it's limited to GCN.
As for your question, GeForce 960/970/980 can support resource binding TIER2. This is also a very good resource binding level, it's bindless, and the program can use 1 048 576 samplers and SRVs per stage. This is exactly the same number what GeForce 960/970/980 can support based on the 2nd gen Maxwell whitepaper.
Das ist das Problem einer guten Marketing-Abteilung, wenn die Technik da nciht mit zieht. Mir ist als Kunde dann der Folienpraktikant lieber als der gute Verkäufer der Nvidias Murks zu 70% Marktanteil verhilft.
--- Update ---
@errate
Du hast natürlich recht. Doch diese "Hinterher"-Gequatsche ist teilweise echt nervtötend. So hat Apple auch die Smartphones erfunden.
Zuletzt bearbeitet:
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 22.888
- Renomée
- 3.204
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Du hast natürlich recht. Doch diese "Hinterher"-Gequatsche ist teilweise echt nervtötend.
Kann dich da verstehen, mir hat es auch in den Fingern gejuckt.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.978
- Renomée
- 459
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Was auch immer -Nvidia ist da zurück.
Wenn T2M "Time to Market" heissen soll ist das der nächste Blödsinn. Wenn nicht drück dich bitte so aus, dass man weis was du meinst. Nvidia ist locker 1 Jahr im Zyklus hinterher. Zähl doch mal wie viele GPU-Chips Nvidia gebaut hat seit Mitte 2013 und wie viele AMD:
http://www.computerbase.de/forum/showthread.php?t=1459853&p=17187942#post17187942
Wenn T2M "Time to Market" heissen soll ist das der nächste Blödsinn. Wenn nicht drück dich bitte so aus, dass man weis was du meinst. Nvidia ist locker 1 Jahr im Zyklus hinterher. Zähl doch mal wie viele GPU-Chips Nvidia gebaut hat seit Mitte 2013 und wie viele AMD:
http://www.computerbase.de/forum/showthread.php?t=1459853&p=17187942#post17187942
Also das mit den Generation will ich doch mal genau wissen:
Fermi->Kepler->Maxwell 1.0->Maxwell 2.0
Evergreen war vor Fermi am Markt - gute 6 Monate
Northern Island vor Kepler - 1 Jahr und 3 Monate
Southern Island vor Maxwell 1.0 - 2 Jahre und 2 Monate
Volcanic Islands (GCN) vor Maxwell 2.0 - 11 Monate
Pirate Islands mit HBM...da steht im Moment noch lange kein Kandidat für Nvidia bereit auch wenn GM210 zumindest den Anschluß niciht verlieren sollte bis Pascal kommt in 2016.
Und hierbei sollte man bedenken, dass Maxwell ein ganzes Jahr zu spät kam und die erste Version sage und schreibe eine einzige Karte hervorgebracht hat: GTX 750 Ti
Maxwell 2.0 hat dann einen einzigen Chip (GM204) hervorgebracht bis im Januar diesen Jahre endlich mal 5 Monate später ein zweiter (GM206) released wurde und eben kürzlich noch GM210
Das macht sage und schreibe 4 GPUs zwischen Mitte 2013 und Heute die Nvidia hergestellt hat.
AMD hat in dem selben Zeitraum Oland, Cape-Verde, Bonaire, Tahiti, Tonga und Hawaii raus gebracht und Fiji steht vor der Tür.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.978
- Renomée
- 459
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Das schnellste Modell mit der ältesten bis auf Gerippe abgespeckte Architektur, meinst du wohl.
Titan Preispunkt wurde mit seinen Computing-Fähigkeiten als Semi-Professionell begründet. Keine DP mehr bei der Titan X und dafür der überteuerte Preis der bleibt für eine Karte die bei erscheinen schon nicht das aktuellste Featureset bieten kann.
Und ich würde wirklich gerne mal einen Moderator denjenigen bestrafen sehen der immer diese Unwahrheiten in Einzeilern als Offtopic hier einbringt. Da braucht es 3 Seiten wieder um den Lesern darzulegen dass du mit deinem Schwachsinn ohne Quellen nur AMD bashst.
--- Update ---
Und von Effizienz-Vorsprung ist bei der Titan auch nichts zu sehen. Schöner Mythos.....
Titan Preispunkt wurde mit seinen Computing-Fähigkeiten als Semi-Professionell begründet. Keine DP mehr bei der Titan X und dafür der überteuerte Preis der bleibt für eine Karte die bei erscheinen schon nicht das aktuellste Featureset bieten kann.
Und ich würde wirklich gerne mal einen Moderator denjenigen bestrafen sehen der immer diese Unwahrheiten in Einzeilern als Offtopic hier einbringt. Da braucht es 3 Seiten wieder um den Lesern darzulegen dass du mit deinem Schwachsinn ohne Quellen nur AMD bashst.
--- Update ---
Und von Effizienz-Vorsprung ist bei der Titan auch nichts zu sehen. Schöner Mythos.....
y33H@
Admiral Special
- Mitglied seit
- 16.05.2011
- Beiträge
- 1.768
- Renomée
- 10
Kaum (nicht kein!) DP und 12 GB sind Schwächen, gerade als Quadro und deswegen auch keine Tesla.
Perf/Watt der Titan X ist wie bei allen Maxwell v2 besser als bei AMD, da schneller bei weniger/ähnlich viel Watt, siehe zB Anno 2070:
http://www.computerbase.de/2015-03/...-im-test/4/#abschnitt_einzelergebnisse_spiele
http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/8/
@ Topic
Ich erwarte, dass NV A-Sync spätestens 2016 unterstützt.
Perf/Watt der Titan X ist wie bei allen Maxwell v2 besser als bei AMD, da schneller bei weniger/ähnlich viel Watt, siehe zB Anno 2070:
http://www.computerbase.de/2015-03/...-im-test/4/#abschnitt_einzelergebnisse_spiele
http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/8/
@ Topic
Ich erwarte, dass NV A-Sync spätestens 2016 unterstützt.
Zuletzt bearbeitet:
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.978
- Renomée
- 459
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Keine DP-Einheiten in der Titan und daher kaum DP-Leistung. 1/32 der SP Leistung.
Perf./Watt kann man vergleichen wenn man das gleiche leisten kann. Wie gesagt die Titan hatte ihren Preispunkt wegen der DP-Leistung die bei der Titan X nicht mehr vorhanden ist.
Solange Features fehlen kann man niemals die Performance als gleichwertig ansehen.
Oder würdest du eine AMD-Karte mit schlechterem AA einen höhere Effizienz attestieren?
Und Nvidia wird sicherlich A-Sync unterstützen, da sie sonst kein DP 1.3 hätten - mit dem derzeitigen Gsync-Modul kann man die VESA-Spezifikation wohl kaum erfüllen. Vor allem ist bei DP 1.3 ja A-Sync mit onBoard.
Perf./Watt kann man vergleichen wenn man das gleiche leisten kann. Wie gesagt die Titan hatte ihren Preispunkt wegen der DP-Leistung die bei der Titan X nicht mehr vorhanden ist.
Solange Features fehlen kann man niemals die Performance als gleichwertig ansehen.
Oder würdest du eine AMD-Karte mit schlechterem AA einen höhere Effizienz attestieren?
Und Nvidia wird sicherlich A-Sync unterstützen, da sie sonst kein DP 1.3 hätten - mit dem derzeitigen Gsync-Modul kann man die VESA-Spezifikation wohl kaum erfüllen. Vor allem ist bei DP 1.3 ja A-Sync mit onBoard.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.978
- Renomée
- 459
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Ich bin dir immer zu blöd wenn du mit deinen Phantasien in Einzeilerformet durch das Forum ziehst.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.978
- Renomée
- 459
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Behauptungen und Interpretationen von Fakten. Und andere Fakten ignorierst du. Daher sind deine Einzeiler auch so gehaltlos.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Weil Nvidia da im Moment vorne ist, zumindest in Spielen. Bei Fermi hat es natürlich noch keinen interessiert.In Sachen Effizienz. Bitte jetzt keine Diskussion über Sinn und Unsinn. Es steht nun mal gegenwärtig im Fokus, warum auch immer.
Nicht erst seit Evergreen/Fermi. Das war auch schon vorher so, sogar schon vor der Unified Shader Revolution mit DirectX 10. Nvidia steht im Moment in Spielen effizienter da, das muss man ihnen lassen. Technologisch hinkten sie aber eigentlich immer hinterher. Das ist auch heute nicht anders. Feature-Level von Grafik-APIs, Speichertechnologie (HBM), Computing Support, Integration (HSA) usw. Fast überall hinkt Nvidia im Grunde ein bis mehrere Generationen hinterher. AMD (ATI) designed da einfach die moderneren und zukunftsfähigeren Architekturen. Sieht man alleine schon daran, dass Nvidia mit Kepler den gleichen Weg eingeschlagen hat wie AMD. Weg von den aufwändigen und doppelt so hoch taktenden Shadern, hin zu schlanken und mit Kerntakt laufenden Shadern. Das hatte ich im HWL Forum zu G92/G200 Zeiten schon mal vorausgesagt und dass Nvidia nur so wieder konkurrenzfähig werden kann. Die Nvidia Fanboys wollten es natürlich nicht glauben und dachten, die G80 Architektur sei das beste überhaupt.Denn ansonsten sehe ich Nvidia weit hinterher mit allem. DX-Featurelevel, Speichertecnologie, Fertigung. Da ist Nvidia immer 6-12 Monate später dran als AMD seit Evergreen/Fermi - da kann man auch effizientere Chips bringen wenn die fertigung 6-12 Monate reifer ist.
Richtig. Der GM200 ist eigentlich ein ziemlicher Krüppel im HPC Markt, wo oft DP gefordert wird. Sowohl was Performance als auch Effizienz betrifft. Bin mir nicht sicher, ob Nvidia damit einen ziemlichen Bock geschossen hat, auf DP-Einheiten zu verzichten. Was man bisher an Reaktionen so hört und liest, klingt jedenfalls alles andere als positiv für Nvidia. Sehr wahrscheinlich werden sie so weiter an Marktanteilen im professionellen Bereich verlieren. Und die paar Gamer, denen man eine >1000 Euro Karte für 20-30% mehr FPS im Vergleich zur GTX 980 andrehen kann, wird es am Ende auch nicht rausreissen.Keine DP-Einheiten in der Titan und daher kaum DP-Leistung.
Zuletzt bearbeitet:
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 22.888
- Renomée
- 3.204
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Sagt mal auch wenn ich wieder Ärger bekomme, reicht es jetzt nicht mit dem Offtopic. Kaum ist Ruhe kommt der Nächste mit dem selben Unsinn um die Ecke.
Ob nun Nvidia nun für eine Titan X 500, 1000 oder 10000 € verlangt, ist ihnen überlassen. Sie sind alt genug und lange genug dabei es selbst zu entscheiden.
An sich war die Idee mit dem Gsync-Modul nicht doof. Immerhin haben sie auf diese Weise die Kompatibilitätsprobleme, die gerade AMD hat, umgangen. Auch ist die Umsetzung ist leichter und schneller. Nur kostet diese hat mehr Geld. Aber das scheint nicht wirklich ein Problem zu sein. Schlimmer finde ich das in den Reaktion meistens einseitig nach irgendwelchen Vorgaben arbeiten. Von daher ist der recht positive Klang bei Freesync etwas verwunderlich. Ich bin mir sicher das ich demnächst ein Artikel heraus kommt bei dem Freesync nicht mehr gut wegkommt.
An sich war die Idee mit dem Gsync-Modul nicht doof. Immerhin haben sie auf diese Weise die Kompatibilitätsprobleme, die gerade AMD hat, umgangen. Auch ist die Umsetzung ist leichter und schneller. Nur kostet diese hat mehr Geld. Aber das scheint nicht wirklich ein Problem zu sein. Schlimmer finde ich das in den Reaktion meistens einseitig nach irgendwelchen Vorgaben arbeiten. Von daher ist der recht positive Klang bei Freesync etwas verwunderlich. Ich bin mir sicher das ich demnächst ein Artikel heraus kommt bei dem Freesync nicht mehr gut wegkommt.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.124
- Renomée
- 986
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X (100-100000071)
- Mainboard
- ASUS ProArt B550-Creator
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB (11324-01-20G)
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64) Xfce
- Verschiedenes
- ASUS TPM-SPI (Nuvoton NPCT750A)
Warum sollte es schlechter als G-Sync abschneiden? FreeSync bietet technisch keinerlei Angriffspunkte.Ich bin mir sicher das ich demnächst ein Artikel heraus kommt bei dem Freesync nicht mehr gut wegkommt.
y33H@
Admiral Special
- Mitglied seit
- 16.05.2011
- Beiträge
- 1.768
- Renomée
- 10
Belege diese haltlose Unterstellung erstmal ... einziges Problem aktuell sind IMHO die 40 Hz, das liegt aber an den Panels.Schlimmer finde ich das in den Reaktion meistens einseitig nach irgendwelchen Vorgaben arbeiten.
Wo sind die gezeigten Links Behauptungen und Interpretationen? Rechne die Perf/Watt in Anno 2070 aus und du wirst sehen, alle Maxwell v2 schlagen hinsichtlich der Effizienz deutlich. Selbst gruffi hat das erkannt ...Behauptungen und Interpretationen von Fakten.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.978
- Renomée
- 459
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Und was habe ich Gegenteiliges geschrieben?
Ich schrieb es gibt effizienter oder weniger Effizient - einen Vorsprung bei Effizienz gibt es nicht.
Wenn eine GPU etwas gar nicht kann weil ihr Hardwareeinheiten fehlen ist sie aber nicht effizienter, sondern abgespeckt in der Leistung um effizienter zu wirken. Erst mal eine GPU die das selbe an Hardware verbaut hat, dann können wir Effizienz vergelichen. Solange Nvidia es nicht schafft seinen Shadercores einfach DP beizubringen ohne separate DP Einheite, die sie nun auch gestrichen haben, kann die GPU nicht effizienter sein, weil sie einen Teil der Hardware gar nicht besitzt. DP-Precision und DX Feature-Level auf Augenhöhe und wir schauen uns die Effizienz dann mal erneut an. Wenn beide GPUs die selben Fähigkeiten haben, kannst du einzelne Tests anfangen zu vergleichen, weil dann auch alle den selben Test durchführen können.
Ich schrieb es gibt effizienter oder weniger Effizient - einen Vorsprung bei Effizienz gibt es nicht.
Wenn eine GPU etwas gar nicht kann weil ihr Hardwareeinheiten fehlen ist sie aber nicht effizienter, sondern abgespeckt in der Leistung um effizienter zu wirken. Erst mal eine GPU die das selbe an Hardware verbaut hat, dann können wir Effizienz vergelichen. Solange Nvidia es nicht schafft seinen Shadercores einfach DP beizubringen ohne separate DP Einheite, die sie nun auch gestrichen haben, kann die GPU nicht effizienter sein, weil sie einen Teil der Hardware gar nicht besitzt. DP-Precision und DX Feature-Level auf Augenhöhe und wir schauen uns die Effizienz dann mal erneut an. Wenn beide GPUs die selben Fähigkeiten haben, kannst du einzelne Tests anfangen zu vergleichen, weil dann auch alle den selben Test durchführen können.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.978
- Renomée
- 459
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
So kann man es freilich auch schön reden, wenn man über das Ziel hinaus schießt.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.124
- Renomée
- 986
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X (100-100000071)
- Mainboard
- ASUS ProArt B550-Creator
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB (11324-01-20G)
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64) Xfce
- Verschiedenes
- ASUS TPM-SPI (Nuvoton NPCT750A)
Zumindest ist es anders als noch bei der GeForce GTX 780 Ti oder der Radeon R9 290X keine künstliche Beschränkung.
Künstliche Beschränkungen finde ich persönlich immer ärgerlicher als den Umstand, dass das Design nicht mehr hergibt.
Künstliche Beschränkungen finde ich persönlich immer ärgerlicher als den Umstand, dass das Design nicht mehr hergibt.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.978
- Renomée
- 459
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Da stimme ich dir zu. Doch ich kann auch verstehen wenn ein Unternehmen einen Effizienten Chip baut den er in 2 Märkten nutzen kann.
Ist nur die Frage, was das feature-set von Maxwell mit freesync zu tun hat. Achja, ich weiß es, async unterstützt nvidia ja auch noch nicht. ...
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 546
- Antworten
- 500
- Aufrufe
- 21K
- Antworten
- 0
- Aufrufe
- 467