App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
nVidia Geforce RTX 4060/4070/4080/4090 (Ti/Super) (Ada/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1
- Ersteller eratte
- Erstellt am
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.862
- Renomée
- 2.815
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Habe mir das GN Video angeschaut, das "Marketing Speech" einiger Hersteller ist schon befremdlich. "Brutal by Nature"
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.374
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Sehr unterhaltsam fand ich im Teil mit den Gigabyte Karten die Einblendung "yes, its the real framerate of the website"
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.862
- Renomée
- 2.815
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
nVidia gibt Details zum AD102-Chip und zur Ada-Lovelace-Architektur bekannt (3D Center)
Wurde schon in anderen Foren als Click & Bait klassifiziert:
Preise für RTX 4090 und RTX 4080: Selbst "Fanboys" winken ab (PC GamesHardware)
Aus technologischer Sicht erweist sich "Ada Lovelace" damit eher denn als "Ampere auf Stereoiden": Rein Architektur-seitig wurde vergleichsweise wenig verändert, dafür gibt es an der Spitze ein klar breiteres Design samt den Feature-Erweiterungen. Als hauptsächlicher Performance-Bringer quer durchs Chip-Portfolio agiert somit "nur" der durch den Wechsel auf Chipfertiger TSMC gewonnene Mehrtakt.
Wurde schon in anderen Foren als Click & Bait klassifiziert:
Preise für RTX 4090 und RTX 4080: Selbst "Fanboys" winken ab (PC GamesHardware)
Doppelposting wurde automatisch zusammengeführt:
dieses spielchen kann nvidia selbst spielen, viel vergnügen.
es wird vermutlich genügend fanboys geben, die nvidia so oder so das geld hinterhertragen. aber die enthusiasten sind im gegensatz zum rest des marktes eine nische. und der rest des marktes hat momentan andere sorgen als nvidias apotheken-preise zu bezahlen.
btw ... da ist das video von moores law is dead interessant. lovelace soll in der herstellung wohl dramatisch teurer sein als ampere. 50%? wäre ganz schon happig. wenn die teaser zu rdna3 darauf abzielen, könnte amd mit einem "schlanken" chip nvidia in sachen preis/leistung evtl. ordentlich düpieren.
RTX 4090 & Co.: Fallende Preise soll es nicht mehr geben, so Nvidia
Nvidia verlangt bei der Geforce RTX 4090 und RTX 4080 mehr Geld. Auf sinkende Preise sollten Kunden nicht hoffen.
www.pcgameshardware.de
ne, mit den turing super modellen mussten sie auf amd reagieren. und ampere war vergleichsweise günstig. die preiserhöhungen während des ampere-lifecycle kamen während des crypto-booms.Diese "Preisverschiebung" nach oben wurde schon mit der letzten Generation ausführlich getestet und hat super funktioniert.
welche käufer? das waren doch zu > 90% miner. wenn nvidia der meinung ist, dass gamer den spaß mitmachen, sollen sie es gerne ausprobieren. siehe die pcgh-meldung oben. aber vielleicht glaubt nvidia die eigenen märchen immer noch.Die Käufer haben die Preise akzeptiert und zahlen nun mehr - dauerhaft.
es wird vermutlich genügend fanboys geben, die nvidia so oder so das geld hinterhertragen. aber die enthusiasten sind im gegensatz zum rest des marktes eine nische. und der rest des marktes hat momentan andere sorgen als nvidias apotheken-preise zu bezahlen.
btw ... da ist das video von moores law is dead interessant. lovelace soll in der herstellung wohl dramatisch teurer sein als ampere. 50%? wäre ganz schon happig. wenn die teaser zu rdna3 darauf abzielen, könnte amd mit einem "schlanken" chip nvidia in sachen preis/leistung evtl. ordentlich düpieren.
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.862
- Renomée
- 2.815
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Habe auch schon Aussagen von Anhängern gelesen wie das die 4090 zu billig ist für das gebotene und nur das "Beste" ist für ihr Hobby gut genug ist. Mit "Zweitklassigen" will man da sich nicht abgeben und wer das nicht versteht ist nur neidisch.
kann man ja so sehen. nur muss man sich dann nicht wundern, wenn das pc-gaming dann nachhaltig den bach runtergeht. macht für entwickler schon einen unterschied, ob ich 100 millionen ps4 besitzer adressieren kann oder die paar hanseln, die ihr geld noch beim pc verbraten. der markt schrumpft eh schon seit vielen jahren. und nvidia möchte diesen erfolgreichen trend weiter fortsetzen. weniger grafikkarten, dafür mehr highend und höhere preise.Habe auch schon Aussagen von Anhängern gelesen wie das die 4090 zu billig ist für das gebotene und nur das "Beste" ist für ihr Hobby gut genug ist. Mit "Zweitklassigen" will man da sich nicht abgeben und wer das nicht versteht ist nur neidisch.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.374
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Vermutlich spielt es ohnehin keine entscheidene Rolle wieviele Desktop Karten davon verkauft werden denn so wie ich das sehe sind die ohnehin nur die Resteverwertung der professionellen Variante welche, oh Wunder, auf 300W begrenzt ist.
Man will halt dennoch das maximum an Profit rausschlagen und wird erst dann einlenken wenn sie gnadenlos darauf sitzen bleiben bis die Wafer Lager überquellen.
Nvidia RTX 6000: Erste Ada-Profi-Lösung mit mehr Shadern und Speicher
Im Fahrwasser der neuen GeForce RTX 4000 für Consumer hat Nvidia mit der RTX 6000 den ersten Ada-Ableger für das Profi-Segment enthüllt.
www.computerbase.de
Man will halt dennoch das maximum an Profit rausschlagen und wird erst dann einlenken wenn sie gnadenlos darauf sitzen bleiben bis die Wafer Lager überquellen.
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.862
- Renomée
- 2.815
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
kann man ja so sehen. nur muss man sich dann nicht wundern
Nicht für jeden ist das "Beste" was sie meinen dann wirklich das Beste. Möglichst viel Leistung um jeden Preis egal wie viel Verbrauch, Größe und Wärmeentwickelung ist nicht für jeden das Beste.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.225
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
So ganz ohne ist das nicht, die "Optical Multi Frame Generation" berechnet nicht veränderte Pixel nicht noch einmal sondern lässt diese im FrameBuffer unangetastet.Nachdem was ich bisher zu DLSS 3 gelesen hatte habe ich so meine Zweifel an dessen tieferen Nutzen.
Nvidia RTX 4000: Details zur Technik, DLSS 3 und den FEs
Nvidia hat bei einem Editors Day neue Details zu Architektur, DLSS 3 und Founders Editions der GeForce RTX 4000 bekannt gegeben.www.computerbase.de
Die Zwischenbildberechnungerhöht zwar die Framerate hilft aber der Eingabelatenz herzlich wenig und scheint auch noch kontraproduktiv für die Bildqualität zu sein. Irgendwie klingt das nach einem reinen Benchmark Feature.
Die Frage ist natürlich auch wie sich die Zwischenbildberechnung beim bewegten Bild schlagen wird denn ein Soap Effekt wie beim TV kann man da absolut nicht gebrauchen.
Somit haben sie eine bessere Latenz, da nicht jedes Bild komplett neu Berechnet werden muss.
Es ist jetzt aber nicht so, dass das nur Nvidia kann.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.374
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Darauf wollte ich auch garnicht hinaus sondern darauf das der Desktop Markt für teuer Geld nur den Teildeaktivierten Abfall bekommen würde wenn diese Karte auf dem gleichen Chip aufbaut.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.225
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Ja gut, bei HBM sind sie ja nicht geblieben, daher sitzt der VRAM ja auf dem PCB.Darauf wollte ich auch garnicht hinaus sondern darauf das der Desktop Markt für teuer Geld nur den Teildeaktivierten Abfall bekommen würde wenn diese Karte auf dem gleichen Chip aufbaut.
Als Gamer ist dir ECC relativ egal, daher ist ja der Abfall deaktiviert.
Wer es dennoch braucht, kann ja die Profi Karten kaufen.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.374
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ja wie gesagt, es ging nur um den Chip an sich. Wie er am Ende konfiguriert wird ist ein anderes Thema aber für die voll funktionstüchtigen Chips dieser Karte dürfte eine erhebliche Menge an teildefekten Chips abfallen die dann über die Desktop Sparte mit deutlich mehr Takt und Strombedarf zu hohen Preisen verbraten werden. Mit seiner Fan Gemeinde kann man es ja machen.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.225
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
In Ordnung, jetzt hab ich es verstanden.Ja wie gesagt, es ging nur um den Chip an sich. Wie er am Ende konfiguriert wird ist ein anderes Thema aber für die voll funktionstüchtigen Chips dieser Karte dürfte eine erhebliche Menge an teildefekten Chips abfallen die dann über die Desktop Sparte mit deutlich mehr Takt und Strombedarf zu hohen Preisen verbraten werden. Mit seiner Fan Gemeinde kann man es ja machen.
Nun ja, es sitzt ja der PAPA an der Spitze vom ATX 3.0 Standard.
Da geht es nur noch durch mehr kommt von mehr.
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.862
- Renomée
- 2.815
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.551
- Renomée
- 593
Ich möchte doch hoffen, dass in dem Segment ausschliesslich modulare NTs genutzt werden und die NT-Hersteller entsprechende Kabelpeitschen für die neuen Stromanschlüsse bereitstellen, inclusive Hinweisen bei welchen NTs das nicht gemacht werden sollte.
-----
Bei Ada Lovelace ist nach meinem Eindruck die neue Architektur noch nicht verstanden. Hier mal kurz das wesentliche Konzept so wie ich es sehe und mir aufgefallen ist
Erst sobald diese Micro-Meshes im Code einfliessen wird man mit Ada Lovelace sehr grosse Vorteile gegenüber anderer Hardware sehen, ähnlich wie es mit Tesselation lief, das Poster-Child für diese Technik soll wohl Cyberpunk 2077 werden. Gut möglich dass wir dann erst den wirlkichen Energiebedarf der Ada Lovelace sehen, weil dann erst mehr Last auf Cache und SI kommt.
Ich habe momentan noch Zweifel, ob das bei der UE5-Engine mit Nanite und Lumen grossen Nutzen haben kann. Da müsste man sich mal reindenken oder auf Infos von Epic hoffen.
-----
Bei Ada Lovelace ist nach meinem Eindruck die neue Architektur noch nicht verstanden. Hier mal kurz das wesentliche Konzept so wie ich es sehe und mir aufgefallen ist
- doppelte Anzahl Shader-Einheiten und Leistung
- relativ geringfügig gestiegenes Speicherinterface
- dafür bis Faktor 16 grösserer L2 Cache
- dafür optimiertes Scheduling per Hardware (Shader Execution Reordering)
- damit extrem steigende Berechnungen je Polygon mit Micro-Meshes
- ähnlich Tesselation-Konzept
- Displacement Microdreiecke für Meshes, Faktor 50 der Berechnungen in Sub-Details bei RT Shader
- im Beispiel gar Faktor 325, jedes Sub-Polygon nutzt 4 Bit.
- Opacity Microdreiecke fürs Mapping, Abbildung der Sub-Details bei RT Shader
- im Beispiel werden AnyHit-Shader je Sub-Mapping zusammenfassbar
Erst sobald diese Micro-Meshes im Code einfliessen wird man mit Ada Lovelace sehr grosse Vorteile gegenüber anderer Hardware sehen, ähnlich wie es mit Tesselation lief, das Poster-Child für diese Technik soll wohl Cyberpunk 2077 werden. Gut möglich dass wir dann erst den wirlkichen Energiebedarf der Ada Lovelace sehen, weil dann erst mehr Last auf Cache und SI kommt.
Ich habe momentan noch Zweifel, ob das bei der UE5-Engine mit Nanite und Lumen grossen Nutzen haben kann. Da müsste man sich mal reindenken oder auf Infos von Epic hoffen.
Sparky
Admiral Special
- Mitglied seit
- 02.09.2004
- Beiträge
- 1.756
- Renomée
- 146
- Standort
- Wien
- Mein Laptop
- M1 Apple iPad Pro 12.9", 5.Gen (rendert brav meine Filmchen in Lumafusion)
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASUS STRIX B550-F
- Kühlung
- Fractal Design C36
- Speicher
- 32 GB, G.Skill Trident Z Neo, 3600 MHz
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- LG UltraGear 38GN-950-B
- SSD
- ein paar...
- HDD
- einige...
- Optisches Laufwerk
- hatte ich mal...
- Soundkarte
- On board...
- Gehäuse
- Fractal Design Define R6
- Netzteil
- EVGA 850 W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Internetanbindung
- ▼300 MBit ▲50 MBit
>90% Miner also. Wenn das so ist dürften sie ja mit der jetzigen Preisvorstellung direkt gegen die Wand fahren. Nicht mal die Enthusiasten kaufen bei diesen Preisen. Was ich eben nicht glaube. Man wird schon erhoben haben, wie weit man gehen kann.dieses spielchen kann nvidia selbst spielen, viel vergnügen.
RTX 4090 & Co.: Fallende Preise soll es nicht mehr geben, so Nvidia
Nvidia verlangt bei der Geforce RTX 4090 und RTX 4080 mehr Geld. Auf sinkende Preise sollten Kunden nicht hoffen.www.pcgameshardware.de
ne, mit den turing super modellen mussten sie auf amd reagieren. und ampere war vergleichsweise günstig. die preiserhöhungen während des ampere-lifecycle kamen während des crypto-booms.Diese "Preisverschiebung" nach oben wurde schon mit der letzten Generation ausführlich getestet und hat super funktioniert.
welche käufer? das waren doch zu > 90% miner. wenn nvidia der meinung ist, dass gamer den spaß mitmachen, sollen sie es gerne ausprobieren. siehe die pcgh-meldung oben. aber vielleicht glaubt nvidia die eigenen märchen immer noch.Die Käufer haben die Preise akzeptiert und zahlen nun mehr - dauerhaft.
es wird vermutlich genügend fanboys geben, die nvidia so oder so das geld hinterhertragen. aber die enthusiasten sind im gegensatz zum rest des marktes eine nische. und der rest des marktes hat momentan andere sorgen als nvidias apotheken-preise zu bezahlen.
btw ... da ist das video von moores law is dead interessant. lovelace soll in der herstellung wohl dramatisch teurer sein als ampere. 50%? wäre ganz schon happig. wenn die teaser zu rdna3 darauf abzielen, könnte amd mit einem "schlanken" chip nvidia in sachen preis/leistung evtl. ordentlich düpieren.
Richtig dreist ist, dass man mit DLSS3 die alte Hardware gleich gar nicht mehr unterstützt. Typisch Nvidia halt. Geht doch alles wenn einem genügend Nvidioten hinterherlaufen.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.374
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ich hoffe dass das nicht dein ernst war denn gerade der Punkt mit der Tesselation war das denkbar schlechteste Beispiel.Erst sobald diese Micro-Meshes im Code einfliessen wird man mit Ada Lovelace sehr grosse Vorteile gegenüber anderer Hardware sehen, ähnlich wie es mit Tesselation lief,
Man setzte sich bei der Tesselation vor allem deshalb an die Spitze weil es standardmäßig mit vollkommen überzogenen Tesselationsmodi eingesetzt und damit für den User nutzlos Leistung verbraten wurde. Bei sinnvollen Tesselationsstufen gaben sich beide nicht viel und damit gab es letztendlich nur einen Grund für diese Einstellung, sie sicherte ihnen den obersten Platz bei den Benchmarks. Gebrochen wurde der Unsinn erst nachdem der max. Tesselationsmodus bei AMDs Treibern begrenzbar war. Danach ging es mit dem beschleunigten Physx, Gameworks und Co. weiter.
Der größte Trumpf nvidias ist schon seit Jahren bis Jahrzehnten die künstliche Ausbremsung der Konkurrenz.
Die automatische Sortierfunktion für den Sheduler zur optimalen Abarbeitung ist ja schön und gut, wobei das wohl vor allem nvidias Raytracing Umsetzung helfen soll, aber Sachen wie eine Softwareoptimierung für ein besseres Sortierergebnis oder der Weg über eine separate API für den direkten Zugriff auf SER schreien mal wieder nach einseitiger Software Optimierung und künstlicher Ausbremsung der Konkurrenz.
Nicht mal die Enthusiasten kaufen bei diesen Preisen. Was ich eben nicht glaube. Man wird schon erhoben haben, wie weit man gehen kann.
ist es ein spiegelbild von 2018. und das in ganz vielerlei hinsicht. nur unter verschärften bedingungen.
crypto-boom, crypto-krise, volle lager, generationswechsel auf turing mit satten preiserhöhungen. bei nvidia von krise zu sprechen, war damals wie heute natürlich unsinn. aber trotzdem war turing ein relativer flop und nvidias bilanzen haben weit in 2019 hinein gelitten.
Nvidia CEO laments low Turing sales, says last quarter was a ‘punch in the gut’
heute haben wir aber multiple krisen. deshalb würde ich fast schon behaupten, dass es völlig egal ist, wie gut lovelace tatsächlich wird. das geld sitzt nicht mehr so locker. und grafikkarten und gaming - momentan kriselt es ja überall in der hardware- und games-branche - haben momentan in der breite des marktes keine priorität mehr. klar werden die fanboys nvidia das geld hinterhertragen. die alleine reichen aber wohl nicht aus, um den absatz wieder anzukurbeln.
2018? oder jetzt? ist denn die strategie der preisstabilisierung von ampere in den letzten monaten aufgegangen? die kunden haben nvidia doch hängen lassen, sonst gäbe es nicht diese rekordlagerbestände. ich hab eher das gefühl, dass nvidia den bezug zu den gamern komplett verloren hat.Man wird schon erhoben haben, wie weit man gehen kann.
Richtig dreist ist, dass man mit DLSS3 die alte Hardware gleich gar nicht mehr unterstützt. Typisch Nvidia halt. Geht doch alles wenn einem genügend Nvidioten hinterherlaufen.
man wird tests abwarten müssen. aber viele beobachter sind mittlerweile skeptisch. da macht sich die meinung breit, dass lovelace nur ein gepimpter ampere-chip ist und die verbesserungen fast ausschließlich durch den besseren fertigungsprozess zustande kommen. deshalb wäre es software-seitig doppelt dreist, wenn man software-features, die eigentlich auch auf alten karten laufen könnten, dann auf exklusiv auf lovelace beschränkt. können sie so machen, muss ich aber nicht gut finden.
am ende hängt es natürlich auch vom presse-echo ab, ob da ein hype erzeugt wird. aber ich persönlich hab mittlerweile den eindruck, dass lovelace eher entäuschend wird. denn performance ist nur ein aspekt. stromverbrauch, preise, kühlbarkeit usw. stehen auf einem ganz anderen blatt.
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.374
- Renomée
- 1.978
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Das gab es doch auch schon, siehe erste DLSS Generation bei der man sich wegen der Abgrenzung zu der alten Generation auf die Tensor Cores berief die aber letztendlich garnicht genutzt wurden.deshalb wäre es software-seitig doppelt dreist, wenn man software-features, die eigentlich auch auf alten karten laufen könnten, dann auf exklusiv auf lovelace beschränkt. können sie so machen, muss ich aber nicht gut finden.
Ein weiteres Beispiel wäre wohl das beschleunigte Physx das in der Fassung unter diesem Namen bei der Konkurrenz im CPU Fallback lief und in der Gameworks Fassung nach der Blackbox Phase offenbar auf einmal doch auch auf GPUs anderer Hersteller lauffähig war.
Nvidia bedient sich schon lange der künstlichen Beschränkung/Ausbremsung um die Verkaufszahlen zu pushen.
Sparky
Admiral Special
- Mitglied seit
- 02.09.2004
- Beiträge
- 1.756
- Renomée
- 146
- Standort
- Wien
- Mein Laptop
- M1 Apple iPad Pro 12.9", 5.Gen (rendert brav meine Filmchen in Lumafusion)
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASUS STRIX B550-F
- Kühlung
- Fractal Design C36
- Speicher
- 32 GB, G.Skill Trident Z Neo, 3600 MHz
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- LG UltraGear 38GN-950-B
- SSD
- ein paar...
- HDD
- einige...
- Optisches Laufwerk
- hatte ich mal...
- Soundkarte
- On board...
- Gehäuse
- Fractal Design Define R6
- Netzteil
- EVGA 850 W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Internetanbindung
- ▼300 MBit ▲50 MBit
@cruger ich hoffe ja innig, dass es so kommt wie du es analysierst. Vor allem aber hoffe ich auf einen angemessenen Konter seitens AMD- das würde ohnehin rasch zu Preisanpassungen führen.
Das proprietäre DLSS war ab Tag 1 seiner Einführung eine unglaubliche Sauerei die eigentlich alleine schon reicht um überhaupt nie mehr Nv zu kaufen. Meine Meinung.
Das proprietäre DLSS war ab Tag 1 seiner Einführung eine unglaubliche Sauerei die eigentlich alleine schon reicht um überhaupt nie mehr Nv zu kaufen. Meine Meinung.
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.862
- Renomée
- 2.815
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
leider gibt es auch immer noch honks, die die märchen von nvidias marketing- und abverkauf-strategie 1:1 wiedergeben.
naja, wenn lovelace nun so teuer wird, sehen die aktuellen preise der highend ampere-modelle schon wieder günstig aus. und zum launch wird natürlich wieder eine knappheit beschworen. wenn dann tatsächlich genügend leute losrennen, ist das wie bei jeder hamster-aktion eine self-fulfilling prophecy. ja, das toilettenpapier ist knapp.
aber ich finde die menge an kritik auch seitens der presse doch erstaunlich. ist gefühlt sogar mehr als bei turing.
aber dann müssen unsere ach so objektiven reviewer auch mal den arsch in der hose haben und nicht nur die langen balken bewundern, sondern sowas wie preis- und stromverbrauch auch mal in relation zu aktuellen problemen setzen.
naja, wenn lovelace nun so teuer wird, sehen die aktuellen preise der highend ampere-modelle schon wieder günstig aus. und zum launch wird natürlich wieder eine knappheit beschworen. wenn dann tatsächlich genügend leute losrennen, ist das wie bei jeder hamster-aktion eine self-fulfilling prophecy. ja, das toilettenpapier ist knapp.
aber ich finde die menge an kritik auch seitens der presse doch erstaunlich. ist gefühlt sogar mehr als bei turing.
aber dann müssen unsere ach so objektiven reviewer auch mal den arsch in der hose haben und nicht nur die langen balken bewundern, sondern sowas wie preis- und stromverbrauch auch mal in relation zu aktuellen problemen setzen.
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.551
- Renomée
- 593
Analyse zu „die 4080 sollte eigentlich eine 4060ti sein“:
Reddit - Dive into anything
www.reddit.com
Cleric
Admiral Special
- Mitglied seit
- 08.01.2003
- Beiträge
- 1.087
- Renomée
- 110
Ich kann mich über manche Kommentare wirklich aufregen. Z.B. zum Thema die Preise werden nicht mehr sinken.
GameStar: Nvidia-Chef Jensen Huang hat sich zu den hohen Preisen von Geforce RTX 4090, 4080 16G und 4080 12G geäußert. Die Antworten sind nachvollziehbar.
Wer zwingt NVIDIA eigentlich zu solch aufgeblähten und vollgestopften monolitischen Designs?
Und warum argumentiert ein Games-Hardware-Redakteur aus sich eines Unternehmen und nicht aus Sicht seiner Leserschaft?
Warum stellt der Redakteur nicht mal die Frage, wie das Unternehmen wieder bedarfsgerechte Produkte für seine Kunden entwickeln kann? Oder merkt die GameStar nicht, dass so eine Entwicklung auch ihren Ast absägt, wenn die potentielle Käuferschaft bei dieser Preisentwicklung immer mehr ausgedünnt wird?
Vielleicht kommt irgendwann ein Kipppunkt, wo die Bereitschaft der Gamer, diese Entwicklungen mitzugehen, wirklich schlagartig und in erheblichen Ausmaß einbricht. Vielleicht ist dieser Punkt sogar schon gekommen.
Vielleicht muss NVIDIA auch mal komplett vor die Wand fahren? Aber so weit weg wie NVIDIA mittlerweile vom klassischen Gaming-Kunden arbeitet, wird man den Eindruck nicht los, dass Gaming für NVIDIA immer weniger Relevanz hat. Man hat mittlerweile margenträchtigere Märkte erschlossen und war zusätzlich vom Mining verwöhnt.
Man kann nur hoffen, dass AMD mehr ein Ohr am Kunden hat als NVIDIA.
GameStar: Nvidia-Chef Jensen Huang hat sich zu den hohen Preisen von Geforce RTX 4090, 4080 16G und 4080 12G geäußert. Die Antworten sind nachvollziehbar.
Wer zwingt NVIDIA eigentlich zu solch aufgeblähten und vollgestopften monolitischen Designs?
Und warum argumentiert ein Games-Hardware-Redakteur aus sich eines Unternehmen und nicht aus Sicht seiner Leserschaft?
Warum stellt der Redakteur nicht mal die Frage, wie das Unternehmen wieder bedarfsgerechte Produkte für seine Kunden entwickeln kann? Oder merkt die GameStar nicht, dass so eine Entwicklung auch ihren Ast absägt, wenn die potentielle Käuferschaft bei dieser Preisentwicklung immer mehr ausgedünnt wird?
Vielleicht kommt irgendwann ein Kipppunkt, wo die Bereitschaft der Gamer, diese Entwicklungen mitzugehen, wirklich schlagartig und in erheblichen Ausmaß einbricht. Vielleicht ist dieser Punkt sogar schon gekommen.
Vielleicht muss NVIDIA auch mal komplett vor die Wand fahren? Aber so weit weg wie NVIDIA mittlerweile vom klassischen Gaming-Kunden arbeitet, wird man den Eindruck nicht los, dass Gaming für NVIDIA immer weniger Relevanz hat. Man hat mittlerweile margenträchtigere Märkte erschlossen und war zusätzlich vom Mining verwöhnt.
Man kann nur hoffen, dass AMD mehr ein Ohr am Kunden hat als NVIDIA.
Ähnliche Themen
- Antworten
- 1K
- Aufrufe
- 71K
- Antworten
- 227
- Aufrufe
- 24K
- Antworten
- 2K
- Aufrufe
- 112K
- Antworten
- 51
- Aufrufe
- 7K
- Antworten
- 53
- Aufrufe
- 5K