App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD RDNA2 vs Nvidia Ampere
- Ersteller BavarianRealist
- Erstellt am
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Nicht nur die nächste Zeit wird spannend werden, wie sich die zwei GPU-Generationen am Markt entwickeln. Da AMD mit RDNA2 nun endlich mal wieder nach vielen Jahren eine konkurrenzfähige GPU auf den Markt bringt, dürfte die Marktentwickllung der beiden GPU-Generationen höchst spannend werden: wer wird sich wie stark durchsetzen? Oder wird gar aufgrund knapper 7nm/8nm-Kapazitäten jegliche Konkurrenz ausbleiben und beide bei hohen Preisen lange rar sein?
Wie sieht es für beide Technologien im Notebook-Markt aus? Und zuletzt: kann RDNA2 in APUs mit Hilfe des Infinity-Cache Lowend-GPUs gar weitgehend verdrängen?
Wie sieht es für beide Technologien im Notebook-Markt aus? Und zuletzt: kann RDNA2 in APUs mit Hilfe des Infinity-Cache Lowend-GPUs gar weitgehend verdrängen?
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Spannend finde ich, dass die Skalierbarkeit von RDNA2 immer wieder betont wird.
AMD fehlt halt gerade auch noch eine kleine Grafiklösung für mobile, die möglichst effizient ist.
Die Frage ist halt, was regelt man über die APUs, die immer performanter werden oder über eine zusätzliche dedizierte Grafik.
Deswegen ist für mich momentan mit am spannendsten was van Gogh bieten wird.
AMD fehlt halt gerade auch noch eine kleine Grafiklösung für mobile, die möglichst effizient ist.
Die Frage ist halt, was regelt man über die APUs, die immer performanter werden oder über eine zusätzliche dedizierte Grafik.
Deswegen ist für mich momentan mit am spannendsten was van Gogh bieten wird.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Noch bevor AMD seine RX6000 am 28.10. nächste Woche präsentiert, möchte ich hier ein paar erste Spekulationen in den Raum werfen:
@ Nvidia Ampere:
Nvidias neue 3080 scheinen kaum verfügbar zu sein und auch nicht viel Overclocking-Spielraum zu haben. Zudem gehen Gerüche um, dass Nvidia die 3080 mit 20GB-Ram erst mal nicht bringen würde, aber stattdessen eine noch kleinere Graka (3070Ti) auf Basis des 628sqmm großen GA102 bringen würde.
=> kann es sein, dass die verfügbaren GA102-GPUs die Specs für die RTX3080 kaum erreichen, sodass der Großteil der GA102 bisher auf Halde gelandet ist, die nur in noch stärker gestutzter Version verwendet werden können?
Nvidia hat den Release der 3070 verschoben. Zudem hat die 3070 nur 8GB Ram und die 16GB-Verison soll auch erst mal nicht kommen? Hat man auch den GA104 in der 3070 zu weit ausgreizt?
Die von Nvidia vorgegebenen Preise von 499$ und 699$ für die 3070 und 3080 sind ungewöhnlich niedrig, zumal es aufwändige Kühler braucht und teurer GDDR6X zum Einsatz kommt. Sind diese Preise zu niedrig angesetzt, sodasas das Interesse der Graka-Hersteller darunter leiden könnnte?
2) AMD RDNA2:
Laut den Gerüchten scheinen AMDs neue RDNA2-GPUs erstmals seit langem Nvida starke Konkurrenz bieten zu können. Womöglich hat unter dieser Angst Nvidia seine 3070/3080 zu aggressiv gespect und zu günstig gepriced. Aber ich bezweifle, dass AMD hier in einen Preiskampf einsteigen wird, da die 7nm-Wafer viel zu wertvoll sind und die GPUs nur einen Bruchteil der Marge erlösen, wie es die CPUs und APUs tun. Bei AMD haben die CPUs und APUs einen ungleich höheren Rang, sodass mehr oder minder nur der "Überschuss" an 7nm-Wafern für GPUs verwendet werden dürfte. Auch von AMD Navi erwarte ich einen viel zu geringen Supply, sodass die neuen Grakas lange rar bleiben werden, auch die von AMD.
=> AMD wird die RX6000 daher angemessen im Preis gestalten. Zudem sind die Nvidia-Preise unrealistisch sodass es die Nvidia-Grakas lange nicht dafür geben wird und AMD sich daran nicht unbedingt orientieren muss, sodass ich folgende Preise vermute:
Preisschätungen von mir:
6900XT: mindestens 999$
6800XT: teurer als 3080, da ähnliche Performance, aber 16GB Ram und effizienter: ca. 750$
6800: knapp unter 3080, da etwas weniger Leistung aber 16GB und viel effizienter: ca. 650$
6700 (dessen Navi22 nicht mal 50% der Größe von Navi21 ist) dürfte kaum günstiger zu haben sein, also bis hinauf auf 500$ mit 16GB reichen. Nur die schwächste Version mit 8GB-Verisionen dürften <300$ landen und kaum vor Q2-2021 kommen.
Was meint Ihr so?
Diese Mobile-GPU könnte Navi23 sein, denn es macht kaum einen Sinn eine 32-CU-GPU zu konstruieren, wenn man gleichzeitig mit Navi22 eine mit 40 CU hat. Vermutlich ist Navi23 eine auf Effizienz getrimmte Version, wie auch die RDNA2-Einheite für die APUs, z.B. van Gogh.
Vor allem die APUs sollten vom Infinity-Cache überproportional profitieren, da hier ja der mit der CPU geteilte Ram das Nadelöhr ist. So könnten künftige AMD-APUs GPU-Leistungen bringen, die kleine dedizierte GPUs überflüssig machen.
@ Nvidia Ampere:
Nvidias neue 3080 scheinen kaum verfügbar zu sein und auch nicht viel Overclocking-Spielraum zu haben. Zudem gehen Gerüche um, dass Nvidia die 3080 mit 20GB-Ram erst mal nicht bringen würde, aber stattdessen eine noch kleinere Graka (3070Ti) auf Basis des 628sqmm großen GA102 bringen würde.
=> kann es sein, dass die verfügbaren GA102-GPUs die Specs für die RTX3080 kaum erreichen, sodass der Großteil der GA102 bisher auf Halde gelandet ist, die nur in noch stärker gestutzter Version verwendet werden können?
Nvidia hat den Release der 3070 verschoben. Zudem hat die 3070 nur 8GB Ram und die 16GB-Verison soll auch erst mal nicht kommen? Hat man auch den GA104 in der 3070 zu weit ausgreizt?
Die von Nvidia vorgegebenen Preise von 499$ und 699$ für die 3070 und 3080 sind ungewöhnlich niedrig, zumal es aufwändige Kühler braucht und teurer GDDR6X zum Einsatz kommt. Sind diese Preise zu niedrig angesetzt, sodasas das Interesse der Graka-Hersteller darunter leiden könnnte?
2) AMD RDNA2:
Laut den Gerüchten scheinen AMDs neue RDNA2-GPUs erstmals seit langem Nvida starke Konkurrenz bieten zu können. Womöglich hat unter dieser Angst Nvidia seine 3070/3080 zu aggressiv gespect und zu günstig gepriced. Aber ich bezweifle, dass AMD hier in einen Preiskampf einsteigen wird, da die 7nm-Wafer viel zu wertvoll sind und die GPUs nur einen Bruchteil der Marge erlösen, wie es die CPUs und APUs tun. Bei AMD haben die CPUs und APUs einen ungleich höheren Rang, sodass mehr oder minder nur der "Überschuss" an 7nm-Wafern für GPUs verwendet werden dürfte. Auch von AMD Navi erwarte ich einen viel zu geringen Supply, sodass die neuen Grakas lange rar bleiben werden, auch die von AMD.
=> AMD wird die RX6000 daher angemessen im Preis gestalten. Zudem sind die Nvidia-Preise unrealistisch sodass es die Nvidia-Grakas lange nicht dafür geben wird und AMD sich daran nicht unbedingt orientieren muss, sodass ich folgende Preise vermute:
Preisschätungen von mir:
6900XT: mindestens 999$
6800XT: teurer als 3080, da ähnliche Performance, aber 16GB Ram und effizienter: ca. 750$
6800: knapp unter 3080, da etwas weniger Leistung aber 16GB und viel effizienter: ca. 650$
6700 (dessen Navi22 nicht mal 50% der Größe von Navi21 ist) dürfte kaum günstiger zu haben sein, also bis hinauf auf 500$ mit 16GB reichen. Nur die schwächste Version mit 8GB-Verisionen dürften <300$ landen und kaum vor Q2-2021 kommen.
Was meint Ihr so?
Doppelposting wurde automatisch zusammengeführt:
AMD fehlt halt gerade auch noch eine kleine Grafiklösung für mobile, die möglichst effizient ist.
Die Frage ist halt, was regelt man über die APUs, die immer performanter werden oder über eine zusätzliche dedizierte Grafik.
Deswegen ist für mich momentan mit am spannendsten was van Gogh bieten wird.
Diese Mobile-GPU könnte Navi23 sein, denn es macht kaum einen Sinn eine 32-CU-GPU zu konstruieren, wenn man gleichzeitig mit Navi22 eine mit 40 CU hat. Vermutlich ist Navi23 eine auf Effizienz getrimmte Version, wie auch die RDNA2-Einheite für die APUs, z.B. van Gogh.
Vor allem die APUs sollten vom Infinity-Cache überproportional profitieren, da hier ja der mit der CPU geteilte Ram das Nadelöhr ist. So könnten künftige AMD-APUs GPU-Leistungen bringen, die kleine dedizierte GPUs überflüssig machen.
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
6800XT: teurer als 3080, da ähnliche Performance, aber 16GB Ram und effizienter: ca. 750$
6800: knapp unter 3080, da etwas weniger Leistung aber 16GB und viel effizienter: ca. 650$
Bei dem effizienter bin ich mir noch nicht so sicher.
Man wird aufgeholt haben gegenüber Nvidia, aber selbst ein Gleichstand oder nur kleiner Unterschied wäre ein Riesenfortschritt.
..ich hoffe, dass die Preise nicht so hoch sind. Oder hat man sich schon an der new Normal gesetzt durch Nvidia so gewoehnt?
TNT
"... aber selbst ein Gleichstand oder nur kleiner Unterschied wäre ein Riesenfortschritt...."
In der Tat. Aber sollte erreichbar sein ob der besseren Fertigung und der schmalen Interfaces.
Wenn der Takt aber schon bis zur Schmerzgrenze gedreht ist, wird das in der Spitze kaum noch effektiv sein koennen.
Ich wuerde mir wuenschen, wenn es im Idle (mit auch zwei Monitoren etc.) besser wuerde. Hier war Nvidia doch regelmaessig eine Klasse besser.
TNT
TNT
"... aber selbst ein Gleichstand oder nur kleiner Unterschied wäre ein Riesenfortschritt...."
In der Tat. Aber sollte erreichbar sein ob der besseren Fertigung und der schmalen Interfaces.
Wenn der Takt aber schon bis zur Schmerzgrenze gedreht ist, wird das in der Spitze kaum noch effektiv sein koennen.
Ich wuerde mir wuenschen, wenn es im Idle (mit auch zwei Monitoren etc.) besser wuerde. Hier war Nvidia doch regelmaessig eine Klasse besser.
TNT
Zuletzt bearbeitet:
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Ich wuerde mir wuenschen, wenn es im Idle (mit auch zwei Monitoren etc.) besser wuerde. Hier war Nvidia doch regelmaessig eine Klasse besser.
Genau deswegen habe ich mit 3 Monitoren mit einer GeForce GTX 1650 ne Nvidia Karte gekauft.
Menace
Vice Admiral Special
- Mitglied seit
- 04.10.2007
- Beiträge
- 961
- Renomée
- 26
- Lieblingsprojekt
- World Community
- Meine Systeme
- Ryzen R7 1700
- BOINC-Statistiken
- Mein Laptop
- HP Elitebook
- Prozessor
- AMD R7 1700
- Mainboard
- Asus ROG Crosshair VI Hero AMD X370
- Kühlung
- be quiet! Pure Rock Tower Kühler
- Speicher
- 16GB (2x 8192MB) G.Skill Trident Z
- Grafikprozessor
- AMD Asus R9Nano
- Display
- NEC EA232WMI, Benq SW2700PT
- SSD
- Samsung EVO 500 GB, 2 x Samsungs EVO 1 GB
- HDD
- 1 x WD6400AAKS
- Optisches Laufwerk
- LG
- Soundkarte
- Focusrite Scarlett 2i4 II
- Gehäuse
- be quiet! Silent Base
- Netzteil
- 550 Watt be quiet! Dark Power Pro 11 Modular 80+ Platinum
- Betriebssystem
- Windows 10
- Webbrowser
- Vivaldi Developer
Ich wuerde mir wuenschen, wenn es im Idle (mit auch zwei Monitoren etc.) besser wuerde. Hier war Nvidia doch regelmaessig eine Klasse besser.
TNT
Das war abhängig davon, welche Monitore man kombinierte (bei Unterschiedlichen waren nVidia nicht so viel besser). Einen sehr guten Job machten da doch die Vegas. Dummerweise war das dann bei RNDA 1 wieder vorbei. Darauf (und auf OpenCl-Leistung) hoffe ich auch. Wenn ich eigentlich mit meiner aktuellen 5700 mehr als zufrieden bin.
Berniyh
Grand Admiral Special
- Mitglied seit
- 29.11.2005
- Beiträge
- 5.206
- Renomée
- 219
Angeblich liegt das daran, dass Vega HBM verwendet.Ich wuerde mir wuenschen, wenn es im Idle (mit auch zwei Monitoren etc.) besser wuerde. Hier war Nvidia doch regelmaessig eine Klasse besser.
TNT
Das war abhängig davon, welche Monitore man kombinierte (bei Unterschiedlichen waren nVidia nicht so viel besser). Einen sehr guten Job machten da doch die Vegas. Dummerweise war das dann bei RNDA 1 wieder vorbei. Darauf (und auf OpenCl-Leistung) hoffe ich auch. Wenn ich eigentlich mit meiner aktuellen 5700 mehr als zufrieden bin.
Aber ja, ich kann bei meiner Vega auch keinen Unterschied feststellen ob 1 oder 2 Monitore angeschlossen sind.
Was einen Unterschied macht ist, ob ich meinen 5120x1440 Screen mit 60 oder 120 Hz laufen lasse. In letzterem Fall säuft die Karte mehr und deaktiviert sogar das Undervolting.
DannyA4
Lieutnant
- Mitglied seit
- 09.04.2007
- Beiträge
- 96
- Renomée
- 39
- Prozessor
- Ryzen 7 5800X
- Mainboard
- GB X570 Elite
- Kühlung
- Custom Wasserkühlung Aquacomputer
- Speicher
- 2x 16GB 3200 Crucial @3800CL16
- Grafikprozessor
- AMD Radeon 6900XT
- Display
- 3x Dell S2721DGF Triple Monitor Setup
- SSD
- Corsair MP600, PCIe 4, 1 TB
- Gehäuse
- BeQuiet! Pure Base 500
- Netzteil
- BeQuiet! Straight Power 11 850Watt
- Tastatur
- Sharkoon Purewriter RGB
- Maus
- Zowie FK1
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Internetanbindung
- ▼50MBit
Ich bin auch über meinen Schatten gesprungen und habe mir eine grüne GTX 1660 Super gekauft.Ich wuerde mir wuenschen, wenn es im Idle (mit auch zwei Monitoren etc.) besser wuerde. Hier war Nvidia doch regelmaessig eine Klasse besser.
Genau deswegen habe ich mit 3 Monitoren mit einer GeForce GTX 1650 ne Nvidia Karte gekauft.
Aus folgendem Grund:
Ich unterstütze als Kickstarter ein landwirtschaftliches Simulationsspiel.
Mit viel Freude spiele ich es, teste für die Entwickler und bin im Forum als Moderator aktiv.
Der Knackpunkt ist allerdings, dass das Spiel als API OpenGL verwendet, welche, wie bekannt seine dürfte, ziemlich Stiefmütterlich von AMD in ihren Treibern unterstützt wird.
Nvidia liefert hier einfach die bessere Leistung ab.
Was meint ihr, wird sich das mit RDNA2 wesentlich ändern?
Sparky
Admiral Special
- Mitglied seit
- 02.09.2004
- Beiträge
- 1.756
- Renomée
- 146
- Standort
- Wien
- Mein Laptop
- M1 Apple iPad Pro 12.9", 5.Gen (rendert brav meine Filmchen in Lumafusion)
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASUS STRIX B550-F
- Kühlung
- Fractal Design C36
- Speicher
- 32 GB, G.Skill Trident Z Neo, 3600 MHz
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- LG UltraGear 38GN-950-B
- SSD
- ein paar...
- HDD
- einige...
- Optisches Laufwerk
- hatte ich mal...
- Soundkarte
- On board...
- Gehäuse
- Fractal Design Define R6
- Netzteil
- EVGA 850 W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Internetanbindung
- ▼300 MBit ▲50 MBit
Ich finde gerade die Vielseitigkeit der AMD Architektur sehr spannend, gerade was z. B. die Implementierung von Raytracing angeht. Angeblich soll AMD hier (noch) hinter NV liegen was die Performance angeht. Da aber die kommenden Konsolen auf sehr verwandte Hardware setzen gehe ich davon aus, dass hier Optimierungspotenzial besteht und dieses auch ausgereizt wird. Zudem arbeitet AMD offenbar an einem Pendant zu DLSS, das zwar nicht so schön aber dafür flotter sein soll als NVs Version - soll Dezember/Jänner vorgestellt werden. Mich würde interessieren ob die Konsolen (und damit die Giganten Microsoft und Sony) die Entwicklung in diesen Bereichen vorantreiben.Spannend finde ich, dass die Skalierbarkeit von RDNA2 immer wieder betont wird.
AMD fehlt halt gerade auch noch eine kleine Grafiklösung für mobile, die möglichst effizient ist.
Die Frage ist halt, was regelt man über die APUs, die immer performanter werden oder über eine zusätzliche dedizierte Grafik.
Deswegen ist für mich momentan mit am spannendsten was van Gogh bieten wird.
G
Gast29082023
Guest
Was meint ihr, wird sich das mit RDNA2 wesentlich ändern?
Ich meine mich zu erinnern, das NV in OGL einfach zu "fit" ist, das ist im Großen und Ganzen, vor allem mit AMDs Marschrichtung in Vulkan nicht kompensierbar, mir kommt es seit gefühlt 15 GPU Generation so vor als würden die Radeons da ihre PS nicht auf die Straße bekommen....in meinem aktuellen Emulator-PC-Projekt dreht die sogar 1050ti der 390 ne lange Nase....
Yoshi 2k3
Admiral Special
- Mitglied seit
- 18.01.2003
- Beiträge
- 1.321
- Renomée
- 180
- BOINC-Statistiken
- Mein Laptop
- Apple Mac Book Pro 14" 2023
- Prozessor
- AMD Epyc 7F52
- Mainboard
- TYAN S8030 GM2NE
- Kühlung
- Watercool Heatkiller IV
- Speicher
- 128 GB Samsung M393A4K40DB3-CWEGQ
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- Nixeus NX-EDG27
- Soundkarte
- SMSL SU-9 USB DAC
- Gehäuse
- Caselabs SM8
- Netzteil
- Cooler Master SFX Gold 850W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Ich glaube, Nvidia ist schon lange im Panik-Modus, und zwar so heftig, dass sie die Specs für ihre 3080 viel zu hoch gesetzt haben, sodass jetzt anscheinend kaum der GA102 diese erreichen. Andernfalls hätte man auch keine GA102 für eine 3070Ti oder 3075, die jetzt kommen soll, übrig.
Kommt eine solche kleinere Graka auf Basis von GA102, dann wäre das eher der Beleg dafür, dass zu viele GA102 nicht für eine 3080 taugen.
Meins Erachtens hat Nvidia mit der Reste-Verwertung der GA102 nun einerseits etwas abgewartet, um besser bestimmen zu können, wie man diese Reste am effektivsten verwerten kann. Zudem scheint man aber auch auf AMDs kleine Navi21 zu schielen, um nicht ungünstig mit der kleinen GA102-Graka zu landen.
Wenn diese kleine Graka aber ebenfalls 10GB von teurem GDDR6X und hohe TDP (max. Ausreizen der GA102-Reste) erhalten soll, dann würde ich das doch etwas als weitere Panik-Reaktion einordnen, weil man anscheindend auch hier wieder Angst zu haben scheint, ungünstig unterhalb der 6800XL zu landen, sodass man nochmals maximal spect und wohl auch für diese "kleine" Graka die teuren Lüfter nötig werden...
Kommt eine solche kleinere Graka auf Basis von GA102, dann wäre das eher der Beleg dafür, dass zu viele GA102 nicht für eine 3080 taugen.
Meins Erachtens hat Nvidia mit der Reste-Verwertung der GA102 nun einerseits etwas abgewartet, um besser bestimmen zu können, wie man diese Reste am effektivsten verwerten kann. Zudem scheint man aber auch auf AMDs kleine Navi21 zu schielen, um nicht ungünstig mit der kleinen GA102-Graka zu landen.
Wenn diese kleine Graka aber ebenfalls 10GB von teurem GDDR6X und hohe TDP (max. Ausreizen der GA102-Reste) erhalten soll, dann würde ich das doch etwas als weitere Panik-Reaktion einordnen, weil man anscheindend auch hier wieder Angst zu haben scheint, ungünstig unterhalb der 6800XL zu landen, sodass man nochmals maximal spect und wohl auch für diese "kleine" Graka die teuren Lüfter nötig werden...
Mente
Grand Admiral Special
- Mitglied seit
- 23.05.2009
- Beiträge
- 3.671
- Renomée
- 135
- Aktuelle Projekte
- constalation astroids yoyo
- Lieblingsprojekt
- yoyo doking
- Meine Systeme
- Ryzen 3950x
- BOINC-Statistiken
- Prozessor
- AMD 5800X3D
- Mainboard
- Asus ROG Crosshair VIII Dark Hero
- Kühlung
- Headkiller IV
- Speicher
- 3800CL14 G.Skill Trident Z silber/rot DIMM Kit 32GB, DDR4-3600, CL15-15-15-35 (F4-3600C15D-16GTZ)
- Grafikprozessor
- AMD Radeon RX 6900 XT Ref. @Alphacool
- Display
- MSI Optix MAG27CQ
- SSD
- SN8502TB,MX5001TB,Vector150 480gb,Vector 180 256gb,Sandisk extreme 240gb,RD400 512gb
- HDD
- n/a
- Optisches Laufwerk
- n/a
- Soundkarte
- Soundblaster X4
- Gehäuse
- Phanteks Enthoo Pro 2 Tempered Glass
- Netzteil
- Seasonic Prime GX-850 850W
- Tastatur
- Logitech G19
- Maus
- Logitech G703
- Betriebssystem
- Win 10 pro
- Webbrowser
- IE 11 Mozilla Opera
- Verschiedenes
- Logitech PRO RENNLENKRAD DD
Hi,
es gibt ja einige Gerüchte das NV wieder zu TCSM geht wegen den Problemen, nur dauert das ja auch ein Design von Samsung 8nm auf TSCM 7Nm umzustellen, Igor hatte dazu spekuliert das ggf, nur die 3070 bei Samsung bleibt um die Anfallenden Chips auch zu vermarkten.
lg
es gibt ja einige Gerüchte das NV wieder zu TCSM geht wegen den Problemen, nur dauert das ja auch ein Design von Samsung 8nm auf TSCM 7Nm umzustellen, Igor hatte dazu spekuliert das ggf, nur die 3070 bei Samsung bleibt um die Anfallenden Chips auch zu vermarkten.
lg
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Darüber hab ich mir auch schon öfter den Kopf zerbrochen. Woher will TSMC plötzlich aus dem Nichts für "neue Kunden" (=Konkurrenten der bisherigen guten, zuverlässigen und großen Kunden = AMD) neue Kapazitäten aus dem Hut zaubern, die AMD auch längst genommen hätte? Das geht für mich nicht zusammen: wenn TSMC neue Kapazitäten so aus dem Nichts hätte, dann würden sie die wohl zuerst ihren bisherigen guten Kunden anbieten. Und wir wissen alle, dass AMD seit langem nach zusätzlichen Kapazitäten giert...wo soll da Platz für Nvidia so auf die Schnelle sein? Kaum vor 2022, oder?Ich frage mich nur wo TSMC die 7nm Kapazitäten für NV und Intel hernehmen will. Ich dachte TSMC ist bei 7nm komplett ausgebucht?
Gozu
Vice Admiral Special
- Mitglied seit
- 19.02.2017
- Beiträge
- 521
- Renomée
- 70
- Mein Laptop
- Asus ROG Zephyrus G14 2022 (GA402RJ-L8116W) / HP 15s-eq1158ng
- Prozessor
- Ryzen R9 5900
- Mainboard
- AsRock B550 Phantom Gaming Velocita
- Kühlung
- Coolermaster MASTERLIQUID 120
- Speicher
- 2x 16GB HyperX KHX3733C19D4/16GX 3733-19
- Grafikprozessor
- AsRock RX 6800 Phantom Gaming D 16G
- Display
- 27 " iiyama G-Master GB2760QSU WQHD
- HDD
- 2x WDC WD10EADS-11P8B1
- Optisches Laufwerk
- TSSTcorp CDDVDW SH-2
- Gehäuse
- CoolerMaster HAF XB
- Netzteil
- Enermax EDT1250EWT
- Maus
- Rocat Kova
- Betriebssystem
- Windows 10 Professional x64, Manjaro
- Webbrowser
- Iron
- Internetanbindung
- ▼1000 MBit ▲50 MBit
Zumals es sich NVIDIA angeblich mit TSMC verscherzt hat. Die haben bei TSMC wohl versucht massiv die Preise zu drücken und gedroht zu Samsung zu gehen. Es gibt da jedenfalls diese geleakte Email von TSMC Vorstand der schreibt das NVIDIA keine Kapazität mehr bekommt solange es andere Kunden gibt die ihre Geschäftspartner mit Respekt behandeln und bereit sind faire Preise zu bezahlen. Da können sie sich also ganz hinten in die Schlange einreihen hinter Sony (angeblich nicht genug PS5 Chips), AMD (Notebookchips) und diversen Mobilephone SOC Herstellern.
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Man muss ja auch immer noch die US-Wahl im Hinterkopf behalten,
vielleicht wird danach der Huawei-Bann ja zumindest abgeschwächt.
vielleicht wird danach der Huawei-Bann ja zumindest abgeschwächt.
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 2.983
- Renomée
- 232
Wahrscheinlich fährt Nvidia mit Samsung nicht schlecht. Samsungs 8nm Prozess ist vermutlich viel billiger als TSMCs 7nm Prozess, und Samsung muss seine Kunden noch hofieren. Sofern Nvidia so mit AMD mithalten kann, hat Nvidia bei Samsung die höhere Marge.
Vorher hatte Nvidia bei TSMC doch auch immer einen älteren und günstigeren Prozess gegen einen neueren und teureren bei AMD stellen können.
MfG
Vorher hatte Nvidia bei TSMC doch auch immer einen älteren und günstigeren Prozess gegen einen neueren und teureren bei AMD stellen können.
MfG
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Vorher hatte Nvidia bei TSMC doch auch immer einen älteren und günstigeren Prozess gegen einen neueren und teureren bei AMD stellen können.
Das war aber, weil entweder Nvidia sehr gut oder AMD sehr schlecht die P.S. der eigenen Technik auf die Strasse gebracht hat.
Es scheint so, als wenn sich das mit RDNA2 etwas ändert.
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.761
- Renomée
- 286
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
Wahrscheinlich fährt Nvidia mit Samsung nicht schlecht. Samsungs 8nm Prozess ist vermutlich viel billiger als TSMCs 7nm Prozess, und Samsung muss seine Kunden noch hofieren. Sofern Nvidia so mit AMD mithalten kann, hat Nvidia bei Samsung die höhere Marge.
Dazu müsste man wissen, ob nVidia pro Wafer oder pro Chip zahlt. Bei der momentan niedrigen Ausbeute wäre ersteres tödlich für die Marge. Und der zweite Flaschenhals ist der GDDR6x Speicher, der momentan auch nicht in ausreichender Stückzahl vorhanden ist.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Wenn ich den Ausblick von AMD für das Q4-2020 lese, werden dort GPUs nicht mal erwähnt...ich interpretiere das so, dass es in Q4-2020 nur wenige RDNA2-GPUs geben wird, also RX6000 sehr rar bleiben wird, sodass Nvidia seine GPUs so oder so verkaufen wird, und zwar zu höheren Preisen als angekündigt.
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Wenn ich den Ausblick von AMD für das Q4-2020 lese, werden dort GPUs nicht mal erwähnt...ich interpretiere das so, dass es in Q4-2020 nur wenige RDNA2-GPUs geben wird, also RX6000 sehr rar bleiben wird, sodass Nvidia seine GPUs so oder so verkaufen wird, und zwar zu höheren Preisen als angekündigt.
Nicht nur GPUs sondern auch Ryzen 5000. Sind ja immerhin 2/3 vom Quartal, wo die auf dem Markt sind.
Allerdings sollte man dann in Q1 noch wachsen können, saisonal untypisch, da dann Zen 3 "Milan" dazu kommt.
Mente
Grand Admiral Special
- Mitglied seit
- 23.05.2009
- Beiträge
- 3.671
- Renomée
- 135
- Aktuelle Projekte
- constalation astroids yoyo
- Lieblingsprojekt
- yoyo doking
- Meine Systeme
- Ryzen 3950x
- BOINC-Statistiken
- Prozessor
- AMD 5800X3D
- Mainboard
- Asus ROG Crosshair VIII Dark Hero
- Kühlung
- Headkiller IV
- Speicher
- 3800CL14 G.Skill Trident Z silber/rot DIMM Kit 32GB, DDR4-3600, CL15-15-15-35 (F4-3600C15D-16GTZ)
- Grafikprozessor
- AMD Radeon RX 6900 XT Ref. @Alphacool
- Display
- MSI Optix MAG27CQ
- SSD
- SN8502TB,MX5001TB,Vector150 480gb,Vector 180 256gb,Sandisk extreme 240gb,RD400 512gb
- HDD
- n/a
- Optisches Laufwerk
- n/a
- Soundkarte
- Soundblaster X4
- Gehäuse
- Phanteks Enthoo Pro 2 Tempered Glass
- Netzteil
- Seasonic Prime GX-850 850W
- Tastatur
- Logitech G19
- Maus
- Logitech G703
- Betriebssystem
- Win 10 pro
- Webbrowser
- IE 11 Mozilla Opera
- Verschiedenes
- Logitech PRO RENNLENKRAD DD
Hi,
sagen wir so es kommt drauf an was man als Zahlungsziele hat, den sagen wir mal 30-60Tage dann ist es erklärlich das die Gelder in Q4 nicht dabei wären.
lg
sagen wir so es kommt drauf an was man als Zahlungsziele hat, den sagen wir mal 30-60Tage dann ist es erklärlich das die Gelder in Q4 nicht dabei wären.
lg
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.371
- Renomée
- 9.696
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Hi,
sagen wir so es kommt drauf an was man als Zahlungsziele hat, den sagen wir mal 30-60Tage dann ist es erklärlich das die Gelder in Q4 nicht dabei wären.
lg
Jepp, das stimmt natürlich und wir wissen ja auch noch nicht genau, wann RX 6000 in den Verkauf geht.
Ähnliche Themen
- Antworten
- 2K
- Aufrufe
- 112K
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 32
- Aufrufe
- 12K
- Antworten
- 12
- Aufrufe
- 7K