AMD Radeon RX 6400/6500/6600/6650/6700/6750/6800/6900/6950 (XT) (Navi2x/RDNA2/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

Cybperpunk:
RX6400 118€ 30fps 3,9€ pro FPS
RX6500XT 168€ 38fps 4,4€ pro FPS
RX6600 209€ 79fps 2,6€ pro FPS
Auch die 6400 ist schlechter als ich dachte.

Nicht direkt vergleichbar da anderer Test:
GTX1650 150€ 25fps 6€ pro FPS
RTX2060 260€ 58fps 4,5€ pro FPS
RTX3050 223€ 50fps 4,5€ pro FPS
RTX4060 309€ 78fps 4€ pro FPS

Es zeigt das die 6500 ein ähnliches Preisniveau wie bei Nvidia hat und das die 6600 mit Abstand das beste P/L Verhältnis hat.

Bei der 7000er Serie von AMD soll es ja nichts langsameres als die 7600 geben, werden dann die 6400/6500 noch weiter produziert oder wie soll dann die Lücke geschlossen werden? Oder ist dann 300€ das neue Budget? Da wundert es einem nicht das der Markt so rückläufig ist wenn die Preise so klettern.

Was mich sowieso schon wundert, dass günstige Karten so ein schlechtes P/L Verhältnis haben, ganz anders wie bei CPUs. Aber das scheint dort leider auch zum Trend zu werden, der G7400 mit 2 Kernen für 95€ macht ja gar keinen Sinn.
 
Nicht direkt vergleichbar da anderer Test:
Machs dir doch einfacher (und sinnvoller), indem du den FullHD-Performance Index des 3D-Centers benutzt. Da sind viele Tests und dementsprechend viele Spiele drin.

Ich denke, dass die kleinsten Grafikkarten einfach Nische sind. Statt der 6400 wird in 8 Tagen jeder den Ryzen 8700G (APU) kaufen. AMD weiß das natürlich schon länger. Und jemand schon dabei ist, Geld auszugeben, dann will er meist mehr als das kleinste "irgendwie sinnvolle" Modell (was die 6500XT wäre).
der G7400 mit 2 Kernen für 95€ macht ja gar keinen Sinn.
Tja, Willkommen bei Intel!
 
Zuletzt bearbeitet:

Ich denke, dass die kleinsten Grafikkarten einfach Nische sind. Statt der 6400 wird in 8 Tagen jeder den Ryzen 8700G (APU) kaufen.
Glaube ich nicht, die 780M kann stellenweise nicht mit der GTX 1650 mithalten und 8 Kerne bringen bei Games auch nicht soviel. Die Grafik würde eher zu einem 4Kern passen.
. Und jemand schon dabei ist, Geld auszugeben, dann will er meist mehr als das kleinste "irgendwie sinnvolle" Modell (was die 6500XT wäre).
Die meisten Gamer schon weil aktuelle AAA Games irre hohe Anforderungen haben.
 
Die 780M von Hawk Point (die Desktop-Variante) wird vom 3D-Center auf 400 % geschätzt. Das ist von den 440 % der 6400 gerade mal 10 % entfernt, und für diesen geringen Unterschied würde niemand auf die Vorteile einer APU in Sachen Preis(!!), Effizienz, Lautstärke, kompakter Bauweise und das bessere Feature-Set (einschließlich KI) verzichten wollen.

Die 6400 ist ab jetzt nur noch für Nachrüster interessant, wenn so kleine Karten in Frage kommen. Das ist die Nische innerhalb der Nische, und AMD hat das von Anfang an gewusst. Nicht mal für Office-PCs mit kleiner CPU braucht man solche Karten noch. Wenn es den Chip nicht vorher schon (wegen der Notebooks) gegeben hätte, wäre die Karte nie erschienen. Deshalb sind sie finanziell auch nicht so attraktiv.

Zweiter Grund: Nvidia macht dermaßen schlechte Angebote, dass AMD ihre Sachen nicht "verschenken" muss oder wird. In Foren gibt's ja regelmäßig einen "Wirtschaftsexperten", die uns erklären will, dass AMD ihre Produkte nur mal "verschenken" müsse [hier einen möglichst absurden Preis einsetzen].
Dann (und nur dann!) wäre er AMD für die nächsten 20 Jahre dankbar und würde nur noch AMD kaufen, weshalb die Sache sich für AMD "lohnen" soll. Guckt man ein Jahr später, hat dieser jemand sein "Gelöbnis" schon wieder vergessen. ;D

Die meisten Gamer schon weil aktuelle AAA Games irre hohe Anforderungen haben.
Das ich nochmal 'ne ganz andere Zielgruppe, aber ich meinte: wenn man sich schon eine extra Grafikkarte kauft, auch für FullHD, nimmt man nicht gerade das allerkleinste Modell. Die 6600 ist doch eine runde Sache.
 
Zuletzt bearbeitet:
So lange es noch CPUs ohne iGPU gibt ist auch ein Markt für kleine Grafikkarten vorhanden. Er schwindet aber ist nicht weg. Muss man mal schauen wir lange die GT 1030 am Markt ist und sich trotzdem noch verkauft. Und da fehlt es bei AMD an kleinen passiven Grafikkarten - früher gab es die. Habe noch eine im Schrank aber die ist ohne UEFI VBIOS nicht mehr nutzbar.
 
Er schwindet aber ist nicht weg.
Ich weiß, aber gerade weil der kleine Markt immer weiter schwindet (jetzt fallen auch die Neukäufer für die Radeon 6400 weg), sollte man sich bei der Leistung / Euro nicht wundern.
 
Zuletzt bearbeitet:
Die 780M von Hawk Point (die Desktop-Variante) wird vom 3D-Center auf 400 % geschätzt. Das ist von den 440 % der 6400 gerade mal 10 % entfernt, und für diesen geringen Unterschied würde niemand auf die Vorteile einer APU in Sachen Preis(!!), Effizienz, Lautstärke, kompakter Bauweise und das bessere Feature-Set (einschließlich KI) verzichten wollen.
Ist das nicht die selbe GPU wie im 7940hs? Da gibts es Spiele in der die 780M geschätzt 30% langsamer als die 1650 ist. Suche mal nach RDR2.
Die 6400 ist ab jetzt nur noch für Nachrüster interessant, wenn so kleine Karten in Frage kommen. Das ist die Nische innerhalb der Nische, und AMD hat das von Anfang an gewusst. Nicht mal für Office-PCs mit kleiner CPU braucht man solche Karten noch. Wenn es den Chip nicht vorher schon (wegen der Notebooks) gegeben hätte, wäre die Karte nie erschienen. Deshalb sind sie finanziell auch nicht so attraktiv.
Die wäre interessant wenn sie günstiger wäre, für ältere PCs, sofern da nicht die Sache mit den reduzierten Lanes wäre
Die meisten Gamer schon weil aktuelle AAA Games irre hohe Anforderungen haben.
Das ich nochmal 'ne ganz andere Zielgruppe, aber ich meinte: wenn man sich schon eine extra Grafikkarte kauft, auch für FullHD, nimmt man nicht gerade das allerkleinste Modell. Die 6600 ist doch eine runde Sache.
Es gibt bestimmt einige mit älteren PCs die aufrüsten wollen. Da ist die 6600 zuviel des guten. Sei es nur weil keine externe Stromversorgung da ist oder weil die Karte nicht ins Gehäuse passt. So eine 1650 erzielt als LP irre hohe Preise.
Aber bei AMD ist der Marktanteil eh zu klein als das die es nötig hätten in dem Bereich:
 
Zuletzt bearbeitet:
Da gibts es einzelne Spiele
Es gibt auch welche, wo die APU xx % schneller ist, Einzelschicksale spielen keine Rolle.

Wenn EIN Test 10 - 25 Spiele berücksichtigt, und du fasst 10 Tests zusammen (genau das tut 3D-Center), dann bekommst du einen Index, der sehr repräsentativ ist! Ein einzelnes Spiel in einer bestimmten Version (was nach dem nächsten Patch schon wieder ganz anders sein kann!) sagt nichts aus.

die Sache mit den reduzierten Lanes
Warum ist das so? Weil ein speziell entwickelter Chip nur für den Desktop (Teil-Markt der Aufrüster) sich nicht lohnt. Deshalb haben sie einen fertigen Notebook-Chip genommen. Im Notebook will man keine Lanes, weil sie Strom verbrauchen und die Akkulaufzeit reduzieren.

Der GPU-Marktanteil von AMD ist gering, keine Frage. Das liegt zu einem großen Teil aber nicht an schlechten Produkten, sondern an Konsumenten, die nur auf grüne Logos starren. Viele sogenannte "Angebote" von Nvidia, gerade im unteren Bereich, sind einfach nur schlecht. Wenn alle Konsumenten Ahnung von der Materie hätten (ich träume!), würden sie sowas nicht kaufen. AMD muss auch diesen Effekt einkalkulieren. Du kannst eine Karte noch so attraktiv machen (und dabei Geld verbrennen!), trotzdem wird es nur ein kleiner Teil der Kunden honorieren.

Das meinte ich oben zu den
"Sie müssten doch einfach nur mal"
-Vorschlägen. So "einfach" ist es in der Praxis nicht.

Was die Steam-Umfrage angeht (zur Sicherheit nochmal: ich bezweifle nicht, dass der AMD-Anteil bei GPUs gering ist, das ist bekannt),
legt sie solche wahnwitzigen Sprünge und Anomalien hin (die niemand erklären kann), das man sie nicht mehr ernst nehmen kann.
 
Zuletzt bearbeitet:
Da gibts es einzelne Spiele
Es gibt auch welche, wo die APU xx % schneller ist, Einzelschicksale spielen keine Rolle.

Wenn EIN Test 10 - 25 Spiele berücksichtigt, und du fasst 10 Tests zusammen (genau das tut 3D-Center), dann bekommst du einen Index, der sehr repräsentativ ist! Ein einzelnes Spiel in einer bestimmten Version (was nach dem nächsten Patch schon wieder ganz anders sein kann!) sagt nichts aus.
Selbst wenn die besser als die GTX1650 wäre ist das leider immer noch zu langsam. Ich seh den Chip eher bei Mini PCs.
die Sache mit den reduzierten Lanes
Warum ist das so? Weil ein speziell entwickelter Chip nur für den Desktop (Teil-Markt der Aufrüster) sich nicht lohnt. Deshalb haben sie einen fertigen Notebook-Chip genommen. Im Notebook will man keine Lanes, weil sie Strom verbrauchen und die Akkulaufzeit reduzieren.

Der GPU-Marktanteil von AMD ist gering, keine Frage. Das liegt zu einem großen Teil aber nicht an schlechten Produkten, sondern an Konsumenten, die nur auf grüne Logos starren. Viele sogenannte "Angebote" von Nvidia, gerade im unteren Bereich, sind einfach nur schlecht. Wenn alle Konsumenten Ahnung von der Materie hätten (ich träume!), würden sie sowas nicht kaufen.
Man sieht es u.a. daran welche abstruse Formen die Gehäuse angenommen haben, es geht nur noch um Optik aber 0 um Qualität. Oder daran das die Preise für gebrauchte GPUs total chaotisch sind (1650 Super teurer als 1660 Super wtf).
 
AMD FSR3 ersetzt NV DLSS-Frame Generation


Robocop - FSR3 aka DLSS upscale + FG
Cyberpunk 2077 - FSR3 FG solo
The Witcher 3 - FSR3 FG solo
Spider-Man - FSR3 FG solo
Ratchet & Clank: Rift Apart - FSR3 FG solo
Hogwarts Legacy - FSR3 aka DLSS upscale + FG

Alles "DLSS" ausgeführt an einer AMD Radeon RX6700!

AMD fine wine :-) - FSR3 schmeckt auch frisch gebraut ganz gut.

Wäre geil wenn FSR3 + FG auch auf der Vega uArch funktionieren würde.
 
Viele sogenannte "Angebote" von Nvidia, gerade im unteren Bereich, sind einfach nur schlecht.

Darf ich mal diesen bekannten Meme hier einsetzen? Der skaliert nämlich mit wenigen Ausnahmen bis in den "unteren Bereich" durch.


- Auch bei AMD gibts zu Markteinführung das kleinste GPU-Modell nur mehr zum Preis einer kleinen Xbox (RX 7600)
- Auch bei AMD ist dieses trotz des Preises mit der 2023er-Mindestanforderung an VRAM ausgestattet (Jedi Survivor, Starfield)
- Die RX6600/8GB platzierte AMD zu Markteinführung gar direkt gegen die RTX 3060 /12GB -- hier stimmte nicht mal das, was AMD sonst als "Pro" für sich zu verbuchen hat gegenüber Raytracing, DLSS & CO. : mehr VRAM
- Auch bei AMD ist alles, was bei Markteinführung für ~200€ auf den Markt kommt, für aktuelle Spiele nur eingeschränkt zu gebrauchen. Und nebenbei mit schlechter P/L (zuletzt die RX 6500XT -- nur mehr eine Notlösung und als solche ein Downgrade zu ihrem Jahre älteren Vorgänger 5500XT)
- Die 7500XT oder 7400 wird gar nicht mehr kommen. Nvidia besetzt das 75W-Feld mit der RTX 3060/8GB jetzt ganz alleine

Dies ist ein Markt, der Konkurrenzkampf nicht mehr kennt. Über die Gründe kann man alle diskutieren; aber ich sehe von beiden "Duopolisten" überwiegend das selbe durchschnittliche Angebot; verstärkt noch einmal dann, wenn man weiß, wie der Markt zwischen Anfang der 2000er bis ca. 2015/2016 ausgesehen hat. Dann ist das Angebot nämlich nicht mehr durchschnittlich -- dann ist es unterirdisch. Wer sich regelmäßig Retro-GPU-Tests samt Preisangaben durchliest, könnte meinen, die stammen aus dem ersten Weltkrieg. Und nicht von vor vier Fußball-EMs.

Dass es auch nur ein denkendes Wesen auf diesem Staubball gibt, dass auf Intel (!) hofft, um wieder für Wettbewerb zu sorgen -- das sagt alles, was man über den GPU-Markt wissen muss. Hätten alle anderen Komponenten sich ähnlich entwickelt, dann wären Spiele-PCs heute wahlweise Liebhaber-Geräte. Oder Intelligenztests: Da einstige PC-Königssparten wie Simulationen, komplexe RPGs und Strategiespiele nur mehr von einer Nische gespielt werden und die beliebten Titel sowieso fast alle Multiplatform sind, bekämen die Masse an PC-Spielern (Fifa, Hogwarts und irgendwas mit Ubisoft) das Gleiche via Konsole zum Bruchteil der Ausgaben.
 
Zuletzt bearbeitet:
Darf ich mal diesen bekannten Meme hier einsetzen?
Nein, weil Memes nichts mit sachlicher Diskussion zu tun haben.

Berechne doch einfach Preis / Leistung anhand des Performance Index FullHD, dann siehst du, dass AMD die besseren Angebote macht.
Eine Konsole ist nicht mit einem PC vergleichbar, die wird ganz anders (re)finanziert.
Dass das Portfolio mit RDNA2 ergänzt wird, ist allgemein bekannt.
 
Berechne doch einfach Preis / Leistung anhand des Performance Index FullHD, dann siehst du, dass AMD die besseren Angebote macht.

Muss ich nicht, machen die Kollegen bei Computerbase. Die Leistung von GPUs skaliert oftmals so linear mit dem Preis, quer durch alle Lager, dass auch das hier widerspiegelt, was Sache ist: Der GPU-Markt ist kein Markt mehr, auf dem wirklich Wettbewerb stattfindet. Ausnahmen sind das High End -- Enthusiasten zahlten schon immer drauf. Und das Low End, denn dort gibts nur mehr richtigen Murks -- mit AMD ganz vorne mit dabei.

Natürlich gibts noch immer Angebote, die mal mehr und mal weniger pro investiertem Euro bieten. Aber die Zeiten der wirklichen Marktbrecher sind ewig vorbei. Nie machte der GPU-Markt so wenig Spaß wie heute -- Ausnahme die Crypto/Corona-Krise. Kann man sich natürlich schönrechnen, niemand mag Buyer's Remorse. Oder vor sich selbst eingestehen, heute durchgängig schlechtere Deals zu machen. Aber trotzdem: Auch AMD ist hier weitestgehend Nvidia in Grün.
 
Zuletzt bearbeitet:
Muss ich nicht, machen die Kollegen bei Computerbase.

Ein einzelner Test mit all seinen Schwächen ist noch kein Index:
Berechne doch einfach Preis / Leistung anhand des Performance Index FullHD

Berechnen heißt jetzt rechnen mit realen Preisen statt UVP-Fantasiepreisen von vor einem Jahr. Aktuelle Preise siehe Geizhals, ich nehme pro Karte den Durchschnitt der fünf beliebtesten Modelle.

PS: Bitte keine Postings im Nachhinein sinnverändernd editieren, nachdem dir schon geantwortet wurde.
 
Zuletzt bearbeitet:
AMD (die GPU-Sparte) ist nur mehr Nvidia in klein. Alles, was Nvidia vormacht, macht AMD nach. Raytracing? Nvidia first. DLSS? FSR. Einstiegs-GPUs bei Markteinführung zum Preis einer kleinen Xbox? You name it. Dass AMD das Angebot für "Sparfüchse" hätte, ist sowieso eine Verallgemeinerung, die nicht zutrifft. Selbst die mittlerweile teils stark im Preis gesunkenen RDNA2-Auslaufmodelle haben damit auch eine Kehrseite: Denn weniger stabile Preise bedeuten auch weniger Erlös beim Wiederverkauf. Apropos Einstieg: Den "Fehler" hatte Nvidia zwar wieder mit der 4060er korrigiert. Aber auch hier bleibt seit einem Jahr die RTX 3060/12GB die einzige Karte mit mehr als 8GB, die für unter 300 Euro zu haben ist. 8GB waren schon im letzten Jahr das Existenzminimum, um die Mininumanfoderung von Spielen wie Jedi Survivor zu erfüllen. Gerade der Einstiegsmarkt ist mau -- und AMD hat kräftig mit dran geschraubt.

Mit Ryzen hingegen nahmen AMD nicht nur bewusst ihre eigene (IPC-)Schwäche ins Visier. Sondern auch die Schwächen Intels -- so etwa die Zahl der Cores, die man bei Intel nur für Enthusiastenpreise in nennenswerter Zahl bekam. Aber die scheinen auf dem GPU-Markt nach Jahren der Gewöhnung sowieso kein Problem mehr -- siehe Mittelklassekarten, die heute als "Schnäppchen" gelten, wenn sie statt für 600 für 500 Euro zu haben sind.

Typisch für Märkte, in dem es wirklichen Konkurrenzkampf nur noch auf dem Papier gibt: Kunden, die sich bei kleinsten Vorteilen einreden, sie hätten einen Wahnsinnsdeal gelandet -- sowie Stagnation wie 8GB-Speicher Minimum im "kleinsten" 300-Euro-Ausbau womöglich gar bei den nächsten Serien noch. Dabei hatten selbst Midrange-Karten von 2016 diese schon vorbaut.

Ausgerechnet Intel soll hier to the rescue kommen. Sagt alles.
 
Zuletzt bearbeitet:
zum Preis einer kleinen Xbox?
Nochmal: Du kannst einen PC NICHT mit einer Konsole vergleichen. Das sind völlig verschiedene Vertriebsmodelle!

Preis bei Markteinführung
Wen interessiert das?
- Tester, die ein Produkt ausschließlich bei Markteinführung betrachten und danach nicht bereit sind, sich auf den aktuellen Stand zu bringen
- Leute, die genau bei Markteinführung kaufen müssen

Alle anderen beurteilen das Produkt zu einem realen Preis (=Straßenpreis bei Geizhals), wenn sie kaufen wollen. Das kann vier Monate später sein, oder auch jetzt. Etwas abwarten lohnt sich meistens.

Erlös beim Wiederverkauf.
Ein gebrauchtes Produkt steht genauso im Preiswettbewerb wie ein neues Produkt, nur mit erheblichem Abschlag. Wer zu teuer eingekauft hat, z. B. weil er es unbedingt am Tag 1 schon haben "musste", hat dann halt das Problem, dass er später mit günstigeren (sogar neuen!) Produkten konkurriert.
Das wusste man alles vorher, und ist (erst Recht) kein Grund, zu viel zu bezahlen.

Dann müsstest du uns noch erklären, warum überhaupt, und wie ausgerechnet der massiv kleinere(!) Mitbewerber "den Markt umkrempeln" soll. "Produkte verschenken?" Wäre eine Möglichkeit. Aber welche Folgen hätte das? Das Märchen, nachdem ganz viele Leute ihnen ihre "Geschenke" später "mit ewiger Treue danken" würden, und zwar ganz konkret bei den nächsten Käufen, ist doch nur ein Märchen. De facto wird neu verglichen, und frühere Verlustgeschäfte für den Hersteller, die an die Substanz gehen, spielen keine Rolle mehr. Ich sag's nochmal: letzteres trifft nur auf AMDs Grafiksparte zu, die du immer mit Nvidia gleichsetzen willst.

Wenn jemand etwas ändern könnte, wären das Nvidia und tatsächlich Intel (wegen der dicken Kapitaldecke aus dem CPU-Markt). Ob die das wollen, ist eine andere Frage.

Letztlich bleibt die Tatsache: wann immer ich Preis / Leistung (gemäß 3D Center Performance Index Full HD) verglichen habe, hatte AMD die besseren Angebote. Vor allem bei den günstigeren Karten.
 
Zuletzt bearbeitet:
zum Preis einer kleinen Xbox?
Nochmal: Du kannst einen PC NICHT mit einer Konsole vergleichen. Das sind völlig verschiedene Vertriebsmodelle!

Spielt genau wie die Größe eines Anbieters für einen Konsumenten exakt keine Rolle. Gegen Intel ist AMD auch im CPU-Markt eigentlich ein Zwerg, historisch vielleicht sogar noch mehr -- trotzdem gelangen immer wieder Durchbrüche wie Athlon, Athlon 64 und zuletzt Ryzen. Hier ist eine psychologische Preisbarriere durchbrochen; und eine Konsole ist ein legitimer Ersatz für einen Spiele-PC. Erst recht, seitdem 99% aller Grafikblockbuster sowieso Multiplattformentwicklungen sind, mit der Konsole als Lead. Die Zeit, in der Simulationen, komplexe RPGs, Adventures und Strategiespiele die mit Abstand beliebtesten PC-Genres waren, sind dann doch ein paar Jahrzehnte her. Aber genau mit diesen Konsolen verdient auch AMD gutes Geld -- Sony ist gar der größte Kunde.

Zwar schien es am GPU-Markt schon seit jeher schwierig, Intel, Pardon, Nvidia Marktanteile abzuknöpfen. Aber wann immer AMD was anzubieten hatte bislang, schlug sich das auch was nieder. Zuletzt etwa in Form der RX 480/580. Und selbst Nvidia stand unter Druck: Man erinnere sich an die legendäre 8800GT (fast Ultra-Performance für die Hälfte deren Preises dank Shrink), die AMD wiederum in Sachen P/L noch mal mit der HD 3850/3870 übertrumpfte. Das, was heute bei manchem als "Konkurrenzkampf" gilt, ist ein Witz dagegen.

Ich glaube aber selbst nicht, dass aggressivster Preiskampf alleine heute noch was reißt. Alleine schon dank den Preisniveaus insgesamt, die jegliches Verhältnis gesprengt haben, auch im Vergleich zu anderen Komponenten. Aber lass es mich so ausdrücken: Sollte es Intel mit der kleinen Battlemage gelingen, für ~200EUro ca. 4060/ti-Performance anzubieten und mit der großen 4070/ti-Performance für ~400-450 Euro: Dann hat dieser Markt es auch nicht verdient, sich zu normalisieren, sollte sich das sich nicht in steigenden Marktanteilen bemerkbar machen. (Funktionierender Treibersupport vorausgesetzt). Dann gibt es langfristig wohl nur eine Hoffnung: China.
 
Zuletzt bearbeitet:
Spielt für einen Konsumenten exakt keine Rolle.
Oh, wenn der Konsument ein Gehirn hat, könnte er darauf kommen, dass die Hardware-Kosten dort anders refinanziert werden. Dann weiß er auch, dass PC und Konsolen überhaupt nicht vergleichbar sind.

Wenn er kein Gehirn hat, redet er halt Unsinn in "sozialen Netzwerken". Daran kann man eh nichts ändern.

Man erinnere sich an die 8800GT
Beispiele von vor 17 Jahren, in der IT ?? Aber genau aus diesen Beispielen hat AMD gelernt. Niemand dankt es ihnen später, wenn sie von der nicht vorhandenen "Dollar-Fettschicht" drei Scheiben abschneiden und ihre Substanz gefährden würden. Beim nächsten Kauf haben die Konsumenten das wieder vergessen. Die GPU massiv quer zu subventionieren und dadurch die CPU-Sparte vor die Wand zu fahren, ist auch keine gute Idee.

Wer die Zahlen von allen drei Anbietern kennt, käme nicht auf die Idee, ausgerechnet von AMDs Grafiksparte zu verlangen, den Markt umzukrempeln. Nvidia und Intel könnten das gut leisten.

PS: Was bei Vergleichen mit "früher" immer wieder vergessen wird: Inflation und stark steigende Fertigungskosten.
 
Zuletzt bearbeitet:
Zurück
Oben Unten