AMD GCN4 (Polaris, Radeon 400/500) & GCN5 (Vega)

bschicht86 schrieb:
Wenn da was dran ist, dann war Lisa's damalige Bemerkung "Overclockers Dream" zur Fury wohl ein wenig fehlplatziert.
IT-Extremist schrieb:
Diese Aussage ist nicht von ihr gekommen!
Mich interessiert immer noch, ob konkret über Fury X oder Fury oder allgemein über Fiji als Chip gesprochen wurde.
 
Falls das dann die endgültigen Preise sind, können die sich durchaus sehen lassen.
Also wenn die zu den Preisen kommen und die Erwartungen erfüllen, dann gibt es doch überhaupt keinen Grund mehr, zur Konkurrenz zu greifen!?!
Das wäre ja so der Hammer.
Ob die sich damit zukünftige Generationen versperren?
 
Wenn Apple wirklich bald beim iMac auf 8K gehen will, dann reicht da eine Intel-APU ohne dGPU nicht mehr aus.
Apple integriert auch eine GPU in die Cinema-Displays, dafür wäre P11 auch ideal.

Apple ist für AMD gut für das Prestige, wahrscheinlich auch finanziell attraktiv, aber strategisch ein unbedeutender Markt. Apple ist keine Spieleplattform, und auch keine VR-Plattform.
Man kann dort keinerlei Kompetenzen aufbauen und damit anderen Kunden nachziehen.
 
79 Euro für 'ne RX 460? Hammer wenn das so kommt. Mehr brauche ich gar nicht. Wobei 'ne Version mit 4 GB nett wäre. Die RX 470 schaut aber auch ziemlich verlockend aus.
bei dem verlinkten händler handelt es sich um die aufpreise gegenüber einer basiskonfiguration mit geforce gt 730.
 
Was man von diesen Preisen zu halten hat, sieht man sehr gut bei den beiden EVGA 1080 Karten, die eine (EVGA GeForce GTX 1080 Gaming ACX 3.0 mit 719€ zu 729€) ist unter dem bei Geizhals geführten Preis, die zweite (EVGA GeForce GTX 1080 FTW Gaming ACX 3.0 mit 845€ zu 769€) deutlich darüber. Ich würde sagen, die dort angegebenen Preise geben eine grobe Richtung vor, mehr nicht. Und wenn ich mir die übrigen Preise so anschaue, habe ich den Verdacht, die rechnen die GT 730 nicht aus dem Endpreis raus *suspect*
 
"Sap Radeon Rx 480 8gb - Ddr5 Hdmi/Triple Dp (Uefi) 21260-00-20G" = $286.00 + Free Shipping
Weiß leider nur nicht, ob das ein Großhändler ist oder nicht.
Könnte also mit um die 250 € für die 8GB Version klappen

Gruß Lehmann
 
naja, sind noch knapp zwei wochen. da braucht man heute nicht großartig über preise zu spekulieren.
 
Naja warum nicht, man kann ja schon mal überlegen, wieviel man aus dem Sparschwein abzweigen muß ;)

Die Preise werden von der Lieferbarkeit abhängen. Attraktiv werden die Karten sicherlich, aber wenn die Liefersituation ziemlich eng ist, dann werden auch Händler mit höheren Preisen ihre Karten los (und sind dann die einzigen mit ner grünen Lampe bei Geizhals). Das sind dann schnell mal 30€ mehr. Aber da dann die ganze Strategie von AMD nicht aufginge (also das Gewinnen von Marktanteilen, indem man den ganzen Markt mit unterpreisigen Karten flutet, bevor Nvidia mit dem GP106 kommt), denke ich schon, daß die Produktion auf Hochtouren läuft und sie so viele Waferstarts gemacht haben wie nur irgend möglich. Angst vor Überproduktion gibt es sicher nicht, denn die Chips werden ja mehrere Jahre lang angeboten werden.

Wenn sie jedenfalls die Listenpreise so in den Handel übertragen können wie gewünscht, dann käme die 8-GB-Version wahrscheinlich bei so 270 € raus (starke OC-Versionen mit aufwendigem Kühler usw. wohl Richtung 300 oder drüber), die 4GB mit 220-230 € und dann wahrscheinlich die 470 mit so 180 €.
 
3dcenter hat das weiter getrieben und die bisher bei dem Händler Retail verfügbaren GraKas gegengerechnet...
 
Was man von diesen Preisen zu halten hat, sieht man sehr gut bei den beiden EVGA 1080 Karten, die eine (EVGA GeForce GTX 1080 Gaming ACX 3.0 mit 719€ zu 729€) ist unter dem bei Geizhals geführten Preis, die zweite (EVGA GeForce GTX 1080 FTW Gaming ACX 3.0 mit 845€ zu 769€) deutlich darüber. Ich würde sagen, die dort angegebenen Preise geben eine grobe Richtung vor, mehr nicht.

Noch einmal:
DAS ist nicht vergleichbar, da die von dir genannte Karte gar nicht lieferbar ist!
Daher gönnen sich die Händler einen Verfügbarkeits-Bonus!

Das können sie sich aber eben nur deswegen leisten, weil sie von den Herstellern keine Karten bekommen.
Das wird, nach unseren bisherigen Informationen nach, nicht mit den AMD Karten passieren, da die breit verfügbar und kaufbar sein werden.

nVidia ist also deutlich hintendran, versucht(e) das ganze aber mit einer Pro Forma Vorstellung, ohne absehbare Lieferbarkeit (bzw mit Mondpreisen) zu überdecken, um auch ja als erster zu gelten, auch wenn das eben NICHT der Fall ist...
 
[3DC]Payne;5099268 schrieb:
Das können sie sich aber eben nur deswegen leisten, weil sie von den Herstellern keine Karten bekommen.
nVidia scheint die Referenzkarten lieber selbst und unter eigenem Namen verkaufen zu wollen.

Im hauseigenen Onlineshop haben die GeForce GTX 1080 und 1070 eine ununterbrochene Verfügbarkeit seit Anbeginn: Link
 
Scheinen ja immer mehr ihr Eigen Ding zu machen. Erst Software nun auch Hardware. Mittlerweile sind ja die Softwareschmieden nicht mehr ganz so begeistert. Ob die OEM's auch bald auf die Barrikaden gehen?
 
Aus wccftech:


Die Strategie von AMD mit Polaris gefällt mir immer besser; damit werden quasi 3 Fliegen mit einer Klappe geschlagen:

1) man hat eine neue Architektur und einen neunen Prozess auf einmal => statt alles von Anfang an perfekt zu machen und dadurch Zeit zu verlieren, reizt man weder das neue Design noch den Prozess aus und geht mit sehr vorsichtigem Binning in den Markt um von Anfang an reichlich Produkte zu haben. UND wenn AMD anfangs erst mal auf viel Takt verzichtet, dann haben die womöglich auch auf einige CUs verzichtet, weil das genau den gleichen Effekt hat => maximales Yield, möglichst jedes Die verwendbar machen (die Größe des Dies deutet drauf hin, dass da weit mehr als 36CU drin sind.).

2) Mit dem großebn Overclocking-Potenzial + den neuen Overclocking-Tool spricht AMD die Freaks aktiv an. Und diese Freaks dürften aktuell vor allem Nvidia-Kunden sein. Wenn jetzt AMD hier deutlich mehr ermöglicht als Nvidia, dann könnte so mancher von denen erst mal vom Kauf einer teuren 1070/1080 abgehalten werden, zumal ja Vega noch aussteht und in Polaris-10 am Ende gar noch geheime CUs schlummern könnten, die am Ende auch noch frei geschaltet werden könnten...

3) AMD mit Polaris sehr aggressive in den Markt geht, soldass es für Nvidia hier im Mainstream keine Traum-Margen mehr geben wird, und zwar von Anfang an mit den GP106. Damit macht AMD womöglich eines Nvidia ganz klar: wenn Nvidia den Mainstream-Markt ebenfalls mit Kampfpreisen verteidigen will, könnte AMD den kommenden Vega ebenfalls so pricen, dass die Preise der 1070/80 in den Keller fallen. Am Ende würde keiner von beiden mit den GPUs mehr Geld machen. Aber nur AMD hat auch CPUs/APUs bzw. das Konsolen-Geschäft. Für Nvidia wäre ein Preiskampf im GPU-Geschäft ungleich schädlicher. => Ziel: man teilt sich die Märkte: AMD hält den Vega so lange aus dem Markt, solange AMD im Mainstrem Geld abschöpfen kann.

--- Update ---

Und hier noch eine Überlegung:

- sollten im Polaris-10 später (nach einer kleinen Optimierung des Dies) +15% Takt von Anfang an drin sein und
- sollten dann auch noch 40 CUs laufen

=> wären das mehr als +25% an Performance und vermutlich GTX1070-Leistung.

===> und dann bräuchte Vega nicht so viel mehr, um auch GTX1080 zu überholen und gar in GP102-Region vorzustoßen.

AMD dürfte den Vega mindestens bis nach Prästentation von Nvidias GP102-Designs geheim halten.
 
Aus wccftech: http://wccftech.com/amd-rx-480-1500mhz-overclocking-tool-voltage-control/
Für Nvidia wäre ein Preiskampf im GPU-Geschäft ungleich schädlicher. => Ziel: man teilt sich die Märkte: AMD hält den Vega so lange aus dem Markt, solange AMD im Mainstrem Geld abschöpfen kann.

Ähem...
Nvidia dürfte in die Entwicklung von GPUs doppelt so viel investieren wie AMD. Dass Nvidia jetzt plözlich nackt da steht, kann ich mir nur sehr schwer vorstellen.
 
Ich frage mich wo nVidia doppelt so viel investiert. In Pascal sicher nicht (Cache vergrößern und Takt bis ans Limit treiben ins kein Aufwand)..

AMD hingegen entwickelt GCN systematisch weiter und ist dabei wegweisend.
 
Ähem...
Nvidia dürfte in die Entwicklung von GPUs doppelt so viel investieren wie AMD. Dass Nvidia jetzt plözlich nackt da steht, kann ich mir nur sehr schwer vorstellen.
Wo hast du die Infos hierüber her?

Ganz ab davon ist die Aussage aber mehr als korrekt!

NVidia hat in den letzten Jahren bzw mit der letzten Generation und Gameworks einiges an Vertrauen verspielt. Auch die Sache mit dem optimiertem Pressetreiber, der einige Details bei AOTS nicht (korrekt) rendert, kommt noch dazu...

Und jetzt kommt AMD und nimmt nVidia einfach so mal den kompletten Mainstream Markt, zeigt den Leuten ganz deutlich, dass das, was nVidia hier verlangt, Wucherpreise sind...

Und wenn der Midrange Markt wegfällt und nVidia einiges an Marktanteilen verliert, schaut es für sie ganz doof aus, da sie eben KEIN zweites Standbein haben.
Tegra ist ein ziemlicher FLOP und keiner will das wirklich. Auch schauts so aus, als ob nVidia einiges an Vertrauen mit den Herstellern und ev. auch OEMs verspielt hat, so dass es durchaus möglich ist, dass eigentlich niemand mehr wirklich Lust auf den Verein hat...

Ergo habens 2 Möglichkeiten:
a) Jenssen absägen und Unternehmenspolitik drastisch ändern
b) gnadenlos untergehen...

Dank der Pressearbeit von AMD ist Gameworks ja glücklicherweise gescheitert, auch verweigert sich nVidia den offenen Standards und trägt sogar offene Standards aus den Standardisierungsgremien, um das zu verdongeln -> G-Sync...

Auf jeden Fall kannst du dich im nächsten Jahr auf deutlich sinkende Zahlen bei nVidia freuen...

Denn nVidia ist momentan etwas mit 3DFX zu vergleichen. Die haben auch viel zu lange an ihrer Architektur festgehalten und viel zu spät erst was neues gebracht...

Und hier ist nVidia gerade die Bremse, die weiterhin an ihrer bestehenden Architektur festhalten und nix neues bringen...
 
nvidia investiert ca. 50% mehr in r&d als amd. bei nvidia haben sich r&d ausgaben in den rund 10 letzten jahren in etwa verdreifacht. bei amd haben sie sich ausgehend von dem rekordquartal q4 2007 mit rund 510 millionen us-dollar in etwa halbiert auf aktuell rund 240 millionen us-dollar. gemessen am umsatz geben beide in etwa ähnlich viel aus (amd 28%, nvidia 26%).
 
Klingt wie ein Abgesang. Nvida würde ich jetzt nicht totschreiben. (Ok, hast Du nicht wirklich gemacht...)

Aber zunächst mal schaut Nvidia ein Quartal in die Röhre, wenn AMD sein 28nm Portfolio durch 14nm ersetzt. Nvidia hat im Mainstream Bereich nur 28nm zu bieten. Es kann die Preise reduzieren, wird es wohl auch müssen. Aber technologisch sind die Polaris Karten einfach einen Schritt weiter (z.B. in Sachen Verlustleistung), und Nvidia muss irgendwie durchhalten, bis sein 16nm-Portfolio auch im Mainstream angekommen ist.

Darüber hinaus stelle ich aber (auch mit etws Enttäuschung) fest, dass die Nvidia Käufer sich als sehr resistent gegenüber allen Unverschämtheiten der Firma erwiesen haben. Insofern kann man aus Anlegersicht deren Führung eigentlich keinen Vorwurf machen. Die Kundschaft bleibt komischerweise treu. Nvidia hat eine stabile CUDA-Gemeinde. Nvidia hat einen Fuß im HPC-Bereich. Da muss AMD noch gehörig aufholen, und dass AMD das auch schafft, glaube ich erst, wenn ich es erlebe.
MfG

--- Update ---

Ich kann mir vorstellen, dass AMD mit seinen Custom-Designs, speziell für die Konsolen, ein bisschen R&D quersubventionieren kann, ohne dass das so in den Bilanzen sichtbar wird. Die Custom-Designs sind ja nicht nur Fertigungs- sondern auch Entwicklungsaufträge.
MfG
 
Die Frage ist allerdings eher ob aus den Investitionen in Forschung auch profitable Produkte entstehen. GSync war sicherlich keine billige Aktion und kann auch als gescheitert angesehen werden. Die Ausgaben in CPU Forschung bringen kaum was ein, Tegra ist seit Genrationen stagnierend und rückläufig seit dem ersten Marketing-Hype.
Quartalszahlen_2-pcgh.png

Nicht zu vergessen, dass in diese Tabelle Tegra mit den IP-Zahlungen zusammengefasst ist. Davon kommen von Intel alleine 66 Mio. im Quartal
http://www.computerbase.de/2016-03/patente-intel-amd-lizenzgespraechen/
Im letzten Jahr des laufenden Lizenzabkommens zwischen Intel und Nvidia sieht sich Intel angeblich nach einer Alternative um. Seit 2011 zahlte der Chipriese 66 Millionen US-Dollar pro Quartal an Nvidia für die Nutzung bestimmter technischer Errungenschaften, insgesamt sollen am Ende 1,5 Milliarden US-Dollar geflossen sein.
Das im Jahr 2011 geschlossene Abkommen beendete seinerzeit einen Rechtsstreit zwischen den beiden Firmen. Das Abkommen wurde auf sechs Jahre ausgelegt und sicherte Nvidia Zugang zu Intels Technologie, ausgenommen Intels „proprietäre Prozessoren, Flashspeicher sowie bestimmte Chipsätze für die Intel-Plattform“. Intel erhielt im Gegenzug Zugang zu allen Patenten von Nvidia, Intel war dies zusätzliche 1,5 Milliarden US-Dollar wert.
Damit scheint 2017 auch Schluss zu sein, da Intel Gespräche mit AMD aufgenommen hat. An den Zahlen ist zu erkennen, dass Nvidia außer dem Wachstum im Gaming mit Maxwell2 keine weiteren Märkte profitabler machen konnte. Deshalb setzt AMD auch hier an um Nvidia da Gewinne abzunehmen wo sie am meisten zu verlieren haben.
 
[3DC]Payne;5099396 schrieb:
Wo hast du die Infos hierüber her?
Aus den Jahresabschlüssen.

Forschungsaufwand 2015
Nvidia: 1,3 Milliarden USD
AMD: 950 Millionen USD

Nachdem AMD mit diesem Budget noch weitere Geschäftsfelder beackern muss, schätze ich, dass die tatsächen Investitionen in GPUs höchstens 500 Millionen USD betragen.
 
Allerdings sollte man auch beachten wie hoch die Know-How Differenz ist. Nvidia muss einiges aufholen. Z.B. erst jetzt mit dem NVlink haben sie einen Interconnect den AMD und Intel seit Jahren haben. Die Weiterentwicklung auf hohem Niveau ist günstiger als das aufholen oder etwas völlig neues bahnbrechendes zu entwickeln. AMD hat da zuletzt starke Synergien bei CPU und GPU Entwicklung einbringen können und mit der APU eine neue Produktklasse etabliert, welche für Konsolen fast zum Standard geworden ist.
 
Aus den Jahresabschlüssen.

Forschungsaufwand 2015
Nvidia: 1,3 Milliarden USD
AMD: 950 Millionen USD

Nachdem AMD mit diesem Budget noch weitere Geschäftsfelder beackern muss, schätze ich, dass die tatsächen Investitionen in GPUs höchstens 500 Millionen USD betragen.
Das ist aber völliger Bullshit, was du hier machst, denn, wie schon erwähnt, kannst du das eben NICHT so wirklich gut trennen. ZUmal du auch nicht so wirklich weißt, was denn nun genau wo hin geflossen ist.


Klingt wie ein Abgesang. Nvida würde ich jetzt nicht totschreiben. (Ok, hast Du nicht wirklich gemacht...)
Richtig, nur eine Ermahnung, dass, wenn sich nVidia nicht bald sehr schnell ändert, für die der Ofen aus ist und sie arge Probleme haben.

Sei es, weil ihnen niemand mehr traut und/oder niemand mehr Bock auf deren Verhalten hat. Und das ist jetzt schon z.T. sehr fragwürdig...

Und, wenn wir funktionierende Kartellbehörden hätten, sie wohl schon einen aufn Deckel bekommen hätten...

Aber das ganze ändert auch nichts am Zustand, dass so einigen gerade ein Licht aufgeht und sich abzeichnet, dass sie gar nicht soo viel Lust auf nV haben. Einige können sichs leisten (Apple), andere trauen sich ev. nicht so richtig.
Die Entwickler von The Witcher haben ja, im Rahmen ihrer Möglichkeiten, nVidia ja richtig angekackt, was Gameworks betrifft.


Aber zunächst mal schaut Nvidia ein Quartal in die Röhre, wenn AMD sein 28nm Portfolio durch 14nm ersetzt. Nvidia hat im Mainstream Bereich nur 28nm zu bieten. Es kann die Preise reduzieren, wird es wohl auch müssen. Aber technologisch sind die Polaris Karten einfach einen Schritt weiter (z.B. in Sachen Verlustleistung), und Nvidia muss irgendwie durchhalten, bis sein 16nm-Portfolio auch im Mainstream angekommen ist.
Das siehst du viel zu positiv...

Du vergisst da aber einige Dinge:
a) technologisch ist Pascal kaum mehr als ein geshrinkter Maxwell
b) sind die AMD Chips bei vergleichbarer Leistung 'nen Stück kleiner, damit billiger
c) hat AMD das ganze anscheinend auf Preis und Effizienz optimiert, nVidia weniger.
Siehe hier z.B. GP104 vs. Polaris big. Der GP104 ist fast 50% größer als der AMD Chip...

Und das eine Quartal ist schlicht Quatsch!
Gerade im Mainstream brauchst du ja große Mengen - und die hat AMD ja schon vorproduziert.
Während es noch kein Lebenszeichen von GP106 gibt, nur einen vermuteten Termin...
Dazu kommt noch das Weihnachtsgeschäft und noch einige Dinge...

Das ist also unterm Strich eher ein halbes Jahr als ein Viertel...

Und Grafikchip Upgrades kommen bei Notebooks ja auch nicht sooo oft vor, da hast dann entweder was oder eben nicht, hast nix, bist erst mal 'ne Runde oder zwei raus...


Darüber hinaus stelle ich aber (auch mit etws Enttäuschung) fest, dass die Nvidia Käufer sich als sehr resistent gegenüber allen Unverschämtheiten der Firma erwiesen haben. Insofern kann man aus Anlegersicht deren Führung eigentlich keinen Vorwurf machen. Die Kundschaft bleibt komischerweise treu. Nvidia hat eine stabile CUDA-Gemeinde. Nvidia hat einen Fuß im HPC-Bereich. Da muss AMD noch gehörig aufholen, und dass AMD das auch schafft, glaube ich erst, wenn ich es erlebe.
MfG
das liegt aber nur zu einem geringen Teil an den Käufern selbst. Zu einem recht großem Teil aber auch an der Presse, die z.B. die GTX 970 nicht total verrissen haben, als die Speicherarchitektur bekannt wurde. Hier ist von Seiten der Presse eher auf Kuschelkurs mit nVidia gegangen worden, um sie wohl nicht zu verärgern. Aber hier hätte man mehr machen können und auch müssen...

Die meisten sind schlicht einfach nur unglaublich uninformiert. Dazu kommen noch die ganzen NVidia Fans, die gewaltsam, mit aller Macht, die Gebarden des Unternehmen schön reden.
Dazu kommt, dass AMD keine allzu guten OEM Deals bekommen hatte, letzte Generation.
Aber jetzt schauts so aus, als ob etwas mehr passieren könnte.
Und AMD einige OEMs von ihren Karten überzeugen konnte.

Dazu kommt eben auch noch Apple, die wohl auch keine Lust mehr auf nVidia haben, nachdem die OpenCL Support gedroppt haben, nachdem GCN etwas besser als das eigene Zeugs war...

Und zu der CUDA Gemeinde:
AMD hat die mit Hawaii zuletzt ordentlich ins wanken gebracht, als sie einen deutlich schnelleren Chip hatten, im HPC Bereich kommen sie von Intel unter Beschuss und beim Rest hat AMD ja gewaltig aufgeholt...

Und die ganzen CUDA Leute waren weiter auf die deutlich schwächeren nVidia Chips festgelegt...

Ich kann mir vorstellen, dass AMD mit seinen Custom-Designs, speziell für die Konsolen, ein bisschen R&D quersubventionieren kann, ohne dass das so in den Bilanzen sichtbar wird. Die Custom-Designs sind ja nicht nur Fertigungs- sondern auch Entwicklungsaufträge.
MfG
Möglich, aber ändert erst einmal wenig am grundsätzlichen...

Nämlich, dass NVidia in einigen Bereichen gar nicht in der Lage ist, mit AMD zu konkurieren, da eben einige wesentliche Bestandteile fehlen, die AMD eben schon hat...

nVidia ist aktuell auch einiges Zurück, was die Technologie betrifft.

Einerseits weil AMD ihre grundsätzliche Architektur gerade erst erneuert hat (GCN), während nVidia noch auf dem G80 aufbaut, der immer wieder mal erweitert wurde...

Dazu kommt eben noch das ganze Zeugs, was AMD für die CPUs eh benötigt oder in besseren Zeiten entwickelt hat. Dazu gehört eben auch der Interconnect von den ganzen Dingen...
Da hat AMD momentan einen gewaltigen Vorsprung, auch was Multi GPU Technologie betrifft, ist AMD hier deutlich weiter, da die aktuellen Chips gar keine Brücke mehr benötigen und alles über den PCIe läuft, während nVidia immer noch Brücken braucht...

Und hier vermuten einige sogar, dass AMD den PCIe auf 'was anderes' umschalten könnte, wenn eine AMD CPU mit einer AMD GPU kombiniert wird...

nVidia scheint zum Beispiel das Lizenzabkommen mit Intel zu verlieren, das scheint jetzt AMD zu bekommen.

Wobei die Frage auch sein kann, was AMD alles an Intel lizensieren könnte...

Insgesamt schaut es für NV momentan nicht so besonders toll aus, was aber noch durch die 'Hardcore nVidia Fans' überspielt werden kann, aber eben nicht mehr lange, da einige unschöne Dinge ans Tageslicht kommen...

Und spätestens, wenn mehr und mehr Spiele anfangen auf der GTX 970 zu ruckeln und darauf dann auch die Antwort kommt, dass das an der Speicherarchitektur liegt, kann sich das auch noch langfristig zu einem wirklich üblen Bumerang entwickeln, spätestens wenn nVidia die GTX 970 Optimierungen sein lässt...
 
Zurück
Oben Unten