AMD GCN4 (Polaris, Radeon 400/500) & GCN5 (Vega)

Bei Golem steht ähnliches.

Macht auch Sinn da auf 2 Fertiger zu setzen. GF für Masse, TSMC für Klasse.

40% effizienter als Maxwell v2 ist aber erstmal ein netter Warnschuss.
 
4K H.265/HEVC Encoding in Hardware ist glaube ich auch neu, als Information?

--- Update ---

Es gibt noch ein Video von AMD:

 
Das hört sich alles sehr gut an, die Hoffnung war da, nun steigt auch die Erwartung.
Würde mich freuen dieses Jahr ein komplettes HighEnd AMD System wieder bauen zu dürfen.
 
Zuletzt bearbeitet:
Hoffentlich wird's HighEnd. Ehrlich gesagt macht mich die ganze Perf/W Betonung diesbezüglich skeptisch... Hoffentlich kommt durch den Prozess nicht ein Taktproblem... :P

Nicht falsch verstehen: Wenn es AMD schafft einen sparsamen und (für mobile) leistungsfähigen Chip rauszuhauen, wäre das in jedem Fall ein Riesenerfolg, denn das wäre tatsächlich genau das Richtige zum Aufholen im Laptop-Markt.

Aber "FHD @ Medium Preset @ 60 Hz" ist halt nicht ganz "High End" (gut, nur Engineering Sample und Beta-Treiber). Schauen wir mal, was am Ende rumkommt.
 
Ohne aktivierte Stromspartechniken mit 850 MHz und 0,8 Volt.
 
40% effizienter als Maxwell v2 ist aber erstmal ein netter Warnschuss.
Das sind Gesamtsystemvergleiche, keine Architekturvergleiche. Der Unterschied der Architekturen dürfte um einiges grösser ausfallen. 50W müssen bei einer GTX 950 erst mal eingespart werden. Laut HT4U Test ist das fast die Hälfte der GTX 950 Leistungsaufnahme in Spielen. Das dürfte sich also eher in Richtung doppelter Energieeffizienz bewegen. Allerdings ist der Gegenspieler auch nicht Maxwell v2, sondern Pascal. Da dürfte danke 14nm auch einiges an verbesserter Energieeffizienz rausspringen. Selbst falls dort die Architektur nicht so gravierend überarbeitet wurde wie bei Polaris.
 
Das sind Gesamtsystemvergleiche, keine Architekturvergleiche. Der Unterschied der Architekturen dürfte um einiges grösser ausfallen.

Habe ich dann auch mitbekommen. Was braucht das System im Grundzustand? 30-40W mit 80% Powertarget? Da sind wir mal schnell zwischen 60% und 70% Effizienzvorteil. Die Frage wird auch sein, ob nVidia ihr gesamtes Lineup erneuern wird. AMD hat das ihrerseits ja schon angedeutet.
 
Ohne aktivierte Stromspartechniken mit 850 MHz und 0,8 Volt.
Ja, schön wär' halt zu wissen: Sweet Spot oder unteres oder oberes Ende der Fahnenstange ...

Aber sehr wahrscheinlich wird's das gewesen sein, womit das Sample grade überhaupt mal lief. *buck*
 
Ja, schön wär' halt zu wissen: Sweet Spot oder unteres oder oberes Ende der Fahnenstange ...

In einem anderen Forum war von 150mm² Chipgröße die Rede. Berücksichtigt man den Shrink sollte der Chip nominell eigentlich deutlich mehr leisten können. Meine Tipp wäre daher Sweet Spot oder noch darunter.
 
Das sind Gesamtsystemvergleiche, keine Architekturvergleiche. Der Unterschied der Architekturen dürfte um einiges grösser ausfallen. 50W müssen bei einer GTX 950 erst mal eingespart werden. Laut HT4U Test ist das fast die Hälfte der GTX 950 Leistungsaufnahme in Spielen. Das dürfte sich also eher in Richtung doppelter Energieeffizienz bewegen. Allerdings ist der Gegenspieler auch nicht Maxwell v2, sondern Pascal. Da dürfte danke 14nm auch einiges an verbesserter Energieeffizienz rausspringen. Selbst falls dort die Architektur nicht so gravierend überarbeitet wurde wie bei Polaris.

Mag sein oder kann sein oder auch nicht. Was Pascal angeht soll sich die GPU deutlich von den Maxwell v2 unterscheiden wenn die Meldungen dazu noch aktuell sind, daher denke ich das es möglich ist von Maxwell auf Pascal zu schliessen.
 
Jedenfalls wollen die sicherlich nicht, daß Nvidia jetzt schon weiß, welches Marktsegment damit beackert wird. Daß es kein High-End-Chip ist, sollte klar sein, aber wo genau er liegt, kann man noch geheim halten, dann tut man das auch. Und wenn der Chip in Notebooks landet, dann wird die Performance sowieso vom Notebookhersteller abhängen, sprich wieviel Abwärme der erlaubt.

Das ist ein PR-Stunt, aber keine Aussage, die man irgendwie ernsthaft verwerten kann. Was entfallt auf Architekturverbesserungen (die nötig sind, wie man beim Vergleich GCN 1.2 <-> Maxwell sehen kann) und was auf Fertigung? Wenn Pascal in 16nm bei TSMC hergestellt wird und dieser Chip bei GF in 14 nm, welche Fertigung ist besser? Oder welche ist billiger, so daß der Verkaufspreis niedriger sein kann? In zwei Jahren, im Nachhinein, kann man das halbwegs ernsthaft beantworten, vorher kaum.

Was man mitnehmen kann: Da funktioniert etwas, man scheint also im Zeitplan zu sein. Und die Karten des Jahres 2016 werden VIEL besser als die 28-nm-Dinger (ganz unabhängig davon, ob Grün oder Rot diese Runde gewinnt).
 
Das ist ein PR-Stunt, aber keine Aussage, die man irgendwie ernsthaft verwerten kann. Was entfallt auf Architekturverbesserungen (die nötig sind, wie man beim Vergleich GCN 1.2 <-> Maxwell sehen kann) und was auf Fertigung? Wenn Pascal in 16nm bei TSMC hergestellt wird und dieser Chip bei GF in 14 nm, welche Fertigung ist besser? Oder welche ist billiger, so daß der Verkaufspreis niedriger sein kann? In zwei Jahren, im Nachhinein, kann man das halbwegs ernsthaft beantworten, vorher kaum.

Was man mitnehmen kann: Da funktioniert etwas, man scheint also im Zeitplan zu sein. Und die Karten des Jahres 2016 werden VIEL besser als die 28-nm-Dinger (ganz unabhängig davon, ob Grün oder Rot diese Runde gewinnt).
Ich stimme dir da vollkommen zu. Und nach reiflicher Überlegung bin ich zu dem Schluß gekommen, dass AMD hier einen wichtigen und perfekten Marketing-Treffer gelandet hat gegen Nvidia. Grob zusammengefasst steht Nvidia nun an zwei Fronten unter Druck in der Entwicklung für Pascal:
1. Im Profisegment, wo sie mit Maxwell zugunsten der Effizienz auf DP-Leistung verzichtet haben. Dies muss nun aufgeholt werden um den Anschluß dort nicht zu verlieren.
2. Bei der Effizienz. Nachdem Nvidia die Effizienz-Frage erfolgreich fast in hysterische Dimensionen gepusht hat um den Vorteil auszunutzen, müssen sie nun dort auch weiterhin dran bleiben. Würde AMDs Polaris tatsächlich effizienter zu Werke gehen als Pascal, schlägt Nvidias eigenes Marketing Ihnen ein Schnippchen bei den Redaktionen.

Zudem ist der Zeitpunkt gut gewählt. Wenn derzeit sowieso jeder lieber auf den Nvidia Zug aufspringt, dann veranlasse ich lieber einen Teil der Kunden dazu bis Sommer zu warten. Nicht "nächstes Jahr" wie es im Dezember noch gewesen wäre, sondern nun in einigen Monaten, da ja schon Januar ist. Neukäufer könnten sich hier schon entschließen zu warten bei großen Performancesprüngen in Aussicht, schon allein wegen der HBM-Speichertechnik. Nun wird es schwer werden für Nvidia in den kommenden 6 Monaten das Marketing zu platzieren. Veröffentlichen sie lieber DP-Performance Angaben, die dann sicherlich nicht so spektakuläre Effizienz-Sprünge zeigen, oder eben besser Zahlen zur Effizienz raus geben wie AMD das nun gemacht hat? Entweder das Profisegment reagiert enttäuscht oder eben es gibt in den Hardwareforen vorab wenig Begeisterung, was dazu führen könnte, dass AMD mit einem Release vor Pascal die wartenden Käufer abgreifen kann. Denn auch hier ist ein Druck entstanden: noch nie musste man so lange warten um einen Fertigungssprung mit zu nehmen und noch nie war der Sprung so groß, da 20nm ausgefallen sind. In dem Moment wo die erste 14/16nm GPU released wird, kauft niemand mehr 28nm GPUs im Retail-Markt. Also hat AMD hier auch ein Limit gesetzt wie lange sich Nvidia Zeit lassen darf beim optimieren ihres ersten Interposer-Chips und ihres ersten HBM-Produkts. 3 Monate später im Markt kann ebenso fatal sein wie Probleme bei Performance oder Effizienz.

P.S.: Da fällt mir zusätzlich eine weitere Hürde für Nvidia ein: AMD hat Performance-Werte zu dem 14nm Verfahren von GF bekannt gegeben. Eventuell hat AMD sich diesmal dazu entschieden keine Vorarbeit für Nvidia zu machen und erst später mit den High-Perormance Chips aus 16nm TSMC in den Markt zu gehen, so dass Nvidia das aller erste mal als erstes mit einer kleineren Fertigung den Markt betreten muss, während AMD diesmal noch etwas auf die Reifung des Prozesses warten kann und das obwohl sie die ersten sind die in 14nm GPUs bringen. Diese kleinen Chips sind aber in der Fertigung nicht so riskant was das Performanceziel angeht.
 
Zuletzt bearbeitet:
Das hört sich alles sehr gut an, die Hoffnung war da, nun steigt auch die Erwartung.
Würde mich freuen dieses Jahr ein komplettes HighEnd AMD System wieder bauen zu dürfen.

Könnte schneller was werden als man denkt ...

In zwei Monaten erste Karten?

PCPer’s Ryan Shrout reports :

It is likely that this is the first Polaris GPU being brought up (after only 2 months I’m told) and could represent the best improvement in efficiency that we will see.

————————————————————————–
 
Ich würde ja dann mal auf die GDC tippen (14.-18. März), wenn überhaupt?
 
Könnte schneller was werden als man denkt ...
Hättest ruhig noch mehr zitieren dürfen ...
[...] smallest in the family with major focus on mobile platforms and power efficiency. More powerful graphics cards [...] set to debut around mid 2016 [..]
Also "High End" geht doch nicht so schnell...

Für meine Steam-Machine könnte es aber schick werden. ;D

--- Update ---

Wobei, gibt dann vielleicht auch "nur" ein MXM-Modul o.ä. ... ?!
 
Ich stimme dir da vollkommen zu. Und nach reiflicher Überlegung bin ich zu dem Schluß gekommen, dass AMD hier einen wichtigen und perfekten Marketing-Treffer gelandet hat gegen Nvidia. Grob zusammengefasst steht Nvidia nun an zwei Fronten unter Druck in der Entwicklung für Pascal:
1. Im Profisegment, wo sie mit Maxwell zugunsten der Effizienz auf DP-Leistung verzichtet haben. Dies muss nun aufgeholt werden um den Anschluß dort nicht zu verlieren.
2. Bei der Effizienz. Nachdem Nvidia die Effizienz-Frage erfolgreich fast in hysterische Dimensionen gepusht hat um den Vorteil auszunutzen, müssen sie nun dort auch weiterhin dran bleiben. Würde AMDs Polaris tatsächlich effizienter zu Werke gehen als Pascal, schlägt Nvidias eigenes Marketing Ihnen ein Schnippchen bei den Redaktionen.

ich wünsche amd jeden erfolg, aber man könnte das auch andersrum sehen.

letztens war, glaube im 3Dcenter, zu lesen, dass nvidia wahrscheinlich zweigleisig fährt.
heisst verschiedene chips für spiele und profis, also kompromisslos fürs jeweilige segment.
wäre, sollte amd nach der eierlegenden wollmilchsau suchen, eventuell ein gravierender nachteil,
weil man weder fisch noch fleisch hätte.

wie man liest, würde amd dieses jahr nur zwei gpu bringen. mal so vor mich hingesponnen
würde ich da lieber einen consumer und einen profi-chip sehen, z.b. mit 64 Cu.
2 stück auf einem interposer für das highend usw. der treiber müsste der software vorgaukeln, es handele sich um
eine monolithischen gpu, so dass es keine probleme wie unter crossfire gibt. so hätte man, incl. teildeaktivierter
chips die palette zwischen~3000 bis zu ~8000 shadern abgedeckt. ganz unten kommen dann die apu. für den bereich dazwischen sähe es schlecht aus, gebe ich zu.

ihr werdet mein dummes geschreibsel wahrscheinlich zerplücken oder ignorieren.
war auch nur der gedanke eines laien.

p.s.: sich zuerst auf mittelgrosse gpu zu konzentrieren, könnte auch ein fehler sein.
wenn mich nicht alles täuscht, fuhr die konkurrenz zuletzt grosse erfolge damit ein,
grosse chips für highend zu bringen, die zwar seltener verkauft wurden, dafür aber zu mondpreisen.
ausserdem verkauften sich auch die kleineren über das image, welches mit den grossen aufgebaut wurde.
im ergebnis hält amd momentan nichtmal mehr zwanzig prozent marktanteil bei dgpu.
 
@Alter Sack
Ehrlich gesagt erkenne ich keinerlei Bezug des zitierten Teils von mir und dem was du daraufhin geschrieben hast. Ich schreibe über AMDs Marketing und du schreibst über Nvidias Chip-Strategie und spekulierst über die Anzahl der Shader in möglichen Interposer-Designs. Wobei ich auch diese Spekulationen für wenig ergiebig halte.
 
Ja, AMD spart nicht mit superlativen und das Monate vor dem eigentlichen Release. Man zeigt Selbstbewusstsein und will nVidia das von ihnen besetzte Thema Energieeffizienz streitig machen. Soweit so gut. nVidia hat es aber in der Vergangenheit immer geschafft den Fokus auf die eigenen Stärken zu lenken und viele sind dem bereitwillig gefolgt.

Auf der anderen Seite wird 2016 ein Jahr in dem fast alles neu ist. Neue Hardware, die ersten DX12 Titel werden erscheinen, VR-Hardware kommt in den Handel. Die Lage dürfte ziemlich unübersichtlich werden. Die Themen der Vergangenheit, wie Energieeffizienz, dürften nur eines von vielen sein. nVidia und AMD werden versuchen sich darin neu zu positionieren. Wie das ausgeht ist schwer zu beurteilen. Fakt ist nur, dass nVidia sehr viel mehr zu verlieren hat als AMD.
 
Könnte schneller was werden als man denkt ...

In zwei Monaten erste Karten?

http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-5-januar-2016
WCCF Tech machen aus einer falsch gelesenen Zeile bei PC Perspective logischerweise gleich eine Meldung, wonach der erste Polaris-Chip bereits im März 2016 zu erwarten sei – was sich aber schnell zerstoben hat, denn die Originalaussage bezog sich nur auf die Bringup-Zeit des gezeigten ersten Polaris-Chips, in welcher der Chip nach einem erfolgreichen Tape-Out auf Herz und Nieren getestet wird. Jene Zeitspanne hat der kleine Polaris-Chip zudem wohl auch schon hinter sich, ansonsten hätte AMD keine lauffähigen Systeme mit echtem Spieleeinsatz zeigen können.
Diese Aussage:
PCPer’s Ryan Shrout reports :

It is likely that this is the first Polaris GPU being brought up (after only 2 months I’m told) and could represent the best improvement in efficiency that we will see.
Bedeutet, dass man sehr schnell zwischen tapeout und lauffähigen Chips war - lediglich 2 Monate dauerte es bei diesem ersten Polaris-Chip
 
Wenig - der kriegt das ja nicht mal mit Fiji->Fury zusammen.
AMD soll darüber nachgedacht haben das Namensschema von Der R9 Fury X, R9 Fury und R9 Nano für alle Chips zu übernehmen. Als Beispiel würde es für den Einsteiger und Mainstream Bereich den Polaris Chip als R9 Polaris etc. geben.
Nach seinem Beispiel gäbe es keine R9 Polaris und auch die Nano passt da in kein Schema da dies ja ein Fiji Chip ohne Fury Bezeichnung ist *buck*
 
Polaris komplett in 14nm:

We’ve reached out to AMD and they have confirmed that the Polaris GPU demoed was in fact built using Globalfoundries’ 14nm FinFET process. Some publications have reported that Polaris will be a mix of both TSMC 16nm and Globalfoundries 14nm GPUs, which is where some of the confusion could potentially have stemmed from. However, according to AMD Polaris “is only 14nm”.

Furthermore, they’ve asked us to refer back to the company’s press release — which you can find quoted in its entirety in the original article below — which clearly states that the Polaris Architecture is 14nm based. Here’s the the relative segment of the press release :

AMD’s Polaris architecture-based 14nm FinFET GPUs deliver a remarkable generational jump in power efficiency. Polaris-based GPUs are designed for fluid frame rates in graphics, gaming, VR and multimedia applications running on compelling small form-factor thin and light computer designs.
 
Der TSMC Chip wird wohl einen anderen Namen bekommen. Damit wäre auch das Rätsel gelöst warum es nur 2 Polaris Chips geben soll. Noch 2 16nm GPUs dazu für den Highend und AMD hat ein komplettes Lineup ohne sich zu sehr zu verbiegen.
 
Zurück
Oben Unten