AMD GCN4 (Polaris, Radeon 400/500) & GCN5 (Vega)

Wenn Sony Entwickler Code für Zen2 in Clang veröffentlichen (Clang ist der C Compiler von FreeBSD. Sony Orbis OS basiert auf FreeBSD) und es Gerüchte gibt daß Raja bei AMD in den Sack gehauen hat, weil man einen Großteil der Vega Entwickler abgezogen und diese in der Navi Entwicklung plaziert haben soll weil Sony Navi für die PS5 haben will (https://www.pcgamesn.com/amd-sony-ps5-navi-affected-vega) und Vega deswegen nicht das wurde was Raja haben wollte, dann kann man eigentlich mit ziemlicher Sicherheit davon ausgehen daß die PS5 aus einer Zen2 und Navi APU bestehen wird.
 
Die Indizien sind ziemlich stichhaltig.
Dabei müsste das Design ja langsam fertig werden, oder gar schon sein?
 
Das ist garnicht so kompliziert sich da was zu denken. Dafür braucht man auch kein spezifisches Wissen, Bomby.

Wenn AMD sagt(e), daß sie erstmal den Groß der GPU-Ingenieure zu Konsolen-APUs abkommandiert haben, dann machen sie das nicht, weil sie nur hoffen, sie bekommen dann den Zuschlag :]

Das ist doch GLASKLAR oder?

Nein, ist es nicht! Das bedeutet nur, das wahrscheinlich Sony einen Teil der Entwicklungskosten trägt. Und dieser Vertrag ist sicherlich unterschrieben worden.
Und das war zu einer Zeit wo das für AMD sehr großen Sinn machte - denn wenn NAVI jetzt nicht so toll wird hat man wenigstens nicht alle Entwicklungskosten alleine zu tragen...

Aber der Vertrag, der dann die Abnahme der APU klar macht wurde es noch nicht.

So schwer kann das doch nicht zu verstehen sein?! Microsoft und Sony gehen zu AMD und unterschreiben einen Entwicklungsvertrag mit der Custom-SoC Abteilung, dass diese einen Soc nach deren Vorgabe entwickeln soll ... Das ist bisher geschehen.

Danach, wenn Ergebnis stimmt, Verfügbarkeit garantiert werden kann / oder ersichtlich ist ab wann diese gewährleistet werden kann wird mit AMD als "Fertiger" (auch wenn AMD selbst nicht Fertigt) der Vertrag für die Massenproduktion unterschrieben. Das ist noch nicht passiert (bzw. darüber Reden die Partner noch nicht - auch so etwas ist möglich)...
 
Nein, ist es nicht!
Der Bruder?? :D
Das bedeutet nur, das wahrscheinlich Sony einen Teil der Entwicklungskosten trägt. Und dieser Vertrag ist sicherlich unterschrieben worden.
Die Stelle wo ich das anscheinend offensichtlich anders meinen würde, ist wo?

Aber der Vertrag, der dann die Abnahme der APU klar macht wurde es noch nicht.
Auch das schrieb ich hier schon...

Oder hast du #1746 so garnicht überflogen?

@Gozu
Raja kann auch gegangen sein, nicht weil Vega nicht das werden konnte, sondern nicht das geworden ist, was er versprochen hat. Achtung. Kleine wichtige Unterschiede ;)
In den entsprechenden Etagen kann man auch gemeint haben, daß er zu notwendigen Zeitperioden sehr wohl genug Leute dafür hatte. Das bekommt man immer sehr schwer heraus wie genau sowas wirklich gelaufen ist.
Er kann dann ja hinterher nur gemeint haben, daß es eben an dem Abzug der Leute lag. Andere können meinen, das war anschliessend nur glücklich vorgeschoben.

Konnte halt einfach viel länger als abgesprochen bzw. von Raja versprochen gedauert haben. D.h. man stand nach Zeitplan soweit in den Startlöchern für Sony/Ms APUs, aber Vega wurde immernoch nicht 100% nach Vorstellung fertig. Sollte es aber da schon. Also hat man ihm die Leute abgezogen und es lässt sich natürlich anschliessend auch gut sagen, wurde nicht so fertig wie erträumt, weil die Leute abgezogen wurden.

@all
Polaris30 scheint laut all den Gerüchteköchern fast sicher für Oktober :)
 
Zuletzt bearbeitet:
Konnte halt einfach viel länger als abgesprochen bzw. von Raja versprochen gedauert haben. D.h. man stand nach Zeitplan soweit in den Startlöchern für Sony/Ms APUs, aber Vega wurde immernoch nicht 100% nach Vorstellung fertig. Sollte es aber da schon. Also hat man ihm die Leute abgezogen und es lässt sich natürlich anschliessend auch gut sagen, wurde nicht so fertig wie erträumt, weil die Leute abgezogen wurden.

Irgendwas gravierendes muss auch gewesen sein, warum hat man sonst so viele Hardwarefeatures nicht freigeschaltetet? Irgendwann hat man dann wahrscheinlich die Reißleine gezogen und auch einige geplanten Vega-Produkte nicht mehr finalisiert. Wird halt interessant zu sehen sein, in wie weit Navi sich von Vega unterscheidet.
 
Wird halt interessant zu sehen sein, in wie weit Navi sich von Vega unterscheidet.

Vega war für HPC gedacht. Asyncrone Compute, Infinity Fabrik, Cohärent Cache Controller, SSD unterstützung ...
Eben für Big Data in Server. Dann haben sich noch die Anforderungen während der Entwicklung Richtung KI geändert.
Amd hatte einfach nicht die Mittel um mehrgleisig zu fahren. Und als dann das Angebot von Intel kam: Komm zu uns, da kannste dich austoben. Da viel die Entscheidung nicht zu schwer für Raja. Seis drum, werden wir vielleicht mal in einer Biographie lesen können.

Wenn Navi auf einer Entwicklung mit Sony entstammt, erwarte ich eigentlich einen reinen Gaming Chip, eventuell mit VR unterstützung. Der könnte dann schon was umkrempeln im Gaming Markt. Vor allem sollten Portierungen von PS5 auf PC leicht fallen. Dürfte aber noch 1 Jahr dauern, bis es soweit ist.

Ich denke auch, dass AMD mittlerweile die Mittel hat, um 2 Gleisig zu fahren. Zum einem HPC Chips, zum anderem Gaming Chips für Konsolen und PC.
 
Irgendwas gravierendes muss auch gewesen sein, warum hat man sonst so viele Hardwarefeatures nicht freigeschaltetet?
Ich denke es gibt keine GPU von AMD die immer alle Hardware Features "frei geschalten" hat.
Man denke an 3 Generationen mit dedizierter Tesselation Unit und erst mit Evergreen eingeführter Software Unterstützung.

Ich verweise gerne dafür auf den hervorragenden Artikel von Anand wie solche Features selektiert werden am Beispiel RV870:
https://www.anandtech.com/show/2937/5
 
@amdfanuwe
"Ich weiß nicht" :P HPC-Zeit ist ja teuer und lästig. Ich hätte gesagt man sieht wohl eher den Markt der... Labor_workstation oder des Labor_numbercruncher. OIDer, Abteilungs_numbercruncher :) Schrieb ich auch schon. Also eher TitanV als Tesla.

edit:
Wenn Vega20 für Datacenter sein soll, dann denke ich stehen fp32 zu fp64 2:1 oder? Das heisst für mich, knapp über 20 Gflops fp32 und eben 10 Gflops FP64, unter 300W (?) HP(E) will die 16GB Version wohl für unter 9000€ verkaufen.
 
Zuletzt bearbeitet:
Für Konsolen wird eine Big APU entwickelt, das ist anscheinend sicher.

Die normale Schnittstelle für CPU/GPU ist der PCIe Bus von Intel. Wenn jetzt AMD hergeht und eben eine eigene Schnittstelle entwickelt. Auf einer APU kann man "frei" verdraten und hat kurze Wege. 6 Kerne und eine Anzahl X an CUs Anwiesierter Verbrauch von vll 200 Watt. Der Chip wäre für vieles einsetzbar.
 
Ich denke es gibt keine GPU von AMD die immer alle Hardware Features "frei geschalten" hat.
Man denke an 3 Generationen mit dedizierter Tesselation Unit und erst mit Evergreen eingeführter Software Unterstützung.

Ich verweise gerne dafür auf den hervorragenden Artikel von Anand wie solche Features selektiert werden am Beispiel RV870:
https://www.anandtech.com/show/2937/5

Ganz interessant, aber Vega scheint doch ein Sonderfall zu sein. Ich verweise mal auf die gute Zusammenfassung von 3DCenter: https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-89-september-2018


  • AMD streicht den eigenen Treiberpfad für die "Primitive Shaders" von Vega
  • Binning Rasterizer (Draw Stream Binning Rasterizer) inaktiv
  • HBCC (High-Bandwith Cache Controller) per default deaktiviert
  • AVFS (Adaptive Voltage & Frequency Scaling) im Treiber nicht richtig lauffähig
  • ACG (Advanced Clock Gating) im Treiber deaktiviert


Spricht doch vieles dafür, dass dann doch einfach die Manpower fehlte. AMD hat mal von ca. 12.000 Mitarbeitern auf deutlich unter 8.000 reduziert, erst letztes Jahr oder vorletztes Jahr ging der Headcount auf 8.900 wieder hoch. Und wahrscheinlich hat man dann wirklich stark Prioritäten gesetzt. Es mag ja auch sein, dass Vega 20 dann doch noch Features bekommt, die dann aber gerade für das High Perfomance Computing wichtig sind.
 
ich sag ja, Experimentalchip.
AMD hatte einfach nicht das Geld für die Entwicklungsabteilung eigene Chips zu fertigen um bestimmte Sachen auszuprobieren. Ergo steckt man auf einen Verkaufsfähigen Chip noch ein paar Dinge mit drauf für die Entwicklungsabteilung. Da man mit einem herkömmlichen Chip eh noch nicht wirklich konkurrenzfähig ist und auch nicht die größten Mengen verkauft werden, war das der beste Kompromiss für AMD.
 
  • AMD streicht den eigenen Treiberpfad für die "Primitive Shaders" von Vega
  • Binning Rasterizer (Draw Stream Binning Rasterizer) inaktiv
  • HBCC (High-Bandwith Cache Controller) per default deaktiviert
  • AVFS (Adaptive Voltage & Frequency Scaling) im Treiber nicht richtig lauffähig
  • ACG (Advanced Clock Gating) im Treiber deaktiviert
Davon ist HBCC, AVFS und ACG in Hardware verbaut, da eben steuerbar durch Treiber. Wir diskutieren über gestrichene Hardware-Features. Davon ist keines in deiner Liste. Hier sind lediglich Primitive Shaders ein Kandidat.
 
Daß der Weg nach Navi irgendwie zwingend über Vega gehen mußte, bzw. AMD der Meinung war, das Gefühl hab ich auch.

Was die Konsolen nochmals angeht, darf man auch nicht vergessen was AMD noch zusätzlich mitbringt. Sound. Fertig ausgereift for quasi nothing was den Konsolenbauer und Gaps angeht. Direkt jedes Mal eine Baustelle weniger für Ms/Sony :)
 
Zuletzt bearbeitet:
Für 7nn sollen die Design/Masken-Kosten bei 200-300Mio$ liegen. Wenn zudem die 7nm-Wafer richtig teuer sind, dann wird für mich klar, warum es in nächster Zeit keine 7nm-Gamer-GPU von AMD geben wird: AMD könnte hier die Koste kaum rein holen, solange ihre GPU die von Nvidia nicht weit übertrifft:
bei 1 Mio GPUs wären das 200$-300$ pro GPU an anteiligen Design-Kosten
bei 10 Mio Stück immer noch 20$-30$ pro Unit.

Im Falle der 7nm-GPU für AI wären das natürlich sunk-costs => womöglich kommt diese GPU dann doch später irgendwie als Gamer-GPU. Dies kündigt AMD erst mal nicht an, in der Hoffnung, für das bestehende Design dann später von TSMC vielleicht doch ein paar günstigere 7nm-Wafer zu erhalten.

Bei diesen Design-Kosten muss AMD nun in Zukunft ganz anders rechnen. Solange AMD kein super GPU-Design für 7nm hat, wird es keine 7nm-GPU für den Massenmarkt geben.
 
7nm-GPU für AI ist bereits fertig und kurz vorm Release: "Radeon Instinct Vega 7nm". Nun, "in nächster Zeit" ist ein sehr dehnbarer Begriff für das Jahr 2019, wo ich(und andere) schon eine 7nm-Gamer erwarte. Vielleicht nicht Q1/19 aber vllt. Q2-Q3/19. Alles im Rahmen des machbaren wenn man die Apples A12 betrachtet.

Bei AMD mangelt es gar nicht am Design, sondern eher an der breiten Unterstützung und manpower auf der Softwareseite. LL-API schreitet jetzt beschleunigt voran mit dem Erscheinen von Turing. Es braucht auch keine "Super-GPU", die NV übertrifft um am Markt weiter zu expandieren. Einfache solide refresh auf 12nm für Polaris und Vega gepaart mit annehmbaren Preisen reicht für AIB-OEM Markt vollkommen aus. Dazu kommen noch APU's auf 7nm Basis. Bin gespannt ob die PS5 vllt. sogar schon vor Desktop-Navi erscheint um mit exklusiven Konsolenfeatures werben zu können.

Wann hatten wir letztes mal, dass Konsolen technologisch fortgeschrittener waren als Desktop-GPUs?
 
Zuletzt bearbeitet:
Die Xbox360 war bei erscheinen dem PC voraus. Da hielt sogar einige Zeit vor. Damals war es aber nicht nur die Unified Shader GPU sondern auch der TriCore mit 6 Threads auf CPU Seite.
Die PS4 konnte allerdings auch schon mehr AsyncCompute ausführen als die damals aktuelle GCN Variante.

Was ich mich frage ist, inwiefern Features, die von Sony mitentwickelt werden auch Konsolenexklusiv bleiben.
MS wird sicher keinen Zugriff darauf bekommen. Für AMD lohnt es sich widerum nur soviel Manpower aus der Entwicklung abzuziehen, wenn man das auch in dGPUs weiterverwenden darf.

Ich habe so ein Bauchgefühl, dass Scorpio zwar eine Zen CPU hat aber die GPU von nVidia kommt. Navi dürfte Vega technologisch weit überlegen sein und nochmal wird MS nicht den kürzeren ziehen wollen.

AMD wird softwareseitig ebenfalls nachlegen müssen. nVidia hat in einigen hochpreisigen Segmenten den Fuß in der Tür. Das wird schwer, selbst wenn man hardwareseitig diesmal liefern kann.
 
Ich habe so ein Bauchgefühl, dass Scorpio zwar eine Zen CPU hat aber die GPU von nVidia kommt. Navi dürfte Vega technologisch weit überlegen sein und nochmal wird MS nicht den kürzeren ziehen wollen.
Wie stellst du dir das vor? Da kostet die GPU ja schon mehr als Sonys komplette Konsole.
 
AMD wird softwareseitig ebenfalls nachlegen müssen. nVidia hat in einigen hochpreisigen Segmenten den Fuß in der Tür. Das wird schwer, selbst wenn man hardwareseitig diesmal liefern kann.
Schon längst passiert:
https://github.com/ROCm-Developer-Tools/HIP
https://gpuopen.com/compute-product/hip-convert-cuda-to-portable-c-code/
https://gpuopen.com/ported-caffe-hip-heres-happened/
The Challenge
CAFFE is a popular machine learning framework created by the Berkeley Vision and Learning Center. The code base contains more than 55,000 lines of C++, and is optimized for CUDA. The code includes more than 70 CUDA kernels and uses Nvidia’s proprietary CUDNN library. Our goal is to port the code so that it runs on AMD’s Radeon Instinct GPUs, while retaining the ability to still run on CUDA platforms with the original performance.

[...]

99.6% success

Overall the CAFFE port was quite successful – 99.6% of the code was either automatically ported or was automatically converted. A single developer required less than a week to clean up the remaining 200 lines of code to produce a working version on ROCm. Previously we have tried to use OpenCL C-based API to port similar C++ applications. Porting C++ to C is quite a challenging problem, and the OpenCL CAFFE port in fact required tens of thousands of additional lines of code. Much of this code duplicates the CUDA kernels and runtime, and so significantly increases the maintenance cost. In comparison, the HIP port is a small delta from the original code, the conversion is largely automated, and as we will see can replace the CUDA port. The HIP port also includes all the features of the original application, including the multi-GPU, optimized peer-to-peer communication, and CUDNN support.

[...]

CUDA-Porting3.bmp
[...]

Conclusion


HIP is a powerful tool to port existing CUDA applications, even a large C++ code-base such as CAFFE. As we hoped, the port can run on CUDA architecture with the same performance as the original CUDA application – including using CUDNN. The code can also run ROCm and Radeon Instinct, and is accelerated with MIOpen performance as well. With portability to more hardware and a path to faster performance, maintainers can replace the vendor-specific CUDA with the portable and open-source HIP code. We will be using this to rapidly expand the software libraries and applications which are portable to the Radeon Instinct products – stay tuned!
Auch als 10 min. Video: https://www.youtube.com/watch?v=I7AfQ730Zwc
 
Zuletzt bearbeitet:
Ich habe so ein Bauchgefühl, dass Scorpio zwar eine Zen CPU hat aber die GPU von nVidia kommt. Navi dürfte Vega technologisch weit überlegen sein und nochmal wird MS nicht den kürzeren ziehen wollen.
Und was bringt ihnen dann NVIDIA?

AMD hat MS sicher nicht eingeredet, nur DDR3 zu verwenden, der eSRAM war sicher auch ein Wunsch von MS.
 
Für die Welt ist das nicht verkehrt, aber das ist ein 1:1 Clon von Cuda :P Ja nun, wenns geht...

Was wird dann aus OpenCL? Ist das damit später entsorgt?
 
Soweit ich mich zu erinnern glaube, hat es mal geheißen, dass AMD für Pinnacle Ridge nur die untersten Masken für den Aufbau der Transistoren auf 12nm angepasst hat. Den Rest hat man gelassen. Man hat damit zwar auf den 10%-Flächenshrink verzichtet (die Transistoren hätten etwas zusammen rücken können) aber konnte dadurch einen Großteil der Masken weiter verwenden. So in etwa habe ich das verstanden.

Bin ich bei dir.
Die unteren Masken werden neu durch den Compiler gejagt mit 12nm Bibliothek, die Kontaktpunkte zu den oberen Masken werden fixiert.
Ergebnis: Kleinere, schnellere, sparsamere Transistoren und die oberen Masken können weiter verwendet werden. Gibt halt keinen Flächenvorteil, da die Kontaktpunkte zu den oberen Masken ja an der gleichen Stelle bleiben müssen. Dafür hat man mit ein paar Mausklicks und dem Herstellen von wenigen Masken einen 10-15% Performanceschub.
Denke mal, das haben die Jungs aus der 2ten Reihe noch hinbekommen und die Architekten konnten in Ruhe an Navi und Nachfolger weiterarbeiten.
12nm ist in ein Performanceboost und eine schmallere Zelllibary. Beides bedeutet ein komplettes Redesign.
Neben Timingänderungen die zu logischen Designänderungen führen müssen, muss sich da auch rein physisch komplett was ändern, wenn die Zellreihen statt 576nm (9Tracks) nur 480nm (7.5 Tracks) hoch sind. Wer schon mal den Aufbau eines Chip bis auf Zellebene gesehen hat (wie ich in meinem Job), fragt sich wie da irgendeine Metallage da gleich bleiben soll. Auch macht es null Sinn die höheren Ebenen nicht zu ändern, wenn man 15% Platz sparen kann. Im Gegesatz zum Aufwand für die Umstellung und die Kosten für die Masken der unteren Ebenen wären das Peanuts.
 
Zurück
Oben Unten