AMD GCN4 (Polaris, Radeon 400/500) & GCN5 (Vega)

Man kann ja nur hoffen das es das auch irgendwann für normallos gibt aber größtes Problem dürften die Treiber sein was passiert wenn schneller Speicher auf langsam Trift zeigt uns die gtx 970 ja aber unter VR zum Beispiel könnte man wenn Leistung ungenutzt ist (AC) schon Bilder vorrechnen für den Fall das ich dort hinlaufen/hinschauen sollte Oder nur als Platz spar Option in ein itx matx Systeme wo kein Platz ist für viele m2/u2 Ssds

Ehm, das hat nichts mit schnellem/langsamen Speicher zu tun. So wird dieses System nicht genutzt. Die SSD ist kein Ersatz für RAM. Es geht hier ausschließlich darum, dass wenn bei großen Datenmengen der RAM auf der Grafikkarte nicht ausreicht => schreibt Sie auch heute schon auf die Platte (ich sag mal salopp speichert Zwischenergebnisse). Stand heute ist das mit viel Latenz verbunden - warten bis CPU Ressourcen frei hat um Copy/Read auszuführen usw...

Und das macht diese Technik mit weniger "Latenz" was im gezeigten Szenario zu Faktor 5 schneller sein führt.
Wie Complicated schreibt, könnte diese Technik am ehsten beim internen Streaming der Welt einen Nutzen bringen.
Z.B. Openworldspiele völlig ohne Übergänge die schon vorher komplett auf der SSD liegen...
 
Naja, wenn man das mit Intel's 3D XPoint kombinieren könnte, dann käme man schon nah an RAM-Geschwindigkeiten. Im Endeffekt dürfte das hinterher als ein anderer Memory-Type/Heap (z.B. in Vulkan) in den APIs sichtbar sein, und es läge an den Entwicklern das entsprechend zu nutzen, wenn es Sinn macht.
 
Was genau nutzt AMD für Polaris eigentlich, LPE oder LPP? LPE war jedenfalls früher verfügbar und scheint auch die höhere Ausbeute zu haben.
 
Lpp müsste das sein zumindest haben alle das gesagt :)
LPE Ist zwar früher da aber auch ein ganzes Stück größer und soll auch noch ander Nachteile haben
 
Hab's mir jetzt nicht angeguckt, aber üblicherweise gibt es ein Angebot für den energieeffizienten Mobilbereich und ein anderes Angebot für Performance. Vermutlich ist es der Prozess mit dem P mehr im Namen, das dann für Performance steht: LPP

BTW:
Gegen Jahreswechsel sollen übrigens irgendwelche Designs in einem 28nm fdSOI Prozess starten. Zumindest hat SoiTec angekündigt, dann erste Volumenumsätze für 300mm fdSOI Wafer zu haben, und als Kunden dafür kommen nur STM und Globalfoundries in Frage, wobei erstere m.E. in 300mm keine Volumina abrufen. Damit sich keiner zu früh freut, das wird nicht AMD betreffen.
MfG
 
Der LPE ist Sozusagen die Open Beta Fertigung wertend der lpp die eigentlich Fertigung ist kleiner ,besser Effizienz und und und

Nachtrag genauer werte kann ich heut Abend nachreichen möchte ich aber grad nicht über mobile Netz
 
Zuletzt bearbeitet:
Was genau nutzt AMD für Polaris eigentlich, LPE oder LPP? LPE war jedenfalls früher verfügbar und scheint auch die höhere Ausbeute zu haben.

Für LPE spricht:
Man schien sich bei AMD recht sicher zu sein, relativ zeitig Produkte verkaufen zu können, auch in ausreichender Stückzahl. Angeblich war AMD dann vom frühen (Paper-)Launch der 1000er-Reihe überrascht - aber interpretieren und vermuten kann man so Vieles -, was nach der Entscheidung gegen den LPE (gegen "Early") wohl nicht eingetreten wäre. Zweitens, diesmal positiv, wäre da die Chance, dass künftige Radeon-GPUs in LPP gefertigt und damit in Sachen Taktverhalten, Energieeffizienz u.a. besser sein werden.
Für LPP spricht: Es hat ja nun doch eine ganze Weile gedauert allein bis zum Start der Referenzkarte der 480, die breite Verfügbarbeit der Custom-Designs ist noch nicht eingetreten und RX 470 & 460 werden erst noch kommen. Auch Pessimismus & Realismus ggü. der Qualität von Samsungs Konzept für den Fertigungsprozess und der tatsächlichen Herstellung bei GlobalFoundries sind Argumente hierfür.
 
Zuletzt bearbeitet:
Und da stecken vermutlich auch die 16nm "Tiger"-Kerne drin (nicht "Jaguar").
Gehört der "Tiger" auch zur Säbelzahn (Sabertooth) Generation?
Oder ist das eine Eigenständige Generation, mit allen pro und contras?

win10_startyysel.png

Huch, warum schaut Raja nach oben?
 
Mal was O.T.
Wäre es aus Kundensicht nicht sinnvoll, wenn zukünftige Grakas
Nur noch reine 3d-Beschleuniger
wären da sämtliche Grundfunktionen inkl. min. 3d-Fähigkeiten ohnehin auf dem CPU-Package intergriert sind.
So könnte man sich Fläche bei
den GPU sparen. Am besten gleich
noch die DP Sachen mit raus und
auf eine extra Karte für die, die
es brauchen. ...und dann noch
modulare GPUs über Interposer.
 
Mal was O.T.
Wäre es aus Kundensicht nicht sinnvoll, wenn zukünftige Grakas
Nur noch reine 3d-Beschleuniger
wären da sämtliche Grundfunktionen inkl. min. 3d-Fähigkeiten ohnehin auf dem CPU-Package intergriert sind.
So könnte man sich Fläche bei
den GPU sparen. Am besten gleich
noch die DP Sachen mit raus und
auf eine extra Karte für die, die
es brauchen. ...und dann noch
modulare GPUs über Interposer.
Theoretisch wäre das schon möglich, aber technisch wirst da schneller an Grenzen geraten, als einem selbst lieb ist.
Jede weitere Karte hat eine höhere Latenz, da sie weiter weg von der CPU ist.
iGPU zur 2D Darstellung und dGPU als Rechenzentrum wäre besser.
Genau das macht WDDM 2.0 inzwischen, die Systemspeicherverwaltung wird von der GPU übernommen, sofern der Entwickler genug "know how" hat. :)
 
Eigentlich könnte man ja komplett auf die Spezialfunktionen verzichten und alles mit ganz vielen x86-Kernen machen. Deshalb war Larrabee ja auch ein so großer Erfolg ... *hust*

Wenn wir irgendwann mal bei "Realtime Raytracing Gaming Engines" angekommen sind, dann vielleicht ...
 
Und was wäre abseits vom Namen der Unterschied?
Wie BoMbY schon schrieb, ist es im Wesentlichen der Prozess. Ich denke nicht, dass an der Architektur groß etwas verändert wurde, evtl. hat man einen Buffer hier oder da etwas größer ausgelegt.

Aber Shrink trifft es auch nicht ganz, da ganz andere Design Rules u. Standard Cell Libs zum Einsatz kommen. Und eigene Makros werden auch neu entwickelt bzw. angepasst, wie in dem LinkedIn-Screenshot zu sehen:
500x1000px-LL-ebd39440_oWTKD46.jpeg
.

Wobei ich hier "Tiger" eben nicht für ein Zen-Derivat halte, da es doch genauso eine Raubkatze ist. ;)
 
da aber viele Foren"geier" auf linkedin-Profile glotzen, wird da evtl. absichtlich was falsches geschrieben, zu unserer Verwirrung. Für ihn reicht es ja, wenn die Dinge, an denen er arbeitet, passend beschrieben sind, nur die Codenamen könnte er ja "ganz versehentlich" etwas durcheinandergewürfelt haben.

"Zen" und "SoCs" ist ja auch kein Gegensatz, das ist schon Quatsch, damit wir uns die Köpfe zerbrechen. SoCs sind das ja im Zweifel sowieso alles, eben mit Zen oder mit anderer CPU-Architektur. Gerade jemand wie er würde sowas garantiert nicht durcheinanderwerfen.

Rein logisch würden dann die Angaben Tiger=16nm und Cheetah=14nm passen, ersteres der Chip für Microsoft und das zweite der für Sony. Aber die Katzennamen waren immer für die Kernarchitekturen, nicht die SoCs insgesamt, und die Namen für die Konsolenchips waren sowieso aus ganz anderen Kategorien als die restlichen AMD-Produkte.

Also ich glaub da nicht so ganz viel von.
 
Nun ist ja Baffin als Polaris 11 (RX 460) raus und somit die zweite GPU der Arctic Islands Generation.
Man könnte schlussfolgern, dass AMD es geschafft hat in der Gaming-Effizienz auf Nvidias Grafikkarten mit 28nm TSMC-Prozess aufzuschließen.
Das ist per se nicht schlecht, lässt aber die Frage offen, ob sich eine Neuanschaffung im gleichen Leistungs-, Verbrauchs- & Preissegment lohnt.

Evtl. hätte das Team von vornherein die Entwicklung auf mehr Takt der Compute-Units konzentrieren sollen. Es scheint sich ja in aktuellen Spielen immer noch zu lohnen.
Na mal was Vega da noch was reißt.

Gruß Lehmann
 
lässt aber die Frage offen, ob sich eine Neuanschaffung im gleichen Leistungs-, Verbrauchs- & Preissegment lohnt.
Ist doch keine Frage: es lohnt sich nicht.
Aber denk mal an die neu Einsteiger bzw. Aufsteiger. Die wollen nicht unbedingt was gebrauchtes.

Ich bin bisher mit einer Radeon 6850 ausgekommen. Reicht halt nicht für aktuelle Spiele. Wesentlich mehr als 200€ wollte ich auch nicht ausgeben.
360 bot mir nicht genügend Mehrleistung, 370 fehlte mir das Featureset und 380 war mir zu teuer.
Nachdem ich verstärkt mit der 380 geliebäugelt hatte, konnte ich letztens bei dem RX 480 8GB für 239,-€ Versandkostenfrei Angebot nicht wiederstehen.

Bin also leistungsmäßig aufgestiegen. Die 460 hätte sich kaum gelohnt, da kein wesentlich besseres Leistungsverhältnis zur alten 6850.
 
Die 460 hätte sich kaum gelohnt, da kein wesentlich besseres Leistungsverhältnis zur alten 6850.
doch, müßte ziemlich genau doppelt so stark sein. Hatte mir noch gemerkt, daß die 7870 doppelt so stark ist wie die 5850, und die 6850 ist ja ein kleines Bißchen unter der 5850, die 460 nun ungefähr gleichauf mit Pitcairn. Bei modernen Spielen sollte die modernere Architektur auch tendenziell noch was dazugewinnen ggü. VLIW5.

Aber schreib mal was zu Deinen subjektiven Erfahrungen mit der 480 (nicht jetzt gleich, sondern wenn Du sie schon ne Weile gehabt hast).

Evtl. hätte das Team von vornherein die Entwicklung auf mehr Takt der Compute-Units konzentrieren sollen. Es scheint sich ja in aktuellen Spielen immer noch zu lohnen.
ich denke mir, daß da sicherlich noch was optimiert wird, mit einem Refresh oder zumindest Fertigungsverbesserungen. Der Chip an sich wird ja sicherlich wieder lange im Markt bleiben sollen, und wenn man nächstes Jahr noch eine leistungsgesteigerte Version bringen kann, ist das doch gut, wird man bestimmt versuchen.
 
Ist eigentlich bekannt, ob AMD hier HD Libs nutzt?
 
Aber schreib mal was zu Deinen subjektiven Erfahrungen mit der 480 (nicht jetzt gleich, sondern wenn Du sie schon ne Weile gehabt hast).
Habe sie jetzt 2 Wochen.
Erste Erfahrungen:
Alte Karte raus, 480 rein, neuen Treiber installiert, lief. Hatte soweit keine Probleme.
Habe sie im offenem Gehäuse neben dem Schreibtisch. Sie ist immer leise zu höhren, stört mich aber nicht weiter, bin ich von der 6850 gewohnt.
Im gutem geschlossenem Gehäuse dürfte sie kaum hörbar sein bei Desktopbetrieb. Richtig unter Last hatte ich sie noch nicht. Blieb bei Dota, Borderland und Bioschock infinite immer ruhig, im Gegensatz zur 6850 die dann schon aufdrehte.
Bei den ersten Spieleindrücken gab es schreckliches Tearing trotz Ultra einstellungen, ließ sich dann aber durch V-Sync beheben. Kannte ich vorher halt nicht.
Habe auf Kompatibilitätsmodus gestellt, da die Karte aktuell noch unterfordert ist.
Dann ist es auch ein gutes Gefühl, bei den Spielen nicht mehr auf die GPU Anforderungen schauen zu müssen. Bei der 6850 habe ich mich schon nicht mehr an aktuelle Spiele getraut.
Mein Fazit: für 239,-€ war die RX 480 8GB kein Fehlkauf und wird mir die nächsten Jahre reichen.
Es sei denn, VR stellt entsprechende Ansprüche. Aber da muß ich erst mal abwarten, wie sich das alles entwickelt.

Ich hätte auch durchaus das Geld für eine 1080 gehabt. Da ich aber nur HD Zocke und nicht die anspruchsvollsten Scenarien habe, wäre es aktuell entweder eine 4GB 380 geworden oder die 470, wenn sich die Preise erstmal eingependelt haben.

Der Stromverbrauch ist mir auch ziemlich gleich. Was die Karte an Wärme produziert, spare ich bei der Heizung (Nachtspeicher ) Bei unserem tollem Sommer hier, kann ich die Heizung beim Zocken auslassen :) .

Habe auch noch einen FX-8300 eingebaut, somit dürfte es jetzt trotzdem sparsamer sein, als der Phenom II 955 mit der 6850. Die wandern nun in den Zweitrechner mit altem AM3 Board.
 
da aber viele Foren"geier" auf linkedin-Profile glotzen, wird da evtl. absichtlich was falsches geschrieben, zu unserer Verwirrung. Für ihn reicht es ja, wenn die Dinge, an denen er arbeitet, passend beschrieben sind, nur die Codenamen könnte er ja "ganz versehentlich" etwas durcheinandergewürfelt haben.

"Zen" und "SoCs" ist ja auch kein Gegensatz, das ist schon Quatsch, damit wir uns die Köpfe zerbrechen. SoCs sind das ja im Zweifel sowieso alles, eben mit Zen oder mit anderer CPU-Architektur. Gerade jemand wie er würde sowas garantiert nicht durcheinanderwerfen.

Rein logisch würden dann die Angaben Tiger=16nm und Cheetah=14nm passen, ersteres der Chip für Microsoft und das zweite der für Sony. Aber die Katzennamen waren immer für die Kernarchitekturen, nicht die SoCs insgesamt, und die Namen für die Konsolenchips waren sowieso aus ganz anderen Kategorien als die restlichen AMD-Produkte.

Also ich glaub da nicht so ganz viel von.
Etwas Verschleierung ist immer möglich. Die Gefahr durch LinkedIn-Leaks sollte langsam bekannt sein. Jemand war ja sogar so witzig u. erwähnte lustige Verfahren für ich glaube Branch Prediction in einem neuen Prozessor (mit Pigeonsort..).

Vermutlich werden wir die Hintergründe wohl nie genau erfahren, so wie die Bedeutung von R bei den Radeons (Rage). ;)

Ist eigentlich bekannt, ob AMD hier HD Libs nutzt?
Mir leider noch nicht, aber evtl. helfen diese Die Shots unten etwas dabei.

Hat sich hier jemand schon diese echten Polaris-Die-Shots hier angesehen? Die sehen ganz anders aus als der hier schon gezeigte synthetische Plot.


https://www.flickr.com/photos/130561288@N04/28203687684/in/album-72157650403404920/
 
Zurück
Oben Unten