AMD Raven Ridge, AM4 ZEN HBM2

Auf früheren Folien war Raven Ridge (mobil) mit 4-35 W angegeben. Von daher können noch 35 W-Versionen kommen, oder der Plan wurde aufgegeben, weil die Hersteller sie nicht verbauen.
 
Wow, diese 15W-Mobile-Ryzen überraschen mich äußerst positiv!

3,8Ghz-Turbo bringt selbst in den 15W-Bereich Singlecore-Performance, wie auf dem Desktop!

Aber noch mehr überrascht mich die mit 1300Mhz sehr hohe Taktung der iGPU. Natürlich muss man hier erst mal Test abwarten, was im praktischen Betrieb davon übrig bleibt. Aber dieser Takt deutet darauf hin, dass zumindest die Desktop-Varianten ihre iGPUs in dem Bereich laufen lassen könnten. Und das wären dann wohl etwa 1,5TFlop. Raven-Ridge mit 4Cores, 8Threads und 1,5TFlop Grafik-Power, das ist mehr als genug für praktisch alle Standard-Desktop-Rechner. Da braucht es keine kleinen dGPUs mehr, weder von AMD noch Nvidia. Die braucht dann nur noch Intel. Wenn damit Raven-Ridge nicht ein Erfolg werden sollte!
 
Das werden schon Spitzenwerte sein, welche kaum einige Sekunden gehalten werden können. Tests müssen das wirklich erst mal nachweisen.
 
Zuletzt bearbeitet:
Joa, is denn scho' Weihnochten?

Wie? Was? 10h Akku, IPS-FHD-Display, beleuchtete Tastatur, SSD... Und das bei einem AMD-Notebook?!

Gut, der Bildschirm glänzt offenbar. Und 1.9 kg. Und es ist von Acer...
 
Auch HP nennt jetzt wohl "in diesem Monat" (November) als Termin, das wäre früher als ich erwartet habe.
 
Pressesamples hat HP für Deutschland leider erst im Dezember in Aussicht gestellt.
 
America first *duck und wech ;)
 
Seh ich das richtig dass die kein HBM haben?
Brauchen die womöglich keines, weil eine TDP-Mäßig derart klamme Grafik sowieso langsam genug ist um mit DDR4-Bandbreite auszukommen oder ist AMD mit dem Klammersack gepudert? ??? :o
Ich meine, Intel wird jetzt die APU schlechthin schaffen, mit effizienter CPU, guter GPU und dann noch Bandbreite satt. Das sollte genau das sein auf was die Ultrabook-Hersteller gewartet haben. Da wird doch RAM sowieso gerne verlötet, also vermisst auch niemand die SO-DIMM-Slots und ob der Speicher nun aufs Mainboard gelötet ist oder gleich teil des SoCs nunja.
Da sparen sich die Hersteller sogar noch Leiterbahnen.
Also WTF bewegt ausgerechnet die "erfinder" der APU, Stichwort Fusion, ihre CPU+GPU-Kombis weiterhin an der Speicherbandbreite verhungern zu lassen, wo man nun endlich eine gute CPU-Architektur hat + die Radeon-Grafikkerne, und dann aber immernoch das alte Problem dass die IGP nicht auf Touren kommt weil sie am Speicherinterface verhungert.
Muss man das verstehen? :]
Ich meine, HBM ist auch für AMD kein Neuland, siehe Radeon Fury.
Also hat jemand eine Erklärung dafür parat oder sehen die AMDianer mal wieder den Wald vor lauter Bäumen nicht? *noahnung*
 
Also hat jemand eine Erklärung dafür parat oder sehen die AMDianer mal wieder den Wald vor lauter Bäumen nicht? *noahnung*
Die Erklärung ist natürlich, dass bei AMD nur noch die Deppen hocken und Raja alle Guten zu Intel-Seite der Macht gezogen hat.

Oder AMD baut, was ihre Kundschaft will. Wenn ich mir die Verfügbarkeit von Vega anschaue, sind sie gut beraten, *nicht* auf HBM zu setzen. Fertigungskapazitäten scheinen für solche Stückzahlen schlicht nicht da zu sein.

Und was die Intel-APU angeht: a) Schau'n wir mal, wie deren Verfügbarkeit aussehen wird und b) ist's doch egal: AMD ist ja dort auch bei der Musik dabei. Ich denke schon, dass da pro Stück ein Scherflein für AMD abfällt und dafür müssen sie nicht mal was (extra) tun. ;)
 
Das ändert aber nichts daran dass man paradoxerweise der Konkurrenz überlässt eine "APU" also einen "Fusion Chip" zu bauen der diesen Namen wirklcih verdient und nicht künstlich mit angezogener Handbremse läuft.
Ob die Vega Verfügbarkeit nur von HBM2 bestimmt wird sei mal dahingestellt.
Und es wäre auch nicht das erste mal dass AMD trotz guter architekturen und eigentlich gerade nicht so schlechter Marktposition irgendwo den Absprung verpasst. Darum die Frage. Ich versuche nur das zu verstehen. Nochmal, wenn ich einen Ultrathin-laptop baue, verlöte ich den Speicher sowieso. Wenn ich das nicht mal mehr muss und mein Mobo einfacher auslegen kann weil das SoC schon den RAM mitbringt, umso besser. Wenn man dazu noch mehr Performance kriegt freut sich darüber auch jeder.
Die Haupt Schwachpunkte der APUs waren bisher CPU-Seitige Rechenleistung und für den GPU-Part zu kleine Speicherbandbreite im Verhältnis zur Anzahl CUs etc.
Das Problem mit der CPU-REchenleistung löst sich bei ravenRidge ganz von alleine mit der Ryzen-Architektur. Das letztere Problem aber nicht!
Ich sehs kommen dass wieder OEMs einen Ravenridge verbauen und dem dann noch eine diskrete Radeon zur Seite stellen, die auf dem Papier kaum mehr Leistung hat als die APU-Grafik. - Allerdings kein Bandbreitenproblem.
Und das ist es was mich wurmt und wundert. So ein kleiner RavenRidge + HBM-Chip mit 15-20W TDP wäre für kleine bis mittlere Notebooks, Büro- und HT-PCs gleichermaßen geeignet, leicht gedrosselt könnte man damit sogar ein Tablet bauen. In der Richtung hat man von AMD ja seit Temash nicht mehr viel gehört.
"was die Kundschaft will" ist ein effizientes (sowohl in Sachen Energie wie auch kosten) Design das sich flexibel und mit wenig zusätlichem aufwand in viele Formen (Produkte) gießen lässt. Ich glaube eher kaum dass da irgend ein Kunde sich wehement gegen HBM wehrt.

Ist eigentlich bekannt ob es mehrere Ravenridge-Masken gibt? - Es wurde doch gemunkelt dass die 35Watter für den Desktp einen kombi-RAM-Controller haben sollen, der DDR4 und HBM2 abkann - womöglich steckt diese Fähigkeit auch in den "kleinen" Ravenridge-APUs drin, wird nur nicht benutzt.

Zum letzten Absatz...
Verfgbarkeit sit eien sache des Preises, und wenn ich mir überlege wie viele für ein iphoneX ihre Großmutter verkaufen würden kannst du mir nicht auf die Tour kommen.
Kalr wird es womöglich ein teurer Premium-Prozessor von Intel, aber er wird Abnehmer finden. Und sowas sind Leuchtturm-Projekte die einen als "Technologieführer" bekannt machen.
Dass AMD an den Radeons mitverdient, geschenkt. Gerade jetzt wo Koduri zu Intel gewechselt ist, werden die es über kurz oder lang nicht mehr nötig haben Radeons zu verbauen.
Aber AMD verliert damit jegliche Glaubwürdigkeit in Sachen "Technological Leadership" wenn sie sich auch ausgerechnet in einem selbstdefinierten Segment von Chip bzw. SoC so den Schneid abkaufen lassen. Der kleine x86-Riese zum GPU-Zulieferer für die Blauen degradiert... na super....
Zuerst "Ich bin Tarzan..." schreien und es dann den anderen überlassen sich von Liane zu Liane zu schwingen... :]
 
Zuletzt bearbeitet:
Kalr wird es womöglich ein teurer Premium-Prozessor von Intel, aber er wird Abnehmer finden. Und sowas sind Leuchtturm-Projekte die einen als "Technologieführer" bekannt machen.
Da hast Du's. "Technologieführer" bringt Dir rein gar nix wenn Du nichts verkaufen kannst und AMD hat leider erst recht nicht die Marktposition, "Premium"-Preise zu verlangen. Intel hat die OEMs im Sack, dass weisst Du.

AMD war mit der Temash-APU weit besser als Atom. Und? Auf dem Markt war nur Atom.

Face it: Der einzige, der eine Premium-APU teuer verkaufen kann heißt Intel.
 
APU

Accelerated Processing Unit (kurz „APU“; englisch für „beschleunigte Verarbeitungseinheit“), auch Advanced Processing Unit (engl. „erweiterte Verarbeitungseinheit“) ist eine unter anderem an die Abkürzungen „CPU“ und „GPU“ angelehnte Bezeichnung für einen Hauptprozessor mit integrierten Koprozessoren, die fast ausschließlich von AMD verwendet wird. Wie der Name bereits andeutet, soll dabei der Hauptprozessor durch die/den Koprozessor(en) in bestimmten Situationen beschleunigt werden. Als Koprozessor kann dabei ein Grafikprozessor (GPU), Vektorprozessor, Streamprozessor oder auch jeder andere beliebige Prozessor dienen, der dem Hauptprozessor in bestimmten Situationen überlegen ist. Lediglich ein mathematischer Koprozessor in Form einer Gleitkommaeinheit (auch „FPU“ abgekürzt), der – neben anderen – schon lange vor der Definition des APU-Begriffes im Hauptprozessor integriert war und damit zum Bestandteil des Hauptprozessors wurde, ist davon ausgenommen.

Das wo drüber ihr heult ist keine "APU", Intel 4/8 Kerner mit 45w, AMD GPU und HBM2 Speicher - das neue ist nur das die 3 Die's sich auf einem Träger befinden. Das soll zum Einsatz in besonders dünnen Geräten führen. Das liegt nach 1. Benchmarks auf Augenhöhe mit einer 1060 mobile.

Das deutet auf eine ganz andere Geräte und Preisklasse als Produkte mit RR hin. Und besser AMD verdient da mit als nVidia.
 
Und besser AMD verdient da mit als nVidia.
Ich heul nicht ;) - und ja, längerfristig halte ich das für einen sehr guten Move von AMD, wenn auf (hoffentlich teuren) "Intel-inside" Geräten das Radeon-Logo prangt. Wenn's so kommt. Wenn da allerdings "Intel Rysis Graphics" draufstehen wird - na dann war's wieder AMD Marketing at its Best.
 
Das ändert aber nichts daran dass man paradoxerweise der Konkurrenz überlässt eine "APU" also einen "Fusion Chip" zu bauen der diesen Namen wirklcih verdient und nicht künstlich mit angezogener Handbremse läuft.

APU
Das wo drüber ihr heult ist keine "APU", Intel 4/8 Kerner mit 45w, AMD GPU und HBM2 Speicher - das neue ist nur das die 3 Die's sich auf einem Träger befinden.
Eben! Ich kapiers auch nicht - da sitzen 2 separate Chips auf einem kleinen Träger und auf einmal soll das eine APU sein. Das ist eine dedizierte GPU die auf einem eigenen Die sitzt und per PCIe angebunden ist. Man weiss noch nicht einmal ob die CPU überhaupt auf den HBM der GPU zugreifen kann. Von gemeinsamem Adressraum noch gar nicht zu sprechen.
Die versammelte "Fachpresse" nutzt den APU Begriff plötzlich, da muss man echt Kompetenzen anzweifeln.
 
Unit lässt doch alle möglichen Deutungen zu. Für mich passt der Begriff APU.
 
Die versammelte "Fachpresse" nutzt den APU Begriff plötzlich, da muss man echt Kompetenzen anzweifeln.
Sagte der SoC-Experte... *suspect*

Ist ja immer wieder schön, wenn man einen Begriff rauspicken kann und den restlichen Beitrag komplett ignoriert.

Ich werde in Zukunft zwei Dinge tun: a) Meine Worte auf die Goldwaage legen und b) weil ich darauf keine Lust habe: mich aus dem Forum raushalten. Tschö mit Ö.
 
Das ändert aber nichts daran dass man paradoxerweise der Konkurrenz überlässt eine "APU" also einen "Fusion Chip" zu bauen der diesen Namen wirklcih verdient und nicht künstlich mit angezogener Handbremse läuft.

Hat die AMD-Intel Kombi überhaupt kohärenten Speicher?
 
Sagte der SoC-Experte... *suspect*
Nur habe ich mich durch Fakten überzeugen lassen. Oder hast du mich für unfehlbar gehalten? Sorry dich enttäuschen zu müssen, doch auch ich kannte nicht jedes Szenario in dem ein Ryzen-SoC genutzt werden kann. Dank dieses Forums weis ich nun etwas mehr.

Aber mal zurück zum Thema nach diesem Offtopic-Ausflug über meine Person: Intels MCP ist keine APU, wie ja errate mit Verlinkung auf die Definition zeigt. Und du behauptest nun dass es doch eine APU ist oder dass man einfach der Fachpresse überlassen sollte nach belieben alles so nennen zu dürfen wie sie es möchten? Der Rest des Beitrag von Georgy ergibt absolut keinen Sinn mehr wenn man feststellt, das Intel überhaupt keine APU hat. Worauf soll man denn da noch eingehen?

Es wird aus deinem Beitrag nicht so richtig ersichtlich ob du nun der Meinung bist es ist egal wie man technische Bezeichnungen verwendet oder ob du kritisierst dass ich mich in Foren äussere und mir und anderen Forenteilnehmern versuche Klarheit zu verschaffen. Oder kritisierst du am Ende überhaupt nichts sondern wolltest mich einfach hier mal persönlich "zurechtstutzen"?

Also mulle, sag an was dein Beitrag denn für einer war. Irgendein tieferer Sinn enthalten darin? Stört es dich, dass man sich hier über ein technisches Thema unterhält?

--- Update ---

Unit lässt doch alle möglichen Deutungen zu. Für mich passt der Begriff APU.
Nur ist es eben keine Unit - das wäre es wenn es ein einzelner Chip wäre. Eine Einheit.
 
Zuletzt bearbeitet:
Hat die AMD-Intel Kombi überhaupt kohärenten Speicher?

Denke mal nicht.
Das wird auch ein Grund sein, das Intel Raja abgeworben hat.
@GeOrgy
AMD kann so eine Lösung wie Intel für Ultrabooks nicht anbieten, da AMD einen Interposer benötigt, der die ganze Sache verteuert und dicker macht.
Intel hat mit den EMIB die Möglichkeit.

RR dürfte von der GPU Leistung her maximal halb so stark sein und billiger. Somit ist das Intel MCM kein Konkurrent zu RR.
AMD hat auch nicht die Möglichkeit testweise mehrere Designs zu starten. Sieht man ja auch an der langsamen Einführung von Ryzen, Vega und nun RR.
Eins nach dem anderem. Ein Fehlschlag und AMD steht wieder vor der Pleite.
Zudem könnte AMD den tollsten Chip entwickeln, solange keine OEMs die verbauen und verkaufen sitzt AMD auf einen Berg an Entwicklungskosten und hat kein Geld für weitere Entwicklungen.
Läuft zwar etwas zäh bei AMD, aber meiner Meinung nach in die richtige Richtung. Mit guten Produkten erst mal wieder in den Markt reinkommen, vertrauen schaffen und wenn später eine gute Basis vorhanden ist kann man auch wieder mehr und speziellere Produkte entwickeln.
 
Eine Unit ist das zusammengesetzte Ganze. Die CPU ist auch immer mehr als der Chip.
 
Könntest du mir ein Beispiel geben einer CPU die aus mehr als einem Chip besteht? EPYC besteht aus 4 Chips und wird daher MCP genannt. Ebenso wie Threadripper. Und Ryzen ist nur ein Chip, daher stimmt das "immer" hier schon nicht. Sämtliche APUs von AMD sind lediglich ein Chip.

Das ist genau der Grund warum man das diskutieren sollte. Einmal falsch benutzte technische Bezeichnungen bürgern sich ein und bekommen eine andere Bedeutung.

Bisher wurden MCPs oder MCMs nicht als "Unit" bezeichnet sondern als Package (Multi-Chip-Package) oder als Modul (Multi-Chip-Module) - das ist Intels Konstrukt hier in jedem Fall, da auch noch dedizierter Speicher für die GPU vorhanden ist. Ein SoC (System on a Chip) wiederum muss aus einem Chip bestehen sonst ist es ein COM (Computer on Module), das wäre wohl auch hier bei Intel die treffendste Bezeichnung. AMD verkauft solche COMs in der Medizintechnik z.B.

https://www.amd.com/de/products/embedded-imaging
20573-gpu-compute-1260x.png


Wie man hier sieht wird durch das Zufügen von Speicher aus einer APU ein COM.
 
Wir waren uns doch hier schon einig, dass HBM zu teuer für die APUs wäre, wenn ich mich recht erinnere.

Ich denke Raven Ridge wird ohnehin schon oberhalb von Bristol Ridge spielen und mit dem Preis nicht ganz so weit runter kommen wie BR, aber in die Gefilde dieses Monster-Chips aus CPU und GPU werden sie nicht vorstoßen.
DARUM mache ich mir keine Gedanken. Auch was die Verkäufe dieses sehr teuren Intel-Chips angeht, sehe ich keine große Überschneidung, weil die eigentliche Konkurrenz aus CPUs und dedizierten GPUs besteht.

Dennoch finde ich die Belieferung von Intel nicht gut. Aber wer weiß, falls nVidia auch sowas herstellen könnte (das kann ich nicht einschätzen), wäre es mit AMD natürlich besser.

Die Frage ist auch, ob AMD selbst an etwas ähnlichem arbeitet. Dem Kunden kann egal sein, ob er EINEN Chip (APU) oder zwei (CPU+GPU) bekommt, solange beides in einem Gehäuse steckt und über den CPU-Kühler auf Temperatur gehalten wird.
 
Zuletzt bearbeitet:
Ich meine, HBM ist auch für AMD kein Neuland, siehe Radeon Fury.
Ist aber viel teurer, AMD muß den Marktanteil mal steigern, dazu taugt HBM halt nicht so wirklich.
Die Stückzahlen die Intel da absetzt werden sehr gering sein!
Die GPU von RR besitzt auch nur ca. halb so viele CUs wie die Bustom-GPU für Intel.
HBM ist bei dieser GPU einfach nicht nötig, vielleicht würde sie im Vergleich zu DDR4 etwas schneller, aber das rechtfertigt den viel höheren Preis nicht.

Also hat jemand eine Erklärung dafür parat oder sehen die AMDianer mal wieder den Wald vor lauter Bäumen nicht? *noahnung*
Warum "mal wieder"?

Ist eigentlich bekannt ob es mehrere Ravenridge-Masken gibt?
Gibt wahrscheinlich nur eine, aber da könnte theoretisch schon ein HBM-PHY vorhanden sein.
Glaub ich aber eigentlich nicht so wirklich, HBM wird teuer bleiben, da macht es für AMD mehr Sinn, wenn man so früh wie möglich auf DDR5 wechselt.


Hat die AMD-Intel Kombi überhaupt kohärenten Speicher?
Wahrscheinlich nicht, da die CPU ja nicht neu für dieses ComM entwickelt wurde, sondern etwas bereits vorhandenes war.
Und bis jetzt konnte es Intel nicht!


Aber wer weiß, falls nVidia auch sowas herstellen könnte (das kann ich nicht einschätzen), ist es so natürlich besser.
NVIDIA kann es, das ist mal Fakt!
Die Frage wäre eher, ob NVIDIA es auch machen würde.

Ich glaube schon, aber das würde für Intel wohl etwas teurer werden, weil NVIDIA sich die Rolle als Marktführer bei den GPUs teuer bezahlen lässt!
 
Zurück
Oben Unten