Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Praktisch die gesammte Börse ist seit mehreren Wochen ziemlich instabil.
Darüber sagen die derzeitigen Kursverläufe eher weniger aus weil offenbar andere Themen die treibenden Faktoren sind.
 
Praktisch die gesammte Börse ist seit mehreren Wochen ziemlich instabil.
Darüber sagen die derzeitigen Kursverläufe eher weniger aus weil offenbar andere Themen die treibenden Faktoren sind.
Privet, every body needs a place, to say that is my home. (sweet)

Live is not fair, every life fight, it does not matter how little. ;)

Covid22 ?
 
Sehe ich überhaupt nicht so. Seit AMD sich nicht mehr von Intels Plänen beeinflussen läßt, rennt Intel nur noch AMD hinterher.

Naja, als Anhaltspunkt wo sich AMD gegen aufstellen muss, dient es ja schon.

Imo hat AMD Zen 4 angeblich auch noch mal angepackt und etwas reingepackt, was gar nicht geplant war.

Aber das hat man bei Kleinigkeiten ja auch bei Zen 3 schon gemacht.
 
Das betrifft ja hauptsächlich bestimmte Funktionseinheiten wie z.B. AVX. Eigentlich ist ansonsten das reine Konzept der CPUs bei AMD schon eigenständig. Ich erhoffe mir auch von diesem Intel Big-Little keine allzugroße Sprünge und hoffe AMD fängt mit sowas nicht wirklich an. Da finde ich den Ansatz von AMD bestimmte Kerne mit weniger Watt zu versorgen irgendwie sympatischer.

AMD hat sich halt von Intel deutlich emanzipiert und erntet jetzt die Erfolge. Im Wesentlichen ist es aber nicht nur Intel auf die geachtet werden muss, sondern ebenfalls auch ARM. Das wird im Serverbreich zunehmend interessanter.
 
Was AMD strategisch macht ist dies:
Hier wird die Zukunft geschrieben und nicht in AVX oder anderen Instruction Sets, die über eine Lizenz geschützt sind.
Heterogener Ansatz ist nun zum Industrie-Standard geworden.
AMDs Semi-Custom Unit wird hier einen enormen Boom haben. Intel versucht hier schon seit Jahren etwas ähnliches zu etablieren und steckt erneut viel Geld in ihre Fabs um es erneut zu versuchen. AMD ist seine Fabs los geworden und konzentriert sich lieber darauf die unterschiedlichen IPs zu verbinden. Hier sind sie nun mit den Xilinx FPGAs und mit Infinity Cache so weit voraus, dass der offene Standard ihnen noch mehr Zulauf bescheren wird.
To that end, today Intel, AMD, Arm, and all three leading-edge foundries are coming together to announce that they are forming a new and open standard for chiplet interconnects, which is aptly being named Universal Chiplet Interconnect Express, or UCIe. Taking significant inspiration from the very successful PCI-Express playbook, with UCIe the involved firms are creating a standard for connecting chiplets, with the goal of having a single set of standards that not only simplify the process for all involved, but lead the way towards full interoperability between chiplets from different manufacturers, allowing chips to mix-and-match chiplets as chip makers see fit. In other words, to make a complete and compatible ecosystem out of chiplets, much like today’s ecosystem for PCIe-based expansion cards.
UCIe_Briefing%20Presentation%20FINAL_03.jpg


Nvidia ist erst einmal nicht dabei - deren proprietären Interconnect Ansätze mit NVLink dürften damit allerdings einen erheblichen Dämpfer erhalten haben.
Hardwareluxx berichtet ebenfalls: https://www.hardwareluxx.de/index.p...andard-fuer-chiplet-interconnects-werden.html

Edit: Übrigens soll Intels eingebrachte IP die Grundlage des Standards bilden.
UCIe_Briefing%20Presentation%20FINAL_05_575px.jpg


Für mich ein klares Zeichen dafür, dass Intel auf dieser Ebene das ganze alleine nicht mehr stemmen konnte und den Anschluß verloren hat. Für TSMC und AMD ist das allerdings auch ein enormer Sprung nach vorne. AMD und Intel werden Nvidia besser im Schach halten und TSMC wird seine Fertigung/Packaging auf Wafer-Ebene teilweise standardisiert bekommen.

Mehr auch hier zum Thema: AMD Interposer Strategie - Zen, Fiji, HBM und Logic ICs
 
Zuletzt bearbeitet:
Das betrifft AMD jetzt erstmal nicht, aber Nvidia hat angekündigt, dass man Intel eventuell als Foundry-Partner in Betracht ziehen würde. Realistisch oder eher dazu gedacht, TSMC und Samsung daran zu erinnern, dass man bald mal wieder über die preise verhandeln muss?

 
Aber Huang erklärte, dass sowohl Intel als auch AMD die geheimen Roadmaps von Nvidia seit Jahren kennen. Er sei also nicht allzu paranoid, wenn es darum gehe, mehr Informationen zu teilen.

„Wir sind reif genug, um zu erkennen, dass wir zusammenarbeiten müssen“, so der Nvidia-CEO. „Ohne die Intel-CPUs in unseren Omniverse-Computern wären wir beispielsweise nicht dazu in der Lage, eine Simulation digitaler Zwillinge durchzuführen, die stark auf Intels sehr gute Single-Thread-Leistung angewiesen ist.“
Also entweder ist das eine Ente oder AMD muß in diesen geheimen Roadmaps von AMD etwas drin stehen, das Intel und Nvidia fürchten. Womöglich könnte es um das Serversegment gehen. Ich glaube da eher an Nebelkerzen und kann mir nicht vorstellen, dass Nvidia seine Karten Intel gegenüber so offen legen würde. Intel ist ja nicht gerade gut mit Nvidia umgegangen.
 
So richtig einordnen kann ich das ganze auch nicht. Gut, Nvidia ist im Prinzip auf alles, was Fertigungskapazität angeht, angewiesen. So wie alle anderen aktuell auch. Ich glaube nicht, dass man sofort High End Chips aus Intel fabs sehen wird, wenn es wirklich dazu kommen sollte.

Eventuell sowas wie Nvidia Jetson oder ähnliches halte ich da für realistischer. Vielleicht ist es am Ende aber wirklich nur der Versuch, TSMC und Samsung in die nächsten Preisverhandlungen zu zwingen.
 
Habe gesehen, dass Pensando über ein dutzend CISCO Veteranen sind.
Data Processing Unit mit grossem Software Stack im Hyper Scaling ist wohl deren Stärke.
Ich würde die eher im Xilinx Brand gut aufgehoben weiterhin als Pensando sehen.
 
Lisa wird AMD breiter aufstellen. Hoffentlich klappt das auch alles.
 
Habe gesehen, dass Pensando über ein dutzend CISCO Veteranen sind.
Data Processing Unit mit grossem Software Stack im Hyper Scaling ist wohl deren Stärke.
Ich würde die eher im Xilinx Brand gut aufgehoben weiterhin als Pensando sehen.

Xilinx hat in die Richtung bislang nur wenig gemacht und scheint da etwas zurück zu sein, allerdings hat man ja Solarflare in 2019 gekauft.

Vergleichbar wären noch die Zynq UltraScale+


Lisa wird AMD breiter aufstellen. Hoffentlich klappt das auch alles.

Auf jeden Fall ist der Markt nicht nur aus AMD, Intel und Nvidia bestehend. Marvell mischt da auch ganz gut mit.
Pensando hat irgendwas um die 300 bis 500 Mitarbeiter und hat letztes Jahr noch ne größere Kapitalspritze bekommen. Ericson und Qualcomm haben da wohl auch investiert.

Die Entwicklung ist da aber sehr langsam, auch wenn man bereits einige größere Kunden hat. Zum Umsatz findet man irgendwas um die 110 Millionen $ pro Jahr.

Hier nen schneller Vergleich.
Bei Nvidia und Marvell sind das aber schon Produktfamilien in verschiedenen Ausführungen:

NvidiaIntelAMD (Pensando)Marvell
BezeichnungDPUIPUDSCDPU
ModellBluefield 3Mount EvansElbaOceton 10
Vorstellung2021 /
Q1 2022 als Sample
20212020 (Prototyp)2021 /
Auslieferungen Q4 2021
CPUs16 ARM A7816 ARM Neoverse N116 ARM A7224 ARM Neoverse N2
ProzessTSMC 5nmTSMC 7nmTSMC 7nmTSMC 5nm
Ethernetbis zu 4 x 400 GbE bis zu 4 x 200 GbE2 x 200 GbEbis zu 2 x 400 GbE
auch 16 x 50 GbE Switch
PCI5.0 (36 Lanes)4.04.0 (32 Lanes)5.0
SpeicherDDR5LPDDR4DDR4/DDR5DDR5
 
Ich glaube die wichtige Metrik hier sind die Datenpakete pro Sekunde, die tatsächlich verarbeitet werden können. Die Ethernetschnittstelle kann da auch mal theoretisch viel mehr, bringt aber nix wenn die Daten dann nur ohne Management durchrauschen. Sollen die ja gerade nicht, sondern der SoC muss die hin und her schieben und dabei filtern/verschlüsseln/etc.
auch hier interessant
 
Den entscheidenden Vorteil sehe ich hier in Verbindung mit Xilinxs Software für die Programmierung der FPGAs und den Ressourcen die Pensando anzapfen kann bei Xilinx um die P4 engines zu programmieren.
The key here is that the way Pensando’s solution works is by managing traffic more similarly to how it would be managed in a switch in a P4 pipeline. Customers or software providers can utilize the pipeline and then build additional acceleration on certain parts of the pipeline.
 
AMD soll endlich mal FPGAs auf das Package packen, oder ins IO-Die integrieren. Die Vorteile von beliebig variierbaren und beliebig vielen fixed function Units dürften enorm sein.
 
Was wären denn diese enormen Vorteile in consumer x86 CPUs?

Z.B. eine aktualisierbare VCE/UVD/VCN Einheit, deren Nutzen nicht nur auf APUs beschränkt ist. Inzwischen dürfte man mit aktueller Fertigung selbst eine komplette Ageia Karte (übrigens auf Basis eines Xilinx FPGAs gewesen) on Package unterbringen können, HSA sei Dank. Alle Befehlssatzerweiterungen die nachträglich kommen und beispielsweise von späterer Software vorausgesetzt werden, könnten zu einer deutlichen Lebensverlängerung einer CPU führen (z.B. kein CoD MW auf einem Phenom 2, obwohl er potent genug war). Früher hat man FPUs dazu gestöpselt, jetzt könnte man einen ganzen Einheitenpark anbieten. Über PCIe ließe sich das alles nach außen führen, von einem Mini-VGA bis zum Netzwerk-PHY. Ich halte es da wie Ikea.

Hacker haben endlich mehr Möglichkeiten.
Ist ja öde nur mit ROM und einfachen bugs *rofl*

So wie bei anderen "ROMs" wie Netzwerk, IGP, SATA, etc. pp., die so im BIOS rum dümpeln? Nachdem inzwischen selbst BIOS Updates über Windows ungefragt verteilt und installiert werden, ist das kein Argument mehr..
 
So wie bei anderen "ROMs" wie Netzwerk, IGP, SATA, etc. pp., die so im BIOS rum dümpeln? Nachdem inzwischen selbst BIOS Updates über Windows ungefragt verteilt und installiert werden, ist das kein Argument mehr..
Würde ich nicht vergleichen.
Eher würde ich sagen, dass hier die Öffnung der Büchse der Pandora bevorsteht.
Das was hier enstünde ist grundsätzlich sicherheitsgefährlich und stellt eine neue Art der Bedrohung dar.
Bin gespannt wie man das versucht zu lösen und was uns dann in der Praxis blüht.
Wie uns allen sicher bekannt ist, gibt es keine Sicherheitslücke die nicht ausgenutzt wird, früher oder später.
 
Hier muss man auch klar unterschieden wo sich das FPGA befinden soll.

1. Irgendwo am PCIe Bus für Video/AI/sonst was Beschleunigung: Mit externen Karten schon seit Ewigkeiten möglich und es scheint keiner im consumer Bereich Bedarf dafür zu haben. Für den Preis eines FPGAs könnte man sich eben auch einfach eine neue GPU kaufen.

2. Im oder auf dem IO-Die mit direktem MC Zugriff: Für z.B. Supercomputer sicher interessant als Verbesserung zu 1. Für consumer aus dem selben Grund immer noch uninteressant.

3. In der CPU (Frontend/Backend): um neue Instruktionen nachträglich in die CPU zu integrieren. Das halte ich für nahezu unmöglich. Zum einen sind die FPGA Schaltungen im Vergleich zu den anderen ASIC Schaltungen viel zu groß. Das würde jedes Floorplaning eines effizienten CPU Chips zerstören. Zum anderen sind die FPGA Schaltungen vergleichsweise sehr langsam (maximal 500 MHz eher deutlich weniger) und würden dabei das Power Budget noch deutlich ansteigen lassen.
Dazu kommt dann noch das Problem wer hier eigentlich neue Schaltungen entwerfen und einspielen kann. Nur der CPU Hersteller? Der Benutzer? Jede Anwendung?
Für Rechner mit einem bestimmten Verwendungszweck in einer geschlossenen Umgebung kann man das noch gut steuern. Wenn jede Anwendung auf einen PC plötzlich die Schaltungen mit etwas eigenem überschreiben möchte gibt das Konflikte.
Punkt 3 würde außerdem jedes Quäntchen security in einem Prozessor aushebeln.
 
Kenne FPGA im Videobereich in professioneller HW. Der Grund war dort eher Time2Market. Ich kann mich nicht an ein Beispiel erinnern in dem ein Board für neue Codecs reprogrammiert wurde. Da war immer neue HW fällig, mit modernerem FPGA, auch wenn es nicht um Echtzeit Codierung ging.
Bei Mobilfunknetzen kenne ich den Anwendungsfall, dass mit SW Updates die Stationen neue Standards beherrschen. Dort gehts um tausende teure Einheiten mit Fernwartung.
Bei Video für Consumer gehe ich fest davon aus, dass sich die Entwicklung mit 4K HLG HDR und 120Hz final erledigt hat. So wie MP3/AAC Audio bei 256kbs. Dafür gibts dann ASICs und das Thema ist durch. Für Dolby Atmos gibts heute auch ASICs aber den Audio Overkill interessiert im Mainstream doch kaum jemand mehr.

Ich dachte bei AI könnte ein Consumer FPGA sinnvoll werden, individuell trainiert und für Echtzeit-Inferencing dann im FPGA codiert. Scheint aber auch eher in Richtung generische Tensor Überprovisionierung mit Standard APIs zu gehen.
Es fehlt der Businesscase für FPGA in Massenprodukten. Ob sich da etwas durch Fertigungstechnik und Konsumverhalten jemals ändert ist kaum vorauszusagen. FPGA bedeutet letztlich Innovation und Funktionswechsel zeitkritischer Anforderungen ohne Neukauf. Bei nem Konsolen SoC wäre das mal ein tolles Experiment. Scheint noch zu grosses Risiko zu sein. Ein PS3 Emulator wäre vielleicht hier schneller möglich gewesen. Die nächste Gen vielleicht.
 
Zurück
Oben Unten