Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Michael Larabel von Phoronix hat einen langen Kommentar zu Intels neuer Open Source Strategie veröffentlicht:


Kevork stated when talking about providing customers with end-to-end solutions, "an era where platforms are super important", and on Intel investing in open-source infrastructure:
"We need to find a balance where we use [our open-source software] as an advantage to Intel and not let everyone else take it and run with it."
At first questioning to myself what I had just heard... He further added a few minutes later in his presentation, Kevork stated as part of making a successful data center business at Intel:
"We are very proud of our open-source contributions. We are going to keep on doing that. However, like I mentioned, I want to make sure that it gives us an edge against everyone else."
 
The U.S. Senate on Thursday passed bipartisan legislation requiring advanced AI chipmakers such as Nvidia (NASDAQ:NVDA) and Advanced Micro Devices (NASDAQ:AMD) to prioritize American customers over Chinese buyers, a move that could complicate the industry’s push to expand global sales.
Ich bin gespannt ob das die Preise eher deckelt oder noch höher pusht, da nun zunächst nur US-Unternehmen den Preis im Markt aushandeln und das was übrig ist für China noch höhere Preise bedeutet.
 
Die Formel für den Aktienpreis der OpenAI Optionen ist etwas wild notiert und extrem verklausuliert. Es wird die Anzahl der Aktien berechnet die ausgegeben wird anhand Summe die OpenAI bereit wäre zum Kurswert zu beziehen, verrechnet mit einem Korrekturwert. Soweit ich das verstehe wird ein Durchschnitt der letzten 5 Börsentage gebildet (A) und dann der bei Vertragsabschluss geltende Schlusskurs (B) abgezogen. Aber der Rest erschliesst sich mir nicht warum das so notiert ist. Der Schlusskurs muss ja niedriger als der Durschnittskurs sein, damit das nicht ins Minus dreht. Sollte sich das B auf den Schlusskurs zur Ausgabe der Optionsscheine beziehen ergibt das den prozentualen Zugewinn. Damit OpenAI so viele Aktien wie möglich bekommt müssten die einen möglichst hohen Kurs abwarten um die Option zu ziehen. Bei einem verdoppelten Kursgewinn würde von den 160mio Aktien tatsächlich 160mio Aktien ausgegeben, bei weniger entsprechend weniger. Dann würden bei viel höherem Kurs noch mehr Aktien ausgegeben. Dafür ist aber die Ausgabe der Aktien an Meilensteine, offenbar an die Lieferung, Bezahlung von Instinct-Systemen in Gigawattschritten gebunden und ebenso das Erreichen von bestimmten Kurszielen.

Ich vermute mal stumpf es sind 6 Schritte zu je 1 Gigawatt und der jeweilige Kursgewinn muss für AMD mindestens so hoch sein, dass unterm Strich alle anderen Aktionäre mindestens einen Zugewinn haben wenn man die Projektkosten von AMD abzieht und am Ende sogar 600$ Kursziel erreicht werden sollen. Das ganze würde ein in Stufen abgesichertes Win-Win-Projekt mit Reissleine für OpenAI darstellen wobei sich OpenAI absichert an den Spekulationsgewinnen beteiligt zu sein.
 
Zuletzt bearbeitet:
Ein spannender Hebel, der sich daraus ergibt, ist dass OpenAI davon profitiert AMD Hardware zu propagieren. Je mehr Umsatz AMD macht, desto mehr sind die ausgegebenen Aktien wert. Und je früher, desto schneller steigt der eigene Unternehmenswert.
 
Pressemitteilung von AMD zu dem Oracle-Deal:
OCI’s planned new AI superclusters will be powered by the AMD “Helios” rack design, which includes AMD Instinct MI450 Series GPUs, next- generation AMD EPYC™ CPUs codenamed “Venice,” and next-generation AMD Pensando™ advanced networking codenamed “Vulcano.” This vertically-optimized, rack-scale architecture is designed to deliver maximum performance, scalability, and energy efficiency for large-scale AI training and inference.
Hier kommen also auch noch die Umsätze von CPU und Netzwerkkomponenten hinzu.

Edit:
Schöne Auflistung
With AMD Instinct MI450 Series GPUs on OCI, customers will be able to benefit from:
  • Breakthrough compute and memory: Helps customers achieve faster results, tackle more complex workloads, and reduce the need for model partitioning by increasing memory bandwidth for AI training models. Each AMD Instinct MI450 Series GPU will provide up to 432 GB of HBM4 and 20 TB/s of memory bandwidth, enabling customers to train and infer models that are 50 percent larger than previous generations entirely in-memory.
  • AMD optimized “Helios” rack design: Enables customers to operate at scale while optimizing performance density, cost, and energy efficiency via dense, liquid-cooled, 72-GPU racks. The AMD “Helios” rack design integrates UALoE scale-up connectivity and Ethernet-based Ultra Ethernet Consortium (UEC)-aligned scale-out networking to minimize latency and maximize throughput across pods and racks.
  • Powerful head node: Helps customers maximize cluster utilization and streamline large-scale workflows by accelerating job orchestration and data processing on an architecture consisting of next-generation AMD EPYC CPUs, code named “Venice.” In addition, these EPYC CPUs will offer confidential computing capabilities and built-in security features to help safeguard sensitive AI workloads end to end.
  • DPU-accelerated converged networking: Powers line-rate data ingestion to improve performance and enhance security posture for large-scale AI and cloud infrastructure. Built on the fully programmable AMD Pensando DPU technology, the DPU-accelerated converged networking offers the security and performance required for data centers to run the next era of AI training, inferencing, and cloud workloads.
  • Scale-out networking for AI: Enables customers to leverage ultra-fast distributed training and optimized collective communication with a future-ready open networking fabric. Each GPU can be equipped with up to three 800 Gbps AMD Pensando “Vulcano” AI-NICs, providing customers with lossless, high-speed, and programmable connectivity that supports advanced RoCE and UEC standards.
  • Innovative UALink and UALoE fabric: Helps customers efficiently expand workloads, reduce memory bottlenecks, and orchestrate large multi-trillion-parameter models. The scalable architecture minimizes hops and latency without routing through CPUs and enables direct, hardware-coherent networking and memory sharing among GPUs within a rack via UALink protocol transported over a UALoE fabric. UALink is an open, high-speed interconnect standard purpose built for AI accelerators and supported by a broad industry ecosystem. As a result, customers gain the flexibility, scalability, and reliability needed to run their most demanding AI workloads on open standards-based infrastructure.
  • Open-source AMD ROCm™ software stack: Enables rapid innovation, offers freedom of vendor choice, and simplifies the migration of existing AI and HPC workloads by providing customers with an open, flexible programming environment, including popular frameworks, libraries, compilers, and runtimes.
  • Advanced partitioning and virtualization: Enables customers to safely share clusters and allocate GPUs based on workload needs by facilitating the secure and efficient use of resources via fine-grained GPU and pod partitioning, SR-IOV virtualization, and robust multi-tenancy.
 
AMD's competitive pricing may soon become a key differentiator, especially since the target addressable market for AI accelerators is now projected to surpass $500 billion by 2028. AMD claims that its MI355 accelerator (from the MI350 series accelerators) has demonstrated matching or better performance than Nvidia's Blackwell architecture-based GB200 chips for specific key training and inference workloads. MI355 was also said to deliver performance matching to that of GB200 for specific other workloads at a lower cost and capacity.

According to Dell'Oro Group, global data center capex is estimated to reach $1.2 trillion by 2029.
 
Das war dann doch ein sehr holpriges Interview, teilweise etwas zum fremdschämen.

Naja, Fabio sucht teils Antworten auf Probleme an der Front von einer Führungskraft, die strategische Entscheidungen im Team moderiert und ab und an wohl auch final lenkt. Der falsche Ansprechpartner für konkrete Antworten. Da bräuchte es in einem Interview doch eher mehr Distanz zu konkreten Problemen und bessere inhaltliche Vorbereitung. Er hätte besser das Thema jeweils nur generell angeschnitten und dann Adam Kozak mehr selbst reden lassen. Dass dieser einzelne Themen ohnehin nicht ausführlich beantworten kann sollte Fabio da besser auch hinterher zusammenfassen, nicht schon vorher damit einleiten. Auch der Marketing-Lead für Radeon würde jetzt nicht schon Dinge in die Öffentlichkeit herausposaunen, die noch nicht fertig sind.

Zumindest ist die AMD-Haltung und Philosophie nochmals deutlich geworden. AMD respektiert und benötigt die Arbeit und Ergebnisse der Games-Entwickler. Man setzt auf Zusammenarbeit bei der Einführung neuer Software-Features, auch bei den FSR-Iterationen. Wenn Entwickler-Teams sich mit einem älteren bereits veröffentlichten Spiel nicht mehr beschäftigen wird AMD dort nicht eigenständig Hand anlegen um nachträglich besseren Support für AMD-Features zu bekommen. Leider gab es keine Nachfrage an Kozak wie die Geschichte um den "versehentlichen" Release von Int8-FSR4 tatsächlich ablief und was AMD künftig tun wird. Ein eigenes Int8-FSR scheint momentan zumindest nicht in der Pipeline zu sein. FSR für NPUs und APUs aber schon.

Die ML-Techniken unter der Projektbezeichnung Redstone scheinen ein grosses Ding zu werden. Ich wäre ganz froh wenn AMD weiterhin, wie ab der RX 9070 und folgende, neue Hard- und Software erst dann für die Öffentlichkeit frei gibt wenn diese komplett sind und auch der Markt bzw. die Partner längst bereit sind.
 
Zuletzt bearbeitet:
Quantum computers utilize qubits to solve complex problems that would take traditional computers thousands of years to process, such as analyzing how trillions of atoms interact over time. However, these qubits are susceptible to errors that can quickly undermine the computational work of quantum chips.

IBM developed an algorithm in June designed to address these errors when used alongside quantum chips. According to a research paper to be published Monday, IBM has demonstrated that these algorithms can operate in real time on AMD’s field programmable gate array chips.
Fehlerkorrektur für Qubits in Echtzeit mit AMD FPGAs
 
x3D2 ab Q1, Zen 6 verschiebt sich
 

Nach Deal mit OpenAI: Analyst bullish für NVIDIA-Rivale AMD-Aktie​


"Wolfe Research hebt Kursziel: "Jetzt muss AMD nur liefern"

Als Reaktion auf den OpenAI-Deal stufte das Analysehaus Wolfe Research die AMD-Aktie auf Outperform hoch und erhöhte das Kursziel von 170 auf 300 US-Dollar. Laut einem Bericht von Investing.com erwartet Analyst Chris Caso bis 2027 eine Gewinnkraft von mehr als zehn US-Dollar je Aktie. Caso begründet diese Schätzung mit der wachsenden Nachfrage nach Serverchips und dem weitreichenden OpenAI-Vertrag.


Wolfe Research kalkuliert mit jährlichen Umsätzen von rund 15 Milliarden US-Dollar aus dem OpenAI-Geschäft und insgesamt 27 Milliarden US-Dollar aus KI-bezogenen Projekten. Caso bezeichnete das Kursziel als "konservativen Weg zu 300 US-Dollar". AMD müsse nun lediglich liefern, um den Wert zu erreichen."



Zen6 für consumer verschiebt sich wahrscheinlich, weil die 2nm Kapazitäten für AMD bei TSMC für EPYC Serverchips und MI450 MCM-Chips reserviert sind. Die Marke bzw. der Name "AMD" scheint so langsam auch in den Massenmedien zu kommen. So 20 Jahre nach dem Erwerb von ATI, kommt AMD im Jahr 2026+ wahrscheinlich auf dem technologischen Gipfel an.
 
Fehlerkorrektur für Qubits in Echtzeit mit AMD FPGAs
Hier die Stand und Prognose des FPGA Marktes und AMDs Rolle 2024-2030.
1761646809536.png
1761646816040.png
 
Bin etwas enttäuscht wie wenig relevant Xilinx basierte AI Beschleuniger und XDNA im aktuellen Hype sind.
 
Die AI Hype mit 50 TOPs XDNA2 ist doch bereits eingebaut im 395+
Also in Notebooks, Handhelds, Mini PCs.

Ryzen-AI-Max-Yeni-Hiz-Sampiyonu.jpg

egzZw4zSFwEG52zV.jpg

Bei Preis Leistung denke ich auch an den Ryzen AI Max 385 mit 8C und 32CU. Perfekt für ne günstige Handheld Console.
 
AMDs 8K-Filling zum Verkauf von ZT-Systems an Sanmina:
1,1 Mio Aktien von Sanmina (etwas über $150 Mio. Börsenwert heute) und $2,4 Mrd. Cash.
Weitere $450 Mio bei erreichen bestimmter Vorgaben beim Verkauf (nicht näher definiert)
On the Closing Date, pursuant to the terms of the Purchase Agreement, Sanmina (a) issued to the Seller 1,151,052 shares of Sanmina common stock, and (b) paid, or will cause to be paid, to the Seller $2.4 billion in cash, subject to certain purchase price adjustments (collectively, the “Closing Consideration”). In addition, pursuant to the terms of the Purchase Agreement, the Seller is eligible to receive additional consideration of up to $450 million of cash to the extent certain conditions are met following the closing of the Equity Sale (the “Contingent Consideration”).
Pressemeldung: https://ir.amd.com/financial-information/sec-filings/content/0001193125-25-250803/d917887dex991.htm
Dazu noch eine "NPI"-Partnerschaft für AMD Rack-/Cluster KI-Produkte.
Additionally, Sanmina becomes a preferred new product introduction (NPI) manufacturing partner for AMD cloud rack andcluster-scale AI solutions to further strengthen the AMD ecosystem of ODM and OEM partners.
 

AMD CEO on new $1 billion AI supercomputer partnership with the Department of Energy​


 
Patentklage gegen AMD:
Gegenstand der Klage ist der Vorwurf, dass AMD zehn Patente aus Adeias Portfolio an geistigem Eigentum im Halbleiterbereich verletzt. Sieben dieser Patente betreffen die Hybrid-Bonding-Technologie, während sich drei auf fortschrittliche Prozessknoten-Technologie beziehen.
Na da bin ich ja gespannt, wie AMD das gemacht hat, ohne dass TSMC beteiligt war.

AMD scheint das auch anders zu sehen:
Das Unternehmen erklärte, der Klage seien "langwierige Bemühungen" vorausgegangen, eine außergerichtliche Einigung zu erzielen. Adeia macht geltend, der rechtliche Schritt sei notwendig gewesen, um sein geistiges Eigentum gegen die von AMD praktizierte "fortgesetzte unbefugte Nutzung" zu verteidigen.
 
Naja, wieder mal ein Witz Patent mehr nach dem Motto :
Adeia-Patent DBI® (2009):„Zwei Kupfer-Pads mit <5 µm Abstand direkt verbinden, ohne TSV.“
Übersetzt: „Ich hab das Rad erfunden, aber nur das runde mit 4 Speichen.“
Jeder, der ein rundes Rad mit 5 Speichen baut, muss 2 € pro Reifen zahlen.
Da könnte AMD auch alle einklagen die 3D Cache verbauen - könnten sie sogar bei Intel machen, aber offenbar gibt es so ein "Gentleman-Agreement" zwischen den beiden.
 
Zurück
Oben Unten