Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

@ONH
Wer hat eigentlich wann vernünftig durchgerechnet was irgendwelche "Altlasten" eine x86-64 CPU auf einem 64bit OS mit einer 64bit Anwendung an Leistung kosten?

Mit AVX sollte man sachte umgehen ;) Intels Folien.

Ich weiß aber nicht, ob das der Grund dafür ist, daß Adobe angeblich immernoch so fest an ihrem SSE2 Code und der Optimierung für 4 Threads festhält :P

"Altlasten" kosten Energie und Zeit die fehlt die HW, das OS, Programme zu optimieren oder bugfrei zu halten.

PhaseOne hat wohl doofe Mitarbeiter, welche nicht abschätzen können ob sich eine Implementierung lohnt.

Was Adobe angeht gibt es bei Intel AVX nicht bei den Pentium, auch wenn die HW es kann, was das Problem ist.

Genau da setzt Linus rant an.
So again, AVX/AVX2 was fine. Was it "lovely"? No. But I think it's a reasonable baseline.

So what's different with AVX512?

One fundamental difference is that fragmentation issue. It came up before AVX512 was even out, with the failed multi-core Knights atoms having a completely different versions. But it's really been obvious lately, with even today, in CPU's being sold, it being a "marketing feature".
 
Zuletzt bearbeitet:
Ja Ja wird, meine Glaskugel sagt da was anderes
Die ist aber bekanntlich-traditionell zur Hälfte mit irgendeinem stark bläulichen Zeug eingetrübt. Du solltest die vielleicht erstmal vernünftig auspolieren, bevor du dich wieder soweit aus dem Fenster lehnst. "Klarsicht" Tücher kann ich nur empfehlen.

@ONH
Ich muss zugeben, auch wenn ich selbst nicht an sowas hänge, die Erklärung wegen den Altlasten ist schon extrem dürftig ;) Wenn man das schon beschimpft, sollte man wissen warum. Sollte also etwas verwertbares sei es nur in groben Zahlen haben.

PhaseOne hat an sich ziemlich gute Coder. Jedenfalls setzen sie SSE wie OpenCL (!) wesentlich stärker ein als die Mitbewerber und das hat bisher auch immer einen klaren Leistungsvorteil gegenüber Vorversionen ergeben.

Was Adobe angeht, na gut, dann könnten sie wenigstens schon SSE4 nehmen... ;)

@all
Soetwas wie AVX(xy) macht schon Sinn. ARM hat auch Neon (SSE) und hat nun auch SVE (AVX). SVE geht auch bis 512bit und soll angeblich in v9 zu Pflichterweiterung werden. Das wird also ziemlich bald auch Apple können. Im Gründe ist es aber richtig, daß dies ein Feature für die Jungs aus der Topp500 Liste ist ;) Es heisst aber nicht SVE-512. Man kann damit auch 128 und 256bit schieben.

AVX macht real 40-60% auf SSE4. AVX2 macht real 100-140% auf SSE4. Ich bin ebenfalls der Meinung, daß dies langt. Ich wäre aber auch schon froh, wenn die Leute sinnvoll SSE2 und SSE4 nutzen würden... :]
Oder - auch wenn klar ist, daß nicht alles einfach so geht - sich auch mal überlegen würden wie sie ihre bisherigen single thread loads auf wenigstens 2 Threads verteilen könnten.

Die Coder abseits der Gamenegines stehen sich aber oft genug selbst im Weg. So ein Gespräch hatte ich noch diesjahr. Für wirklich gute SSE/AVX Ergebnisse muss man am Ende am Assemblat auch selbst bisschen Hand anlegen, KÖNNEN. Oder es wenigstens verstehen.
Leute die das überhaupt drauf haben, machen das auch mal. Und haben ihre langjährigen geliebten Routinen im Laufe der Zeit schon dermassen durchoptimiert und soviel rausgeholt... und jetzt soll man all die genialen Codestücke wegwerfen und einfach auf schnöde SSE-Register umsteigen?? :P

Man glaubt es nicht für wieviele das ein Problem ist. Als wenn sie glücklich verheiratet wären und sich plötzlich scheiden lassen müssten *suspect*
 
Bei Amd scheinen seit AM4 viele Boards mit deren UEFI irgendwo im Status Alpha bis Beta fest zu hängen, oder die Board Hersteller outsourcen ihre Ressourcen und lassen den Kunden Betatester spielen, also wirkliche Qualität bisher hatte ich bei Systemen die ich für andere gebaut hatte nur bei Biostar und MSI:P

--- Update ---

Wobei was heißt hier Qualität es waren Boards die einwandfrei gingen, was ich mir aber als Kunde auch erwarten kann wenn ich ein Produkt kaufe,
eigentlich schrecklich so was extra erwähnen zu müssen :]
 
Bei Amd scheinen seit AM4 viele Boards mit deren UEFI irgendwo im Status Alpha bis Beta fest zu hängen, oder die Board Hersteller outsourcen ihre Ressourcen und lassen den Kunden Betatester spielen, also wirkliche Qualität bisher hatte ich bei Systemen die ich für andere gebaut hatte nur bei Biostar und MSI:P

--- Update ---

Wobei was heißt hier Qualität es waren Boards die einwandfrei gingen, was ich mir aber als Kunde auch erwarten kann wenn ich ein Produkt kaufe,
eigentlich schrecklich so was extra erwähnen zu müssen :]

Liegt sicherlich daran das deine RWs voll sind........*rofl*
 
Bei Amd scheinen seit AM4 viele Boards mit deren UEFI irgendwo im Status Alpha bis Beta fest zu hängen, oder die Board Hersteller outsourcen ihre Ressourcen und lassen den Kunden Betatester spielen, also wirkliche Qualität bisher hatte ich bei Systemen die ich für andere gebaut hatte nur bei Biostar und MSI:P

--- Update ---

Wobei was heißt hier Qualität es waren Boards die einwandfrei gingen, was ich mir aber als Kunde auch erwarten kann wenn ich ein Produkt kaufe,
eigentlich schrecklich so was extra erwähnen zu müssen :]

Du hast also ein merkwürdiges Qualitätsempfinden und wunderst Dich, dass die Hersteller das nicht berücksichtigen?

Einwandfrei ist für mich bereits das Optimum. Wenn das zu wenig ist, dann wird es nie ein Board für Dich geben oder nur irgenwelche merkwürdigen Sondergurken.
 
@BluSky
Auch wenn ich das Trollen so süß finde, bisschen was muß dann halt noch kommen. Was gab es denn da so mit den anderen Boards, die nicht von Biostar und MSi waren?

Mein letzter auftrag war dann ein durchaus poppeliger Asrock B450M Pro4. Dazu kam ein nicht poppeliger Seasonic Core GC 500W, nicht poppeliger FlareX Black 3200/14, nicht poppelige 970EvoPlus, ein kleinwenig poppeliger Mugen5 und ein überaus nicht poppeliger Zen2.
Mit wohl der Option auf Zen3 und - achtung, deine Lieblingsstelle jetzt - ohne einer Option auf PCIe 4.0 :D

Und was soll ich sagen... Trotz des poppeligen Boards ballert das Ding die Leistung konstant und stabil Tag für Tag. Achte also einfach drauf den Leuten nicht Kernschortt zusammenzustellen und falls doch und das dann entsprechend läuft, schiebs halt nicht auf das Board...
 
Zuletzt bearbeitet:
@all
Soetwas wie AVX(xy) macht schon Sinn. ARM hat auch Neon (SSE) und hat nun auch SVE (AVX). SVE geht auch bis 512bit und soll angeblich in v9 zu Pflichterweiterung werden. Das wird also ziemlich bald auch Apple können. Im Gründe ist es aber richtig, daß dies ein Feature für die Jungs aus der Topp500 Liste ist ;) Es heisst aber nicht SVE-512. Man kann damit auch 128 und 256bit schieben.

AVX macht real 40-60% auf SSE4. AVX2 macht real 100-140% auf SSE4. Ich bin ebenfalls der Meinung, daß dies langt. Ich wäre aber auch schon froh, wenn die Leute sinnvoll SSE2 und SSE4 nutzen würden... :]

Ich bin schon seit ersten positiven GPGPU Entwicklungen der Meinung dass AVX512 die falsche Richtung ist, denn alles was mit AVX512 beschleunigt werden kann ist idR so parallel ausgelegt und so wenig latenzkritisch, dass es besser gleich auf einer viel breiteren GPU Pipeline ausgeführt wird.

x86-64 ist im Prinzip in der ISA ausentwickelt. Neue Anwendungsfälle wie AI sind m.M. so speziell, dass es keine generische ISA Erweiterung benötigt, eher separate Beschleuniger-Einheiten.

Besser wäre Intel würde den Wettbewerb mittels ISA-Murks beenden und mit AMD sich auf die grundlegende ISA einigen und darüber welche Altlasten über Bord gehen sollen. Man hat selbst ja bereits erkannt, dass man eine GPU für Compute benötigt. Dort kann man sich im Wettbewerb unterscheiden, bei der CPU wären doch eher Optimierungen auf einer stabilen einheitlichen ISA interessant. Nur so wird für diese der bestehende Code weiter optimiert, indem die ISA wirklich langfristig stabil und gesichert ist. Der Markt würde als ganzes profitieren können. Darüberhinaus kann für einzelne Beschleuniger dann HW optimierte Software separat gepflegt werden, so wie etwa beim Video-Codec.
 
@E555user
An sich ja. Es ist aber trotzdem so, daß A64FX das kann und ARM das auch so mit Fujitsu fertiggestellt hat. Warum Fujitsu das für Fugaku haben wollte, statt auf FPGAs oder Nv zu setzen, das müsste man Fujitsu mal fragen. Das wird wohl mit v9 auch so kommen und soll mit Neon zu Pflicht werden, wenn man sich egal welchen ARM v9 bauen will (?)
Die Frage muss man also dementsprechend auch allgemeiner stellen und sich auch den Antworten stellen... Dauernd Kerben zu suchen nur um auf den Blauen rumzureiten bringts nicht.

SIMD-Erweiterungen hängen eh gefühlt JAHRZEHNTE bis sie großflächiger eingesetzt werden. Intel hat uns jetzt in kürzester Zeit mit diesem Zeug quasi zugesch... Es reicht einfach. Schon das SSE-Massaker ging ging mir richtig auf die Nerven. Alle paar Jahre die gleiche Show. SSE 1999, SSE2 2000 (!), SSE3 2004, SSSE3 2006.
SSE4... liest euch mal diesen Shice mal durch, hälst du im Kopf nicht aus https://en.wikipedia.org/wiki/SSE4
Wie kann man SO benagelt sein?
 
Das wird sich so entwickeln wie bei den Mining ASICS. AI-Anwendungen werden nicht lange mit GPUs am besten fahren. Auch Google und Amazon sind hier stark am entwickeln.
Eigene ISA gleich mit dazu
Der Colossus MK2 GC200 unterstützt ein proprietäres Format namens AI-Float, zudem FP32 sowie FP16 und INT8.
 
Da hat Intel gestern Traum-Zahlen veröffentlicht, weist aber gleichzeitig auf Probleme beim 7nm-Prozess hin. Die Folge davon kann jeder sehen...

Wie ich das interpretiere (nicht so viel anders als Charlie): Ich glaube, Intel hätte die Probleme in dem klasse Q2-Ergebnis kaum angesprochen, wenn es nicht wirklich große Probleme wären, die auch für das Management zu Probemen werden könnten, wenn sie nicht der Börse kommuniziert würden. Man dürfte es wohl gerade mal so forumulieren, wie man es muss, was bedeutet, dass ich hier eher den Worst-Case als einen perfekten Lauf nach Plan rein interpretiere...

Wie stark AMD davon profitieren kann, hängt nun wesentlich davon ab, ob AMD genug Wafer bei TSMC gebucht hat bzw. ob AMD genug 7nm-Wafer buchen kann, um die Chancen zu nutzen?
 
Zuletzt bearbeitet:
Wie stark AMD davon profitieren kann, hängt nun wesentlich davon ab, ob AMD genug Wafer bei TSMC gebucht hat bzw. ob AMD genug 7nm-Wafer buchen kann, um die Chancen zu nutzen?

Hängt davon ab wieviel Intel auf TSMC verlagern will und was sie bereit sind zu zahlen.
AMDs single source ist ein gewaltiges Risiko, ohne wesentliche Firmenanteile vom Fertiger zu halten, falls einer mit einer Wagenladung grossen Banknoten kommt.
 
Hängt davon ab wieviel Intel auf TSMC verlagern will und was sie bereit sind zu zahlen.
AMDs single source ist ein gewaltiges Risiko, ohne wesentliche Firmenanteile vom Fertiger zu halten, falls einer mit einer Wagenladung grossen Banknoten kommt.

Diese Gefahr sehe ich auch: wenn Intel ebenfalls bei TSMC ordern beginnt, werden deren Wafer noch teurer. Womit sich Intel indirekt einen Kostenvorteil erkaufen könnte, indem die eigene Produktion dann im relativen Verhältnis günstiger wird.
 
Nun Intel könnte mittelfristig ihre Fabs & Anlagen als immobilien an TSMC vermieten/verkaufen, für mehr Kapazität.
Das eigentliche Risiko, ist ja was Apple von Intel weggelockt hat.
Stolpert Intel so richtig, kann durchaus mittelfristig das x86 Kartenhaus zusammenbrechen. Dies noch mehr, falls sich ARM bei den Server mal einnisten kann.
 
Diese Gefahr sehe ich auch: wenn Intel ebenfalls bei TSMC ordern beginnt, werden deren Wafer noch teurer. Womit sich Intel indirekt einen Kostenvorteil erkaufen könnte, indem die eigene Produktion dann im relativen Verhältnis günstiger wird.

TSMC hat doch gar nicht die Kapazität momentan, um Intel noch mit abzudecken.

Selbst wenn es nur einzelne Chiplets - Intel nennt die Tiles - sind. Intel spricht ja auch davon, dass man dann nur einzelne Tiles auslagern würde, ich gehe mal vom Grafikkern aus, den Rest will man ja dann mit dem eigenen, angeblich so überragenden Packaging zusammenbacken.
 
Nun Intel könnte mittelfristig ihre Fabs & Anlagen als immobilien an TSMC vermieten/verkaufen, für mehr Kapazität.
Ich könnte mir da eher vorstellen, dass sie versuchen, die TSMC-Prozesse lizenziert zu bekommen.
Die Anlagen in den FABs dürften ja mehr oder weniger gleich sein - so viele Anbieter für state-of-the-art-Anlagen gibts nicht.

Wobei intel ja schon seit gut 10 Jahren ihre Fab für 450mm halbfertig herumstehen haben - die könnten sie ja TSMC verscherbeln.
 
Stimmt, TSMC ist mit Apple, AMD, Huawei und Qualcomm so ausgelastet, daß sie scheinbar noch nicht mal Kapazität haben um für NVIDIA die nächsten Chips zu fertigen und NVIDIA die ersten Karten scheinbar bei Samsung in 8 nm fertigen muss. In zwei Monaten fällt der Anteil von Huawei weg (20% von TSMCs Produktionskapazität) und NVIDIA wird da dann sicherlich die 3080 Ti produzieren lassen um die Performance Krone zu behalten. Dann würde wenn überhaupt nur ein kleiner Teil für Intel frei werden, vielleicht für HEDT CPUs.

Info zu Huawei Ende bei TSMC: https://www.heise.de/newsticker/mel...Handelsbeziehungen-zu-Huawei-ein-4723665.html
Leak zu 8 nm Ampere Karten: https://youtu.be/qMMm9nHFe0Y
 
"Handelskrieg" klingt mir noch zu harmlos. Die USA kämpfen längst an mehreren Fronten, wenn auch bisher ohne Waffen.
Wir selbst stehen ja auch quasi schon mitten im Krieg mit den USA. Anders kann man deren massive Einmischung in in die europäische Gasversorgung nicht deuten.
Das Blöde ist, auch Biden steht dazu nicht anders als Trump. Einfach abwarten und dann wieder zu TSMC wechseln, wenn das Trumpeltier Geschichte ist, funktioniert für Huawei nicht.
 
Intels Tiger-Lake soll fast 150sqmm Diesize haben, womit er gegenüber dem 4-Core Coffee-Lake-U mit ca. 125sqmm sogar größer ist, obwohl er in 10nm statt 14nm ist. Damit liefert ein 10nm-Wafer dann weniger Roh-Dice, wovon weniger brauchbar sein dürften aufgrund des schlechteren 10nm-Yield und dann haben die 10nm-Wafer auch längere Durchlaufzeiten.
=> Tiger-Lake frisst Intels Fab-Kapazitäten schnell auf...d.h. Tiger-Lake wird wohl eher langsam in der Markt tröpflen
 
Kommt drauf an, wo intel mehr Umsatz und vor allem Gewinn sieht. So lange genug Geld reinkommt, kann man bei den 150qmm dies ggf. die niedrigere Ausbeute trotzdem verschmerzen. So groß ist der Unterschied nun auch nicht zu 125qmm. Und wenn das Größenwachstum vor allem auf Cache und iGPU-Einheiten zurückzuführen ist, dann können (zufällige) Fehler in diesen Bereichen durch Deaktivierung der Bereiche umgangen werden. Systematische Fehler, die den ganzen Wafer oder gar das Los komplett unbrauchbar machen, kann man damit natürlich nicht kompensieren.
 
Zurück
Oben Unten