Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Gute PCIe 4.0 SSDs werden bald ein neuer Marketinggag.
Weißt du doch noch gar nicht!
Das, was wir bisher haben ist doch eher mittelprächtiger, mittelmäßige Ware, die eher für "Endanwender" optimiert ist und nicht durchsatz.

Da kann man durchaus auch noch was machen. Und wenn das eh so egal ist: warum gibts dann Optane?
Wenn ein System da einen Unterschied gegenüber guten PCIe 3.0 SSDs hervorbenchen kann, dann wird es Spezialfälle betreffen, die für Normalanwender nicht relevant sind, und weder braucht man dieses überteuerte System noch die Spezialsoftware dazu, die dann drei Prozent schneller ist.
Nicht aufregen - die Zeit wird es zeigen.
Eben, die Zeit wirds Zeigen, da sehe ich jetzt keinen Grund, in die Zukunft zu orakeln und zu behaupten, dass man das eh nicht bräuchte, wenn die guten Sachen, wie z.B. Samsungs 980 PRO noch in fernen Weiten schwirren.

Hier bisserl Infos:
https://www.heise.de/newsticker/mel...ble-SSD-mit-Fingerabdruckscanner-4630720.html
https://www.anandtech.com/show/15352/ces-2020-samsung-980-pro-pcie-40-ssd-makes-an-appearance

Und den Playstation 5 SSD Controller gibts ja auch noch. Das ist ein zwölfkanal - 4 Kanäle mehr als der aktuelle Phison Chip nutzt.

Siehe hier:
https://blog.us.playstation.com/202...ils-of-playstation-5-hardware-technical-specs
Bei ~15:30 siehst die 12 Kanäle und irgendwo um 22min spricht er von der Performance der SSD noch a bisserl.
Also wenn es die Playstation5 SSD einzeln zu kaufen gäbe, wäre es eine der besten (schnellsten) SSD, die man für Geld kaufen kann...
 
https://www.sammobile.com/news/amd-gpu-for-2021-samsung-flagships-impresses-in-first-leak/
Exynos 1000 likely to use AMD graphics
Additionally, we finally caught a glimpse of what to expect from the said chipset which will be based on AMD’s RDNA architecture. Looking at the leaked synthetic early test scores originating from GFXBench, the AMD GPU for future Samsung flagships scored 181.8 frames in the Manhattan 3.1 test, which is about 13% greater than what the Adreno 650 found inside Qualcomm’s Snapdragon 865 is capable of. Additionally, it averaged 138.25 and 58 frames in Aztec Normal and Aztec High testing, respectively. These two results are even more significant as they beat Qualcomm’s latest and greatest mobile GPU by a factor of three.

The first AMD Radeon GPU for Galaxy smartphones is likely to make its way to the Exynos 1000, or however the 2021 successor to the Exynos 990 ends up being called.
 
Weißt du doch noch gar nicht!
Das, was wir bisher haben ist doch eher mittelprächtiger, mittelmäßige Ware, die eher für "Endanwender" optimiert ist und nicht durchsatz.

Da kann man durchaus auch noch was machen. Und wenn das eh so egal ist: warum gibts dann Optane?
Wegen Bluffdale, Utah und wegen Blackrocks Aladdin? :P

Ich bin ein großer Fan von Betrachtungsweisen die sich ausserhalb der Technikgeilitis wie insgesamt der Foren-Filterblasen bewegen. Also z.B. ohne der Leute die sinnlichst drauf warten einen "headless fileserver" in ihrem Keller bauen zu können. Gilt dann für M.2 genauso wie für die s.g. core-flood.

Als Interconnect auf den Boards selbst wäre es aber imho jetzt schon ein Gewinn.
 
Zuletzt bearbeitet:
Wenns nicht von Nvidia wäre, wäre das glatt was für mich *oink*
 
Nvidia will einfach nur seine GPUs so gut wie möglich verscherbeln. CPUs müssen sie eh zukaufen, da ist es also wurscht, von wem. Und warum sollten sie die Zweitschlechtesten CPUs nehmen, wenn sie die Besten haben können? ;)
 
Bei sowas bin ich vorsichtig, das wurde beim Phenom I auch schon mal gemunkelt *suspect*
Ich sehe da aktuell nicht den früheren Druck, des Überlebenswillen den Leuten Mist zu erzählen.

Es werden wohl schon die Peaks sein ;) Grad aber bei Multichip gibt es so viele Baustellen aka Schrauben an welchen man noch drehen kann, daß ein Plus von >10%, durchschnittlich, jetzt nicht grad direkt nur wie ein schönes Märchen klingt.

Da ist auch außerhalb der reinen ALU Effizienz noch sehr viel Luft nach oben...
 
Bei sowas bin ich vorsichtig, das wurde beim Phenom I auch schon mal gemunkelt *suspect*
Ja, aber:
a) war das vor Lisa
b) hat man schon bei Zen2 eher tief gestapelt und eher um die 10% vermutet - am ende Wurde es dann doch 'nen ganzes Stück mehr.

Ist also schon etwas, dass die Möglichkeit hat, wahr zu sein.

--- Update ---

Was bei Zen3 aktuell gemunkelt wird ist, dass die CCX weggeworfen werden oder sowas wie Core2 mit den CCX, dass der L3 Cache nicht mehr geteilt wird sondern 2 CCX die volle Menge bekommen. Oder gar dass es gar keine CCX mehr gibt, nur noch CCD...

Aber ob das eintrifft? gute Frage...
 
Dass die CCX Aufteilung wegfallen wird hat AMD doch als Änderung bei Zen3 selbst so dargestellt, das ist praktisch Fakt.
 
Ja, das kommt von einer offiziellen AMD Folie, sehe ich als ziemlich sicher an.
 
Jetzt ist alles entschieden ;):

Linus Torvalds drops Intel and adopts 32-core AMD Ryzen Threadripper on personal PC
In fact, the biggest excitement this week for me was just that I upgraded my main machine, and for the first time in about 15 years, my desktop isn't Intel-based. No, I didn't switch to ARM yet, but I'm now rocking an AMD Threadripper 3970x. My 'allmodconfig' test builds are now three times faster than they used to be, which doesn't matter so much right now during the calming down period, but I will most definitely notice the upgrade during the next merge window.
;D
 
Bezüglich des Betreffs des Threads... und Torvalds "...for the first time in about 15 years, my desktop isn't Intel-based. No, I didn't switch to ARM yet,..."
Und dem was Apple nun gebastelt hat...

Ist ja nicht so, daß Apple erst dran bastelt seitdem es klar wurde, daß Intel sich mit 10nm langlegt. Mit Ivy gings noch, aber sie haben schon 2013 mit Haswell rumgemeckert (Leistung/Watt) und haben sich mit Broadwell nur bestätigt gefühlt und mt KabyLake haben sie dann die Eigenentwicklung auch nicht wieder aufgegeben...

Risc-V und OpenRisc treiben ARM das Geschäftsmodell weniger autoritär zu fahren
https://www.theregister.com/2020/04/29/arm_flexible_access_startups/

Ich schätze Apple hat durch Risc-V ;) ganz brauchbare Verträge mit ARM schliessen können... Und Apple hat Kohle wie Dreck. Sie kaufen sich das talentierteste auf dem Markt. Jetzt brauchen sie weder eine CPU noch eine GPU.
Schon ein A12Z ist mit 4 Vortex Threads ist mit Rosetta2 (x86-> ARM-Emu) in etwa so schnell wie ein Core i5-1030NG7 mit 8 Threads. A12Z läuft mit 2.49Ghz. 1030NG7 mit 3.5Ghz. Nativ ist er so schnell wie ein i7-1068NG7...

"Silicon" soll aber auf dem A14 basieren. Das ist eine andere Nummer *buck* als A12Z und A12Z ist eine Iphone/Ipad CPU. In Macbooks und iMacs brauchen sie nicht auf die TDP so streng achten. Da gehen auch 25W und auch 60W *suspect*
Ab Mitte 2018 kann auch Win10 ARM. Linux eh schon länger.
Ich erwarte auch, daß deren erste GPU-Toplösung real nicht schlechter sein wird als eine RX480 und unter 100W brauchen. Mit dem Unterschied, daß sie die potzenzielle Leistung solchen Chips auch ordentlich auf die Straße bringen.

Fujitsus SPARC64 XII, ist von 2017. Seitdem ist Ruhe um SPARC64. Dafür gibt es bei denen nun A64FX. Mit SVE-512 (ähnlich AVX-512). Und es gab und gibt es mit Neon schon sowas wie SSE4.

AMD wird sich damit auseinandersetzen müssen. Genauso wie Intel. Das wird beiden imho noch weh tun :-X
 
Zuletzt bearbeitet:
Sehe ich auch so. Allerdings wird es bei Desktops und Notebooks eine Weile dauern, bis ARM auch Software-seitig genügend Unterstützung findet. Vielleicht wird ARM dort erst richtig Fuß fassen können, wenn die meiste Software sowieso nur noch in der Cloud rechnet und die verwendete Hardware egal geworden ist. Aber im Serverbereich wird ARM schon in Bälde wildern und X86-64 kräftig Marktanteile abjagen.
MfG
 
@Woerns
Bei Apple sehe ich da nicht mehr Probleme aufkommen als damals von PowerPC auf x86. Dazu brauchen die keine Cloud... Übrigens wurde auch PowerPC nur deswegen ausgemustert, weil sie das Design irgendwann für das was IBM damit machte für nicht zukunftsfähig genug empfanden. Diese Meinung bekamen sie diesmal von x86-64 *buck*
Übrigens zu der Zeit als Intel noch recht gut dabei war und sie zu 100% wussten was Zen bald wird und was mit Zen2 geplant ist und daß nichts dagegen spricht, daß dies bei AMD klappt. Die Entwickeln den Desktop-ARM nicht erst seit 3 Jahren.

Ich hege keine Zweifel darüber, daß AMD sich da auch immer mal anbot. Die Verbindungen zu AMD sind über das GPU-Geschäft mit Sicherheit sehr gut.
Jetzt braucht Apple weder eine CPU noch eine GPU von Firmen, von welchen wir glauben, jeder der da nun mitmischen wollen würde muss erstmal Jahrzehnte aufholen und um 1001 Patente herummanövrieren. Für Apple scheint das nicht problematisch *suspect*

Während wir also die Designs und Leistungen der letzten Jahre feiern und das ehrlicherweise auch bei Intel bis zum 10nm-fail alles andere als dürftig fanden, findet Apple wohl, das wäre alles Grütze.
Die Wahrscheinlichkeit also, daß sie uns nicht nur bisschen ärgern werden, sondern direkt recht hart von unserer Wolke7 holen, ist leider garnicht mal so niedrig.
 
Zuletzt bearbeitet:
Schon ein A12Z ist mit 4 Vortex Threads ist mit Rosetta2 (x86-> ARM-Emu) in etwa so schnell wie ein Core i5-1030NG7 mit 8 Threads. A12Z läuft mit 2.49Ghz. 1030NG7 mit 3.5Ghz. Nativ ist er so schnell wie ein i7-1068NG7...

Wo kann ich das nachlesen? Klingt interessant.
 
Letzte Woche paar Sachen überflogen. Die Links wie meist nicht gespeichert. Lässt sich aber bestimmt anhand der Stichwörter wieder ergoogeln.
 
Zuletzt bearbeitet:
@HalbeHälfte
Bei Apple ist der Fall klar. Ich stimme deiner Beschreibung zu. Das klappt, weil Apple sein ganzes Ökosystem im Griff hat. Vereinfacht gesagt entwickelt Apple neue Hardware und kompiliert einmal neu. Fertig.
Unter Windows sieht die Sache anders aus. Die Software Landschaft ist diversifiziert, und Microsoft kann sein Betriebssystem und sein Office, etc. einfach neu kompilieren, aber eben nicht die diversifizierte Anwendersoftware von Millionen Herstellern. Dem Zustand kommt dann der Trend entgegen, wenn Software generell in die Cloud verlagert wird, wo im übrigen ja auch kein X86-64 laufen muss. Im Idealfall wäre die lokale Hardware nicht viel mehr als der Bildschirm und die Tastatur.
So meinte ich das.
MfG
 
Jein. Man sollte dann doch nicht so tun als wenn das ganze Ökosystem bei Apple, aus appleeigener Software bestehen würde ;) Wenn wir Millionen "Hersteller" haben, haben die immernoch Zehntausende.
Den "gap" über von Rosetta2 kann man sich aber wie oben aufgeführt ausrechnen. Für Tools, reicht das aus. Sachen die mehr rumrechnen kommen entweder neu oder es gab eh schon länger keinen Support mehr. Dann kommt jemand und schreibt soetwas neu. vor allem jetzt, wo die App-Progger bald mit gleichen Devkits auch was für Desktops machen können. Die müssen dann nur die GUI kleinwenig anpassen.
Wofür es bald die meiste Hilfe im Devkit gibt (!)
Das ist aber deren Sache. "Spanisch" wird es erst, wenn sie mit A14-Desktop nativ direkt die Leistung von z.B. 3300X fahren können. Und alle können mit ARM-nativ mind. Neon (man erinnert sich, SSE4), wenn nicht gar SVE voraussetzen.

Die Leistung von 95W x86-64 Zen2, mit 40-50W? Ou ou ou :P
 
Zuletzt bearbeitet:
Schon ein A12Z ist mit 4 Vortex Threads ist mit Rosetta2 (x86-> ARM-Emu) in etwa so schnell wie ein Core i5-1030NG7 mit 8 Threads. A12Z läuft mit 2.49Ghz. 1030NG7 mit 3.5Ghz. Nativ ist er so schnell wie ein i7-1068NG7...

Nehme mal an der Vergleich war mit einem Macbook Air 2020, dazu gibt es zu sagen, dass die Macbooks mindestens Teilweise mit nicht aufsetzendem Kühler ausgeliefert werden. Was heisst das wohl für die Taktraten, die sind nie und nimmer bei den up to 3.5GHz, wohl eher bei den 1.1 GHz Basistakt.
Die ARM Testkits sind warscheinlich ausreichend gekühlt relativ dazu.

Apple kann auch nicht zaubern, und bremsen (un-)absichtlich die neuste Generation x86_64 aus. Verschwörungstheoretiker würden behaupten das sei absicht, damit sie mit der ersten ARM Generation besser da stehen.

Für AMD heisst das eigenlich nur, dass sie sich mit Intel darauf einigen sollten, das x86_64 endlich alten Müll raustragens soll, der nur für Kompatibilität zu Steinzeitsystemen (Space Shuttle) vorhanden ist, eg. ein neues Feature Grundlevel mit nur noch x86_64 (Long Mode, ohne compatibility Mode) + AVX2 definieren.
Apple tut dies, in der Regel relativ schnell. Ihren ARM Kerne sind vermutlich seit 2018 reine 64bit CPU ohne 32bit Support. Brauchen sie ja auch nicht, alle Gerät werden seit 2018 nur noch mit 64bit gefüttert.
ARMv9 wird auch gemunkelt das da die 32bit Kompatibilität raus fällt und ein AVX äquivalent verpflichtend wird.
 
@BluSky
Sobald die ersten ernsten Ports von der PS5 losgehen wird eine sauschnelle Nvme und desgleichen schnell angebunde Graka relevant sein. Das geht nur mit PCIe 4.0.

@ONH
Wer hat eigentlich wann vernünftig durchgerechnet was irgendwelche "Altlasten" eine x86-64 CPU auf einem 64bit OS mit einer 64bit Anwendung an Leistung kosten?

Mit AVX sollte man sachte umgehen ;) Intels Folien z.B. erzählen immer von Steigerungen gegenüber SSE4.x, wenn die CPU gleich schnell Taktet. Den AVX-Offset vergessen sie irgendwie öftersmal... "slightly lower frequency" gabs/gibts bei paar Xeons. Die "normalen" CPUs takten da schon zuweilen spürbar runter. Die Temps auf Ryzen(2) mit AVX gehen dagegen ja auch ordentlich hoch. Turbotakt und so...

Einerseits. Andererseits muss der Coder beim Handlig mit AVX2 schon ziemlich und mit AVX-512 sehr gut aufpassen was so alles abgeht oder abgehen kann. Wenn die Daten immer mal durch Kontextswitch aus dem L2data fliegen, bricht AVX2/AVX-512 wesentlich schmerzvoller ein als SSE oder AVX.
Real kann man von AVX schon im Schnitt 40-60% mehr erwarten als von SSE. Damit wäre das gut genug um es mitzunehmen und Leute können sich immernoch ohne größere Umstellungen im Code einarbeiten.

Und trotzdem ist die Realität seit dem ersten SSE anders. Nur weil es das gesichert gibt laufen die Leute dir nicht die Bude ein. Auch die Spieleindustrie schaut noch heute drauf, daß genug Leute (halt auch die mit FHD Hardware) das Spiel noch starten können.
PhaseOne hat sich jetzt erst - Mai 2020 - mit CaptureOne 13.1 getraut die alten SSE2 Routinen nach SSE 4.2 umzuschreiben. Und lernt dabei... da die Leute grad ganz schön am poltern sind, daß die Auslastung der einzelnen Threads plötzlich sehr zu wünschen lässt ;)

Ich weiß aber nicht, ob das der Grund dafür ist, daß Adobe angeblich immernoch so fest an ihrem SSE2 Code und der Optimierung für 4 Threads festhält :P
 
Zurück
Oben Unten