Intel Core Ultra 200S Serie (Arrow-Lake-S, LGA1851, DDR5, PCIe 5.0, 8er Chipsatzserie) Reviewthread - Links in Post 1

Die neuen E-Cores sollen schon deutlich schneller als die alten sein (wurde meiner Erinnerung nach bei Computerbase getestet) allerdings ist das nur für Multicore Tests relevant die sie auch nutzen können und dann wird diese Mehrleistung durch das Streichen von SMT nahezu vollständig aufgefressen.
Arrow-Lake ist vielleicht einen gute Basis für den Start einer neuen Architektur, mehr aber auch nicht da einfach zu viele Schwachpunkte und Konzeptfehler vorhanden sind.
 
eigentlich nein. Nur bei sehr hohen fps und niedriger Auflösung limitiert die CPU. Aber wer spielt denn zb in 1080p auf einer 4090?
Schon denn ob man nun z.B. mit einer 4090 @UHD Spielt oder das gleiche Spiel mit den sonst gleichen Grafikeinstellungen mit einer 4070/4060Ti @FullHD ist für die CPU Last weitestgehend egal. In beiden Fällen wird das Spiel aufgrund der ca. gleichen Framerate im gleichen GPU Limit landen weil die CPU ganz einfach nicht mehr Rohmaterial liefern muss.

An sonsten dürften es gerade die FPS Junkies sein welche die Grafikeinstellungen auf ein Minimum reduzieren und damit entsprechend wenig Last auf die Grafikkarte geben, was zwangsläufig im CPU Limit endet.

Es hängt also weniger von der Auflösung als vielmehr von den gewählten Grafikeinstellungen und der verbauten Hardware Config ab.
Irgendwelche Spezialisten die meinen sie brauchen 200fps, gibts immer, aber das ist ja nicht die Regel.

Wie man sieht sind da noch sehr sehr viele Low End GPUs dabei, da ist man Welten von einem CPU Bottleneck entfernt.

Bei neuen Zusammenstellungen fällt mir auch öfters auf das bei der CPU ziemlich weit oben ins Regal gegriffen wird aber bei der GPU wird gespart.

Oder wie mein Nachbar, braucht einen neuen PC obwohl der alte noch mehr als schnell genug ist. Und es muss unbedingt der 285k sein. Er ist Makler und kann die HW nicht im entferntesten ausnützen.
 
Es gibt keinerlei Bericht über den Vorteil der nur mit diesen E-Cores möglich wäre. Probleme damit aber schon. ZENc ist einfacher und ohne Probleme.
Na, na - die Verbesserung im Verbrauch sind da und nicht nur auf der PowerPoint Folie. Das wird u.a. den E-Cores zugeschrieben ebenso wie auch Teile der guten MT Leistung. Aber nur weil es E-Cores sind erlauben sie keine brandneuen Features (ausser deutliche Diespace Einsparungen), die man zuvor nicht kannte. Wie auch.
Der Wegfall von HT ist natuerlich irgendwie bitter und wirkt wie ein Schritt zurueck (in der Serverwelt wird es wieder HT geben AFAIK).

Ich denke aber Intel macht hier in mehrfacher Hinsicht einen Sprung vom hergebrachten im Desktop:
  • Tiles nicht zwei oder drei - nein gleich eine handvoll
  • sie fertigen keines der aktiven Dies mehr selbst

Beides ist sowohl technisch (und man spuert die Shortcomings im Desktop, AMD hat diese Erfahrung schon hinter sich) als auch fuer die Organisation und das Selbstverstaendnis kein kleines Feat.

Ist alles es komplett gelungen? Noe.
Na ja, die bessere Haelfte (MT, Verbrauch, Sprung der iGPU Leistung) vielleicht ja aber mehr auch nicht.
Gaming ist gefuehlt aus dem Ruder gelaufen. Haette es schlimmer kommen koennen? Moeglich.

Hat Windows hier geholfen - ebenso wenig wie bei Zen5 IMHO.

Dennoch wirkt Intels ebenfalls holpriger und empfundener ueberhasteter Launch der neuen Desktop Generation da wie bestes Marketing fuer AMDs anstehenden Gaming Chip 9800 X3D und andere 9000er. Hier scheint AMD einen Trumpf zu haben. Gut ausgespielt wird das ein voller Erfolg fuer die Marke.

Intel New Gen scheint wie Zen5 im Desktop eher die Grundlage zu sein auf der die naechsten Generationen aufbauen werden.

Dass Intel mit dieser Generation auch eine neue Plattform verlangt, macht den Start noch schwerer IMHO.
Aehnliches haben wir mit dem Start von Zen4 und AM5 gesehen und erlebt.

Gruss,
TNT
[automerge]1730209614[/automerge]
Er ist Makler und kann die HW nicht im entferntesten ausnützen.
Aber City Skylines skaliert auch etwas mit der CPU MT Leistung ;-) oder?
 
Wie man sieht sind da noch sehr sehr viele Low End GPUs dabei, da ist man Welten von einem CPU Bottleneck entfernt.
Und?
Man nehme ältere Spiele oder schraubt die Bilddetails auf ein minimum runter und schon landet man doch wieder im CPU Limit.
Wie gesagt, alles eine Frage der Bildeinstellung und des Spiels, 2 Punkte die für die Umfrage irrelevant sind.
Nebenbei würden die gleichen Spiele bei kommenden, schnelleren Grafikkarten wegen der höheren Bildrate dann doch wieder weiter zum CPU Limit rutschen. Die "GPU X brauch CPU Y" Bauernregeln sind ganz einfach Unsinn weil es zu viele Variablen gibt die das Ergebnis erheblich beeinflussen.
Nebenbei lag in der gleichen Umfrage der Anteil der UHD Displays bei unter 4%.

Aber City Skylines skaliert auch etwas mit der CPU MT Leistung ;-) oder?
Leider nicht wirklich denn am Ende spielt sich alles im Bereich der 8 Kerne ab.
Bei Intel wird das durch die reduzierte Anzahl der P-Cores bei kleineren Modellen ein Stück weit verbogen da einspringende E-Cores langsamer wären aber da sind und der Rest kommt von Taktunterschieden der einzelnen Modelle.
Bei AMD hätte man das besser sehen können aber da praktisch nur 6 und 8 Kerner vorhanden sind und der 78000X3D und der 7950X3D gleich auf sind spielen das zusätzliche normale Chiplet dabei offensichtlich keine Rolle.

Leider wird der Kernbedarf der Spiele bis heute nicht wirklich getestet.
 
HI
also es gibt genug Spiele Simulationen die doch auch in UHD Limitieren wie ACC oder auch Flugsim von MS usw.
Klar wer nur Mainstream spielt wird davon nie was mitbekommen aber das wissen wir ja schon sehr viele Jahre.
Ein Grund warum der 583D auch so alternativlos war mMn.
lg
 
warum sollte man sowas tun wollen?
Weil man es kann und bei neuen Spielen zu viel Schrott dabei ist?
Sowas wie Half Life 2 müßte man inzwischen selbst mit einer flotten IGP in UHD mit max. Details flüssig zocken können.
 
Das klingt zumindest eher nach einem Problem mit der Chip zu Chip Verbindung.
In dem Zusammenhang wäre es interessant wie diese getaktet wird. Liefe die 1:1 mit dem Speichertakt wäre sie für den grundsätzlichen Bandbreitenbedarf ganz einfach zu schwach auf der Brust. Hier wäre wohl der allgemeine Aufbau und die Funktionsweise der inter Chip Verbindungen sehr interessant.
 
So gesehen hat Intel jetzt 7 Jahre gebraucht um HTT abzuschalten. Wie es jetzt um die Sicherheitlücken steht dazu nimmt keine Test Bezug darauf. Die bischen bessere multicore Leistung erkauft man sich mit 60 Watt mehr Verbrauch. Ist jetzt auch nicht ohne.

Über die Leistung kann man streiten, aber es scheint wieder eine zumidest solide CPU zu sein. Ob die dann der Kunde auch annimmt ist die Frage.
 
Es gibt keinerlei Bericht über den Vorteil der nur mit diesen E-Cores möglich wäre. Probleme damit aber schon. ZENc ist einfacher und ohne Probleme.
Na, na - die Verbesserung im Verbrauch sind da und nicht nur auf der PowerPoint Folie. Das wird u.a. den E-Cores zugeschrieben ebenso wie auch Teile der guten MT Leistung.
Eben, aber das ist nicht "nur" mit E-Cores und deren kastrierter ISA möglich. Die Prämisse, dass für effiziente Kerne der Funktionsumfang massiv eingekürzt werden muss ist mit ZENc wiederlegt. Das mag vielleicht zu den Anfängen der Atom-Chips eine relevante Grösse gewesen sein. Heute scheint es doch eher so, dass die eigentlichen Ausführungseinheiten bzw. ISA nur geringsten Einfluss haben. Am Ende wird ohnehin die CISC-ISA on Chip noch in RISC Mico-Ops interpretiert. Es wäre viel besser die E-Cores könnten in 4-6 Takten auch ein AVX512 abarbeiten als dass die CPU in Gänze den allgemeinen Wechsel von alten auf ein neues SIMD-Konzept verhindert. Generell war ich immer der Ansicht 512bit braucht es nicht, weil der Workload idR wohl noch besser auf eine GPU ausgelagert würde. Aber dass Intel den Knieschuss der P/E Kombi mit APO Software für handoptimiertes Scheduling korrigieren muss zeigt einfach, dass man zu weit gegangen ist, das Konzept ist eine Fail-Strategie für Anwender, die Peak-Performance mit wenigen Kernen suchen. Das Frontend je Core muss einfach das gleiche bleiben. Branching, Decode, Op-Cache, Queuing. Bei HT bzw. SMT könnten sie hingegen Recht behalten, dass man wie AMD vor Zen lieber darauf verzichtet, wenn es primär um Peak-Performance geht. SMT-freie Many-Cores und Energiemanagement auf einer Desktop-CPU kann da womöglich umterm Strich die bessere Lösung sein, ganz einfach weil die Software ist wie sie ist. Mit SMT ist Zen aber bei schlechterer Node und weniger Kernen bisher noch effizienter, so mein Eindruck.

Die News mit den CU-Dimms ist interessant. Wenn also ein Retimer auf dem Dimm das Powerbudget auf der CPU und deren Speichercontroller so sehr entlastet, dass die ordentlich höher takten kann, dann könnte das auch für andere CPUs eine mögliche Entwicklung sein.
Nur dürfte halt der Preis bei den CU-Dimms nicht durch die Decke gehen, es müsste schon Massenware ohne grösseren Aufpreis sein, sonst nimmt man doch idR wieder nur die nächst teurere CPU. Es darf also keine Sonderlösung fürs High-End Race bleiben.
 
Zuletzt bearbeitet:
Eben, aber das ist nicht "nur" mit E-Cores und deren kastrierter ISA möglich.
Von welcher Kastration der ISA redest Du? Ist das nicht etwas uebertrieben?
AVX512 ist noch auf dem Desktop eine Nische und Intels Imp. war nicht gut.
Aber das ist fuer die grosse Masse weiter nicht arg relevant.

Die Prämisse, dass für effiziente Kerne der Funktionsumfang massiv eingekürzt werden muss ist mit ZENc wiederlegt.
Es sind andere Ansaezte -> Schau Dir die Groessenverhaeltnisse an zwischen den Auspraegungen.
AMDs Ansatz hat Folgen -> Diesize. Aber ich denke, dass AMD hier smarter faehrt im Vergleich.

Entlastet CUDIMM wirklich den IMC im Stromverbrauch entscheidend? Mehrtakt ist erst mal Mehrtakt.
Die Idee hinter CUDIMM ist bessere Leistung (Bandbreite) zu geringen Mehrkosten.
Was der Markt daraus macht, wird man noch sehen.

Ich glaube, dass es keine Sonderloesung bleibt. AMD muss da etwas nachlegen IMHO.
Fuer den hoechsten Benmarkbalken scheint er noetig.

Gruss,
TNT
 
Ich glaube das das den 0815 User gar nicht interessiert, die haben schon seit Generationen immer Intel gekauft und werden es weiterhin. Am meisten dürften auch CPUs in Komplett PCs verkauft werden, vor allem Lenovo,HP,Dell. Auch bei Büro PCs interessiert das nicht. Und wieso muss Intel jetzt auf einmal günstiger als AMD anbieten? Die waren schon immer teurer.
Laut News hat man den Eindruck das alle AMD kaufen, ist aber nicht so. Der Gaming Sektor ist im Gesamten einfach zu klein.
 
@TNT
Eben die reduzierte ISA der "Atom"-Cores mit dem völlig anderem Decoder und Branch-Predictor. Was letztlich auch dazu geführt hat, dass AVX512 auf den P-Cores deaktiviert wurde. Wenn es im Einzelfall einen Codepfad dafür gibt bleibt der auch den P-Cores verwehrt. Das bleibt ein Nachteil der anwächst sollte es AMD gelingen AVX512 populärer zu machen. Das Zen-Konzept hingegen unterscheidet letztlich nur nach Takt und L3, fürs Scheduling ist das bis auf den Takt völlig transparent. Bei Intel muss man bestimmte Threads auf P-Cores pinnen weil diese den Branchpredictor und ggf. bestimmte ISA-Features besser unterstützen und nötige Cache-Sizes haben während man andere Threads auf die E-Cores pinnen muss, damit die P-Cores zwischendurch entlastet werden und insgesamt höher takten können. Worst Case wäre wenn einzelne Threads sogar während der Laufzeit zur Optimierung verschoben werden müssten. Wenn es nicht zu kompliziert wäre hätte Intel mit APO längst mehr Software unterstützt oder eine Automation entwickeln können, offensichtlich geht das aber auch nach Monaten nicht. Und offensichtlich gibt es keinen Intel-Compiler der das Problem generell für Intel löst. Code optimieren bedeutet letztlich die ISA möglichst gut zu nutzen und auf die Eigenheiten der Cache-Hierarchie und Speicherlatenzen Rücksicht zu nehmen, Compiler kümmern sich um die ISA, auf Cache-Sizes muss aber der Programmierer bereits achten. Da darf es keinen Unterschied in den Cores geben wenn der compilierte Codepfad im Worst-Case via OS zwischen den Cores hin und her springt.

Die Die-Size und zusätzlichen Kosten in Fertigung und Taktausbeute ist eben das was ich meine. Bei der ISA und AVX512, dem L1/L2 ist der zusätzliche Aufwand bzw. die Ersparnis zu gering die Nachteile der Fragmentierung hinzunehmen, nur bei SMT ist vielleicht die Situation schon eine andere wenn man ohnehin deutlich mehr Kerne anbieten kann als 99% der Desktop-Software zu nutzen vermag. MT wird auf Desktop doch auch immer nur mit WS-Software getestet.

@Ghost
Das sehe ich ganz genauso, nur mit dem Unterschied, dass das Gaming und die Spitzenleistung schon immer das allgemeine Image geprägt hat. Es setzt für die professionellen Anwender und Einkäufer eine Erwartungshaltung, niemand kann sich dem gänzlich entziehen. Irgendwann setzt auch hier der "fear-of-missing-out" Faktor ein. Intel hält diese Gen mit den Aura Ai-Features dagegen, siehe meine Lenovo-News.
Das OEM-Geschäft ist nach wie vor Intel-dominiert. AMD hat mit den APU-Laptops aber gute Chancen hier etwas zu ändern. Man ist beim Laptop etwas über Augenhöhe aber mit dem besseren Mindset bei "Gamern" bzw. High-End Desktop und Servern. Mit der aktuellen Generation werden wir in einem Jahr sehen, wie viel Marktanteil das möglich macht. Vor Strix-Point hatte man angeblich die plötzliche Nachfrage unterschätzt und konnte (noch) nicht liefern.
 
Das bleibt ein Nachteil der anwächst sollte es AMD gelingen AVX512 populärer zu machen. Das Zen-Konzept hingegen unterscheidet letztlich nur nach Takt und L3, fürs Scheduling ist das bis auf den Takt völlig transparent.
AMD unterstuetzt echtes AVX512 auch nur bei einem Teil der Chips, die in den Haenden von Verbrauchern landen. Not all Zen5 cores are created equal.

Die mobilen AI Varianten unterstuetzen den vollen AVX512 Durchsatz nicht wie Desktop Counterparts. Das bleibt fast unbemerkt, da es im Desktop/Client schlicht wenig Relevanz hat.
AMD geht hier einen Kompromiss und hat vermutlich abgewogen (PowerBudget, Die estate, moegliche Benefits usw.) und kam zum Schluss, dass der volle Druck bei Notebooks und Co. aktuell und absehbar nicht noetig ist.



1730378179063.png


Natuerlich schneidet Intel hier im Vergleich mit den aktuellen P-Core/E-Core einiges radikal ab z.B. HT. Fast eine Not OP.
Ein harter aber konsequenter Bruch mit den Vorgaengern. Ich denke nicht, dass es langfristig so bleiben wird.
(bei Servern bleibt es bei HT AFAIK bei Intel).

Das hat AMD wesentlich cleverer geloest und war bereit entsprechende TransistorCounts zu investieren, auch wenn die Motivation fuer Zen5c/Zen4c sicherlich auch aus der Server Ecke gekommen ist IMHO.

Aber ist im mobilen Bereich bei AMD garantiert, dass die wichtigen Tasks immer auf den Big Zen5 Cores laufen?
Klar ist der Unterschied in weiten Teilbereichen zwischen Zen5 und Zen5c eher gering(er).

Aber Intels E-Cores as is kann man kaum noch mit den Atom Gurken vergangener Tage vergleichen IMHO. Das passt nicht mehr.


Gruss,
TNT
 
So wie AVX512 bei EPYC an Relevanz gewinnt werden auch Ryzen-CPUs für Entwickler interessant. Ich bin mir bei AMD recht sicher, dass die Server-OEMs und Hyperscaler das auf der Wunschliste hatten, das war kein Vorpreschen von AMD. Das könnte bzw. sollte umgekehrt ein kleiner Dosenöffner im Laptop/Desktop OEM-Business sein.
 
So wie AVX512 bei EPYC an Relevanz gewinnt werden auch Ryzen-CPUs für Entwickler interessant
Das ist voelleig unterschiedfiche Zielmaerkte und Ansprueche. Ich wuesste nicht wo da starke Querverbindungen auf der Softwareseite/Anwendugen gibt.
Wechselwirkungen kann es da gewiss geben, aber einen Dosenoeffner fuer AVX512 im Desktopbereich, wenn AMDs Impl. im Serverland Gefallen und Verwendung findet, sehe ich da nicht.

D.h. nicht, dass AVX512 langsam aber sicher auch im Desktop Verbreitung finden wird, sobald es mehr und mehr CPUs unterstuetzen.
Im Servermarkt hat AVX512 Kapa heute schon einen ganz anderen Stellenwert in spezifischen Anwendungen IMHO.

Gruss,
TNT
 
Zuletzt bearbeitet:
So wie AVX512 bei EPYC an Relevanz gewinnt werden auch Ryzen-CPUs für Entwickler interessant
Das ist voelleig unterschiedfiche Zielmaerkte und Ansprueche. Ich wuesste nicht wo da starke Querverbindungen auf der Softwareseite/Anwendugen gibt.
Wenn Entwickler darauf pochen nicht nur auf Cloud-Ressourcen sondern auch mal lokal zu compilieren und testen muss der IT-Einkauf entsprechende Laptops/Desktops in den Katalog aufnehmen. Da hat Intel nichts Aktuelles zu bieten, fängt alles sonst mit Xeon an, oder Core 11-Gen aka Rocket-Lake. Grosse Unternehmen/Organisationen sind nach meiner Erfahrung sehr bürokratisch. Solche Dinge können genauso etwas bewegen wie die eitlen CEOs die mal plötzlich alle Blackberrys oder Macbooks haben mussten, ob's zum restlichen Zoo passte oder nicht ist dann ganz schnell egal.
Das sind so Bausteine, auf die Intel achten müsste, dass der Damm nicht doch noch bricht.
 
Wenn Entwickler darauf pochen nicht nur auf Cloud-Ressourcen sondern auch mal lokal zu compilieren und testen muss der IT-Einkauf entsprechende Laptops/Desktops in den Katalog aufnehmen.
Eine absolute Nische heute und morgen.

Wie gesagt es gibt/wird Anwendungen geben, die AVX512 nutzen. Wie gross der Benefit ist und wie relevant es fuer den BrotUndButter Anwender mittelfristig sein wird, wird sich noch zeigen.

Gruss,
TNT
 
"absolut" wäre kein Grund gewesen es für EPYC von double pumped auf full support zu bringen. Ich erwarte schon eine nachgelagerte Entwicklung in dieser Richtung, das schlägt dann durch bis zu den Studierenden. Die Crux ist, dass Intel bei AMD-64 rechtzeitig reagierte, hier bin ich mir nicht so sicher... Ich bleibe - mit den anderen Gründen - bei meiner Einschätzung, E-Cores nach Intel-Art sind kompletter Mist.
 
Die E-Cores sind nur dazu da die Multicore Leistung zu pushen weil die P-Cores dafür zu groß und stromfressend wären. Gleichzeitig wurde bisher fleißig auf der Singlecore- und Spieleleistung rumgeritten für die sie letztendlich irrelevant sind.
Sie können sich mit dem Design in keiner der Teildisziplinen nicht ernsthaft von dem klassischen Design der Konkurrenz absetzen bzw. sind durch die X3Ds um Längen geschlagen worden. Selbst wenn man die Hauptziele eines Big-little Designs betrachtet steht man im Vergleich zur Konkurrenz verdammt schlecht da denn man mußte dafür Leistungssteigerne Features wie AVX-512 streichen und hat dennoch einen Stromfresser geschaffen weil man den Takt zu hoch treiben mußte. Selbst beim Flächenbedarf kann man nicht punkten wodurch nur um so mehr unterstricken wird das die P-Cores zwar leistungsfähig aber einfach zu raumfordernd sind um bestehen zu können.
Das Die eines 14900k soll 257 mm² groß sein, die Chips eines 7950 kommen hingegen auf zusammen 262 mm² (2x 70 mm² + 1x 122 mm²) und der schleppt noch die Links zur Verbindung der Chiplets mit sich rum.
Zu den Kacheln des 285k konnte ich so schnell nichts finden aber die CCDs des 9950k sollen etwas größer als beim Vorgänger sein und jeweils bei 70,6 mm² liegen. Bei den X3Ds kämen natürlich noch der zusätzlichen Cache Chips hinzu, die Spacer lasse ich hingegen außen vor.

Lt. Notebookcheck kommen beim 285K übrigens 3 Fertigungsprozesse zum Einsatz.
Das Foveros-Package von Arrow Lake-S besteht aus insgesamt sechs Tiles, von denen vier auf TSMC-Nodes basieren. Dabei handelt es sich um Compute (N3B), Xe-LPG Alchemist iGPU (N5P), SoC (N6), I/O (N6), eine Filler-Kachel für Stabilität und ein Basis-Tile (Intel 1227.1 22 nm FinFET).
 
Die E-Cores sind nur dazu da die Multicore Leistung zu pushen weil die P-Cores dafür zu groß und stromfressend wären.
Stimmt nicht ganz:
Die E-Cores sollen v.a. auch dafür da sein, um im Teillastbereich effizient ("Hintergrund-")Aufgaben zu übernehmen, um dabei die P-Cores weiterschlafen zu lassen.
Aber wie wir mittlerweile wissen, funktioniert das in der Praxis halt nur so semi...
 
Zurück
Oben Unten