Intel Core Ultra 200S Serie (Arrow-Lake-S, LGA1851, DDR5, PCIe 5.0, 8er Chipsatzserie) Reviewthread - Links in Post 1

KitGuru gibt die wichtigen Fragen die man bei den Reviews beachten soll am Ende mit auf dem Weg:

- welche Windows Version wurde verwendet und neu installiert oder nicht?
- welcher Energiesparplan?
- Core Isolation aktiv?

usw

Microsoft scheint hier noch viel zu tun zu haben bei Windows 11 24H2, heute gab es ein Update das auf 26100.2161 die Version anhebt.

Ja die CPUs sind recht intersannt - endlich hat auch Intel was "zusammen geklebtes" :)
Aber auch etwas entäuschend dafür das 3NM TSCM verwendet wurde.

Persönlich finde ich sie für mich uninteressant:

- P/E Core auf dem Desktopn will ich nicht
- fehlendes SMT auch nicht
- Zukunft des LGA1851 fraglich

Und natürlich das ein Umstieg von AM5 nicht sehr sinvoll wäre.
 
- P/E Core auf dem Desktopn will ich nicht
- fehlendes SMT auch nicht
- Zukunft des LGA1851 fraglich
Warum willst Du keine E-Cores? Oder keine P-Cores?

Sie werden langsam aber sicher dem AMD C-Cores Konzept von der LeistungDiff/Features aehnlicher.
Da es ARM vormacht, wird diese Idee auch nicht so schnell verschwinden bei AMD & Intel IMHO.
Ich denke, dass wir auch bei AMD mehr C-Cores auf dem Desktop sehen werden als bislang als auch die Grenzen zwischen klassicher CPU und APU weiter verwischt werden.

Die Zukunft des neuen Sockels ist nicht wirklich nicht geklaert und bei den Preisen muss man sich den Invest schon zweimal ueberlegen.
Es steht schliesslich im Raum, dass es nur eine Generation (+1 x Refresh?) auf dieser Plattform gegeben koennte.

Das waere dann schon etwas kurzlebig.

Technisch ist die CPU Reihe plus Boards (CUDIMM und Co., iGPU, Tilemania) interessant.
Ich bin gespannt, was die Szene da noch an Details/Speku ausgraben wird.
Dass so viele Tiles hier funktionell zusammen arbeiten ist sicherlich auch kein so kleines Feat.

Aber ein Homerun ist dieser Release fuer Intel mitnichten sondern ein notwendiges Wagnis in mehrfacher Hinsicht IMHO.
Arrow Lake wird einen schweren Stand haben im Retail Markt IMHO. Gamer Enthusiasten werden kaum zu ueberzeugen sein.
Content Creator/Workstation User schon eher. Schlecht ist die CPU per se nicht.

Dennoch wirkt das AMD Zen5 Paket irgendwie sympathischer auf mich ;-) (und in Teilen performanter).
Aber das Geraet hier ist good-enough for me.

Gruss,
TNT
 
Warum willst Du keine E-Cores? Oder keine P-Cores?
Weil es offensichtlichum die Kombination aus P- und E-Cores geht.
Stichwort asymetrische Leistungsverteilung die bei der unzureichenden Threadverwaltung der Windows Welt im Zusammenhang mit den lausigen Multithreadingfähigkeiten der meisten Programme eine typische Quelle für Probleme mit der Leistungsentfaltung ist. Geschweige denn wie im Fall von AVX512 sogar für die Streichung von Features verantwortlich ist.

Da es ARM vormacht, wird diese Idee auch nicht so schnell verschwinden bei AMD & Intel IMHO.
Im Mobile Markt, wo es um Stromaersparnis für längere Akkulaufzeiten geht. Es ging aber um den Desktop Markt wo das aufgrund des Netzanschlusses kein Thema ist.
 
Good enough in der Leistung ist die CPU aber allemal. Intel hat an vielen Stellen aufgeholt (Energieeffizienz unter Teillast scheint sehr gut zu sein, unter Last max pari mit Zen5 (obwohl Zen5 im schlechteren Process gebaut wird(!)), was immer noch ein deutlicher Fortschritt ist fuer Intel, Temps sind besser etc (Aber hat heute jeder schon eine AIO Wasserkuehlung?), MT Anwendungsleistung oftmals sehr gut) aber mehr auch nicht.
Wie bedeutend ist denn der Gamer-Markt im Desktop-Segment? Klar, der Trend geht zu mobilen Geräten, aber es gibt immer noch "Büro-Rechner". Und dort wird sich sicher niemand einen Wasserkühlung hinstellen. Firmen kaufen Desktops mit Luftkühlung, die müssen preiswert und kompakt sein, dürfen nicht absurd Leistung ziehen, damit man das Netzteil etwas kleiner auslegen kann (wobei in den SFF und USDT teils auch Notebook-Chips verbaut werden).

Ein Grundstein fuer zukunefitge Entwicklungen und nur in diesem Sinne der Zen Moment fuer Intel. Zen war aber auch in der Leistung der Vorgaengergeneration turmhoch ueberlegen, was hier absolut nicht der Fall ist.
1/2 Zen Moment fuer Intel maximal ;-) .
Die Frage ist ja auch, wie es mit der Fertigung weitergeht, wird Intel seine Fertigungsprobleme in den Griff kriegen? Hätte TSMC überhaupt genug Kapazität, um den kompletten CPU-Markt zu bedienen? Mein alter Arbeitgeber hat sich einmal für die Anschaffung von Intel-Servern entschieden, weil AMD lange Lieferfristen hatte, wenn jetzt Intel komplett bei TSMC fertigen lassen wollen würde, könnte TSMC die Nachfrage decken?

Oftmals ist Core Ultra 200S regelrecht schlicht enttaeuschend in der Leistung, wenn die Vorgaenger Generation nicht ueberboten werden kann.
Die Gaming-Krone ist ausserhalb der Reichweite. MT Performance ist nicht immer klar besser. In der Spitzenlast wird weiter ordentlich aus der WattPulle gezogen.
Er wird sich trotzdem verkaufen, weil er "neuer" ist, und weil die alten Chips irgendwann eingestellt werden ;-)

Technisch ist es ein interessantes Produkt. So viele unterschiedliche Tiles/chiplets mussten zusammen gebracht werden um eine grosse/Performance CPU damit zu bauen (Packaging). Einiges wird neu versucht (TSMC only chiplets - BTW eine Offenbarung fuer Intels Fabs, SMT gone, aufgeborhte iGPU, NPU, CUDIMM, Packaging)) und fuer sich gelingt dabei auch vieles, aber das Bessere ist der Feind des Guten.
Die CUDIMM sind ein interessanter Ansatz, und ich denke dass sich das im Gegensatz zu Rambus in der P4-Ära durchsetzen kann. Schon lange spricht man davon, dass der Speicherdurchsatz ein Problem moderner Multikern-CPUs ist (im Serverbereioch sind wir bei 12 Speicherkanälen, mit entsprechend komplexen und teuren Mainboards), und auch die Grafik profitiert von mehr Speicherdurchsatz (die NPU vermutlich auch, bin da aber zu wenig tief im Thema drin).

Besonders attraktiv wirkt die neue Plattform nicht auf mich (bislang wenig zur Plattform gesehen/gelesen). Ich habe eher den Eindruck bekommen, dass die Plattform noch so seine Kinderkrankheiten hat.
Mehr als 'Good enough' (Mehr)Leistung kann man auch mit dem Vorgaenger haben und erst recht mit AMD AM5 Palette (Gaming).

Jemand mit AM5 oder der Intel VorgaengerGen hat wenig bis keine grossen Incentives auf die neue Intelplattform umzusteigen IMHO.
Der Wechsel von der Vorgänger-Generation lohnt sich doch in den seltensten Fällen, vor allem dann nicht, wenn man schon das Top-Produkt der vorherigen Generation hat. Meist überspringt man doch eine oder mehrere Generationen.
 
Im Mobile Markt, wo es um Stromaersparnis für längere Akkulaufzeiten geht. Es ging aber um den Desktop Markt wo das aufgrund des Netzanschlusses kein Thema ist.
Intel baut es ein in die dickste Desktop CPU. Qualcomms Desktop Offerings haben es und werden es haben.
Mircrosoft haette es auch gern. Daher bin ich der Meinung, dass AMD sich hier nicht entziehen kann und darf.

Nicht weil es im Moment technisch extrem sinnig ist, sondern weil der Markt im Moment (und noch eine Weile IMHO) danach lezcht.
Strategisch ist es fuer AMD auch wichtig mit den Weg zu bestimmen wie AI im Desktop funktioniert (wie war es doch gleich -> Entwickler, Entwickler).

Ob es alles technisch sinnvoll ist, kann man diskutieren.
Ob der Weg bei AMD ueber staerkere AI iGPU geht und/oder ueber dezidierte NPUs geht wird sich noch zeigen IMHO (meine Wette NPU + GPU).
AMD hat es selbst formuliert 'AI everywhere' - also dann follow suit.

Ob der Anwender einen echten Benefit davon hat, das kann nur die Zukunft zeigen (Entwickler, Entwickler oder auch Software, Software).
AM5 mit PCIe 5.0 einzufuehren war zu der Zeit auch wenig sinnig. Es wird bis heute kaum vom Endanwender explizt genutzt (PCIe 5.0 Grafikarten Essig, NVMe PCIe 5.0 keine Massenware).

BTW Strom effizient zu nutzen und weniger zu verbrauchen ist eigentlich immer gut ;-).

Ist aber ein bisserl OT hier.

Wie bedeutend ist denn der Gamer-Markt im Desktop-Segment?
Das ist recht vokale Speerspitze der Endanwender, denen die Technik nicht schnell genug sein kann. Wenn man diese Gruppe hat, dann ist damit wirtschaftlich aber noch nicht der Kuchen gegessen; dennoch hat diese Gruppe Einfluss auf das Image eines Produktes oder einer ganzen Reihe im Retail.

Fuer den Buerorechner (werden heute noch klassische Desktops verbaut? Oft wohl nicht mehr oder?) ist das ein anderes Spiel.
Hier werden die kleinen (oder der Refresh der alten Intel Generation) zum Einsatz kommen koennen und voellig reichen.
Fuer starke Workstations kann es dann vielleicht heute auch eine AIO sein.

Die Frage ist ja auch, wie es mit der Fertigung weitergeht, wird Intel seine Fertigungsprobleme in den Griff kriegen? Hätte TSMC überhaupt genug Kapazität, um den kompletten CPU-Markt zu bedienen?
zu 1) Das weiss Intel selbst vermutlich gar nicht so genau. Die momentane Strategie, wenn der naechste Prozessschritt nicht funktioniert gleich den uebernaechsten anzukuendigen und sich damit Zeit teuer zu erkaufen, traegt nur so weit.

zu 2) Klar - haben sie. Aber es gibt nicht nur x86 CPUs und damit wird es schwieriger und kommt u.a. auf den Prozess an ;-) .
(BTW hat nicht AMD Kapa bei TSMC gerade abgeben?)

NPUs moegen Durchsatz und Speichermenge - schaue Dir nur die dezidierten Karten dazu an.

Vorgänger-Generation lohnt sich doch in den seltensten Fällen, vor allem dann nicht, wenn man schon das Top-Produkt der vorherigen Generation hat. Meist überspringt man doch eine oder mehrere Generationen.
Das war nicht immer so (-> true Zen1 Moment). Es gab Zeiten da haben neue Generationen (und auch Plattformen) den direkten Vorgaenger aus dem Wasser geschossen.
Aber das ist selten geworden bei x86. Und es gibt heute viel mehr Good-Enough Leistung (nicht alle sind Gamer).
6 oder 12 Kerne sind fuer viele subjektiv kaum noch direkt erfahrbare Mehrleistung.

AI, wenn es zum Tragen kommt und es die allg. Killerapplikation (Wo ist sie?) in breiter Verfuegbarkeit gibt, kann das Rennen der Generationen neu intensivieren.

Man schaue sich nur die TOPs in der Entwicklung an (gestern noch 16 TOPs und dann heute bis zu 55 TOPs usw. Intel wird bei den 13 TOPs nicht stehen bleiben im Desktopbereich). Das sind echte Leistungsspruenge auf dem Papier.
BTW fuer mich auch ein Grund, warum AMD dem Thema beim Desktop nicht aus dem Weg gehen kann.

Es kann aber auch sein, dass in 5+ Jahren das Thema abgekocht ist.
Man weiss es nicht.

Gruss,
TNT
 
Intel baut es ein in die dickste Desktop CPU. Qualcomms Desktop Offerings haben es und werden es haben.
Mircrosoft haette es auch gern. Daher bin ich der Meinung, dass AMD sich hier nicht entziehen kann und darf.

Nicht weil es im Moment technisch extrem sinnig ist, sondern weil der Markt im Moment (und noch eine Weile IMHO) danach lezcht.
Strategisch ist es fuer AMD auch wichtig mit den Weg zu bestimmen wie AI im Desktop funktioniert (wie war es doch gleich -> Entwickler, Entwickler).
Frag das mal diejenigen die z.B. zum zocken die E-Cores abschalten um mehr FPS rauszudrücken oder wo SMT/HTT abgeschaltet wird damit was gleichmäßiger läuft. Beides wäre überflüssig wenn z.B. die Threadverwaltung durch das Betriebssystem einwandfrei arbeiten würde.

Auch lechzt wohl kaum der (Desktop) Markt danach sondern die Hersteller weil sich so billig die Multithreadingleistung des Prozessors im Teillastbereich aufblasen läßt, eben weil der Löwenanteil der Software dazu nur unzureichend fähig ist und nur einen Bruchteil der Kerne/Threads nutzen kann.

Gerade diese Ausnutzung der Unzulänglichkeiten der Desktop Welt wollte Intel bei Arrow-Lake wohl noch weiter ausnutzen indem man SMT gegen das Aufblasen der E-Cores tauscht. hat dabei aber offenbar die Unzulänglichkeiten der Software aus den Augen verloren, wodurch das beim Release ein Schuss ins Knie wurde, vermutlich auch weil er auch sonst erheblich vom bisherigen Design abweicht.

Mich würde jedenfalls nicht wundern wenn sich vor allem dessen Spieleleistung in den kommenden Monaten durch Software Updates deutlich verbessern würde, eben weil das neue Design erstmal beigebracht werden muss.
 
Frag das mal diejenigen die z.B. zum zocken die E-Cores abschalten um mehr FPS rauszudrücken oder wo SMT/HTT abgeschaltet wird damit was gleichmäßiger läuft. Beides wäre überflüssig wenn z.B. die Threadverwaltung durch das Betriebssystem einwandfrei arbeiten würde.
Dann frag Dich mal, ob alle CPUs nur zum (Spitzen)Gaming genutzt werden. Die Gaming Elite ist eine Randgruppe, was die konkrete Absatzvolumen angeht,

Auch lechzt wohl kaum der (Desktop) Markt danach sondern die Hersteller weil sich so billig die Multithreadingleistung des Prozessors im Teillastbereich aufblasen läßt, eben weil der Löwenanteil der Software dazu nur unzureichend fähig ist und nur einen Bruchteil der Kerne/Threads nutzen kann.
Das verstehe ich nicht. Du meinst damit die E-Cores, die in der absoluten Leistungsspitze nichts leisten koennen und dann eher schaden z.B. im Gaming?

Dass Software eigentlich immer hinterhaengt ist nicht neues und ein leidiges Thema und wird es noch lange sein.
Sollte die deutliche Threadreduzierung von Intel hier helfen koennen?

Der Sinn der vielen E-Cores bei Intel erschliesst sich mir ebenfalls nicht (16! - Really?).
Wo werden sie wirklich sinnvoll genutzt im Alltag? Was sparen sie ein (ausser Die Flaeche)?
Verbessern sie im Layout die Verteilung von Hotspots?

AMDs Konzept mit den C-Varianten gefaellt mir besser, auch wenn sie riesig im Vergleich zu Intels E-Core sind (AMD-C Cores nur ca. 25% kleiner als die fullsize Variante AFAIK, Intels E-Core dagegen weniger als <50% im Vergleich zum P-Core).

Sie aehneln gerade bei Arrow Lake immer mehr den dicken P-Core (und umgekehrt --> HT entfaellt), was dem moeglichen Spareffekt wieder vielleicht etwas abtraeglich sein kann.

Ich denke, dass E-Cores eher aus der (Notebook)Not geboren wurden (und ARM machte es vor); denn auch Intel musste einsehen, dass sie mit Verbraeuchen unter Last nicht mehr so weiter machen konnten und in einer Sackgasse landen (Intels kleiner Bulldozer Moment ;-) ).

Gruss,
TNT
 
Zuletzt bearbeitet:
Dann frag Dich mal, ob alle CPUs nur zum (Spitzen)Gaming genutzt werden. Die Gaming Elite ist eine Randgruppe, was die konkrete Absatzvolumen angeht,
Warum sollte man einen Prozessor mit mehr Kernen kaufen als die genutzte Software effektiv nutzen kann, wodurch die Asymetrie ja erst zum Problem wird?
Weil kaum jemand weiß wieviele genutzt werden und es noch weniger interessiert.

Der Sinn der E-Cores ist für Intel ziemlich einfach, möglichst viel Multithreadingleistung auf die Chipfläche bringen. Die sind zwar langsamer als die P-Cores benötigen aber nur einen Bruchteil von deren Chipfläche. Im besten Fall decken die P-Cores die Multithreading Krücken ab...sofern das Threadmanagement mitspielt und die Last korrekt zuordnet. Im schlechtesten Fall landet sie auf den E-Cores und die Leistung bleibt auf der Strecke und genau danach schaut es für mich bei Arrow-Lake aus denn die schlechten Ergebnisse bei Spielen passen weder zu den Singlecore, noch zu den Multicore Benchmarks.
 

Klingt gar nicht gut fuer die Plattform. Da wirkt Chips and Cheese wirklich enttaeuscht und irgendwie frustriert.
Mhmhm. Wirklich so bad?

Aber man muss Mircrosoft es schon lassen mit Windows 11 24H2 stellen sie den neuen CPU Generationen doch schneller ein Bein als eine Windows Maschine booten kann.

Gruss,
TNT
 
Zuletzt bearbeitet:
AMD hat mit X3D schon einen ordentlichen Vorsprung bei Games. Allerdings sehe ich in der letzten Zeit einen starken Trend zu 4k und da hat man normalerweise einen starken Bottleneck bei der GPU und da wirds in nächster Zeit auch keine ordentlichen Sprünge nach vorne geben. Das heisst für Gaming sind die CPUs doch eh schon alle schnell genug aber bei so Sachen wie Videobearbeitung sollen die Intel echt gut sein.
 
AMD hat mit X3D schon einen ordentlichen Vorsprung bei Games. Allerdings sehe ich in der letzten Zeit einen starken Trend zu 4k und da hat man normalerweise einen starken Bottleneck bei der GPU
Nun ja, sicherlich steigen durch die höhere Auflösung die Ansprüche an die GPU deutlich allerdings hat man den Effekt auch bei kleineren Auflösungen mit einer langsameren Grafikkarte. Das ist an und für sich also absolut nichts neues.
Interessant wäre allerdings gewesen wie er mit deutlich mehr L3 Cache abgeschnitten hätte, womöglich anstatt des vergrößerten L2 Cache, durch den auch die gestiegene RAM Latenz entschärft worden wäre. Das hatte ja bereitsbei AMD Wunder bewirkt. Die Frage wäre natürlich wie stark er dafür wachsen müßte bis sich eine weitere Vergrößerung nicht mehr rentiert. Es müssen ja nicht gleich 96 MB wie mit AMDs Stapel Cache sein.
 
allerdings hat man den Effekt auch bei kleineren Auflösungen mit einer langsameren Grafikkarte.
eigentlich nein. Nur bei sehr hohen fps und niedriger Auflösung limitiert die CPU. Aber wer spielt denn zb in 1080p auf einer 4090?
Ich habe noch kein modernes Build gesehen wo die CPU bei Games limitieren würde.
FS 2020 - da is gefühlt alles ein Bottleneck... *chatt*
 
eigentlich nein. Nur bei sehr hohen fps und niedriger Auflösung limitiert die CPU. Aber wer spielt denn zb in 1080p auf einer 4090?
Schon denn ob man nun z.B. mit einer 4090 @UHD Spielt oder das gleiche Spiel mit den sonst gleichen Grafikeinstellungen mit einer 4070/4060Ti @FullHD ist für die CPU Last weitestgehend egal. In beiden Fällen wird das Spiel aufgrund der ca. gleichen Framerate im gleichen GPU Limit landen weil die CPU ganz einfach nicht mehr Rohmaterial liefern muss.

An sonsten dürften es gerade die FPS Junkies sein welche die Grafikeinstellungen auf ein Minimum reduzieren und damit entsprechend wenig Last auf die Grafikkarte geben, was zwangsläufig im CPU Limit endet.

Es hängt also weniger von der Auflösung als vielmehr von den gewählten Grafikeinstellungen und der verbauten Hardware Config ab.
 
Intel murkst irgendwelche Konzepte zusammen ohne dass ein Mehrwert erkennbar wäre. Das bemerken auch weniger technisch Versierte.

Es gibt keinerlei Bericht über den Vorteil der nur mit diesen E-Cores möglich wäre. Probleme damit aber schon. ZENc ist einfacher und ohne Probleme.
Die Zumutungen von Intel in der ISA und deren Zergliederung der Produktpalette muss niemand mehr ertragen, dafür gibt es heute genug Alternativen.
2-3 Generationen wird Intel vermutlich noch brauchen die Strategiefehler zu korrigieren. Mal sehen wie das mit Client-AI am Ende ausgeht…
 
Zurück
Oben Unten