Core-Technologien: die Konzepte von CPU-Cores: big or small, mit Multithreading oder ohne etc.

Na wenn die, die den bisherigen Blödsinn programmiert haben, nun die A.I. programmieren dann kommt da auch nix bei raus.
 
@Pinnacle Ridge
Weil es vermutlich ziemlich egal ist wenn sich die Kerne ähnlich genug sind und der Sheduler nicht annimmt das sie gleich wären. In dem Fall zählen dann andere Schwerpunkte.

@Casi030
Ein Programm kann nur so viele Kerne nutzen wie es unterstützt, vollkommen egal wieviele Kerne vorhanden sind und genutzt werden könnten.
Man kann es über alle Kerne jagen um aufgrund des angezeigten Durchschnittswertes der Kerne den Eindruck zu erwecken das es mehr wären aber am Ende bleibt die Gesammtauslastung über alle (virtuellen) Kerne hinweg dennoch gleich.
Teilt man also die Gesammtauslastung des Programms vom Prozessor durch die Anzahl der (virtuellen) Kerne bekommt man bei einer halbwegs symetrischen Lastverteilung des Programms recht schnell mit wieviele es wirklich nutzen kann. Sind mehr Kerne vorhanden sind die sozusagen "Reserve" für andere Programme aber für das besagte Programm nutzlos.
Der OS Sheduler bzw. der Kernel wird nun mit A.I Fähigkeiten ausgestattet.
Die A.I. entscheidet welcher Weg die geringste Latenz erzeugt.

Hoffen wir mal die A.I. agiert im Cache und nicht im RAM. ;)
Hoffen wir lieber mal das nicht alles so verbastelt wird das nur noch Intel sauber damit läuft.;)
Sauber laufen, ist auch so eine Verallgemeinerung.

Ich kann auch mit 2L Rot-Wein noch sauber laufen, das verfälscht meine Ethik Char kein bischen.

..
 
Ich hatte noch im Kopf, dass man auf mobilen Geräten "Race to Idle" macht, das heisst man lässt die CPU mit hohem Takt die aktuelle Arbeit erledigen, damit man nachher die Funktionseinheiten schlafen legen kann. Das war zumindest früher energiesparender, als die CPU mit reduziertem Takt länger rechnen zu lassen. Ob die langsameren, kleinen Kerne das jetzt effizienter machen, muss sich zeigen. Einfacher wird das sicher nicht, wenn sich der Scheduler vom OS und irgendwelche Sonderfunktionen in der CPU darüber einig werden müssen, wo man jetzt bitte welchen Prozess für maximale Leistung bzw. Energieersparnis hinverschiebt.

Das Intel ausgerechnet auf dem Desktop mit dem big-little-Konzept Energie sparen will, finde ich irgendwie lustig, immerhin haben sie früher bei den Desktop-Atoms extra das Powermanagement deaktiviert, damit man nicht die günstigeren Desktop-Chips in Netbooks verlötet hat. Andererseits werden auch die grossen Desktop-Kunden (HP, Dell, Fujitsu, Lenovo.....) nicht beliebig hitzköpfige CPUs akzeptieren, immerhin treibt das die Kosten fürs Gesamtsystem (Kühlung, Netzteil), und deren Endkunden sind vermutlich auch nicht glücklich, wenn die Rechner laut und energiehungrig sind. Insbesondere dann nicht, wenn man eine klimatisiertes Büro damit vollstellt (Ich habe das selber zu P4-Zeiten erlebt, es war nur im Winter angenehm, aber nicht im Sommer :-) ).
Zudem werden die Office-Rechner tendenziell eher kleiner (gibt immer seltener ein optisches Laufwerk, Grafik ist meist onbord, die Festplatten sind von 3.5" auf eine SSD geschrumpft), da lassen sich 150W TDP nicht mehr leise und günstig mit einem stranggepressten Alu-Kühlkörper im Luftstrom vom Systemlüfter kühlen.

Ich unterstelle Intel bei dem Konzept aber auch Marketing, weil sie so bei gleicher Fläche und TDP (Dort haben sie ja auch wieder fleissig hochgedreht) mehr Cores verkaufen können. Apple hat zwar ein vergleichbares Konzept, allerdings bei einem Chip, der seine Wurzeln im mobilen Sektor hat, und auch weiterhin in Notebook verbaut wird. Und bei den performanteren CPUs haben sie die Anzahl der kleinen Cores reduziert, und mehr grosse verbaut.

Noch was zum beobachteten "Hin und her-Jagen" von laufenden Programmen über die Cores. Ich glaube mich daran zu erinnern, dass man das aus Performance-Gründen macht, um den Turbo maximal auszunutzen (Ausnutzung der thermischen Trägheit des Gesamtsystems).
 
Noch was zum beobachteten "Hin und her-Jagen" von laufenden Programmen über die Cores. Ich glaube mich daran zu erinnern, dass man das aus Performance-Gründen macht, um den Turbo maximal auszunutzen (Ausnutzung der thermischen Trägheit des Gesamtsystems).
Gut möglich aber dann würde es eher nur die Temperaturverteilung im Chip sein da jeder Kern eine gewisse Zeit benötigt um auf Temperatur zu kommen. Gerade bei Singlecore Lasten wo die Kerne durch den höheren Takt besonders viel Strom verbraten kann diese Ausnutzung von Aufwärm- und Abkühlzeiten ein relevanter Faktor sein. Zu schnell sollte es aber auch nicht sein denn dann könnte das ständige Verschieben der Daten aufgrund der Latenzen und des erneuten Cache Aufbaus zu viel Leistung fressen.
 
Kann ich mir nur schwer vorstellen außer das Kühlsystem ist komplett unterdimensioniert oder defekt. Selbst unter Volllast laufen CPUs in der Regel nur in die Leistung- oder Strombegrenzung und nie ins Temperaturlimit.
Wenn da ein einzelner Kern boostet sollte die Temperatur wohl kaum höher ausfallen.

Außerdem hat man dann ja noch das Problem das nicht alle Kerne gleich hoch boosten können und ständig der eine thread auf schlechtere cores wechselt.

Bei meinem Zen3 sind die 3 besten Kerne entsprechend auch gekennzeichnet (im Ryzen master sichtbar) und werden normalerweise vom Schedular bevorzugt verwendet.
 
@tex_
Ganz im Gegenteil denn wie beim elektrischen Strom hat auch der Wärmefluss mit ihren jeweiligen Materialwiderständen zu kämpfen (elektr. Widerstand vs. Wärmeleitfähigkeit) und je konzentrierter die Wärme erzeugt wird desto schwieriger wird es diese schnell genug abzuleiten, Stichwort Hotspots. Auch benötigt ein Material immer eine gewisse Zeit um sich aufzuwärmen und abzukühlen.
Bis die Abwärme den Boden des Kühlers auch nur erreicht hat können ganz schnell Temperaturdifferenzen von 20/30 °C zwischen den Hotspots und der Chip Oberfläche entstehen gegen die der Kühler herzlich wenig machen kann. Kommt dann bei der normalen Luft/Wasser Kühlung auch noch die Temperaturdifferenz hinzu die man für die Abgabe der Wärme an die Umgebungsluft benötigt summiert sich da gut was zusammen.

Dieses Problem kann man beispielsweise bei den Threadrippern recht gut beobachten die bei singlecore Last gern mal deutlich wärmer werden als bei Vollast auf allen Kernen, obwohl erheblich weniger Strom verbraten und in Wärme umgesetzt wird. Der Turbo jagt den Takt des Kerns einfach so weit rauf das dieser ein vielvaches der Abwärme als bei der Vollast Taktfrequenz hat.

Komplexes Thema eben. ;)
 
Ja das Thema ist nicht ganz trivial. Aber selbst mit boost werden bei meinem 5900X die Kerne nicht sonderlich heiß. Auch nicht im Hotspot der ja durch zig Sensoren gemessen wird. Der Wärmewiderstand zum Kühler wird durch den Kernwechsel ja auch nicht minimiert nur die Trägheit der Erhitzung genutzt um gegebenfalls einen Kern aus der Überhitzung heraus zu bekommen.

Bei mir geht im Cinebench Single als Beispiel der CPU Energieverbrauch von 6 auf ca. 32W. Die Temperatur von 35 auf 60°C (höchste Temperatur im Prozessor). Die Begrenzung läge bei 90°C. Der Scheduler hält einen Kern immer für so ca. 20 Sekunden und wechselt dann auf den 2. besten sowie anschließend wieder zurück auf ersteren (beide Kerne sind im gleichen CCD). Ein manuelles festpinnen auf einen Kern ändert an der Temperatur und den Taktraten nichts.

Ein dauernder Kernwechsel ist also bei diesem Prozessor keinesfalls nötig und wurde von Windows 10 auch nicht durchgeführt. Andere Prozessoren mögen da hitzköpfiger sein. Solange man aber nicht ins Temperaturlimit rennt kosten die Kernwechsel nur Performance.
 
Und da das herzlich wenig mit Intels Core Prozessoren zu tuen hat setze ich die Diskussion per PM fort. ;)
 
So bin jetzt durch den CB-Artikel schonmal durch - als nächstes steht Igor an.
Bisher durchaus interessant - durchwachsen, aber das P & E-Core Konzept scheint so verkehrt nicht zu sein (auch wenn es sehr auf das Szenario ankommt).
Und auch der im Vorfeld vielgenannte Scheduler scheint so wild nicht zu sein, wenn er unter W11 offenbar recht gut funktioniert (laut Igor), aber unter W10 die Ergebnisse auch nicht schlechter sind.

Und wie (hier) erwartet: In Multi-Core ist der 5950X nicht erreichbar...

Für Intel wohl ein großer Schritt nach vorne, aber AMD liegt durchaus noch vorn mit "16 P-Cores" (mit Leistung & Effizienz)!
 
Das ganze verhält sich so wie es zu erwarten war.

Bessere Leistung und Verbrauch im Teillastbereich. es kann schnell zwischen P und E Core gewechselt werden und HTT kommt so gut wie nie zum Einsatz. Multi-Core halt nur über den Ineffizienten Takt.

Bin gespannt ob sich bei Boinc AL finden werden und wie da der Output ist.
 
Moin,

ich finde die Tests zum Teil etwas verwirrend die Strom Messungen von CB vs Igor sind irgendwie sehr Strange, der eine Misst über die CPU Stromanschlüsse die anderen das Gesamt System. Aber die Ergebnisse Finde ich sehr komisch unterschiedlich.
Dazu kommen dann so unschöne dinge wie DRM Probleme bei einigen Spielen die wohl bisher nur für Win11 gefixt werden sollen ...

Dann das GB 8Ghrz Desaster weil wohl durch einen Bug erzeugt aber nicht wirklich erreicht wenn man 8auer glauben schenkt.

lg
 
Nun hat AMD mit Zen4c einen eigenen efficiency Kern für Cloud Server vorgestellt. Bergamo mit diesen Kernen hat im Vergleich zu Genoa bis zu 128 statt 96 Kerne und soll eine höhere density und Effizienz bieten.

Ich bin Mal gespannt wie sich diese beiden Kerne differenzieren. Gegebenfalls hat der 4c eine kleinere FPU oder sie verwenden "einfach" andere Bibliotheken mit höherer Dichte/Effizienz aber geringerem Maximaltakt.
 
Nun hat AMD mit Zen4c einen eigenen efficiency Kern für Cloud Server vorgestellt. Bergamo mit diesen Kernen hat im Vergleich zu Genoa bis zu 128 statt 96 Kerne und soll eine höhere density und Effizienz bieten.

Ich bin Mal gespannt wie sich diese beiden Kerne differenzieren. Gegebenfalls hat der 4c eine kleinere FPU oder sie verwenden "einfach" andere Bibliotheken mit höherer Dichte/Effizienz aber geringerem Maximaltakt.

Da bin ich auch gespannt. Zen 4 Genoa ist als Samples bereits bei den Kunden und Bergamo kommt im ersten Halbjahr 2023.

AMD hat halt jetzt die Kohle solche Projekte anzugehen. Man kann wirklich gespannt sein, was uns das in den nächsten Jahren an Innovationen bringt.
 
Ich denke das sich ein solches Produkt eher an Produktnischen richtet die aufgrund geringer Anforderungen an die Rechenleistung des Kerns aber einer hohen Anzahl an gleichzeitig laufenden Abfragen auch von SMT4 profitieren könnten. So aber deutlich symetrischer in der Leistungsentfaltung.
 
Ich glaube AMD hat hier noch nicht alle Infos zu Zen4c bekannt gegeben. Ich glaube Zen4c ist das gleiche wie der Zen4D mit den gerüchteweisen 16 Cores pro Chiplet und etwas weniger L3 Cache.
 
@Ramius
Da glaube ich nicht so richtig dran weil die Chiplets dann meiner Meinung nach zu groß werden und mir auch kein zusätzlicher Einsatzbereich zur Verwertung der Chiplets einfällt. Stromsparmodelle könnten sich anbieten aber dafür wären 16 Kerne des Chiplets einfach zu viel. Auch könnte sich eine Reduzierung der Links zum IO Die negativ auf den Multithreading Schwerpunkt auswirken. Die Frage wäre eben ob das neue IO Die 16 Links für 8 Core Chiplets bereitstellen kann.
 
Wenn laut AMD Zen4 schon mehr als 2-mal so effizient wie Zen3 sein soll, dann darf man gespannt sein, wohin die Reise mit Zen4C geht.
Laut moors-law-is-dead sollen die auf Effizienz getrimmten Zen4-dense-Cores vor allem davon profitieren, dass sie in einem 5nm-Prozess von TSMC hergestellt werden, der im Gegensatz zum N5P nicht auf Takt, sondern auf Dichte und Effizienz optimiert ist => die Chiplets werden auch ohne Änderungen kleiner und sparsamer. Dann noch hier und da etwas weg sparen, Takt runter und schon bekommt man statt 96 dann 128 Cores unter.
 
Die These ist also ein mal ein CCX Chiplet mit 12 Cores und einmal eines mit 16 Cores für die Genoas.
Sicherlich lässt sich bei deutlich reduzierten L3 Cache ein drittel mehr Cores unterbringen, die weitestgehend identisch sind. Im Verhältnis sollte solch ein Chip weniger Spannung je Core erlauben.
Bei APUs hat man halben L3 bereits gesehen, der zusätzliche Aufwand für die Designteams könnte relativ gering sein.
 
@BavarianRealist
Nun ja, ein guter Teil davon dürfte wohl vom Schrumpfen kommen und IPC Verbesserungen kommen dann noch dazu. Was dann vom Verbrauchsfenster noch offen bleibt wird bereits durch die zusätzlichen Kerne belegt. Ich kann mir auch vorstellen das die abgespeckten Kerne auch im Befehlssatz beschnitten werden und weniger anbieten als die großen. War nicht malim Gespräch das Zen 4 AVX512 unterstützen könnte? Das wäre das allererste das ich bei den kleinen Kernen streichen würde. Da AMD nicht wie Intel auf das Big-little Prinzip zu setzen sondern beide Varianten in unterschiedlichen Produkten zum Einsatz zu kommen scheinen sehe ich das auch als vollkommen Problemlos an.
 
Ja, Zen4 wird AVX512 unterstützen. AVX512 bei den kleinen Kernen zu streichen ist zwar naheliegend, aber da Windows aktuell mit unterschiedlichen Befehlssätzen bei den Cores nicht klarkommt könnte man entweder einen Chip nur mit den großen Kernen bauen oder einen nur mit den kleinen Kernen, die Kerne mischen wie bei Zen5 angedacht, wäre dann blöde da die großen Kerne dann auch auf AVX512 verzichten müssten (siehe Alderlake).
 
@Ramius
Wie gesagt, da sehe ich überhaupt kein Problem da ich nicht erkennen kann das man auf das Big-little Prinzip wie bei Intel setzen will. Das sieht mir eher nach einem Einsatz in unterschiedlichen Produkten aus und nicht nach dem Einsatz bei der gleichzeitig im selben Produkt. Ähnlich zweigleisig war man ja bereits in der Vergangenheit gefahren, siehe Bobcat-, Jaguar- und Puma-Architektur zu Bulli Zeiten.
 
Die Chiplets sollen bei 8C bleiben.
da man bei Genoa die Dichte durch 5nm glatt verdoppeln will vermute ich eher, dass die Chiplets mit mehr Cores in etwa gleich gross bleiben. Vielleicht dann wieder mit Dual CCX und es bleibt bei 8 Cores pro CCX. Die Chiplet Grössen orientieren sich eher an kritischen Grössen für den Yield und die Spannungen. Hier würde ich keine Notwendigkeit für kleinere Chiplets sehen.
 
AVX512 wird Platz fressen, die sonstigen IPC Verbesserungen ebenfalls und der Cache dürfte ebenfalls wachsen. Eventuell könnten die Chiplets auch schrumpfen um mehr unter einen Deckel zu bekommen und die Yield zu maximieren. Die Preisfrage wäre dann natürlich wie groß dann die anderen Chiplets werden würden. *kopfkratz
 
Na ja, so abwegig halte ich die 16 Kerne für ein CCD nicht.

5700G mit 8 Core und 8 CU mit 65 Watt und bringt allCore immer noch die 3,8 GHz. Der Dice-Shott war schon beeindruckend. Saubere Arbeit. Die Frage ist für mich eher wie der L3 ausfällt.
 
Zurück
Oben Unten