AMD Kabini APU / Jaguar CPU + Graphics Core Next GPU, 2-4 Kerne, 28nm TSMC, 2013

Wenn es was zu tun gibt ist der entscheidende Faktor. Das ist beim Browsen und Texteditor eben nicht der Fall.

Aber selbstverständlich gibt es dabei was zu tun. Sonst würde kein Tastendruck ausgewertet, keine Mausbewegung überwacht, kein Bild gescrollt, kein Byte übertragen.

Dazu kommt noch das weder Dein Browser noch Dein Texteditor unter DOS laufen. Alle danach folgenden OS laufen im Multitasking und verbraten zu jedem Zeitpunkt eine unglaubliche Menge an CPU-Zyklen ohne das Du oder ich etwas davon bemerken oder das auch nur gut finden.

Idle ist ein Mythos aus vergangenen Zeiten, als Männer noch richtige Männer waren!
 
Seht euch doch einfach mal die Verteilung der Rechenzeit an. Da kommt erst der Leerlaufprozess, dann lange Zeit nichts und dann vielleicht etwas anderes
 
Aber selbst die Verteilung der Rechenzeit muss berechnet werden ;-). Das ist minimal im Verhältnis aber vorhanden, die CT hat mal die Akkuzeiten im Leerlauf zwischen Win und Linux verglichen, müssten ja gleich sein wenn absolut nichts passiert, ist aber natürlich nicht so ( OSX und Win geht natürlich auch ).
 
Seht euch doch einfach mal die Verteilung der Rechenzeit an. Da kommt erst der Leerlaufprozess, dann lange Zeit nichts und dann vielleicht etwas anderes
Jup. Deshalb ist es nicht unbedingt zutreffend, wenn jemand pauschal behauptet, Teillast oder Volllast wäre wichtiger als Idle. Dennoch sollte man sich darüber im Klaren sein, dass der Prozessor mit Last mehr Energie braucht als im Wartezustand. Egal welcher Takt anliegt, also auch mit Idle-Takt. Der Grund dafür wurde weiter vorne genannt, CMOS.
 
Zuletzt bearbeitet:
Einige Übersichten sind recht interessant.



So wenig scheint der Cache (hier L2 Controller) unter Idle doch nicht auszumachen, wie einige immer behaupten.




Sieht in der Theorie nach ~85% weniger Energie unter Idle für den Jaguar Kern aus. 15% mehr IPC und 25% weniger Energie für typische Anwendungen schaut nach ~50% besserer Effizienz aus. Nicht schlecht! Auch wenn es sich bezogen aufs gesamte Design wieder etwas relativieren wird, hier scheint AMD ein super Wurf gelungen zu sein. Ich nehme mal an, dass das wirklich nur die architektonischen Verbesserungen sind und Verbesserungen durch die 28 nm Fertigung noch hinzukommen.
 
...Sieht in der Theorie nach ~85% weniger Energie unter Idle für den Jaguar Kern aus. 15% mehr IPC und 25% weniger Energie für typische Anwendungen schaut nach ~50% besserer Effizienz aus. Nicht schlecht! Auch wenn es sich bezogen aufs gesamte Design wieder etwas relativieren wird, hier scheint AMD ein super Wurf gelungen zu sein...

Insbesondere, wenn man berücksichtigt, wie gut Brazos diesbezüglich schon ist. Ein solcher Fortschritt wäre schon gewaltig. Die Performance/Watt wird vor allem für bestimmte Server immer interessanter. Mit dem Jaguar-Core könnte AMD womöglich endlich mal wieder ein richtig gutes Produkt besitzen; hoffentlich!
 
Die Performance/Watt wird vor allem für bestimmte Server immer interessanter.
Für welche Server?
Für die die langsam sein sollen? Hm, wer braucht die?
Ich sah noch niemanden auf langsame Server umstellen, Du etwa?
 
Wozu dann ARM Server?

Wird zudem schon einen Grund haben, wenn Jaguar in Konsolen Verwendung findet/finden sollte.
 
gibt ja auch verschiedene servertypen
 
Für welche Server?
Für die die langsam sein sollen? Hm, wer braucht die?
Ich sah noch niemanden auf langsame Server umstellen, Du etwa?
Ich auch nicht, aber auf stromsparendere Server vielleicht?

Im Webcast sagte der AMDler gerade, dass 2014 ein ARM64+Seamicrochip von AMD kommt. x86 wird nicht eingestellt, aber wenn ich den Iren richtig verstanden hab, dann wäre ARM 1. Priorität ... aber ich warte da mal besser auf die Aufzeichnung und hör nochmal hin.

Bin schon froh, dass er gesagt hat, dass x86 für Server bleibt *suspect*
(Ich hoffe nur, dass er sich nicht nur auf nen Kabini-Opteron bezieht *lol* )
 
High Tech Konzern und eine Tonübertragung wie über Langwelle vor 100 Jahren :(
 
Ich auch nicht, aber auf stromsparendere Server vielleicht
Was nutzt das Stromsparende wenn es arschlahm ist?
Server sind Kisten die was leisten sollen und nicht stromsparen.
Zeit ist Geld und Geld verdient man mit Leistung und nicht mit stromsparen.

Wenn der Server nur idelt dann ist er fehl am Platz und kann gleich als ganzes eingespart werden, das bringt mehr.

Als nächstes bauen wir Elektrorasenmähermotoren in die F1 ein damit wir spritsparen *noahnung*
 
klar und ein F1 Triebwerk ins Auto, damit wir mal die Schallmauer auf der Autobahn knakken.
.
EDIT :
.

Bei Facebook und google braucht es halt keine High Performance Computer. Die brauchen massig Speicherplatz und Datendurchsatz. Da wird außer Adressen nichts berechnet.
 
Für nen kleinen Datenserver daheim reicht ja auch ein Atom oder steckste da nen i7 rein?
.
EDIT :
.

Wo bitte sind die Daten bei FB, Google, Amazoon etc gespeichert?
 
Für nen kleinen Datenserver daheim reicht ja auch ein Atom oder steckste da nen i7 rein?
Nein es reicht der Atom nicht und nein den tun ich nicht in meinem Server rein.
Da steckt ein Dualcore K8 drinnen der bei Raid5 von 10 Laufwerken durchaus auch mal auf 100% geht.
Das möchte ich nicht mit einem Atom durchmachen.
 
Da herrscht doch der größte Serverbedarf. Doch nicht die paar HPC Kisten in den Forschungscentern oder bei der Armi für Simulationsspiele.
.
EDIT :
.

@Opteron hab leider kaum was verstanden, mein English reicht da auch nicht weit.
 
Da steckt ein Dualcore K8 drinnen der bei Raid5 von 10 Laufwerken durchaus auch mal auf 100% geht. Das möchte ich nicht mit einem Atom durchmachen.
Je nachdem was für ein K8 erledigt das ein 4C-Atom gleichflott oder schneller bei einen Bruchteil der Leistungsaufnahme.
 
Je nachdem was für ein K8 erledigt das ein 4C-Atom gleichflott oder schneller bei einen Bruchteil der Leistungsaufnahme.
never ever, hab selber 2 atom nettops es gibt nichts lahmeres der schafft nichtmal gigabit ordentlich auszulasten.
Der Verbrauch der CPU ist im Vergleich zum Rest des Systems aber sowieso ein Geringfaktor der hier keine Rolle spielt,
und wird, wie immer total übertrieben.

Aber so genug OT von meiner Seite aus es geht hier um Jaguar, sorry
 
Was nutzt das Stromsparende wenn es arschlahm ist?
Naja, übertreib mal nicht. Jaguar ist kein Atom oder ARM. Je nach Workload rechne ich mit K10 Level pro Takt. Wird natürlich auch Szenarien geben, wo das SI limitiert.

Server sind Kisten die was leisten sollen und nicht stromsparen.
Kommt immer auf den Einsatzzweck an. Von diversen Leuten in der Branche hört man immer öfter, dass mittlerweile Sparsamkeit mehr Priorität als maximale Performance hat. Kann es sein, dass du Server mit HPC verwechselst? Nicht jeder Server ist automatisch HPC.


Bei Facebook und google braucht es halt keine High Performance Computer. Die brauchen massig Speicherplatz und Datendurchsatz. Da wird außer Adressen nichts berechnet.
Eben. Die meisten Server sind heutzutage doch Datenhuren mit massig RAM und HDDs/SSDs und weniger Rechenknechte. Mal davon abgesehen ist bei vielen Servern das Ansprechverhalten entscheidender als Rohleistung.
 
Da ihr schon beim Thema Server seid:
Ideen/Speku wie mögliche Server-Chips auf Jaguar-Basis aussehen würden?
Ein Ringbus wie bei Intel ist bei AMD vermutlich nicht geplant (?).

Wie interessant (Fläche/Performance) wäre denn ein 4x4 Core Jaguar Chip, mit sagen wir 4x2 MB L2 und 8 MB L3?
 
Braucht es vermutlich nicht einmal. Wenn, dann rechne ich damit, dass das Teil "nur" in den Seamicroserver kommt und da ist sowieso nur alles mit PCIe angebunden. Von den Dual-Core Atoms waren 8 Stück mit je 8,5W TDP auf einer Karte, da reicht dann auch für 4 Kabinis mit je ~17W.

Man könnte sich jetzt noch 4 Kabini Quad-Module mit Quad-Channel für den G34-Nachfolger vorstellen, wäre sicherlich auch ne interessante Sache, aber wirds wohl eher nicht geben. Davon hätte man schon hören müssen.
 
Zurück
Oben Unten