Was kommt (nach den ersten Deneb (K10.5+)) fuer den Desktop bis zum Launch der BD(APUs)?



Die haben nur Anand als Quelle -> keine neuen Infos

Was soll eigentlich die Sockeldiskussion da? Ist doch völlig klar, dass der Llano nen neuen Sockel braucht. Hat aber ja nichts mit dem BD zu tun. Und was sollen die ständigen Verweise auf Intel? Was ist das ne News oder ein Aufsatz über die Vor- und Nachteile des Technologiekatalogs der beiden x86 Hersteller? Bis aufs Power Gating geht der Autor praktisch nicht auf den Inhalt der Präsentation ein. Achja Germanium wird auch von AMD bereits seit Jahren eingesetzt (ab 90 nm Prozess). Man da könnte ich mich aufregen .... 8-(

gaaaaanz ruhig ...



Zum Thema Llano und bekanntgegebene technische Daten:

K10 Kern runderneuert:

8.jpg

3.jpg

Dürfte recht klar sein, dass sich die Angaben zur Leistungsaufnahme und Taktfrequenz nur dem spezifizierten Bereich entsprechen, den man bei der Entwicklung im Lastenheft stehen hatte. Was das dann für das fertige Endprodukt bedeutet? *noahnung* Es wird aber sicher keine Llano Version geben, bei der alle Kerne gleichzeitig mit 1,3 V und 25 Watt betrieben werden. Dieser Zustand wird sicher nur @max-nitrogen-injection (wie Ge0rgy so schön schrieb) für einen einzelnen Kern erreicht. Dementsprechend macht es auch keinen Sinn die 25 Watt mal 4 zu rechnen. Im großen und ganzen ein runderneuerter K10 Kern, der aufs Stromsparen getrimmt wurde.


Power Gating

6.jpg

Da steht ja nirgendwo was von erster Generation, wäre also ein Einsatz bereits beim Thuban denkbar? Oder würde sich eine Implementierung bei 45 nm so stark unterscheiden? Ich kann die technische Herausforderung da nicht wirklich abschätzen.


Digital APM Modul

4.jpg

Wenn die Daten dazu nur ansatzweise stimmen sollten, ist das für mich die größte Innovation von den vorgestellten Technologien. Endlich genaue Messungen der Temperaturen. Je genauer ich den Ist-Zustand messen kann, um so feiner kann das Powermanagement regeln. Auch hier die Frage, könnte dieses Feature in abgespeckter Version bereits in Thuban (irgendeine Funktionseinheit muss ja den Turbo regeln) und Lisbon schlummern? Oder hängt ein solches Feature zu stark vom Prozess ab? Gerade bei den Sensoren wird das wohl nicht so einfach zu portieren sein.


Power aware clock grid design

2.jpg

1.jpg

Könnte mal einer der Wissenden dazu eine Abschätzung abgeben, wie groß der Effekt auf die Leistungsaufnahme des Die ist? Die Zahlen hören sich ja erstmal ziemlich imposant an, aber wie groß ist die Wirkung wirklich? Auch hier die Frage nach der Übertragbarkeit, Könnte man die gleiche Vernetzung auch bei den neuen Steppings im 45 nm Prozess verwenden, oder sind die nötigen Umbauten und Entwicklungsaufwendungen zu groß?


Ich stelle mir die 45 nm Frage auch mit Blick auf die noch vorzustellenden mobilen 45 nm Produkte, die von derartigen Technologien sicher stark profitieren würden. Auch hier wäre ja eine Einführung des Turbos wünschenswert. Aber das ist dann wohl alles mehr Wunschdenken meinerseits. Beim Power Gating hat AMD echt gepennt!


7.jpg

MfG @
.
EDIT :
.

noch was zum Power Gating:


Bei Intel wird ja der Zustand der Kerne in den L3-Cache geschrieben, bevor sie samt L2-Cache vom Netz genommen werden. Bei den Westmere soll es ja einen extra Speicherbereich geben (nicht der L3 Cache) wo des Zustand gespeichert wird, um so das Ab- und Anschalten der Kerne zu Beschleunigen und den L3 ebenfalls vom Netz nehmen zu können.

Da bin ich mal gespannt wie das von AMD umgesetzt wird. Werden also die L2-Caches nicht vom Netz genommen, oder wird es auch hier einen eigenen Speicherbereich geben? Ein L3-Cache steht ja nicht zur Verfügung.


Das Taktverteilnetz (Clock-Grid) von Llano wurde neu konstruiert und layoutet. Das Clock-Grid allein beansprucht laut AMD oft bis zu 30 Prozent des gesamten Energiebudgets. Mit 50 Prozent weniger Taktpuffern und mehrstufigem Clock-Gating drückt Llano den Verbrauchsanteil des Clock-Grids auf 8 Prozent. Die meisten Hochleistungsprozessoren überwachen die Betriebstemperatur durch ein Netz von Wärmesensoren und regeln bei Erhitzung Takt und Spannung ab. Je nach Umgebungstemperatur können diese analogen Methoden aber Testprofile verfälschen und potenziell den Chip abbremsen, bevor er ins Schwitzen gerät, argwöhnt man bei AMD. Der Llano hingegen überwacht schweißtreibende Aktivitäten "digital", nämlich anhand von Signalen, die statistisch besonders häufig zu erhöhtem Energieverbrauch führen. Über 90 Signale von verschiedenen Bereichen des Chips werden dabei ausgewertet, unter anderem die Zahl von Integer-Operationen oder Verzweigungsvorhersagefehler (Branch Prediction).
Quelle
 
Zuletzt bearbeitet:
Wo steht da denn was von idle ? Vielleicht sind das die üblichen TDP Angaben, die wären dann aber unter Last ...

http://www.amd.com/us-en/assets/content_type/white_papers_and_tech_docs/30430.pdf
Seite 78 -> Min P-State 800MHz 0.9V 7.9W
Gehe mal davon aus, dass es einem Prozessor, der mit 800Mhz getaktet ist relativ egal ist, ob er mit Primzahlenberechnung rumhantiert, oder ob er gerade ein Wordpad offen hat.

Ausserdem ist es ja so, dass der am höchsten getaktete Kern vorgibt welche Spannung anliegt - und zwar für alle Prozessoren. Da kann es dann auch mal vorkommen, dass der mit 1.3V und 800MHz laufen muss.

Zukünftig ist das egal, weil man sie ja stromlos schalten kann ..... endlich
 
@Digital APM Modul
Da habe ich wohl was verpasst. Kann mich bitte jemand auf den heutigen Stand der Dinge bringen, bzw. mir einen Link geben?

APM stand für mich immer für Advanced Precision Manufacturing und bezog sich darauf, im laufenden Fertigungsverfahren schon erste Prozessoreigenschaften durchzumessen, um entsprechend darauf reagieren zu können.

Jetzt soll es etwas mit den Temperatursensoren im laufenden Betrieb zu tun haben? *noahnung*
MfG
 
gaaaaanz ruhig ...

Genau Dr@, ganz ruhig!
CB haben doch immer einen faden Intel-Beigeschmack. Man wird ja auch nicht gegen die breite Masse schreiben, wenn man eben Diese ansprechen will, Richtig?
Es würde mich eher Verwundern, wenn eine AMD- oder ATI-News neutraler wäre.
Intel- oder NV-News lesen sich eben runder und schöner und erfreuen den User und den Moderator.

Als AMD-Befürworter einfach diese Seite meiden und niemals im Forum lesen! :-[

Greets Lehmann
 
@Woerns:
Auf meinem Blog findest du einige Links u. auch schon einen schnellen Core-Vergleich mit Regor.

Auf Anandtech gibts z.B. die Slides.

APM heißt neben AMD's Abkürzung aber auch noch "Advanced Power Management", demnächst sogar "Application Power Management".
 
Danke Matthias,

ich sollte doch öfters in Deinen Blog schauen. :)
MfG
 
Bekommen Bulldozer und Bobcat eigentlich auch gleich GPU-Anteile dazu oder erstmal nicht? Bei Bulldozer wäre es ja eher überflüssig, da er wohl meist mit dicken Grafikkarten gekoppelt wird, aber Bobcat als kleine mobile-CPU würde sich doch gut machen mit integrierter Grafik, oder?
 
Ontario (die erste auf Bobcat basierende CPU, Bobcat selbst ist ja nur ein Design-Name) ist AFAIK in den Roadmaps als APU gekennzeichnet, wird also wohl auch etwas GPUiges haben
 
25W verbraten kann jedenfalls ein aktueller 45nm-non-HKMG K10.5 Kern schon bei 3Ghz.
Nicht wirklich. Ein K10.5 Kern bei 3 GHz und 1,3 V braucht weniger als 20 W. Das ergeben zumindest meine Messungen.

Ich denke, die 25 W TDP für einen Kern ist hier einfach sehr konservativ angegeben, um auch genügend Spielraum nach oben zu haben (spätere Takterhöhungen oder Turbo). Das heisst doch nicht viel mehr, als dass ein Llano Kern bis 25 W im Rahmen seiner Spezifikationen stabil arbeiten kann und dabei mehr als 3 GHz schafft. Für 4 Llano Kerne bei 3 GHz reicht sicherlich schon eine TDP von 65 W TDP (siehe X4 910e als Maszstab). Blieben noch 30 W für die GPU, um das ganze Paket in vernünftige 95 W TDP zu pressen.
 
Kommt drauf an was man erreichen mag...
eine 30W GPU wird gut sein um die angestaubte IGP zu ersetzen die sich sonst in Chipsätzen findet, aber eine große Steigerung wird das eher nicht...
Wenn die Verbesserungen beim 32nm-Prozess wirklich so groß sind, sollten 4x3Ghz keine 65W verbraten, ohne L3-Cache wohlgemerkt, dem Wert kommen aktuelle Propus-Kerne schon zu nahe, und die haben noch weder 32nm noch HKMG. Jedes Watt dass die x86-Kerne iensparen können die GPU-Kerne mehr verbraten, d.h. man kann mehr davon draufpacken.
Die Anforderungen werden ja auch nicht weniger, größere Bildschirme, höhere Video-Auflösungen, aufwendigere Mechanismen zur Gängelung zahlender Kunden (aka. "Kopierschutz") usw.
Ich bin jedenfalls gespannt... ;)
 
Eine 30W GPU ist keine Steigerung? Die aktuelle Onboard-Grafik verbraucht imho 4W, mit 30W allein für die GPU käme man irgendwo Richtung Redwood mit 400Shadern, UVD und allem Schnickschnack (immerhin ist ja noch ein Fertigungssprung dazwischen). Es ist jedenfalls Spielraum für eine nicht ganz schwache GPU vorhanden, auch wenn man diese rein spekulativen 30W nicht ausreizt.
 
@Ge0rgy

gruffi hat doch schon eine plausible Lösung der 25W gegeben, vielleicht wird es einen Turbo geben der @1,3V die 5- 6Ghz läuft @ 1Core. Der Rest @ 0W ergibt dann 25W für den Core und somit für die CPU auch ~25W ;)

Ich würde mich jeden falls nicht an den 25W aufhängen, und eher den anderen Zahlen mehr Bedeutung / glauben schenken.

Viel interessanter sind für mich die 2,5W das ist dann wohl @ 800Mhz @0,8V, da wäre etwas um die 1W wünschenswert.
.
EDIT :
.

Eine 30W GPU ist keine Steigerung? Die aktuelle Onboard-Grafik verbraucht imho 4W, mit 30W allein für die GPU käme man irgendwo Richtung Redwood mit 400Shadern, UVD und allem Schnickschnack (immerhin ist ja noch ein Fertigungssprung dazwischen). Es ist jedenfalls Spielraum für eine nicht ganz schwache GPU vorhanden, auch wenn man diese rein spekulativen 30W nicht ausreizt.

Ich sehe das genauso und befürchte das ein großer Flaschenhals bei der Speicheranbindung entsteht, ein QuadChannel wäre da wohl nice.
 
Ich sehe das genauso und befürchte das ein großer Flaschenhals bei der Speicheranbindung entsteht, ein QuadChannel wäre da wohl nice.

Heißt es nicht explicit, dass Llano nur für OEMs zu haben sein soll?
Warum dann für Llano-System nicht das Gleiche tun, wie es AMD für seine RV7xx-GPUs eingeführt hat: auf eine neue Speichertechnologie zu setzen (damals GDDR5).
Ähnlich den aktuellen GPUs dürfte auch der Ram-Controller von Llano diverse Speicherarten ansprechen können: DDR3, GDDR3/5 etc.
Warum für Systeme, welche auch mit guter Grafik-Leistung protzen wollen, nicht einfach GDDR3/5-Speicher einsetzen? Wenn heute €50-Grakas schon 1GB-GDDR5-Ram drauf haben, dann wird in 2011 der Mehrpreis für 4GB-GDDR3/5 wohl auch nur noch sehr gering sein. So wie heute die Graka-Hersteller das Grafik-Ram frei wählen können, könnten womöglich dann auch die OEMd im Falle der teureren Quadcore-Llanos evtl. ebenfalls das Ram dann frei wählen. Das Zeug wird dann vermultich ebenfalls wie bei den Grakas aufgelötet, da braucht keiner irgendwelche Speicher-Riegel mehr.
 
... Warum dann für Llano-System nicht das Gleiche tun, wie es AMD für seine RV7xx-GPUs eingeführt hat: auf eine neue Speichertechnologie zu setzen (damals GDDR5). ...
Schmink dir GDDR5 bitte ab.

Dass Grafikspeicher so hoch getaktet wird, das liegt auch daran, dass alles auf ein PCB gelötet wird. System-RAM hingegen wird üblicherweise mit Steckslots bestückt und kann daher nicht so ideal verbunden werden -> Geringere Taktfrequenzen.

Darüber hinaus wäre es unüblich auf billigen zusteckbaren RAM zu verzichten zugunsten von womöglich proprietären neuen Speicher. DDR3 ist der geplante Standard für 2010 und 2011. Sogar Intels "neuer" Itanium "Tukwila" wurde wegen DDR3 nochmals umgestrickt, weil DDR3 mehr Aussichten hat als FB-DIMMs.

Auch andere Chips und Prozessoren werden meistenteils für DDR2 und/oder DDR3 entworfen. IBMs neuer Power7 wie auch Fujitsus geplanter High-End SPARC wird DDR3-Interfaces besitzen.

Mag sein, dass AMDs Llano womöglich einen Kanal für GDDR5 bereithält, damit OEMs GDRR5 gleich aufs Board leimen ... aber auch das ist recht unüblich und frisst Platz.
Ob AMD tatsächlich die Eier hat einen neuen Speicherstandard aus der Taufe zu heben, damit Mittelklasse-Enthusiasten gegebenfalls eigenständige GDDR5-Module nachrüsten? Unwahrscheinlich, zumal dann Steckmodule, anstatt aufgelöteter Speicherchips, die maximale Taktfrequenz nach unten ziehen.

MFG Bobo(2010)
 
Heißt es nicht explicit, dass Llano nur für OEMs zu haben sein soll?

Warum für Systeme, welche auch mit guter Grafik-Leistung protzen wollen, nicht einfach GDDR3/5-Speicher einsetzen? Wenn heute €50-Grakas schon 1GB-GDDR5-Ram drauf haben, dann wird in 2011 der Mehrpreis für 4GB-GDDR3/5 wohl auch nur noch sehr gering sein.
AMD steht hier voll im Zweispalt. Eigentlich sollte ja die $50 Grakas durch Fusion überflüssig werden und AMD damit die $50 selbst für den Chip einstecken können.
Andererseits könnten OEMs und Kunden weiterhin hartnäckig danach fragen.

Ein simpler Kompromiss wäre Triple-Core OHNE GDDR5 und Quad MIT. Wobei da eher nur 64 Bit Interface denkbar erscheint.
 
AMD steht hier voll im Zweispalt. Eigentlich sollte ja die $50 Grakas durch Fusion überflüssig werden und AMD damit die $50 selbst für den Chip einstecken können.
Andererseits könnten OEMs und Kunden weiterhin hartnäckig danach fragen.

Ein simpler Kompromiss wäre Triple-Core OHNE GDDR5 und Quad MIT. Wobei da eher nur 64 Bit Interface denkbar erscheint.

und wie soll man das machen? ich glaube trotzdem auch, dass sich gddr5 auch für den 4-kern nicht lohnt, da er nur in der unter-mittelklasse eingesetzt werden soll und dafür lohnt sich gddr5.
 
und wie soll man das machen?
ich glaube trotzdem auch, dass sich gddr5 auch für den 4-kern nicht lohnt, da er nur in der unter-mittelklasse eingesetzt werden soll und dafür lohnt sich gddr5.
Einfach das GDDR5 RAM mit auf den Träger auflöten ... ähnlich zu Modulen für Notebooks welche GPU-Schaltung und RAM zugleich enthalten.

Ansonsten kaufen die OEMs eben CPU plus exeterne $50 Grafikkarte. Und drücken AMD im Preis wg. zwei Komponenten.

Und 15-25 Watt einer GPU einfach noch CPU-Kühler wegbringen macht schon Sinn und dann kann trotzdem die Performance einer separaten $50 Grafikkarte einfordern.
Außerdem nimmt sich die GPU doch deutlich DRAM-Bandbreite selbst wenn 128 Bit DDR3 eher üppig zunächst erscheint-
 
Ansonsten kaufen die OEMs eben CPU plus exeterne $50 Grafikkarte. Und drücken AMD im Preis wg. zwei Komponenten.

Und 15-25 Watt einer GPU einfach noch CPU-Kühler wegbringen macht schon Sinn und dann kann trotzdem die Performance einer separaten $50 Grafikkarte einfordern.
Außerdem nimmt sich die GPU doch deutlich DRAM-Bandbreite selbst wenn 128 Bit DDR3 eher üppig zunächst erscheint-

Solang die OEMs Platz haben, können sie das machen. Aber es zählen nicht nur diese Kosten, sondern z.B. auch Einbau, Designkomplexität, zusätzliche Bauteile,.. und natürlich Platz und Kühlung.

Naja, zur Leistungseinschätzung wissen wir auch noch nicht alle Details. Und DDR3-1333 brächte doch schon 21 GB/s.
 
JFs Kommentar zu seiner früheren Angabe zum Launch des Interlagos:

JF schrieb:
I think this is a misunderstanding. I meant that in the 2nd half of the year we would provide more granularity to our partners, not that we would be shipping in the second half of the year.
Quelle

zur Erinnerung:

JF schrieb:
No, my internal date for Interlagos has not changed at all; internally we have been driving to the same time frame for quite some time. We had been telling the world 2011 for a while, and now that we are within a certain window, we give a half year granularity that is 2nd half.

If that causes people to who assumed first half to think we slipped it, I can't control that. I know that we haven't said Interlagos in first half, previously it has only been "2011".
Quelle

Kann mir jemand den Unterschied erklären? ;D

Wenn die Dinger in 2011 auf den Markt kommen sollen und er erst im zweiten Halbjahr Details bekannt geben will, dann ist der Launch in H2 2010. *suspect*



MfG @
 
Naja, zur Leistungseinschätzung wissen wir auch noch nicht alle Details. Und DDR3-1333 brächte doch schon 21 GB/s.
Wir haben 2011ff. mit Desktop - Bildschirmen der HDTV-Klasse im Budget-Segment zu rechnen.

Und heutige Einsteiger GPUs wie HD 54x0 liegen alleine schon zwischen 13-25 GB/s - http://de.wikipedia.org/wiki/ATI-Mobility-Radeon-HD-5000-Serie

64 Bit GDDR5 würde dann um 25 GByte/s aufstocken. Im Budget-Bereich (Triple-Core ? Dual-Core ? ) eben nur per Hauptspeicheranbindung.
 
@Dr@
JF meinte bei Xtremesystems das Bulldozer noch 12 Monate bis zur Vermarktung braucht...
 
Wenn die Dinger in 2011 auf den Markt kommen sollen und er erst im zweiten Halbjahr Details bekannt geben will, dann ist der Launch in H2 2010.
Beim LIano war irgendwann mal erstes Silicium fertig und nun wurde präsentiert. Bis Mitte 2010 gibts dann Samples für die OEMs und Großkunden. Q4'2010 Waferstarts und Q1'2011 dann Auslieferung.

Daher - 1 Jahr der Präsentation dazu addieren und man ist auf der realistischen Seite.

Zudem - wenn AMD Jahr xyz sagt ist da auch ein 15. Dezember denkbar ... wie bei der 65nm Story.

Beim Bulldozer kommt dazu dass erst der Opteron alle Validierungen durchlaufen wird bis er und etwas später die Desktop-Variante raus kommt.
Außerdem gibts beim Opteron erst mal die neues Sockets und neue 45nm Produkte dafür. Vor Sommer 2011 ist kaum mit 32nm Zuwachs hier zu rechnen. Also wäre Q4'2011 bis 15.12.2011 recht realistisch für erste Desktop-Bulldozer.
 
Zurück
Oben Unten