Neuigkeiten zum K10

Tja ja, und WENN es stimmt, dass der 9700 das Spitzenmodell mit nur 2,4Ghz ist, dann ist das reichlich enttäuschend. Die Preise deuten aus meiner Sicht drauf hin, dass es stimmt mit dem mäßigen Takt. AMD hätte gut einen Spitzen-Prozessor gebrauchen können, den sie mit $999 verkaufen könnten. Aber bisher scheint kein Stepping da zu sein, das sie zu der Leistung eines Penryn Quad 3Ghz pushen könnten. Dass AMD preiswürdig und gut im low- bis midrange ist, ist unzweifelhaft. Aber die Spitze ist momentan offenbar unerreichbar für AMD.
 
Zuletzt bearbeitet:
Tja ja, und WENN es stimmt, dass der 9700 das Spitzenmodell mit nur 2,4Ghz ist, dann ist das reichlich enttäuschend. Die Preise deuten aus meiner Sicht drauf hin, dass es stimmt mit dem mäßigen Takt. AMD hätte gut einen Spitzen-Prozessor gebrauchen können, den sie mit $999 verkaufen könnten. Aber bisher scheint kein Stepping da zu sein, das sie zu der Leistung eines Penryn Quad 3Ghz pushen könnten. Dass AMD preiswürdig und gut im low- bis midrange ist, ist unzweifelhaft. Aber die Spitze ist momentan offenbar unerreichbar für AMD.
Das hat sich doch schon vor Wochen angedeutet. Manche wollten es nur nicht so recht glauben. Bis Weihnachten werden wir dann wohl noch einen 2,6 GHz sehen. Wenn die ersten Tests mit verfügbaren Prozessoren draußen sind, kann man sehen, ob dies fürs Mittelfeld reicht, die Krone wird AMD damit sicher nicht bekommen. Wichtig ist jetzt erstmal ein vernünftiges Stepping rauszubekommen. AMD wird schon noch lernen den Phenom mit guter Ausbeute auf 3GHz und mehr zu bringen.
 
Das hat sich doch schon vor Wochen angedeutet. Manche wollten es nur nicht so recht glauben. Bis Weihnachten werden wir dann wohl noch einen 2,6 GHz sehen. Wenn die ersten Tests mit verfügbaren Prozessoren draußen sind, kann man sehen, ob dies fürs Mittelfeld reicht, die Krone wird AMD damit sicher nicht bekommen. Wichtig ist jetzt erstmal ein vernünftiges Stepping rauszubekommen.
AMD wird schon noch lernen den Phenom mit guter Ausbeute auf 3GHz und mehr zu bringen.
Sobald AMD in Stückzahlen den Core fertigt dürften 2,6 GHz / 120 W machbar sein.
Später dann mehr, wenn gleichzeitig der Triple-Core noch mehr Selektion aus den DIEs ermöglicht.

Aber der Barcelona ist eben ein Schlachtschiff mit wohl bremsender Virtualisierungstechnik / Hardwareübersetzungstabellen und eher sein Nachfolger = Shanghai in 45nm zu 'schnelleren' berufen.
Im Mobilmarkt ist der träge K10 ja schon per K8-Griffin ersetzt worden und das geht AMD ggf. schon in Richtung Bulldozer als Nachfolger.

Da könnte es sein, daß AMD erst einmal Intel ziehen läßt ...
 
... Da könnte es sein, daß AMD erst einmal Intel ziehen läßt ...

Soso... *buck*

<== Der wo vor dem Barcelona-Launch optimistischerweise ein paar AMD-Aktien gekauft hat... (Naja, das machen die Intel-Aktien wieder wett...) *buck*
 
Soso... *buck*

<== Der wo vor dem Barcelona-Launch optimistischerweise ein paar AMD-Aktien gekauft hat... (Naja, das machen die Intel-Aktien wieder wett...)
Naja, neue Produkte in der ca. $250 - Klasse ergeben für AMD auch rosige Aussichten.

Wenn AMD davon +1 Mill. / Quartal z.B. an bisher sich zurückhaltende AMD-Freunde verkauft sind dies grob +$200 Erlös für AMD.
Das würde schon fast die Verlustzone verlassen lassen.

Bei den Taktraten muss AMD ja auch vermeiden in eine Rückrufaktion verwickelt zu werden. Wenn eine 2,4 GHz CPU stabil 2,8 GHz läuft ist der Kunde zufrieden, aber er erwartet nicht 2,8 GHz. Verkauft AMD den Core gleich mit 2,8 GHz und nur wenige stürzen dabei ab gibt es eine riesige Rückrufaktion mit vernichtenden Echo.
 
Aber der Barcelona ist eben ein Schlachtschiff mit wohl bremsender Virtualisierungstechnik / Hardwareübersetzungstabellen .........

Auch wenn es ein Spekulationsforum ist, aber lehn Dich doch bitte nicht immer so weit aus dem Fenster wie hier. Ich nehme nicht an, dass irgendjemand hier konkret weiß, wo die Taktbremse beim K10 ist. Dass es mit Virtualisierungstechnik zu tun hat, ist genau so wahrscheinlich wie dass es an der Pipeline der ALU liegt oder sonstwas. Ich kann jedenfalls zu dieser Frage keinerlei Hinweise irgendwo finden. Die Spekulationen sollten wenigstens auf ein paar Fakten aufbauen, sonst kann ich hier auch anfangen, über den K15 zu spekulieren......
 
Kann ich nur zustimmen. Ich weiß auch nicht warum es da immer ums Design geht, sehr naheliegend ist wohl auch einfach die Fertigung ansich. Da braucht man sich nur mal die Größe des DIEs angucken und die aktuellen 65nm-CPUs:

Der K10 ist ein Derivat des K8, und vom K8 gibt es aktuell keine 65nm-CPU mit 2,8 GHz Takt und einer TDP von 65 W oder gar 45 W.
Wie soll AMD dann in der Lage sein aktuell einen hochkomplexen nativen Quad bei einer TDP von 89 oder 125 Watt auf 2,8 GHz zu takten?
 
Kann ich nur zustimmen. Ich weiß auch nicht warum es da immer ums Design geht, sehr naheliegend ist wohl auch einfach die Fertigung ansich. Da braucht man sich nur mal die Größe des DIEs angucken und die aktuellen 65nm-CPUs:

Der K10 ist ein Derivat des K8, und vom K8 gibt es aktuell keine 65nm-CPU mit 2,8 GHz Takt und einer TDP von 65 W oder gar 45 W.
Wie soll AMD dann in der Lage sein aktuell einen hochkomplexen nativen Quad bei einer TDP von 89 oder 125 Watt auf 2,8 GHz zu takten?


Wieso hat AMDs K8 3,2Ghz in 90nm geschafft, und warum ist der 65nm CPU nicht höher getaktet?! Wenn der 65er so ausgereift wäre wie der 90er würde es wohl auch einen Barcelona mit >=3Ghz geben. Denn soweit ich weiß kann der Skink (90->65) in etwa die Stromverbrauch halbieren, desweiteren wurde eine verbessertes SOI in den 65er integriert?! Also müsste es möglich sein einen Barcelona @ 3Ghz (89W(?)) Herzustellen, laut Gerüchten soll dies mit einem neuen Stepping auch kommen.

Evt. haben sie auch bisher nicht die Restbestände des alten Stepping loswerden können und der Barcelona ist nicht so gefragt wie geplant :]
 
Du hast meine Argumentation gerade nicht wiederlegt sondern nochmal bestätigt. ;)
Denn ich habe genau davon gesprochen was AMD zur Zeit mit dem aktuellen 65nm-node zu leisten im Stande ist.
Angesichts der momentanen Situation, dass es für 45 Watt maximal 2,3 GHz X2 gibt (BE-2300) ist ein Phenom X4 mit 2,3 GHz und 95 Watt schon eine sehr gute Leistung. :)
Zeigt aber auch, dass die anderen Erwartungen unrealistisch sind/waren.

Und wenn der 65nm-node bei AMD jetzt noch nicht ausgereift sein sollte hätten sie es mehr als verdient auf der Stelle aufgekauft und zerschlagen zu werden. ;)
Der Prozess wird schon bald ein Jahr alt, der ist auf der Entwicklungsstufe wie es AMD betrieben hat mit Sicherheit ausgereift (siehe 5000+ Blackedition).
Was sie damit an CPUs produzieren hängt allein mit den Masken zusammen, und da haben sie sich eben anscheinend für den möglichst kostengünstigen Weg entschieden.

Darüber, was sie mit weiteren Steppings noch beim Phenom reissen können habe ich ja auch gar nicht geredet, nur auf die aktuelle Situation habe ich mich bezogen.


Den Barcelona kann man nicht als Phenom verkaufen, und nicht verkaufte Stückzahlen sind angesichts der prekären Liefersituation sehr unwahrscheinlich. :)
 
Ich denke mal, es liegt nicht am fertigungsprozess, sondern am Stepping. Wahrscheinlich entstehen einfach ab einem bestimmten Takt zu viele designbedingte Hotspots, die in späteren Steppings behoben werden.
 
rkinet schrieb:
[...] der Barcelona ist eben ein Schlachtschiff mit wohl bremsender Virtualisierungstechnik / Hardwareübersetzungstabellen [...]

Ebenso wie der Penryn.

Vom C2D gibt es Versionen mit und ohne Virtualisierungstechnik, kaum vorstellbar dass der Geschwindigkeitsvorteil der Version ohne VT noch keinem außer Dir aufgefallen ist. Muss wohl wirklich so sein dass Du als einziger die voll krasse Ahnung hast.
 
Die Virtualisierung des C2D ist ja nicht aus dem Kern entfernt worden, sondern ist einfach nur deaktiviert. Und beim Benryn ist diese doch auch nicht gegenüber dem Conroe verbessert worder, oder hab ich da was verpasst?

Dass ein K10 für den Desktop massig Ballast mit sich rumschleppt, der für Server von morgen interessant sein kann und wird, ist ja unbestritten. Damit müssen der K10 und AMD leider leben, aber ob dieser Teil wirklich direkt für die Taktschwierigkeiten verantwortlich ist, ist in keiner Weise klar.


Aber jetzt mal wieder ein wenig sachlicher. ;)
 
Die Virtualisierung des C2D ist ja nicht aus dem Kern entfernt worden, sondern ist einfach nur deaktiviert.

Dass ein K10 für den Desktop massig Ballast mit sich rumschleppt, der für Server von morgen interessant sein kann und wird, ist ja unbestritten. Damit müssen der K10 und AMD leider leben, aber ob dieser Teil wirklich direkt für die Taktschwierigkeiten verantwortlich ist, ist in keiner Weise klar.
Der C2D hat zwar Virtualisierung, aber vieles wird per Interrupt abgehandelt bzw. im Chipsatz wie die virtuelle Speicherverwaltung.

Beim K8 und noch mehr K10 wird die Virtualisierung des Speicherzugriffes in der CPU-Hardware umgesetzt. Das ist technisch fortschrittlicher, dafür kommen aber mehr Transistoren in den Leitungspfad (egal ob aktiviert oder deaktiviert).

Wie man bei Taktptential des Itanium sieht machen komplexere Design CPUs wieder weniger taktfreudig. Wobei Taktraten über 2 GHz bei so komplexen Designs wie einer CPU technische Meisterleistungen sind.
Aber Intel macht Abstriche, IBM macht Abstriche bei der Komplexität der Designs, AMD beim K10 aber nicht. Der ist daher auffällig komplex im Vergleich zum Wettbewerb.
 
rkinet schrieb:
Beim K8 und noch mehr K10 wird die Virtualisierung des Speicherzugriffes in der CPU-Hardware umgesetzt. Das ist technisch fortschrittlicher, dafür kommen aber mehr Transistoren in den Leitungspfad (egal ob aktiviert oder deaktiviert). [...]

Also bremst nicht die Virtualisierung sondern die dafür notwendige Anzahl von Transistoren. Ok, kaum zu bestreiten.

Allerdings hätte ich den Verzicht auf VT als immensen Fehler angesehen. Ich sehe nach wie vor einen künftigen PC als als Wirt für mehrere voneinander so weit wie möglich abgeschottete VMs. Im Server um Last besser zu verteilen, zuhause um Messanger, Emai und Webbrowser sauber voneinander und vom Onlinegame zu trennen.

Ich behaupte daher dass gerade VT dem Phaenom einen (Leistungs-)Vorteil vor dem Penryn verschaffen kann.
 
Aber nicht auf absehbare Zeit im Desktop-Segment. Virtualisierung wird vom Otto-Normaluser sicher nicht eingesetzt.
 
Ich sehe nach wie vor einen künftigen PC als als Wirt für mehrere voneinander so weit wie möglich abgeschottete VMs. Im Server um Last besser zu verteilen, zuhause um Messanger, Emai und Webbrowser sauber voneinander und vom Onlinegame zu trennen.
Schönes Bild, welches du da zeichnest.
Allerdings fürchte ich, dass nur wenige derartige Konfigurationen tatsächlich zum laufen kommen werden- verglichen mit der Gesamtheit. Da muss schon Windows während der Installation damit anfangen, damit das was wird :-/

Aber für die Nutzer sicherlich unverzichtbar- deswegen hab ich auch noch keinen Quad ;D
 
Schönes Bild, welches du da zeichnest.
Allerdings fürchte ich, dass nur wenige derartige Konfigurationen tatsächlich zum laufen kommen werden- verglichen mit der Gesamtheit. Da muss schon Windows während der Installation damit anfangen, damit das was wird :-/

Aber für die Nutzer sicherlich unverzichtbar- deswegen hab ich auch noch keinen Quad ;D

naja... das würde ich nichtmal unbedingt so sehen, viele entwicklungen im bereich internet und handy gehen in solch eine richtung... z.b. internet mpg konverter. Allerdings bezweifle ich auch, dass es viele leute geben wird, die sich soetwas zuhause einrichten...
 
genervt schrieb:
Aber nicht auf absehbare Zeit im Desktop-Segment.

Kommt vieleicht drauf an wie weit zu sehen man in der Lage ist.

Virtualisierung wird vom Otto-Normaluser sicher nicht eingesetzt.

Da stimme ich Dir zu. Ebenso wenig wie MMX und SSE wird der Otto-Normaluser VT einsetzen. Das übernehmen Programme wie VirtualBox, VMWare oder VirtualPC.
.
EDIT :
.

Kamui schrieb:
Allerdings fürchte ich, dass nur wenige derartige Konfigurationen tatsächlich zum laufen kommen werden- verglichen mit der Gesamtheit. Da muss schon Windows während der Installation damit anfangen, damit das was wird :-/

Hast Du mal VirtualBox installiert? Ist wie jedes andere Programm. DesktopFirewalls (über deren Sinn kontrovers gestritten wird, aber lassen wir das außen vor) und Virenscanner zu konfigurieren ist m.E. anspruchsvoller.

Virtuelle Maschinen muss kein User einrichten. Meine Kristallkugel behauptet dass die künftig vom Programmhersteller kommen.
.
EDIT :
.

Ragas schrieb:
Allerdings bezweifle ich auch, dass es viele leute geben wird, die sich soetwas zuhause einrichten...

Witzigerweise kommt http://www.heise.de/newsticker/meldung/98526 wie bestellt.
 
(...)warum sollte sich ein normaler windowsbenutzer ein linux als vm installieren?
Neugier... technische Studie und softer Übergang. Daran versuche ich mich auch, weil ich keinen Nerv habe einen Rechner für diese "Spielerei" abzukommandieren. Sollte sich Linux in einer VM für "mich" als produktiv herausstellen, käme auch ein entsprechender Rechner in Betracht. Vorher auf keinen Fall.
Außerdem... so als kleiner DVD-Player only? Was soll ich da ein X-GB großes OS starten, wenn sich das mit einem kleinen Linux System realisieren liesse? Experimente gibt es seitens ASUS ja auch schon einzige Zeit dazu.
 
Zuletzt bearbeitet:
Shining Dragon, das ist ja schön und gut und mag auf den einen oder anderen Enthusiasten zutreffen. Ich habe selber im Sommer mal testweise eine VM aufgesetzt, wenn auch aus anderen Gründen. Aber Ragas hat da m.E. vollkommen Recht. Der stinknormale User, der es vielleicht schafft Treiber und Software zu installieren, käme doch nie und nimmer auf die Idee sich mit Virtualisierung zu beschäftigen. Der Mann/die Frau ist froh, wenn alles läuft. Die Wissen ja gar nicht, dass es Virtualisierung gibt.
 
Denkt doch nicht immer so kompliziert. Warum denkt ihr das der Anwender sich ein VM erst aufsetzten muss. Bei der Lösung von Asus würde soetwas fertig geliefert. Der Anwender weiß dann nicht mal was Virtualisierung ist. Außerdem kann ein Betriebssystem unter der Haube auch Virtaulisierung anwenden ohne das der Endanwender davon etwas mitbekommt.
So könnten für verschiedene zwecke unterschiedliche Kernel gleichzeitig laufen und alles unter einer Oberfläche ohne das der Anwender etwas mitbekommt.
Ähnliches wird anscheinend auch für Wondows 7 angestrebt:

http://www.winfuture.de/news,35602.html
unter "Neue Oberfläche?" im dritten Absatz wird ein solches Szenario beschrieben

eine weitere Einsatzmöglichkeit wäre in Büros. Ein Rechner mit doppelt vorhandener IO-Perepherie und zwei Parallel laufenden Betriebssystemen könnte von zwei Personen gleichzeitig genutzt werden. => Kostenersparnis

Und es gibt noch viele viele weitere Anwendungsmöglichkeiten. Virtualisierung bedeutet keinesfalls nur sich eine VM aufzusetzen und darin ein Betriebssystem zu installieren etc...

Virtualsierung beginnt gerade erst. Das ist noch lange nicht am Ziel angekommen...

gruß

cumec
 
Zurück
Oben Unten