Überraschung bei der Positionierung des AMD Dual-Core

Original geschrieben von Avalox
Nein wäre der Käufer bestimmt nicht, weshalb AMD ein halbes Jahr diesen Ausschuss sammelt, bevor man diesen als Toledo dann in Stückzahlen verkauft. So würde es jedenfalls vom Zeitplan wirken.
Gesammelt wird sehr oft :) Aber es ist keine gute Geschäftspraktik, das Verkaufsvolumen nur vom Umfang des weiterverwendbaren Ausschusses abhängig zu machen. Da bei den Caches mit Redundanz gearbeitet wird, fällt noch weniger Ausschuss an, welcher zumindest mit halbem Cache funktioniert. Wenn dies 10-20% aller nichtverwendbaren DC-Dies wären, wäre das in der Tat recht wenig für den Desktopmarkt. Das Yield wird da wohl kaum unter 50% liegen.
 
Es wird schon Auswirkungen auf den Desktop Markt haben, dass dieser von der Dicken Spitze, in die lütte letzte Position gefallen ist, bei AMDs neuer Strategie.
 
Original geschrieben von Avalox
Ist der Toledo, vielleicht DualCore Opteron Ausschuss mit defekten Cache? Wodurch eine Minderleistung, des Toledos resultieren könnte. Das würde die neue Serverausrichtung von AMD gut erklären.

das glaub ich kaum. oder meinst du die werden da nachträglich noch den zweiten mem-controller deakivieren / ausradieren? und ausserdem wird wohl erst auf fehler getestet, wenn die prozessoren schon fast fertig sind. also nur noch der aufdruck drauf muss... und da sind die leider schon in einzelne DIEs zerschnibbelt. und zusammenkleben is da wohl auch nich ;D
 
Original geschrieben von Avalox
Es wird schon Auswirkungen auf den Desktop Markt haben, dass dieser von der Dicken Spitze, in die lütte letzte Position gefallen ist, bei AMDs neuer Strategie.
Ich verstehe die Pyramide eher als grobe Darstellung der geplanten Umsätze in diesen Segmenten. Dabei wird deutlich, daß der kleine Desktop-Zipfel wirklich keine große Rolle spielt. Dennoch läßt dies die Interpretationsmöglichkeiten offen, daß dieser kleine Umsatzanteil mit Massen-CPUs erreicht wird, oder mit High-End-CPUs oder mit beidem. Mehr kann ich da nicht erkennen.
 
Original geschrieben von Sonic
das glaub ich kaum. oder meinst du die werden da nachträglich noch den zweiten mem-controller deakivieren / ausradieren? und ausserdem wird wohl erst auf fehler getestet, wenn die prozessoren schon fast fertig sind. also nur noch der aufdruck drauf muss... und da sind die leider schon in einzelne DIEs zerschnibbelt. und zusammenkleben is da wohl auch nich ;D

Tut mir leid, aber der Sinn ist mir verborgen geblieben.

Die Opteron haben mitnichten einen anderen Memcontroller, als die Athlon64. Der Controller kann sowohl Reg. DDR Speicher, wie auch normalen DDR Speicher bedienen, mit oder ohne ECC.

Erst das Packaging entscheidet über die Verwertung.


@Dresdenboy

Das spielt ja auch erstmal keine Rolle. Nur wird die Motivation gering sein viel für diesen Bereich zu investieren eher gering sein.
 
Original geschrieben von Avalox
Das spielt ja auch erstmal keine Rolle. Nur wird die Motivation gering sein viel für diesen Bereich zu investieren eher gering sein.
Entscheidend ist, wieviel Geld man in den jeweiligen Bereichen verdienen kann. Und danach richten sich auch die Investitionen.

Für Toledo muß ja erst einmal nicht viel investiert werden.
Mal grob gesehen: eine andere Beschriftung, andere Verpackung, etwas Papierkram und fertig. :)
 
@bdk2004
Ich kann keine Aufregung in meinen Posts erkennen.
Bitte keine Herabwuerdigungen (...keine Ahnung von XZ)

Topic:
einfach gesprochen verhält sich Intels Hyperthreading nämlich genauso wie eine echte Multiprozessorlösung.

Bei HT wird dem OS zwei echte Cores vorgegaukelt, dass diese effektiv hinter der Maske nur dafür genutzt wird um die Pipes besser auszulasten ist etwas anderes.
Das stimmt so nicht ganz. Der Prozessscheduler des Betriebssystems muss sich des' SMT bewusst sein. Er muss Resourcen unter der Annahme zuordnen, dass er nicht 2 echte CPUs zur Verfuegung hat. Das heisst eben wie i_hasser gesagt hat, dass man nicht immer die gleichen Befehlsarten schedulen kann. Der Aufwand um soetwas zu bewerkstelligen ist ziemlich gross, und verkrueppelt einen scheduler ein bischen, deshalb ist gerade Intel's HT nicht sonderlich beliebt.
Bei einem gut funktionierenden CPU-Frontend ist SMT ueberhaupt nicht noetig um den Prozessor auszulasten. Doch der P4 ist nunmal in die falsche Richtugn designed worden, und da musste Intel etwas tun.
 
Original geschrieben von Avalox
Ist der Toledo, vielleicht DualCore Opteron Ausschuss mit defekten Cache? Wodurch eine Minderleistung, des Toledos resultieren könnte. Das würde die neue Serverausrichtung von AMD gut erklären.

AMD stellt den Opteron ja komplett auf DC um.
Allerdings hat man ja auf längere Zeit Ersatzbedarf an Single-Core für Systeme (Ersatzteil, Aüfrüstung mit zweiter CPU), sodaß die teildefekten Opterone so auf jeden Fall gebraucht werden für SC-Opterone.

Es erscheint mit angesichts der elektrischen Daten und dem engen Zeitplan für echte DC-Opterone auch unwahrscheinlich, daß Stepping 'E4' nicht ein DC-DIE ist.
AMD stellt ja schon fleißig auf 90nm um, was im Juni'05 off. abgeschlossen sein wird. Da hat man für DC schon heute DIE-Fläche zur Verfügung und AMD wird sicherlich bereits in DC fertigen, aber eben aktuell nur SC-Opterone ausliefern.

Beim DC-A64 sieht es doch gar nicht so schlecht aus:
- ein DC-Optreon hat ca. 200 mm2
- ein optimierter A64-Core (nur 1 HT) könnte eher auf 190-200 mm2 kommen
- 2* 512k statt 2* 1M wären dann ca. 140-150 mm2.
- 2* 384k nur noch ca. 125-135 mm2.


Die letzen beiden könnte AMD auch in der Fab30 bei vielleicht 7-15% an der Gesamtfertigung erstellen.
(Beim Rest = 45-60% Sempron, 5-10% Opteron, 10-20% Turion u.ä. und 20-30% A64 Single-Core 512k/1M eine machbare Größe)

Wenn bei der DC-Fertigung 25% nur für SC taugen, wäre dies auch kein Problem.
Ein SC-K8 (intern mit zweite Core nur im IDLE) kann gut 2,4/ 2,8 GHz noch packen, bevor er thermisch an die Grenze kommt.
Das gleiche DIE mit DC-K8 aktiviert dann nur 2,0 -2,4 GHz.
!Für den teildeaktivierten Kern könnte AMD also noch gut Geld bekommen, wahrscheinlich sogar fast genausoviel wie für eine (langsameren) DC-A64!
 
Also wird aus einen DualCore Opteron mit defekten Cache ein Toledo und aus einem DualCore Opteron mit defekten Kern ein Athlon64 FX.

Ein mögliches Szenario.
 
Original geschrieben von Avalox
Also wird aus einen DualCore Opteron mit defekten Cache ein Toledo und aus einem DualCore Opteron mit defekten Kern ein Athlon64 FX.

Ein mögliches Szenario.
Ein defekter Kern ist sogar bei nicht-DC-fähigen Chips wahrscheinlicher als ein irreparabler L2-Cache, der dann nur noch halbiert werden kann. Das liegt einfach an den bei Caches verwendeten Redundanzmechanismen. Beim K8-Kern geht das nicht.

Aber wie gesagt, man passt die Nachfrage nach Toledo ja nicht an den Umfang des dafür verwendbaren Ausschusses an. Wirtschaftlich sinnvoller wäre dann gleich ein eigenes Die (ca. 155mm² gegenüber ~210mm²). Sonst hätte es nie ein Newcastle-Die gegeben. Wiederverwendbaren DC-Opteron-Ausschuss verwendet man trotzdem. Oder man schaltet bei voll funktionsfähigen DC-Opterons den Cache ab, falls die Nachfrage für Toledo das erfordert. Nur verkaufte Chips bringen Geld. Lagern geht dann auch noch.. Insgesamt also eine recht komplizierte Sache :)

Intel arbeitet ja komplett nach dem Prinzip beim P4. Es gibt da keine separaten Celeron-D-Dies.
 
Der Newcastle Kern ist noch in einer Zeit entstanden, als der Desktop Markt im Fokus lag. Nun tut es dieser nicht mehr. Nachfrage kann man prima über den Preis steuern, solange der Preis der Toledo basierenden CPUs nicht bekannt ist ...
Man darf nicht vergessen, dass der Newcastle Kern und dieses speziell im Sockel 939 nur einen Zweck hatte, nämlich die klägliche Marge der zuvor im Desktop Bereich verkauften Clawhammer aufzubessern. Der Newcastle und auch der Sockel939 sind nur Rationalisierungsmaßnahmen seitens AMD gewesen.
Der Käufer hat bis heute keinen Mehrwert aus diesen, denn der Preisvorteil wurde von AMD nicht weiter gegeben.


Ich glaube kaum, dass AMD Kapazitäten für einen DualCore Desktop Chip bindet, solange wie AMD völlig allein mit einem DC Core Opteron den entsprechenden Servermarkt bedienen kann.

Auch für die Athlon64 FX CPUs gab es nie einen eigenen Kern und jetzt erzähle nicht, dass momentan DualCore Desktop CPUs ein grössere Nachfrage Segment treffen würden als der Athlon64 FX.

In Benchmarks und vor allen Spielen, bieten A64 Singlecore noch lange die Spitze vor Desktop DC P4. Der DC P4 ist halt da noch besser, wo der Singlecore P4 schon immer vor dem K8 geführt hat. Mehr nicht.
Anfang 06 kommt der M2, für diesen könnte ich mir gut native DC CPUs für den Desktop Bereich vorstellen.

Der S939 ist nicht die DualCore Plattform. Das passt zeitlich überhaupt nicht. Zur Blütezeit der DC zuhause ist der S939 nur noch im Museum zu finden und der M2 schon längst Stand der Dinge.
 
Zuletzt bearbeitet:
Original geschrieben von Tom24
Topic:

Das stimmt so nicht ganz. Der Prozessscheduler des Betriebssystems muss sich des' SMT bewusst sein. Er muss Resourcen unter der Annahme zuordnen, dass er nicht 2 echte CPUs zur Verfuegung hat. Das heisst eben wie i_hasser gesagt hat, dass man nicht immer die gleichen Befehlsarten schedulen kann. Der Aufwand um soetwas zu bewerkstelligen ist ziemlich gross, und verkrueppelt einen scheduler ein bischen, deshalb ist gerade Intel's HT nicht sonderlich beliebt.
Bei einem gut funktionierenden CPU-Frontend ist SMT ueberhaupt nicht noetig um den Prozessor auszulasten. Doch der P4 ist nunmal in die falsche Richtugn designed worden, und da musste Intel etwas tun.
Allerdings sind von den meistverbreiteten Betriebssystemen sowohl der Windows NT/2k/XP- und der Linux-Prozessscheduler nicht fähig, das zu erreichen, was du hier vorschlägst. Bei Linux mit 2.6er Kernel ist ein Timeslot IIRC im Normalfall 10 ms. Bei Windows werden sich die Slotgrößen in ähnlichen Bereichen befinden.

Bei vielen der heutigen CPUs werden in 10ms etwa 18 bis 36 Mio. Befehle ausgeführt. Die Wahrscheinlichkeit, daß fast jeder Befehl, den eine Anwendung (inkl. Spiele) überhaupt verwendet, auch in diesen paar Millionen dabei ist, ist sehr hoch. Wie soll man da noch z.B. zwischen speziell SSE2-lastigen und sprunglastigen Abschnitten mit vielen Integer-Rechnungen unterscheiden? Dazu müssten die Abschnitte einige Hundert bis Tausend Befehle groß sein. Inkl. Taskwechsel und Scheduler-Ausführungszeit würde die eigentliche Anwendungsprozesszeit auf einen kleinen Bruchteil der CPU-Zeit schrumpfen.

"Ein bischen" ist dann wirklich etwas in der Dimensionierung vergriffen. Und soweit ich sehen konnte, ist Intel's HT ja nicht wirklich verpöhnt. Es rettet zwar nicht bei vielen Benchmarks den Sieg, aber Leute, die dies nutzen, loben die "Smoothness" des Systems bei vielen Tasks. Ich habe auf Arbeit zwar auch P4 mit HT stehen, aber leider warte ich auch da oft einfach darauf, daß das Fenster, welches ich aktiviert habe, dann auch aktiv wird. Das hat aber andere Gründe (bei uns läuft oft das Group Policy Update u. bremst mit der Plattenrattelei - auf lauter SCSI-Platte - alles aus). So kann ich das zwar nicht nachvollziehen, aber bei Systemen im Heimgebrauch kann ich mir den Effekt schon vorstellen. Denn mit Befehlsgranularität können zwei Threads viel besser gemischt werden und damit parallellaufen als mit einer millionenfach gröberen Wechselgeschwindigkeit.

So gesehen, war HT das beste, was Intel der Architektur antun konnte - sofern die Kombination der parallel laufenden Apps passt. Beispiel Prime95: 2 LLR-Tests parallel bremsen sich gegenseitig aus (nutzen zu 95% SSE2 und sind sehr gut handoptimiert), aber 1 LLR-Test zusammen mit Faktorisierung (Integer) ist eine wirksame Kombination.
 
Und nochmal zur 'smoothness' des Systems (heute ist mal wieder Anglizismentag):

Das liegt einzig und allein an der Unfähigkeit des Windoofs Schedulers, nicht mehr und nicht weniger. Das hat mit HT direkt nix zu tun und ist auch kein wirklicher Verdienst von HT - Linux beweist, ein System ohne HT kann sich genauso weich anfühlen.


Der Scheduler muss HT aber dahingehend kennen, als dass häufiges hin- und herschieben von einem Prozess zwischen 2 CPUs vermieden wird und als das in Dual-Systemen (also 4 logische CPUs) auch die richtigen ausgelastet werden und nicht eine CPU brach liegt.

SSE3 bringt übrigens einige Verbesserungen bezüglich HT, imho ist es aber trotzdem eine nutzlose Technologie. Hauptsächlich liegt der Effekt wohl in den 2 Auslastungsbalken, immerhin ist dahingehend selbst ein Dual-Pentium1 ein nettes System.
 
Original geschrieben von Avalox
Der Newcastle Kern ist noch in einer Zeit entstanden, als der Desktop Markt im Fokus lag. Nun tut es dieser nicht mehr. Nachfrage kann man prima über den Preis steuern, solange der Preis der Toledo basierenden CPUs nicht bekannt ist ...
Der Desktopmarkt lag da schon nicht mehr im Fokus. Diese AMD-Pyramide ist schon lange bekannt. Der K8 kam bekannterweise erst als Server-CPU heraus. Aber man kann nur Geld mit Produkten verdienen, die verkauft werden. Also muß man - neben der Konzentration auf diese strategischen Pläne - trotzdem auf die aktuelle Marktlage achten.
Man darf nicht vergessen, dass der Newcastle Kern und dieses speziell im Sockel 939 nur einen Zweck hatte, nämlich die klägliche Marge der zuvor im Desktop Bereich verkauften Clawhammer aufzubessern. Der Newcastle und auch der Sockel939 sind nur Rationalisierungsmaßnahmen seitens AMD gewesen.
Der Käufer hat bis heute keinen Mehrwert aus diesen, denn der Preisvorteil wurde von AMD nicht weiter gegeben.
Nicht nur die Marge (die Produktionskosten sanken um ca. 25%), sondern das Produktionsvolumen an sich. Im Frühjahr 2004 hing AMD der Nachfrage so hinterher, daß man in der Fab schon für Tests bestimmte Dies doch noch für Verkaufsprodukte verwenden musste. Und der Mehrwert entstand dadurch, daß das größere Volumen auch wieder niedriger gepreiste Produkte erlaubte (die 2xxx+ A64). Schließlich lebt AMD in harter Konkurrenz und ist auch kein Wohltätigkeitsverein (sonst wären sie nicht AG oder G.m.b.H, sondern e.V. ;))




Original geschrieben von Avalox
Ich glaube kaum, dass AMD Kapazitäten für einen DualCore Desktop Chip bindet, solange wie AMD völlig allein mit einem DC Core Opteron den entsprechenden Servermarkt bedienen kann.

Auch für die Athlon64 FX CPUs gab es nie einen eigenen Kern und jetzt erzähle nicht, dass momentan DualCore Desktop CPUs ein grössere Nachfrage Segment treffen würden als der Athlon64 FX.

In Benchmarks und vor allen Spielen, bieten A64 Singlecore noch lange die Spitze vor Desktop DC P4. Der DC P4 ist halt da noch besser, wo der Singlecore P4 schon immer vor dem K8 geführt hat. Mehr nicht.
Anfang 06 kommt der M2, für diesen könnte ich mir gut native DC CPUs für den Desktop Bereich vorstellen.

Der S939 ist nicht die DualCore Plattform. Das passt zeitlich überhaupt nicht. Zur Blütezeit der DC zuhause ist der S939 nur noch im Museum zu finden und der M2 schon längst Stand der Dinge.

Die Kapazitäten steigen seit Quartalen stetig (habe hier noch ein Modell in Excel, um das zu untersuchen) - in den vielen Konferenzen vor Analysten sprach man oft von den Änderungen bezüglich des Übergangs zu 130nm SOI, später die Transition zu 90nm SOI. Die Entwicklung geht zu nahezu 100% 90nm K8-Waferstarts im Laufe dieses Jahres. Dann wirkt sich auch bald Fab36 aus, die wohl auch erst mit 90nm laufen soll. Und um die Jahreswende herum soll wohl Volumen von Chartered dazukommen. Robert Rivet von AMD sprach kürzlich davon auf einer Analystenkonferenz. Er nannte auch Zahlen: 30 Mio. CPUs letztes Jahr und geplante 50 Mio. CPUs dieses Jahr. Dabei zählen K7-CPUs nur noch in kleinem Umfang zur letzten Angabe. Das Volumen ist also da und soll bis 2006 auf 100 Mio. CPUs steigen. Soviel werden sich aber kaum von AMD verkaufen lassen, also ist es doch optimal, dieses Volumen mit steigendem Anteil für DCs zu verwenden, da dies sicher bald für viele ein Schlagwort wird wie MMX, SSE usw.

Wie wir jetzt schon an den 90nm-Semprons sehen können, hat die Produktion die A64-Nachfrage endlich eingeholt und schwappt in die Low-Price-Segmente. Aber 2,5 Winchester-Kern-Semprons bzw. 3 Palermo-Semprons belegen die gleiche Fläche wie ein DC mit 2x1MB L2. Nun rechne mal nach, als was diese Fläche mehr Geld bringt?

Und da bringe ich nochmal dein Argument: AMD will doch den Einsatz im Desktop-Markt verkleinern - und warum? Weil die ASPs dort so niedrig sind.

Warum sollte es für den AFX einen eigenen Kern geben? Jeder Kern kostet extra Masken, Verifizierung usw. Das lohnt sich eigentlich nur, wenn man dabei das Volumen erhöhen kann und die Kosten pro CPU senken. Da der AFX aber bei der Einsparung von 2 HT-Links (die so sogar zusätzliche Redundanz böten) kaum kleiner wird, wäre der damit erzielbare finanzielle Erfolg bei dem Volumen gering oder nicht vorhanden.

Und zum M2:
Hast du in die Zukunft geschaut? S939 soll jedenfalls noch eine Weile existieren. Und über M2 wissen wir nicht viel - ist es der Highend-Sockel für die I/O-Kanäle des K10? Hat er DDR2-Unterstützung? Wird es überhaupt K8-Derivate für den Sockel geben? Nichts spricht gegen den S939 als DC-Sockel im Jahre 2006. Der Toledo wurde auch für diesen Sockel angekündigt.
 
Original geschrieben von i_hasser
Und nochmal zur 'smoothness' des Systems (heute ist mal wieder Anglizismentag):

Das liegt einzig und allein an der Unfähigkeit des Windoofs Schedulers, nicht mehr und nicht weniger.

das multitaskingverhalten von win ist ein typisches thema, über das sich mac-user witzig machen!

mit veränderung der prioritäten kann man glaube ich einiges nachhelfen, dass sich auch windows smooth(er) anfühlt.
 
Die Multitasking Smoothness ist nach meiner Erfahrung auch stark abhängig vom Chipsatz. Beim Umstieg vonm nForce 2 auf mein aktuelles SiS 748 ? (beides Sockel A ;) ) war ich mehr als positiv überrascht, dass der Billigchipsatz auf dem Billig Asrock deutlich Smoother ist als der in Apps deutlich schnellere nForce 2.
 
In dem Fall lag es wohl eher am APIC, der beim nforce2 schnarchlahm ist.

Der Win Scheduler hat absolute Schwächen, das ist doch kein Geheimnis.
 

Und zum M2:
Hast du in die Zukunft geschaut? S939 soll jedenfalls noch eine Weile existieren. Und über M2 wissen wir nicht viel - ist es der Highend-Sockel für die I/O-Kanäle des K10? Hat er DDR2-Unterstützung? Wird es überhaupt K8-Derivate für den Sockel geben? Nichts spricht gegen den S939 als DC-Sockel im Jahre 2006. Der Toledo wurde auch für diesen Sockel angekündigt.
[/B]

Geht es nach durchaus glaubwürdigen Quellen (z.B: c't 5/05 Seite 116 "Richtungsstreit) :), dann wird der M2 Anfang 06 verfügbar und wird mit entsprechenden DDR2 fähigen K8 DC A64 Windsor, Orleans und sowohl etwas später, aber immer noch im ersten Halbjahr 06 mit dem preiswerten Manila Sempron bestückt werden.

Diese Entwicklung deutete auch der offizielle AMD Forum Moderator an (schon mal zitiert). Dieser sprach übrigens auch von einer zweijährigen Lebenszeit des S939. Diese wäre im Mai 06 erreicht.

Ich finde dieses passt gut zusammen, mit einem Opteron Ausschuss Toledo für die ganz eifrigen Dualcore @ Home haben Woller.
 
Original geschrieben von Avalox
Geht es nach durchaus glaubwürdigen Quellen (z.B: c't 5/05 Seite 116 "Richtungsstreit) :), dann wird der M2 Anfang 06 verfügbar und wird mit entsprechenden DDR2 fähigen K8 DC A64 Windsor, Orleans und sowohl etwas später, aber immer noch im ersten Halbjahr 06 mit dem preiswerten Manila Sempron bestückt werden.

Diese Entwicklung deutete auch der offizielle AMD Forum Moderator an (schon mal zitiert). Dieser sprach übrigens auch von einer zweijährigen Lebenszeit des S939. Diese wäre im Mai 06 erreicht.

Ich finde dieses passt gut zusammen, mit einem Opteron Ausschuss Toledo für die ganz eifrigen Dualcore @ Home haben Woller.
Es wurden für S939 auch schon Semprons angekündigt. Das wirkt auf mich, als würde der S939 noch eine (längere) Zeit neben dem M2 bestehen. V.a. weil dann die S939-Boards schon lange auf dem Markt sind und sicher auch viel günstiger als die frischen M2-Boards. (gleiche Situation wie bei S754->S939).

Aber einen Punkt haben wir hier noch nicht deutlich gemacht:
Der Toledo wird immer als DC-Opteron-Ausschuss gehandelt. Woher kommt aber die Sicherheit, daß der Toledo nicht auch 2x1MB L2 haben wird? Dann bräuchte man auch wieder keinen separaten Kern für ein Niedrigvolumenprodukt.
 
Die 2 x 512KB L2 Cache des Toledos sind auch eine Vermutung eines Moderators des offiziellen AMD Forums.

Es sind letztendlich alles Spekulationen. Einen AMD Moderator traue ich allerdings schon die ein oder andere Info zu, welche er dann bewusst oder auch nicht streut.

Ich finde das Gesamtbild auch ziemlich stimmig.
Wie wir wissen geht es mit der Taktschraube, bzw. mit der Verlustleistung nicht in dem Umfang weiter, wie es sich AMD vielleicht noch einiger Zeit gewünscht hat.

Ich denke stark, dass AMD einfach diesen Leistungsbonus einer neuen Plattform benötigt, um entsprechende CPUs weiterhin hochpreisig anbieten zu können, obwohl sich diese technisch nicht so stark weiter entwickelt haben.

M2 mit DDR2 Support, mit stärkerer Stromversorgung, vielleicht ein mächtigerer Retention Frame für leistungsfähigere Kühler. Damit bringt man auch den inzwischen erlahmten K8 wieder in Fahrt. mM
 
Zuletzt bearbeitet:
Original geschrieben von Avalox
Die 2 x 512KB L2 Cache des Toledos sind auch eine Vermutung eines Moderators des offiziellen AMD Forums.

was ansich nichts bzw. nicht viel zu sagen hat, da die Moderatoren von Athlon.de auch mal ganz normale Athlon.de User waren... und von AMD nicht wirklich mit besonders viel solchen Informationen gefüttert werden (meines Wissens nach)...

cya
 
Original geschrieben von Avalox
Die 2 x 512KB L2 Cache des Toledos sind auch eine Vermutung eines Moderators des offiziellen AMD Forums.
Dann muß ich wohl mal wieder selbst in Dresden anrufen. Jemand, der im letzten März schon DC-Wafer vor Augen hatte, sollte nun auch schon sagen können, ob davon auch kleinere im Test sind. Jedenfalls gab es damals noch eine ganz andere Richtung: noch mehr L2. Das wird aber wohl eher für Server interessant, schließlich sind das schon beim SC maximal ca. 48+14 mm² mehr (=176 mm²) oder auch etwas weniger, da man dann das Speicherinterface an der schmalen Kante beim L2 auf die Seitenkanten verlegen kann.
 
Original geschrieben von Avalox
Was neues erfahren?
Gestern hab ich keinen erwischt. Aber mittlerweile weiß ich, daß in DD sowohl DCs mit 2x1MB als auch schon welche mit 2x512kB L2 durchlaufen. D.h. dann also (nun folgt meine Ableitung daraus), daß man das Desktop-DC-Geschäft nicht als Beiprodukt platzieren will (AMD machte bis jetzt auch nicht den Eindruck). Was einzeln für Modelle herauskommen, muß sich aber noch zeigen. Denkbar wären sowohl die kleine als auch die große Cache-Variante für den Desktop je nach Geldbeutel.

Scheinbar ist da das geplante Volumen mehr als wie wir es jetzt für den FX kennen. Das kommt wohl auch durch das dann schon verfügbare Windows x64. Aber so, wie Intel die DC's hyped, kann AMD nicht mit 10000 Desktop-DCs dabei sein.. Dann wäre auch die Einsparung von ca. 25% Die-Fläche egal gewesen oder sogar zu kostenaufwändig (ein Maskensatz für 90nm kostet schon einiges über 1 Mio Euro, genaue Zahlen gerade nicht im Kopf).
 
Das sind ja mal wirklich gute Nachrichten.
Klasse und wirklich besten Dank.
 
Zuletzt bearbeitet:
Zurück
Oben Unten