AMD Phenom Reviews

Tut mir leid dass ich euren Optimismus nicht teilen kann, aber ich sehe für AMD nur noch schwarz.

Die Black Edition haben sie ja schon mal. *chatt*

AMD war seit dem K7 in Deutschland eigentlich recht beliebt und hat damals seine größere Basis gesammelt. Und genau das verspielt AMD mit seinem aktuellen Verhalten.
Es gibt keinen Grund so geizig mit den Samples zu sein, dadurch dass kaum jemand den Phenom testen kann wird er auch nicht schneller nur die Leser erboster weil das Spiel leicht zu durchschauen ist.

Zum Thema "die letzten 7 Monate hat es AMD mit den hohen Verlusten auch geschafft", da fällt mir ein guter Spruch ein: Ein Optimist ist wer vom Hochhaus springt und auf Höhe des 1. Stocks sagt "na, bisher ist es ja gut gegangen".
AMD produziert nun K10 DIEs die mehr als doppelt so groß sind wie die aktuellen 65nm-K8, der Yield dürfte aktuell noch bescheiden sein bei dem komplexen Design - da erscheinen die aktuellen Verkaufspreise sagen wir mal optimistisch.
Und dabei sollte der K10 doch sicherlich wieder höhere Margen bringen und Geld in die leeren Kassen spülen.
 
Naja toller Prozzi *chatt*, da bleib ich lieber bei meinem Pentium E2140 @ OC ;D;)
 
Ich fnde es schade, klar mag ich klein AMD immer mehr als Intel, aber aus den Reviews ließt man ja gar nix positives für den K10 heraus, :-/:-/.

Selbst das Argument Verbrauch && Verbrauch/Leistung ist jetzt dahin. Was ich persönlich ansprechender fand als hier und da nen Frame mehr, :].
Ich bin mit meinem BE-2400 ganz glücklich, aber das bei dem "alten" Design und Stepping die Temp-Diode nicht geht, ist schon schwach!

Hoffen wir das die nächsten Steppings es richten werden, den ich denke nicht, daß das Design schlecht ist, sondern das sich AMD zu viel auf einmal vorgenommen hat! Nat.Quard + Stromsparfunktionen && was weiß ich, was sie noch weiterentwickelt haben.
Ehrlich, kenne mich 0 mit CPU-Design aus, *buck*.

Gruß Bbig
 
Hmm, irgendwie bereue ich es gerade, dass ich wieder auf AMD(AM2) umgestiegen bin.. :-[
 
Ihr seid alles INTEL-Fanboys und INTEL hat auch alle Pages aufgekauft und bestochen!!! Auserdem hat INTEL die Sample LKWs ueberfallen und stellt diese geklauten echten Phenoms als neue 45nm Quads vor!!! SO SIEHTS AUS!!! ALLES INTELS SCHULD!
 
Ihr seid alles INTEL-Fanboys und INTEL hat auch alle Pages aufgekauft und bestochen!!! Auserdem hat INTEL die Sample LKWs ueberfallen und stellt diese geklauten echten Phenoms als neue 45nm Quads vor!!! SO SIEHTS AUS!!! ALLES INTELS SCHULD!
Nein .. Ufos, Tempelritter und Darth Vader sind Schuld .. glaubs mir ich, ich kenn mich da aus, bei mir steht der heilige Gral unterm Bett ^^

Gute Nacht

Alex

*lol**lol*
 
Ohne jetzt ein Urteil darüber abgeben zu wollen, wie wichtig Planet 3DNow! ist oder eben nicht, sollten folgende Worte genannt sein:

Das Kürzel 3DNow! im Namen der Seite sollte die Affinität zu AMD relativ deutlich machen. Desweiteren sollte klar sein, dass wir trotz Core 2 unsere Testsysteme nach wie vor AMD-basiert belassen haben. Die Frage ist, wieviel andere Hardware-Magazine das ebenso gehalten haben?

So eine Situation ist in meinen Augen immer ein Geben und ein Nehmen. Nur leider haben wir diesmal ausschließlich gegeben (nämlich unsere Affinität zu AMD) und haben nichts bekommen. *noahnung*
Ich denke, man sollte hier hinzufügend erwähnen, da das gerne mal vergessen wird, dass
die beiden Dual Core Opterons im Server dieser Webseite von AMD gesponsert wurden.

Zwar ist das nur meine persönliche Meinung, diese aber durch die Arbeit für Planet 3DNow! beeinflusst: Ich persönlich fühle mich etwas vor den Kopf gestossen. Wie soll ich über etwas positiv berichten, wenn ich es nicht testen kann? *noahnung*

Ich habe ~3 Wochen vor dem offiziellen Launchtermin angefangen, mir einen Kopf zu machen, was ich alles teste, wie ich alles teste und wie ich mich bestmöglich auf die kommenden Taktraten einstelle. Ich habe stundenlang gebenchmarkt und meine Zeit vertan - und was habe ich davon? *noahnung*

Insgesamt muss ich schon sagen, dass es wahrscheinlich einfacher gewesen wäre, einen QX9650 oder gar QX9770 zum Test zu bekommen als einen Phenom. Aber seis drum, wir werden hoffentlich bald einen K10 in unseren Händen halten. Ob der von AMD direkt kommt oder doch über andere Wege, ist mir in dem Moment dann auch noch egal.
Ich muss ehrlich sagen, ich bin da auch enttäuscht. Andererseits, wenn man sieht, was
viele Seiten bekommen haben (meistens waren es ja Samples, die müssen ja nicht
unbedingt dem Endprodukt entsprechen) kann man sagen, dass es evtl. gar nicht schlecht
ist, wenn sich der Rauch erstmal legt und dann wird in Ruhe gebencht (wofür du ja scheinbar
schon einen riesigen Teil erledigt hast *great*) und dann kommt vermutlich der gleiche Mist
raus wie es jetzt schon überall der Fall ist, aber ich denke, dass hier und da sich schon
noch einige Änderungen einstellen werden.
Zum Beispiel wundert mich wirklich der Verbrauch, der zum Teil gemessen wurde. Irgendwie
fällt mir das ein wenig schwer zu glauben.
Naja, ich hoffe, dass ihr (Du) bald einen Phenom bekommt und dass bis dahin evtl. schon
das BIOS des entsprechenden Boards gereift ist.

Dennoch sind die bisherigen Ergebnisse erschreckend ernüchternd.
 
Allerdings habe ich in letzter Zeit kaum einen Fachartikel gelesen in dem nicht darauf hingewiesen wurde dass Intel mit dem FSB am Ende ist. Eigentlich schon vor einiger Zeit war, aber der wird mit soviel Energie am leben gehalten wie sonst nur noch scheintote kommunistische Führer.

Scheintot hin oder her, so wie es aussieht, ist das momentan die erfolgversprechendste (sowohl Leistung als auch Marktanteil) Lösung. Bei Intel werden sie ja auch im Hinterzimmer mit anderen Techniken spielen. Für den Desktopmarkt allerdings irrelevant.
Seit erscheinen K8 wird immer wieder gesagt, dass FSB sowas von out sei. Naja, Totgesagte leben länger, Ob Kommi oder nicht.



Sie gehen gut ab, das ist unbestritten. Aber der Aufwand ist enorm.

Aus mangelndem Wissen kann ich da nicht viel zu sagen, äussere aber mal die Vermutung, dass wenn es so im Silizium erstmal entwickelt wurde, der Reifungsprozess bei Fertigung hier ähnlich gut gehen würde wie die mittlerweile oft erwähnte Fab30, was den Maturegrad angeht.



Wenn man einen FSB hat nicht. Mit AMDs Design gab es möglicherweise keine Alternative.

Naja, was heisst es gab keine Alternative. Das Problem liegt halt zeitlich früher. Die von mir erwähnten 2 unterschiedlichen Designs. Natürlich ist das illurorisch. Aber naja, die Vorstellung das ein K10 jemals die Desktop Performance Krone holt ist es auch... *suspect*



Eventuell wäre AMD dann beim kleinsten Schluckauf des Marktes vom selbigen verschwunden.

Joa, das tun sie so aber auch. AMD läuft generell Gefahr beim kleinsten Schluckauf zumindest gekauft zu werden. Ist halt ne kleine Firma...




Intel kann es sich leisten den Itanic 5 Jahre lang künstlich zu beatmen. Das sagt nichts über das Konzept des Itanic, aber eine Menge über den Geldbeutel Intels.

Exakt. Aber sämtliche Desktop Chips werden nicht zwangsbeatmet. Ich denke, dass selbst für die NetBurst Krücken noch irgendein Markt vorhanden ist.



Deshalb hat der Intel Quad ja auch keinen. Hat er doch? Mann, Intel muss bloede sein.

OK. Äusserst undeutlich ausgedrückt. Irgendwie scheint Intel es besser drauf zu haben mit geringerem Einsatz (techn. Seite her) gleiche Leistung zu erzielen. Der L3 Cache ist ja Grund des aktuellen AMD Rückrufes. Vielleicht doch etwas zu kompliziert? Hätten sie mal einfach "irgendeinen" L3 Cache draufgepackt... Naja, ich befürchte: Es geht nicht anders. Das Quaddesign setzt sowas vorraus. Args, dieser einer Zwischenschritt----



Spannungsregelung im Desktop? Technospielzeug, nicht mehr, nicht weniger.

Auf keinen Fall. Nur ist die Regelung für jeden einzelnen Kern zwar toll und schön aber die Ersparnis möchte ich mal schwarz auf weiss sehen. Ein HD Video einmal auf einem System mit Einzelcore Regelung und dann auf demselben mit abgeschalteter Einzelcoreregelung. Ich möchte behaupten, der Unterschied wird marginal sein. Nicht von irgendwelchen Graphen her, aber nach dem was letztendlich auch der Rechnung steht. Ich finde, dass verkompliziert wieder das ganze Design und macht unnötig schwer zu produzieren.



75% bis 95% der Zeit?

Noch magst Du recht haben. Noch. ;)
Und selbst da wird es für OttoNormal vollkommen Banane sein, weil diese 75%-95% wöchentlich ein paar Stunden sind. Der Anteil wird auch noch bei entsprechender Multithreadoptimierung abnehmen.
Nimm die Spiderplattform und das von Dir vorgeschlagene Video im Mediaplayer: Die CPU generell kann quasi die ganze Zeit idlen, arbeiten tut die GraKa. (Wobei ich mich frage ob das bei den heutigen Stromsäufer GraKas wirklich sparsamer ist als eine Nutzung der CPU. :]



Weil Media-Player in Zukunft über mehrere Kerne skalieren werden?

Warum nicht?
Ausserdem ist es bei den meisten PCs die ich kenne so, dass der MP wenn dann nur Inetradio nebenbei laufen lässt. Dazu ist dann entweder Firefox, Thunderbird, OpenOffice oder ähnliches offen. Eigentlich kenne ich niemanden der sich Videos am PC anguckt. Die werden überall gebrannt und per CD/DVD in nen DVD Player verfrachtet. Die Tendenz kann man ja auch bei den reichhaltig genutzten und traumhaft erfolgreichen Wohnzimmer PCs im Audioanlagenstil sehen.*chatt*


Meinst Du Phenom wenn Du Opteron schreibst oder meinst Du wirklich den Opteron? Gerade im RZ ist die Klimaanlage ein großer Faktor und Server die 24/7 auf 100% Last laufen sind bei uns eher die Ausnahme.

Ich meinte Opteron. Und klar, ich bin mehr sehr darüber im klaren, wie gross der Aufwand für Kühlungen in Datenzentren ist. Allerdings (und das ist jetzt eine Vermutung!) wird wahrscheinlich die Workload selten nur aus einem Thread bestehen, oder? Und wenn, dann ist das ist doch eher Schrottsoftware: In einer Umgebung in der man mit an Sicherheit grenzender Wahrscheinlichkeit ein Umfeld mit mindestens 2 Kernen und höchstwahrscheinlich mehreren CPUs mit jeweils mehreren Kernen ausgehen kann auf einen Thread programmieren? Klingt für den Laien total behämmert. *buck*



Damit hast Du recht. Gekauft wird aber trotzdem nach Bauchgefühl. Nachdem das beim X2/C2D so schön geklappt hat ist es legitim davon auszugehen dass es beim X4/C2Q wieder klappt und in einem Jahr die Dualcores nur noch die umsatzstarke aber gewinnschwache Einstiegsklasse bedienen.

Ich sehe deinen Punkt aber allein mir fehlt der Glaube. AMD muss diesen Weg gehen, wenn sie nicht noch ewig K8 fertigen wollen. Jeder K10 DC ist ein halber verschenkter QC.
Intel ist es noch vollkommen Banane, die haben mehr Dies als nötig... Meine Hoffung, dass irgendwann auch der letzte DAU merkt, dass er die angebotene Leistung nicht braucht erlitt spätestens dann Schiffbruch als eine Prof. im Seminar stolz erzählte sie hätte sich den damals neuestens Aldi PC mit Top Ausstattung (und die war wirklich gut) gekauft. Zum Emailen, PDFs machen und im Inet recherchieren. Ich hab nicht gesagt, dass das mit einem PC, der weniger als die Hälfte gekostet hätte womöglich noch besser geklappt hätte...



Du willst einen Athlon64/6400+ mit 4 GHz SC bei 125W? Ich im Grunde auch. Allerdings nicht für Benches sondern zum Daddeln.

Nein, so kann man das nicht sagen: Ich habe einen 2.8GHz DC für alles. Der reicht mir auch dicke. Trotzdem hätte ich gerne einen QC. Multithreadoptimierung wird halt auch beim daddeln zukünftig wichtiger.




Sehe ich auch so. Allerdings als Fluch und Segen zugleich. Die Architektur hat Potenzial und AMD in der Vergangenheit ein glückliches Händchen gehabt. Wenn im Moment sowohl die Marketingabteilung (*) als auch die Technikabteilung SCHEISSE (**) bauen ist das noch kein Grund die Flinte ins Korn zu werfen.

Exakt so meinte ich das. Bei mir allerdings mehr als Fluch als als Segen. Server top, Desktop flopp. Hoffen wir, dass genug Geld bei rum kommt um nicht bei der Entwicklung zukünftiger Baureihen sparen zu müssen.
 
Hmm, irgendwie bereue ich es gerade, dass ich wieder auf AMD(AM2) umgestiegen bin.. :-[

Warte erstmal ab.

Du hattest dir ja glaub ich das DFI 790FX ausgeschaut. Und das Board soll laut Victor Wang ganz gut abgehen. Boardseitig sollte das also ganz gut aussehen. :)
 
Warte erstmal ab.

Du hattest dir ja glaub ich das DFI 790FX ausgeschaut. Und das Board soll laut Victor Wang ganz gut abgehen. Boardseitig sollte das also ganz gut aussehen. :)

Ja, das ist immerhin ein Lichtblick. Wobei ich auch sagen muss, dass mir der X2 mit 3300MHz auch erstmal reichen sollte, bis eventuell ein Refresh des Phenoms kommt. :)
 
Also ich muss jetzt mal eine Lanze für AMD brechen.
Was ich sehr positiv finde, sind die neuen Chipsätze wie 690G.
Diese Chipsätze in Verbindung mit den günstigen X2-CPU sind optimal für Office-PCs und kleine günstige SmallBusiness-Server geeignet. Die Systemkosten sind sehr gering und viele 690G-Mainboards haben sogar einen DVI-D Anschluss onBoard. Die Boards kosten zwischen 40-55€ netto und mit einem X2-4600+EE zzgl. 2 GByte RAM sehr empfehlenswert... auch für den Heimbereich!

Obwohl ich selber einen Q6600@3Ghz habe (DistributedComputing ist der Grund), würde ich derzeit den meisten Anwendern zur oben beschriebenen Kombo aus AMD-Chipsatz und günstigen X2-Prozessor raten.
Das Mainboard kostet im Vergleich zu Intel-Mainboards ca. die Hälfte und für 60€ bekommt man einen DualCore Prozessor der vor 2 Jahren noch HighEnd war. Außerdem reicht ein X2-4600+ doch für alles Aktuelle noch vollkommen aus und wenn vielleicht in 1-2 Jahren mehr Leistung gefragt ist, kann man die im Vergleich zum Intel-Kauf gesparten €uros neu investieren.

Nicht zu vergessen sind die Stromkosten. Auf meinem Intel P35-Mainboard werden die riesigen Chipsatz-Kühlkörper dermaßen heiß, da liegt ein hoher Stromverbrauch doch auf der Hand. Ein 690G-Mobo wird bei runtergetakteter Grafikeinheit (200Mhz statt 400Mhz...man merkts im Office-Betrieb sowieso nicht) wird unter Vollast gerade mal handwarm (der kleine Chipsatzkühler).
 
Also ich muss ja sagen das ich auch eher enttäuscht vom phenom bin... weniger wegen der etwas schlechteren leistung verglichen mit dem q6600 als vielmehr wegen der höheren stromaufnahme........
.
Das ist ja wohl ein Bereich wo sie mit fortschreitender Fertigungstechnik relativ gut vorankommen :D Nur mal so zum Bleistift -- haben sie etwa nicht sogar den T-Bred B hinreichend genügsam bekommen ??
http://www.pc-erfahrung.de/prozessor/mobile-prozessoren/geode-gx-lx-nx.html
Pass nur auf zum D-Stepping gibts dann 2,6GHZ zu 70-75 Watten ....

Mmoe
 
Mach mir schön langsam etwas Sorgen über das Ganze.

Nach dem hier alles angesprochen wird. Hätte ich da einige ernst gemeinte Fragen:

Glaubt Ihr wirklich das AMD pleite gehen kann, ohne daß eine andere Fa. AMD übernimmt?

Samsung spechtet doch schon - und die hätten auch ne ordentliche Kriegskasse - nicht ganz so wie Intel - aber schon deutlich näher dran als AMD heute ! 8)

Darf Intel überhaupt alleine (so wie Microsoft) den Markt beliefern?

Lg Maxxx

Wollen wir es nicht hoffen !!
oder steht irgendjemand der Sinn danach wieder 1500 Ocken nur für den Proz zu legen ???

Mmoe
 
wieso kommt hier jeder mit samsung gerüchten? wieso nicht z.b. nvidia oder ibm oder gar microsoft oder von mir aus google??
 
Der Link geht nicht. ;)

Der TBred B war aber auch ein Komplettumbau im Vergleich zum TBredA.

Sörry für den Link :(

Ich meinte damit dass sie den TbredB der ja ursprünglich auch gerne gut 70 Watt gezogen hat , doch sauber als Geode NX bei etwas gedrosselter Leistung auf 6-14 beschranken konnten wobei der 1500er@9Watt wohl am interessantesten ist.....
Für ein Mediacenter bei PAL-Auflösung locker ausreichend....8)

Aber das werd ich nie verstehen, dass die da nicht geschaltet haben !!!
Was hätte AMD sich mit wenig Arbeit im Fernsehbereich scheckich und eckich verdienen können ...... Via hat es immer an 20-30% Perfomance gefehlt, wohingegen gerade die Geode NX da schön was hätten reissen können..schön liiert mit nem DSP von TI oder so..da lässt sich einiges vorstellen....
Und dies Jahr hätten sie dann einfach einen Barton auf 65 geshrinkt ( Aufwand überschaubar ) und noch ein bisschen optimiert auf den Markt geworfen den bei 1600Mhz laufen lassen (FSB x 8 ) das wäre wahrscheinlich solide unterhalb von 20Watt machbar gewesen --30 mit Brett- Die Basis für einen digitalen Videorecorder vom Allerfeinsten !
Aber auf mich hört ja keiner :-/

Mmoe
 
Nvidia hat glaub ich nicht genug Geld, und dürfte warscheinlich auch gar nicht (ATI)

IBM ist aus dem X86 markt ausgestiegen, und will auch nicht mehr rein.

google? eventuell. Die brauchen aber dann sicher alle CPU´s selber ;D

und zu Microsoft Gott schütze uns!!

Lg Maxxx

wieso kommt hier jeder mit samsung gerüchten? wieso nicht z.b. nvidia oder ibm oder gar microsoft oder von mir aus google??
 
Nvidia hat glaub ich nicht genug Geld, und dürfte warscheinlich auch gar nicht (ATI)

IBM ist aus dem X86 markt ausgestiegen, und will auch nicht mehr rein.

google? eventuell. Die brauchen aber dann sicher alle CPU´s selber ;D

und zu Microsoft Gott schütze uns!!

Lg Maxxx

Kein Unternehmen der Welt wird sich freiwillig in den X86 Markt stürzen. Da kann man quasi nur verlieren...
 
Meine Gedanken:
Bei vielen der Tests kam Software zum Einsatz welche unmöglich schon die neuen Recheinheiten vom K10 kennen kann! :-[

Gerade bei Audio/Video-Encoding bzw. ggf. Packern etc sollte sich doch dort einiges noch bewegen oder?! 8)

Ohne das mit optimierten Compilern oder Software gebencht wird wird ein K10 gegenüber einem Q6600 nicht seine Fähigkeiten ausspielen können. Der Q6600 ist schon eine Weile da und baute von den Recheinheiten her identisch zum C2D auf, welcher noch ein wenig eher da war. :P

Damit wollte ich nur mal anmerken das der K10 warscheinlich mit den Benches bei den Vorabtests wohl nur wie ein K8 mit 4 Kernen verwendet wird .. und die neuen Extensions ungenutzt rumdümpeln.

... die Frage ist natürlich, ob kommende Software / Games auch Optimierungen für den K10 jemals enthalten werden! ???
 
glaubst du das wirklich?
 
Es kommt mir schon sehr sehr komisch vor, wenn der Phenom tw. doch sehr stark hinter dem alten X2 zurückliegt. Recht glauben kann ich das einfach nicht. Wurde hier falsch gebencht, sind die Treiber oder Benches noch nicht hinreichend auf den Phenom abgestimmt und es kommt daher zu solch schlechten Ergebnissen?

Auch ist der hohe Stromverbrauch sehr verwunderlich. Wenn man dann aber liest, dass andere Boards für unterschiedliche CPU´s genutzt wurden - wunderts mich dann auch wieder nicht - was soll so ein Test bitte bringen?

Ich werde erstmal abwarten und schauen was sich in naher Zukunft ergibt und bis vor allem erste Userberichte veröffentlicht werden. Im Moment sind ja laut Geizhals sowieso noch immer keine Phenoms lieferbar.

Gruß Micki
 
Was ich mich bisher (seit es bekannt wurde) andauernd gefragt habe:
Warum hat AMD den K10 so gestrickt, dass der Speicherzugriff auf den Ram über den L3 gehen muss?
Klar ist es insofern logisch, als dass L3 eben die Cache-Stufe unter L2 ist, aber wäre eine direktere Lösung mit niedrigeren Latenzen nicht das A&O gewesen? Ist selbst uns "Unwissenden" bekannt, dass seit dem Speicherkontroller die niedrigen Latenzen ein wichtiger Faktor sind.
Und trotzdem erhöht AMD die Latenzen seiner Cache-Stufen immer weiter - das kann doch nicht gesund sein. *noahnung*

Wenn ich mal einen K10 haben sollte mach ich mich erstmal mit dem Lötkolben daran eine Leitung vom L2 direkt zum RAM durchzuschleifen. ;D
 
Was ich mich bisher (seit es bekannt wurde) andauernd gefragt habe:
Warum hat AMD den K10 so gestrickt, dass der Speicherzugriff auf den Ram über den L3 gehen muss?
Klar ist es insofern logisch, als dass L3 eben die Cache-Stufe unter L2 ist, aber wäre eine direktere Lösung mit niedrigeren Latenzen nicht das A&O gewesen? Ist selbst uns "Unwissenden" bekannt, dass seit dem Speicherkontroller die niedrigen Latenzen ein wichtiger Faktor sind.
Und trotzdem erhöht AMD die Latenzen seiner Cache-Stufen immer weiter - das kann doch nicht gesund sein. *noahnung*

Wenn ich mal einen K10 haben sollte mach ich mich erstmal mit dem Lötkolben daran eine Leitung vom L2 direkt zum RAM durchzuschleifen. ;D

Harrr,Harrr,Harrr,Harrr,Harrr, Viel Spass !! ;)
Mmoe
 
Der Thoroughbred-B war ja ähnlich. Ähnlich weil auch keiner mehr dran glaubte das das Teil jemals noch mit höheren Taktraten, wegen den techn. Schwierigkeiten, auf den Markt kam. Aber er kam und dann in voller Pracht.
Die Schwierigkeiten mit dem Phenom sind heutzutage im Prinzip auch nichts ungewöhnliches. Wo halbfertige Betriebssysteme ausgeliefert und vom Kunden trotzdem angenommen werden, wiso sollte das mit einer CPU nicht auch funktionieren? War es ein Versuch in diese Richtung, gab es interne Machtkämpfe/Unstimmigkeiten oder war der Druck der Anleger/Investoren zu hoch, als das der Termin nochmals verschoben werden konnte? Wer weiß das schon.

Aber peinlich, peinlich wenn die Systeme schon in Warschau abgestürtzt sind, da möchte ich nicht in der Haut des AMD Repräsentanten gesteckt haben. Wer mußte das eigentlich machen?

Auch andere Hersteller machen übrigens "Murks" und erzählen uns Märchen nur wird das oft ignoriert. Wie war das mit AHCI auf z.B. Nvidia Plattformen -geht nicht. Beim neueren 7050 Chipsatz bricht nach 15 min Trackmania das ganze System zusammen, weil der Chip überhitzt, obwohl der schon runtergetaktet ausgeliefert wird und somit nicht mehr den Spezifikationen entstpricht.

Ich denke das AmD das schon hinbekommen wird, auch wenn`s jetzt etwas entäuschend ist bezügl. der Leistung, des Fehlers und der zur Verfügung gestandenen sehr langen Entwicklungszeit. Auf die Benches von music... freue ich mich schon und vor allem dann wohl hoffentlich mit einem "ordentlichen" Phenom. Warum die Latenzen wieder schlechter sind könnte vielleicht am Material liegen?
 
Zurück
Oben Unten