AMD Phenom: 9100e Variante, weitere Verzögerung des B3-Steppings?

Ach ich weis gar nicht der Bug tritt sehr selten auf und wenn der Preis stimmt kann man da schon mit leben mein ich. Und so ein 9100e wenn der sich gut übertakten lässt kann man den schon für 100€ nehmen und fürs crunchen reicht der sicher dann aus wenn man den auf >2,2ghz bringen kann.
Ich würde mir den bestimmt kaufen, aber bei den Mobos müsste dann auch eine Funktion geben wo man den Fix abschalten kann, weil Leistungseinbußen bei einem Bug der nur selten Auftritt ist doof.
 
Wer braucht den 4 Kerne? Der normale Rechner, der an Arbeitsplätzen und Büros oder in tausenden Wohnungen steht? Wohl kaum. Die meiste Software ist jetzt schon nicht für Dual-Cores optimiert, einige Software wird man auch sicherlich nicht Multi-Core optimieren können. Ein anderes Problem ist doch, wie kann ich mit mehreren Cores die Festplattenzugriffe so optimieren, dass die Festplatte nicht zum Flaschenhals eines jeden Multi-Cores System wird? Oder brauche ich vier Kerne um mit Vista und zukünftige Betriebssysteme aus dem, hause Microsoft arbeiten zu können? Oder brauche ich sie für Games? Selbst wenn das einige nicht wahrhaben möchten, der PC als Spielplattform hat Probleme. Konsolen machen den PC immer mehr Konkurrenz und die Gründe dürften sicherlich bekannt sein.
Selbst mein Sempron 2800 (2,0GHz Sockel A) reicht für 90% aller meiner Aufgaben. (Wer codiert 24h am Tag Videos??) Wie alt ist der Chip nochmal?
Und heute will man immer mehr Power haben, damit das virtuelle Blut bis hin zu den Blutplättchen detailgetreu gezeichnet werden kann.
Genau so kommt mir das vor, wenn ich die meisten Beiträge hier im Forum lese. Ich denke, das sich hier (IT-Branche) bald was ändern wird. Alle meckern über die Strompreise (die auch in ZUKUNFT schön weiter steigen werden) und deren Abrechnungen, aber sobald der 0,5KW Rechner (Wirkleistung) am Netz ist, für ein schönes Game, ist aller Ärger vergessen. Hauptsache schön bunt und laut. Dasselbe kann man bei den Autofahrern beobachten, an der Tankstelle wird gemeckert und auf der Bahn wird Gas gegeben. Gerade in Europa und insbesondere in Deutschland wird es ein Umdenken geben müssen. (Hier, weil Energiekonzerne und Staaten die Bürger abkassieren werden). Irgendwann wird man sich keinen 0,5KW Rechner ins Haus stellen, sondern einen mit 0,15KW. Es ist doch schon paradox, dass einige im Jahr so viel Energie für ihren Rechner verbrauchen, wohingegen damit ein Rentner/Rentnerin im Jahr damit auskommen würde. Ich weiß selber, dass dieser Gedanke nach mehr, höher weiter ziemlich stark sein kann, dennoch sollte man sich überlegen, ob dies der richtige Weg ist. Wer heute damit anfängt, wird weniger Probleme haben.
Insbesondere finde ich die 4 Kerne nicht besonders gut. Wenn ich sehe, was die Fressen wird mir ganz anders. Dazu noch eine dicke Karte oder auch gleich zwei und schon ....
Willkommen alte alte Zeit. (PIV)
 
...bla..bla...
Konsolen machen den PC immer mehr Konkurrenz und die Gründe dürften sicherlich bekannt sein.
...bla...bla....

Na dann schau mal auf welche Strategie bei den Nextgen Konsolen gesetzt wird. Die XBox360 hat 3 Cores und die PS3 7 Cores (bzw. 8 aber einer ist deaktiviert).
Der Weg zu mehr Rechenleistugn führt eindeutig über immer mehr Kerne. Was auch aus pseudo umweltpolitischen Gründen gut ist, da man Kerne wohl sinnvoller deaktivieren kann, anstatt ein riesen CPU Monster im Stromverbrauch drosseln. Das es der Umwelt so oder so nix bringt lass ich mal aussen vor.
 
DualCore am Desktop ist ok aber alles andere unnütze Stromverschwendung.
Vor allem wenn die einzelnen Cores nicht abgeschaltet werden können.

lg
__tom


Hatte was von 7 Watt im Idle gelesen, Phenom<> Brisbane G2, und war überrascht, hatte mit mehr gerechnet....

Es ist nun mal so dass zu 90% single thread performance zählt.
Weder DualCore noch QuadCore's werden daran was ändern.

Eigentlich doch ein Argument für einen Phenom...
Ist natürlich nur eine Notlösung als Vorschlag, aber warum nutzt man nicht die Vorteile des nativen Quads ein bisschen konsequenter aus? Ein Phenom 9100 Black Edition mit 2x1,8 GHZ +2x 2,4 GHZ bei Bedarf*noahnung*....Dazu eine 65 Watt TDP bei Originaltakt wäre ein Novum innerhalb der Quad-CPUs, so bei ~130-150 € boxed.... Die Möglichkeit die Kerne unterschiedlich zu takten, wird von AMD meiner Meinung nach nicht kosequent umgesetzt, bzw. werbewirksam und verkaufsfördernd....


Grüße!
 
Na dann schau mal auf welche Strategie bei den Nextgen Konsolen gesetzt wird. Die XBox360 hat 3 Cores und die PS3 7 Cores (bzw. 8 aber einer ist deaktiviert).
Der Weg zu mehr Rechenleistugn führt eindeutig über immer mehr Kerne. Was auch aus pseudo umweltpolitischen Gründen gut ist, da man Kerne wohl sinnvoller deaktivieren kann, anstatt ein riesen CPU Monster im Stromverbrauch drosseln. Das es der Umwelt so oder so nix bringt lass ich mal aussen vor.

Dir ist doch auch klar, dass die meisten Konsolen bevorzugen, weil sie es leid sind, bei jedem neuen Game ihr Rechner aufzurüsten. Nintendo macht es doch vor, wohin Konsolen gehen können. Bei PCs stelle ich mir das ein wenig schwierig vor. Zumal die Konsole weniger schlucken dürfte, wie die Konkurrenz, die eher auf Grafik aufbauen. Ich sehe die Konsole als spezielle Hardware für Games an und habe damit kein Problem, das einige bis zu 9 Cores haben. Jedoch bleibt die Frage, warum braucht ein 0815 Rechner vier oder mehr Kerne?

Damals gab den den Taktwahnsinn, heute den Corewahnsinn. Schlimm das ganze.
 
Damals gab den den Taktwahnsinn, heute den Corewahnsinn. Schlimm das ganze.

Was ist daran schlimm? Erfreu dich doch an sehr schnellen und günstigen CPUs. Im übrigen kann der Massstab für die Allgemeinheit kaum das eigene Verwendungsprofil sein. Ich persönlich erfreue mich an meinem Quadcore jeden Tag, da ich recht viel parallel mache. Es gibt Leute welche weniger intensiv am Rechner arbeiten und für sie gibt es auch langsamere Hardware. Ist doch OK.

Aber egal was wir hier ausdiskutieren, der Trend zu immer mehr Cores und immer mehr Leistung wird ungebrochen so weiter gehen.
 
Weil es teilweise eine Verblendung des Nutzers ist.
Ich kann nicht alles schneller machen, indem ich eine beliebige Anzahl an Cores auf Silizium presse. Softwaretechnisch wird der Verwaltungsaufwand für Multi-Core Programme immer aufwendiger, sofern ich meine Anwendung überhaupt auf Multi-Core umschreiben kann. Ich muss mich damit auseinandersetzten, sofern es keine fertige Bibliotheken gibt, dass Thread sich nicht gegenseitig behindern oder das alle Threads genügend Datenfutter erhalten. So einfach ist das Ganze leider auch nicht und die Gefahr die ich hierbei sehe ist, dass man wieder zurück zu den alten PIV-Zeiten verfällt. Dank AMD haben wir diese Zeiten unbeschadet überstanden. Aber jetzt??

Eines Tages taucht ein erheblich verbesserter Doppel-Core oder Triple-Core Godson (China) auf, der aktuelle Prozessoren (AMD & Intel) deklassiert. Das Ganze nur, weil man dem Mulit-Core Wahnsinn verfallen, ist. Das kann passieren, muss aber nicht.
 
Eines Tages taucht ein erheblich verbesserter Doppel-Core oder Triple-Core Godson (China) auf, der aktuelle Prozessoren (AMD & Intel) deklassiert. Das Ganze nur, weil man dem Mulit-Core Wahnsinn verfallen, ist. Das kann passieren, muss aber nicht.

Das halte ich für extremst unwahrscheinlich. Es gibt ja auch schliesslich keine Supercomputer die mit einem Megaprozessor arbeiten. Und insofern glaube ich schon das die Strategie der beiden Großen aufgehen wird und das Ziel ein Prozessor wird der aus vielen "Unterprozssoren" besteht.
Wie auch immer, jeder kann kaufen was er mag. Ich persönlich favorisiere derzeit die aktuellen C2Qs im Januar (oder wenn er endlich erscheint) werde ich auf einen Q9450/ Q9550 wechseln. Und ich bin mir sicher er wird schneller als mein Jetziger sein.
 
Das halte ich für extremst unwahrscheinlich. Es gibt ja auch schliesslich keine Supercomputer die mit einem Megaprozessor arbeiten. Und insofern glaube ich schon das die Strategie der beiden Großen aufgehen wird und das Ziel ein Prozessor wird der aus vielen "Unterprozssoren" besteht.
Supercomputer rechnen in der Regel aber auch Zeugs, das sich gut parallelisieren lässt. ;)
 
Wir sollten trennen zwischen Heimanwender, Server und Superrechner. Ich beziehe mich nur auf Heimanwender!!!
Superrechner werden auch in Zukunft hoch parallele Architekturen sein. (oder vernetzte)

Itpassion-de bitte nimm das jetzt nicht in den falschen Mund. Ich will dich damit auch nicht angreifen, aber der Hochmut, dass eventuell China keine Konkurrenz CPUs fertigen kann, halte ich für ein wenig Gleichsinnig. Als Japan damit anfing Unterhaltungselektronik und Autos auf dem deutschen Markt zu werfen, dachte viele ebenfalls so wie Du. Schaue ich mir heute die Auslage meines Händlers (Unterhaltungselektronik) an, kenne ich die Folgen dieses Hochmutes.

Dennoch frage ich mich, wie ich 4Kerne sinnvoll auslasten kann?
 
Itpassion-de bitte nimm das jetzt nicht in den falschen Mund. Ich will dich damit auch nicht angreifen, aber der Hochmut, dass eventuell China keine Konkurrenz CPUs fertigen kann, halte ich für ein wenig Gleichsinnig. Als Japan damit anfing Unterhaltungselektronik und Autos auf dem deutschen Markt zu werfen, dachte viele ebenfalls so wie Du. Schaue ich mir heute die Auslage meines Händlers (Unterhaltungselektronik) an, kenne ich die Folgen dieses Hochmutes.

Korrigier mich wenn ich jetzt was falsches sage aber welcher x86 Hersteller ist denn derzeit aus China?
Was in Zukunft ist werden wir zu gegebener Zeit betrachten aber aus heutiger Sicht spielt sich das Geschehen doch in erster Linie zwischen AMD und Intel ab.

Dennoch frage ich mich, wie ich 4Kerne sinnvoll auslasten kann?

Das ist meiner Meinung nach der falschen Gesichtspunkt. Ich sitze ja nicht vor meinem Rechner damit er was zu tun hat *buck* . Sondern ich will ja keine Wartezeiten bei meiner Arbeit haben. Und mit meinem Proz. klappt das schon ganz gut. Wobei die pro Kern Leistung noch ein wenig höher sein könnte. Damit singlethread Anwendungen noch besser laufen.
 
Also was ist denn jetzt mit dem BUG? Ich hab HIER gelesen das das NICHTS mit dem L3 Cache zu tun hat weil der garkein TLB (oder wie das heisst) hat.
Jetzt steht aber wieder HIER im Artikel das man das beim X3 eventuell per deaktivierung des L3 umgehen kann. Ich denke doch aber das das garnix mit dem L3 zu tun hat?

WAS DENN NUN??? AHHHHHH !!!!!!!!!!!!!!!! *da ist viel verzweiflung reingeflossen die ich durch diese news entwickelt hab* ;-)
 
Und was bringt das?
Ein DualCore ist für die meisten Nutzer schon fast Overkill, ein Quad ist es erst recht. Quads haben noch dazu die dumme Angewohnheit mehr Strom zu verbraten. Für jemanden, der unbedingt einen Quad haben möchte, aber ihn derzeit nicht bezahlen kann/will, mag sowas schön sein, für alle anderen ist es eher schlecht.

Ebend und AMD hat nicht das "Fertigungspotenzial" um mit INTeL im QuadCore-Bereich auf der LowBudget-Schiene zu konkurrieren, da schauffeln sie sich ihr eigenes Grab für die Margen...
 
WAS DENN NUN??? AHHHHHH !!!!!!!!!!!!!!!!
Die c't schreibt in der aktuellen Auflage 1/2008 auf Seite 18 dazu:
Heise schrieb:
Zur Umgehung des Problems wird keinesfalls, wie oft zu lesen ist, "der" Translation Lookaside Buffer (TLB) abgeschaltet - davon gibts im Barcelona ohnehin gleich vier -, sondern das Caching der für die Page-Verwaltung nötigen Tabellen im Speicher. In bestimmten Fällen kann es beim Zurückschreiben von geänderten Seiten-Attributen (Accessed oder Dirty) aus einem der beiden L2-TLBs zu Inkonsistenzen zwischen dem L2- und dem L3-Cache kommen. Das kann - muss aber nicht - zu einer Machine-Check-Exception mit anschließendem Nothalt führen.
Etwas ähnliches gibt es auch bei den aktuellen Steppings von Intel Core 2 Prozessoren:

http://www.heise.de/newsticker/meldung/101029
 
Zuletzt bearbeitet:
Die Möglichkeit die Kerne unterschiedlich zu takten, wird von AMD meiner Meinung nach nicht kosequent umgesetzt, bzw. werbewirksam und verkaufsfördernd....


Grüße!

Find ich auch.... man könnte das als Extended CnQ vermarkten... aber nö garnix.....
 
Find ich auch.... man könnte das als Extended CnQ vermarkten... aber nö garnix.....
Es heißt jetzt doch Cool 'n' Quiet 2.0 um die Neuerungen kenntlich zu machen:

http://www.amd.com/us-en/Processors/ProductInformation/0,,30_118_9485_9487^10272,00.html

New features:

* Independent Dynamic Core Technology- Helps users get more efficient performance by dynamically adjusting individual core frequencies as required by utilization needs
* Dual Dynamic Power Management™ - Helps improve platform efficiency by providing full-speed memory performance while enabling decreased system power consumption.
* AMD CoolCore™ Technology - Helps users get more efficient performance by dynamically activating or turning off parts of the processor.
* AMD Wideband Frequency Control - Allows the processor to respond more precisely to user demands, maximizing performance to deliver a better PC user experience.
* Multi-Point Thermal Control - Prevents processor from creating too much heat and enables a cooler, quieter PC experience
 
Also was ist denn jetzt mit dem BUG? Ich hab HIER gelesen das das NICHTS mit dem L3 Cache zu tun hat weil der garkein TLB (oder wie das heisst) hat.
Jetzt steht aber wieder HIER im Artikel das man das beim X3 eventuell per deaktivierung des L3 umgehen kann. Ich denke doch aber das das garnix mit dem L3 zu tun hat?
LEEEESEN ;)

-> Korrektur zur TLB-Erratum 298 Berichterstattung vom 07.12.2007
Demnach liegt es nicht an einem fehlerhaften TLB des Level 3 Cache (dieser besitzt tatsächlich keinen), sondern an einem Fehler im TLB des Level 2 Cache (genau genommen in den TLBs der Level 2 Caches; der Phenom hat ja vier davon, einen je Kern), der in Kombination mit dem Level 3 Cache-Protokoll zu einem Absturz führen kann.
Alles klar? :)
 
so richtig klar ist das wohl keinem von uns

einmal Bios update, Performence, oder update, Linux,,,

das läuft wenigstens

aber bei den kleineren Versionen soll der Fehler ja nicht auftauchen.

mfg
Sir Ulli

.Je länger der B2 im Handel ist, desto besser die Lösung für den TLB-Bug. Ich hatte eher Bedenken, dass sich wohl relativ schnell niemand mehr an den B2 erinnern wird, wenn das B3-Stepping kurz darauf releast wird...


Grüße!
 
.Je länger der B2 im Handel ist, desto besser die Lösung für den TLB-Bug. Ich hatte eher Bedenken, dass sich wohl relativ schnell niemand mehr an den B2 erinnern wird, wenn das B3-Stepping kurz darauf releast wird...


Grüße!

Meinst Du wirklich? Je länger desto mehr Menschen nehmen diese Schlechten Nachrichten auf. Vieles was sich in den Köpfen festsetzt, wird nicht so schnell vergehen. Ich stehe dem Ganzen sehr skeptisch gegenüber.

Ich hoffe der Fix kann schneller und gründlicher Released werden, als jetzt angenommen. Denn ich würd mir gerne einen Phenom zulegen. :)
 
Ich hoffe der Fix kann schneller und gründlicher Released werden, als jetzt angenommen. Denn ich würd mir gerne einen Phenom zulegen.

Ja klar, du sprichst dabei die Kehrseite der Medaille an. Das B3-Stepping dauert wohl noch ein bisschen länger wie es jetzt aussieht *noahnung*

Ich stehe dem Ganzen sehr skeptisch gegenüber.

Meinst du damit die Nachteile für den Anwender wegen dem TLB-Bug beim B2-Stepping, oder der Imageschaden von AMD?


Grüße!
 
Ja, das ist die Kehrseite. Aber eine negative Nachricht verbreitet sich immer schneller und bleibt länger in den Köpfen existent. Zudem wird AMD sich nun einigen Verlust hingeben müssen. Nachteile sehe ich nun z.B. wenn die Nutzer Virtualisierung betreiben. Es wurde berichtet der Bug wird sich besonders darauf auswirken können.
 
Dank für diese Information.

Der L2 wurde ja massiv umgebaut, um die Datendurchsätze zu erhöhen.
Allerdings fehlte AMD mangels vorgelagerten Dual-Core die Zeit um den Fehler frühzeitig zu erkennen. So hat man muntern den Quad fertig entwickelt und dann erst den Fehler finden können.

Es erscheint bei dieser Fehlerbeschreibung auch logisch, dass der 'Shanghai' ebenso diesen Fehler hat, das ja der L2 nicht mehr verändert wurde.
O.k. beim Shanghai handelt es sich nur um Prototypen, aber AMD kann sich Zuverlässigkeitstest aktuell mit dem 45nm DIEs abschminken.,
 
einmal Bios update, Performence, oder update, Linux,,,

das läuft wenigstens

Ganz einfach: beides. Linux wird egal sein, was im BIOS steht, wenn ein offizieller Kernel Patch dafür raus ist - und wenn mal was anderes als Linux gebootet ist, ist man trotzdem auf der sicheren Seite dank Deaktivierung im BIOS.

Sofern es mal etwas derartiges unter Windows gibt, wird dort sicherlich gleich verfahren.
 
Ganz einfach: beides. Linux wird egal sein, was im BIOS steht, wenn ein offizieller Kernel Patch dafür raus ist - und wenn mal was anderes als Linux gebootet ist, ist man trotzdem auf der sicheren Seite dank Deaktivierung im BIOS.

Sofern es mal etwas derartiges unter Windows gibt, wird dort sicherlich gleich verfahren.
Ich bezweifle, dass der Patch in den Linux Kernel von Linus integriert wird.
AMD selbst rät davon ab, den Patch zu verwenden, da er einen tiefen Eingriff ins System
darstellt, zudem ist der Patch wie oben genannt nur für 64bit Systeme.
 
Zurück
Oben Unten