PCGH mit Benchmarks zum Phenom II 940

Schön für dich, dass du einen guten Windsor erwischt hast.... Es wundert mich halt schon, dass AMD mit dem ach so tollen AMD 65nm Fertigungsverfahren es nicht geschafft hat 3,2GHz (90nm 6400+ BE) marktreif zu bekommen!

Der Bug hat ihn nicht unbrauchbar gemacht - aber der Fix welcher die Einheit deaktiviert und somit extreme Lesitungsverluste provoziert....

Und zu deiner Frage:

Pentium D ----> Core 2 Duo
Core 2 Duo ---> Core 2 Quad
Core 2 Quad (45nm) ---> Core i7

MfG.

Ich glaube du hast was missverstanden.
Der Windsor ist 90nm. Und jeder Brisbane (65nm) den ich
gesehen hab, lies sich besser übertakten.

Der 65nm 6000+ hat übrigens 3,1GHz, ich denke
AMD hat einfach eingesehen, dass sich ein geshrinkter 6400+BE nicht
mehr lohnt, weil knapp über den 3200MHz eh Schluss ist.

Zu deiner Intel Historie - Der Pentium D basiert auf dem Pentium 4 -
der war, zumindest in seinen späteren Ausführungen hitzig, lahm und
stromfressend. Genauso der Pentium D.

Der Core 2 Duo war (ist) unbestreitbar ein sehr gelungener Prozessor.

Der Core 2 Quad waren dann zwei Core 2 Duo auf einem Die,
über einen FSB verbunden. Kaschiert wurde der lahme FSB mit viel Cache.
Trumpf war hier wieder die Core-Architektur.

Der C2Q in 45nm ist nicht viel mehr als ein Die-Shrink, mit noch mehr Chache.
Toll. Revulotion!

Und der i7. Da hatte Intel ja genug Zeit um sich die Innovationen namens
HT und den integrierten Speichercontroller bei AMD abzugucken und
mit der Core Archtiektur zu vereinen. Das native Quad-Core Design ist
fast zwei Jahre nach AMD auch keine Revulotion mehr.

Was bleibt ist die gelungene Core-Architektur mit den Vorzügen eines AMD
Prozessors, der für eine 45nm CPU Strom ohen Ende verbrät.

Somit ist die Core-Architektur so ziehmlich das einzige, was Intel in
der letzten Zeit leistete.
 
Der native Quadcore ist meiner Meinung nach eine Leistung gewesen,
ihn zu entwickeln ist ein zu respektierender Schritt. Dass er am Ende nicht an die
Leistung des teuer und schnell zusammengeschusterteten C2Q rankommt,
der mit Cache vollgestopft wird, um den Flaschenhals FSB zu kaschieren,
ist leider Pech.

Dir muss man anscheinend auch erklären, das der TLB-Bug eigentlich
keine Sache war, sondern völlig übertrieben dargestellt wurde,
es gibt nach wie vor keinen dokumentierten Fall eines Privatanwenders,
bei dem der Bug auftritt!

Den B2-Phenom als unbrauchbar zu bezeichnen, ist das lächerlichste,
was ich seit langem gehört habe.

Mag ja sein das der Phenom moderner ist. Ich habe mich auch öfters über den QUad lustig gemacht. Aber für den Anwender ist doch erstmal die Technik egal wichtig ist was raus kommt.

Und da kann der zusammengeschusterte Quad trotz seiner Nachteile immer noch gut mithalten.
Im Serverbereich sieht das teilweise etwas anders aus aber wir reden ja von den normalen Anwender.
 
Mag ja sein das der Phenom moderner ist. Ich habe mich auch öfters über den QUad lustig gemacht. Aber für den Anwender ist doch erstmal die Technik egal wichtig ist was raus kommt.

Und da kann der zusammengeschusterte Quad trotz seiner Nachteile immer noch gut mithalten.
Im Serverbereich sieht das teilweise etwas anders aus aber wir reden ja von den normalen Anwender.


Du bringst es auf den Punkt!

@MaximumGame:

Hast du diesen Test schon einmal gelesen? (vom Mai 2005):

http://www.tomshardware.com/de/Fehlentwicklung-Pentium-4,testberichte-1115.html

und jetzt bitte nicht meckern dass da Tomshardware steht... auch wenns vielleicht allgemein berechtigt wäre...

Achte bitte besonders auf das Fazit. Ich habe 2005 (als damals noch AMD Fan) diesen Bericht besorgt gelesen und gehofft dass AMD bereits an einer Antwort dafür arbeitet.

Die neuesten AMD Roadmaps bestätigen allerdings einmal mehr, dass AMD erst 2011 mit einer neuen Architektur kommt. Somit haben sie meiner Meinung nach verschlafen.

Und ja, mir ist schon klar dass ein AMD Fanboy da gleich wieder unfreundlich wird wenn einer aus dem anderen Lager behauptet "AMD habe verschlafen" - Deshalb möchte ich auch nocheinmal betonen dass das meine Meinung ist, welche ihr keinesfalls mit mir teilen müsst. Es würde mich dann aber auch freuen, wenn ihr euch die teilweise schon niveaulosen Beschuldigungen sparen könntet...;)


MfG.
 
Boey Mädelz den Thread zu lesen macht keinen Spaß mehr.
Keiner hat hier scheinbar eine Ahnung, zumindest behauptet das hier der eine oder der andere permanent und monoton, von irgendwas aber trotzdem füllen sich hier die Seiten.

Thread zu und fertig *noahnung*
 
...
Thread zu und fertig *noahnung*
He KGB, ich finde das mehr als lustig und verfolge das Thema mit ständigem Interesse. Wie sich einige hier die Taschen voll hauen. Vor allem vom ComputerPlanten kommt noch die eine oder andere Steilvorlage, wo ich mir wünschte mehr Quadratmeter zu haben, wegen dem ROFL u.s.w.... *lol* Hier ist wirklich wenig Platz und sich würde gern mehr schreiben, aber mir tut alles Weh... Vor lachen...

Themaschließungen zu fordern ist nicht die feine Englishe.... :-X
 
Zuletzt bearbeitet:
Du willst eine einzelne Funktion aufwiegen mit kompletten Kryptologie-Einheiten von VIAs PadLock, Suns Niagara 2 und den noch mächtigeren IBM z10? *lol* *buck* ;D *lol* *buck*

Die DFP-Einheit im Power6 und z10 ist sogar ein Alleinstellungsmerkmal von IBM, wobei sie die Instruktionen der DFP-Einheit der IEEE als firmenübegreifenden Standard überantworten wollen.

MFG Bobo(2009)
Nö, wo hab ich das? :]
 
Die Entwicklung je nach Prozessor zwischen 1 - 2 Jahre.
Das war jetzt rein Spekulativ *buck*

Bei GPUs? Länger.

Before we get too far down the rabbit hole it’s worth adding some perspective. ATI’s RV770 design took three years of work, that means ATI started in 2005. It takes about a year for manufacturability from tapeout to final product ship, another 1 - 1.5 years for design and another year for architecture.

http://www.anandtech.com/video/showdoc.aspx?i=3469&p=3.

Ein komplett neue CPU von Grund auf? Nochmal deutlich mehr.
 
ok.. keine journalistische korrektheit.

dh. keine objektive ausgewogenheit....

Eben, denn wir sind quasi "Open Source", da ja wie schon gesagt jeder mitmachen kann. Da sprechen sich die Leute sicher nicht vorher ab, wer was postet, um eine Ausgewogenheit zu erreichen. ;)
 
Du bringst es auf den Punkt!

@MaximumGame:

Hast du diesen Test schon einmal gelesen? (vom Mai 2005):

http://www.tomshardware.com/de/Fehlentwicklung-Pentium-4,testberichte-1115.html

und jetzt bitte nicht meckern dass da Tomshardware steht... auch wenns vielleicht allgemein berechtigt wäre...

Achte bitte besonders auf das Fazit. Ich habe 2005 (als damals noch AMD Fan) diesen Bericht besorgt gelesen und gehofft dass AMD bereits an einer Antwort dafür arbeitet.

Die neuesten AMD Roadmaps bestätigen allerdings einmal mehr, dass AMD erst 2011 mit einer neuen Architektur kommt. Somit haben sie meiner Meinung nach verschlafen.

Und ja, mir ist schon klar dass ein AMD Fanboy da gleich wieder unfreundlich wird wenn einer aus dem anderen Lager behauptet "AMD habe verschlafen" - Deshalb möchte ich auch nocheinmal betonen dass das meine Meinung ist, welche ihr keinesfalls mit mir teilen müsst. Es würde mich dann aber auch freuen, wenn ihr euch die teilweise schon niveaulosen Beschuldigungen sparen könntet...;)


MfG.

Was soll den der Post?
Da steht nur, dass der Pentium 4 scheisse war und
der Pentium M eine bessere Architektur hatte.
Und das ist auch der Grund, weshalb der Core 2 Duo viele
Elemente des Pentium M übernommen hat.

Mir wirds zu dumm hier...
 
Was soll den der Post?
Da steht nur, dass der Pentium 4 scheisse war und
der Pentium M eine bessere Architektur hatte.
Und das ist auch der Grund, weshalb der Core 2 Duo viele
Elemente des Pentium M übernommen hat.

Mir wirds zu dumm hier...

Naja, dieser Artikel von TomsHardware sagt schon sehr viel aus, denn spätestens zu diesem Zeitpunkt hätte AMD realisieren können, dass ihre Architektur langfristig nicht mehr konkurrenzfähig ist.

Hätte man sich weniger auf das Übernehmen einer Grafikschmiede und somit auf "The Future is Fusion" konzentriert, sondern gleich alle Ressourcen in die Entwicklung einer neuen Architektur gesteckt, so würde der Core i7 jetzt oder naher Zukunft mit Sicherheit einen Angstgegner bekommen. Dieser kommt aber wenn überhaupt erst 2011 auf den Markt. (Intel arbeitet ja auch schon an der neuen Architektur "Sandy Bridge" welche Ende 2010 erscheinen wird...)

Ehrlich gesagt wirds mir auch schon zu dumm. Bei den echten AMD Fans redet man offensichtlich ohnehin gegen eine Wand...


MfG.
 
Zuletzt bearbeitet:
@mike-007
Das geht nun leider alles ein wenig in Richtung offtopic....trotzdem würde ich mich dazu gerne äußern.

AMD hat mit dem Kauf von ATI sicherlich gut gehandelt.
Mit dem zunehmenden Einsatz von OpenCL (oder was auch immer sich als Standard im GPGPU Bereich durchsetzt) wird der Hauptprozessor zukünftig an Bedeutung verlieren. (Wenn man mit offenen Augen die Entwicklung verfolgt, dann sieht man diese Richtung momentan schon deutlich)
AMD hat dann eben mit dem Fusion-Konzept zunächst die Möglichkeit gute Gesamt-Plattformen anzubieten und langfristig kann man dann einen leistungsstarken GPU-Kern in die CPU integrieren, was ebenfalls die Rechenleistung steigern wird (zumindest für jene Anwendungen, die gut parallelisierbar sind). Intel hat, was IGPs oder sonstige Grafiklösungen angeht nichts vernünftiges zu bieten.
[Die Stoßrichtung Larabee seitens Intel kommt wohl auch daher, dass man weiterhin x86 forcieren möchte, weil man hier eben die Lizenz, sprich Druckmittel hat. Ich bin mir aber ziemlich sicher, dass Intel in den nächsten Monaten irgendwelche Grafikfirmen kaufen wird, um sein Know-How im Bereich GPU zu verbessern. (das ist weniger eine Frage der richtigen Glaskugel als der Marktstrategie).]

Der Phenom II scheint ein recht gelungener Prozessor zu sein, den die wenigsten zuhause ausreizen (können oder müssen) und daran wird sich wohl auch bis Ende 2010 nicht sonderlich viel ändern. Intel hat mit dem Core i7 ein starkes Pferd im Stall, das allerdings dem Software-Markt weitgehend voraus ist. Intel gibt ja selbst zu, dass man sich im Enthusiasten Segment nicht allzuviel Profit erhofft. Hätte sich AMD darauf konzentriert, mit dem Nehalem zu konkurrieren, dann würde man auf Dauer ziemlich blöd dastehen, weil Intel einfach mehr Geld in die Entwicklung pumpen kann und AMD dann mit dem wenigen Geld, was sie haben, keinen Profit erwirtschaften könnte. Die Strategie eine gelungene Gesamtplattform (inklusive ATI-Technik) für den Mainstreambereich anzubieten scheint da wesentlich erfolgversprechender.
Zumal inzwischen viele erkennen, dass sie die ganze Rechenleistung, die ihre Rechner bieten gar nicht benötigen (siehe Netbook-Trend mit Ultra Low Performance CPUs, die jedoch für vieles ausreichen). Im Spiele-bereich ist ja auch häufig eher die GPU die Bremse, nicht die CPU.

Der K10.5 bietet bis 2011 eine völlig ausreichende Leistung für mehr als 80 Prozent der Nutzer. Wenn dann die neue Technologie kommt, wird der Computermarkt wohl sowieso anders aussehen. Momentan kann sich ja glücklicherweise jeder entscheiden: Wenn man einen ordentlichen Rechner haben will, dann kann man eine 775 oder AM2+ Plattform kaufen, wenn man höchste Ansprüche hat kann man sich einen Core i7 kaufen.

Allerdings war der Verkauf der Fabriken auf Dauer ein hoher Preis, den AMD für die Strategie gezahlt hat.
 
Zuletzt bearbeitet:
ich lege einigen streithälsen nahe, die ignore-funktion zu nutzen, ansonsten müssen wir seitens der moderation andere maßnahmen treffen
 
Auf die Frage zurückzukommen wie lange man für eine Entwicklung einer CPU braucht...

Intel fing mit der Entwicklung des Sandy Bridge 2006 an. Dieser wird voraussichtlich 2010 das Licht der Welt erblicken. Interessant dürfte wohl noch sein das Intel's Israel Development Center die CPU entwickelt woher auch Core Architektur stammt.

mfg
 
man die Werbung von AMD is ja mal geil, mensch wieso gibts sowas ned im fernsehn oder mal auf irgendwelchen internetseiten. Echt schade
 
@ mike-007:

Du hast recht. AMD hätte unbedingt früher Handel müssen,
anstatt sich auf dem K8 auszuruhen. Trotzdem waren die
Überahme von ATI und auch mit Sicherheit Fusion Schritte in die richitge Richtung.


Das Video ist extrem gut :D
 
@ mike-007:

Du hast recht. AMD hätte unbedingt früher Handel müssen,
anstatt sich auf dem K8 auszuruhen. Trotzdem waren die
Überahme von ATI und auch mit Sicherheit Fusion Schritte in die richitge Richtung.


Das Video ist extrem gut :D


Ja da gebe ich dir recht. Die Übernahme von ATI hat AMD bestimmt auch einiges gebracht. Es kann natürlich auch sein, dass AMD nicht die finanziellen Möglichkeiten hatte um in kurzer Zeit eine neue Architektur zu entwickeln.

PS: Ich finde das Video auch genial! Es zeigt einmal die Tatsache auf, dass ein schneller, teurer Quad-Core nicht wirklich was zu einem gute Spieleerlebnis beiträgt....;D;)

MfG.
 
stimmt, das video ist super aber völlig deplatziert. ich würde mir wünschen sowas mal auf einigen sendern im werbeblock zu sehen.
ein 30 sek spot pro woche ist wohl nicht zuviel verlangt...

ich verstehe bis heute nicht warum sie intel das marketing überlassen, sie haben die innovativeren produkte und fairsten preise... :(
 
sie haben die innovativeren produkte und fairsten preise...

Aber nicht unbedingt das Geld nach dem Ausbau von Fabriken und roten Zahlen. Vielleicht sieht man nach dem Release des Phenom II einmal Werbung im Fernsehen.

Die Idee youtube zu nutzen halte ich allerdings für intelligent. Wo sonst kann man Werbung kostenlos machen?
 
Zurück
Oben Unten