News AMD plant Athlon II Prozessor für den FM2 Sockel mit freiem Multiplikator

Eine "Diskussion" hab ich nicht angefangen. Ich hab lediglich meine Meinung geäußert, die jemand anderem nicht gefiel, bzw. die jemand anderer auch teilweise nicht richtig verstanden hatte, so dass ich da auch noch paar Dinge richtig stellen musste, wie mein Standpunkt dazu war und warum genau ich den Standpunkt habe.
Na und? Ich finde auch dass deine Meinung völlig daneben ist.
Als FPUs noch mathematische Co-Prozessoren hiesen und auf diskreten Steckkarten waren gab es auch schon CPU Kerne. auch als es Cache noch nicht auf dem DIE gab sondern auf dem Mainboard und er genau so austauschbar war wie DRAM heute. CPUs gab es wohl schon bevor du deine eigene Definition davon kreeirt hast.

Ein CPU Kern war noch nie was anderes als ein Integer Core. Finde dich damit ab und reihe Intels Marketing in die Fererro Kiste mit ein.
 
Eine "Diskussion" hab ich nicht angefangen. Ich hab lediglich meine Meinung geäußert, die jemand anderem nicht gefiel, bzw. die jemand anderer auch teilweise nicht richtig verstanden hatte, so dass ich da auch noch paar Dinge richtig stellen musste, wie mein Standpunkt dazu war und warum genau ich den Standpunkt habe.

Na und? Ich finde auch dass deine Meinung völlig daneben ist.
Als FPUs noch mathematische Co-Prozessoren hiesen und auf diskreten Steckkarten waren gab es auch schon CPU Kerne. auch als es Cache noch nicht auf dem DIE gab sondern auf dem Mainboard und er genau so austauschbar war wie DRAM heute. CPUs gab es wohl schon bevor du deine eigene Definition davon kreeirt hast.

Ein CPU Kern war noch nie was anderes als ein Integer Core. Finde dich damit ab und reihe Intels Marketing in die Fererro Kiste mit ein.

Jetzt reicht es aber! Bitte führt die Kern vs. Modul Diskussion via PN, oder in einem anderen Thread im Forum (solang sie sachlich verläuft und nicht "Meine Meinung zählt mehr als Deine" :P)
 
Immer wieder ermüdend und interessant zugleich, wie schnell die leidige "Kerndiskussion" vom Zaune bricht. Ich habe das Gefühl, daß dieses Problem solange besteht, wie AMD mit seinen "4 Kernen" keinen Intel mit 2 Kernen (mit oder ohne SMT) "überholen" kann, natürlich was die Rechenleistung betrifft - in Sachen TDP überholt AMD Intel in allen Belangen.

Athlon II: Um Himmels Willen! Wie kann man eine "Trinity"-APU ohne Graphikeinheit mit einer TDP von 65W oder 100W ins Rennen schicken, und das bei dieser geringen Modulzahl? AMD bekleckert sich wahrlich nicht mit Ruhm.

Mir erscheinen damit die APU-TDP Werte mit Graphikeinheit geschönt. Schade.

Mal davon abgesehen, daß AMD bei den Chipsätzen wie dem A85X massiv Augenwischerei betreibt - wie soll der Flaschenhals zwischen APU und Chipsatz eine Bandbreite von 8 mal 600 MB/s (4,8 GB/s) plus die PCIe-Lanes bedienen können, wenn über die Schnittstelle meines Wissens gerade mal maximal 4 GB/s (theoretisch) gepreßt werden können? Allerdings meckert bei dem voraussichtlichen Preis niemand - zumindest glaube ich, daß die Platinchen auch für 100 Euro zu haben sein werden, wenn man weder Übertaktunsinn machen möchte noch auf Multimedia Firlefanz Wert legt.

Ich bin insgesamt gespannt auf die Preisgestaltung. Da ich einen kleinen 24/7 SoHo Server unter BSD UNIX basteln werde, der kräftig von AES gebrauch machen kann und wird, ist es Balsam für meine Augen sehen zu können, daß zumindest seitens der Offerten AMD AES-NI und anderes nicht aus seinen kleineren APUs gestrichen hat. Intel hat ja bei den Core i3 Ivy-Bridges gerade AES herausgeschnitten - mitlerweile kann ich mir auch denken, warum. Die XEONs kosten gleich einiges mehr, bringen dafür dann aber AES-NI mit (wenn ich die Datenblätter richtig überflogen habe). Aber Intels Lösung mag zwar mit PCIe 3.0 brillieren, 2 SATA 6GB Slots sind mir aber zu wenig - egal, wie hoch die CPU-MCP bandbreite auch sein mag, SATA 6GB bringt ein paar Protokollvebresserungen mit, die sich im Mehrplattenbetrieb positiv zeigen (können).

Weiß man bereits Näheres über die preisliche Gestaltung der APUs?
 
Gut. ich bin irgendwie zufrieden - mal von der exorbitanten TDP abgesehen. Schade, daß AMD nicht auch für die neuen APUs auf unter 60 Watt gehen konnte. 65 Watt TDP sind auf dem PR-Zettel immer noch eine Schrecksekunde wert!
Naja, die kleineren / besseren Chips wandern ja ins Mobilsegment, da gibts dann ja TDPs bis runter zu 17W/25W.
Im Vergleich zu den GPU-losen Athlon-II Versionen drängen sich dann doch mehr Zweifel auf, als gesund ist. Welchen Maßstab setzt AMDs PR Abteilung an, wenn eine GPU-befeuerte APU mit 65 Watt TDP angepriesen wird? Ist das ein Mittelwert, ein Spitzenwert oder die obere Marge dessen, was meine Kühlung unter Ausschöpfung aller Reserven wirklich schaffen muß? Warum sind dann die GPU-befreiten Chips in der gleichen Wärmeklasse? Die GPU setzt meines Wissens viel elektrische in Wärmeenergie um. Irgendwas ist nicht ganz geradlinig.
Ja ein bisschen komisch,v.a. sind auch die Taktraten der CPUs nicht so exorbitant, als dass es das erklären würde. Aber ich nehme mal an, dass sie in dem Segment einfach "zu faul" waren, neue Klassen einzuführen, und es ähnlich laufen wird, wie schon zuvor bei Intel, deren Chips immer dicke unter der TDP blieben. Ne neue TDP Klasse bedeutet auch wieder neue Tests und Anpassungen, also ne Menge Papierkram, im Endeffekt auch Geld.
Intel verwirrte die Leute anfangs mit den neuen 77W CPUs auch, weil 95W auf der Verpackung steht (stand?). Warten wirs mal ab, wieviel die APUs im Endeffekt verballern. Für den Privatgebrauch kann man sicherlich wieder gut untervolten, das klappte zumindest beim Llano ja ganz gut und die TDP TDP sein lassen.
Oder wird das bei Dir ne Kiste für den (semi)professionellen Einsatz?
Am Ende steht vielleicht auch noch die Frage, wie oft die CPU bei nem Fileserver unter Vollast laufen muss. Im Idlebetrieb sind ja sogar die aktuellen BDs schon relativ gut. Wenn Du da nur ab und zu ein paar verschlüsselte Files hin und herschiebst, wird es egal sein.
 
Es wird dann also zweimodulige Athlon II X4 7xx geben, die sogar single threaded langsamer als die alten X4 6xx mit echten vier Kernen sind.
Für mehr als 50€ kann der Abfall, also die APUs mit defektem GPU-Part sicherlich nicht entsorgt/verkauft werden.

Reine Nutzer die unbedarf solchen Schrott kaufen, werden wohl aus gutem Grund nie wieder eine AMD CPU haben wollen...
 
Es wird dann also zweimodulige Athlon II X4 7xx geben, die sogar single threaded langsamer als die alten X4 6xx mit echten vier Kernen sind.
Für mehr als 50€ kann der Abfall, also die APUs mit defektem GPU-Part sicherlich nicht entsorgt/verkauft werden.

Reine Nutzer die unbedarf solchen Schrott kaufen, werden wohl aus gutem Grund nie wieder eine AMD CPU haben wollen...
Wobei solch ein Vierkerner sich immer noch für eine Reihe typischer PC-Anwendungen ganz passabel eignet.

Das Problem hierbei ist, dass das Bessere dem Gutem Feind ist - und das bildet sich dann wohl auch im Preis ab.

MFG Bobo(2012)
 
Reine Nutzer die unbedarf solchen Schrott kaufen, werden wohl aus gutem Grund nie wieder eine AMD CPU haben wollen...
Jemand der sowas kauft hat keine Ahnung was AMD oder Intel überhaupt ist. Der P4 hat sich damals auch massenhaft verkauft. Wir hier in den Hardwareforen sind nur ein kleiner Teil des Massenmarktes.
 
Allerdings verstehe ich nicht, wer sich das kaufen soll. Wenn ich mir schon ein Sockel FM2 Board zulege, dann doch, weil ich es gerade auf die APU mit funktionierender GPU abgesehen habe.
Gegenfragen:

Wieso sollte man sich ne Intel-CPU kaufen, wo die iGPU deaktiviert ist?

Oder warum haben viele seinerzeit ein Intel-Board mit P67-Chipsatz gekauft und da ne CPU mit eigentlich funktionierender iGPU drauf geschnallt?

:]


Vllt. beim nächsten Mal kurz überlegen, bevor man sich über angebotene Prozessoren echauffiert...
 
Zuletzt bearbeitet:
Bei Intel ist der Sockel 1155 jedoch der einzige Sockel auf dem Desktop, wenn man den eigentlich für Server gedachten Sockel 2011 einmal außer Acht lässt.

Bei AMD gibt es dagegen noch den Sockel AM3+ und wer eine leistungsstarke dedizierte Grafikkarte nutzt, wird eher auf einen FX setzen, als die A-Serie.
 
Bei Intel ist der Sockel 1155 jedoch der einzige Sockel auf dem Desktop, wenn man den eigentlich für Server gedachten Sockel 2011 einmal außer Acht lässt.

Bei AMD gibt es dagegen noch den Sockel AM3+ und wer eine leistungsstarke dedizierte Grafikkarte nutzt, wird eher auf einen FX setzen, als die A-Serie.

Und der bulli wurde nur für den desktop entwickelt ja? da gibts nun garkeine server version von? ;D
Falls ja darf man am3+ auch wegstreichen
 
Wie Opteron schon schrieb, die jüngere Generation hat teilweise überhaupt keine Ahnung mehr was verbaut ist. Wenn ich mich bei mienem Freundes- und Bekantenkreis umsehe kaufen die sich nur mehr Labtops und für die ist das schon ein Weckwerfartikel. Ist es kaputt kommt ein neues her.

Auf dem Teil sind halt viele bunte Aufkleber, was da die CPU oder GPU angiebt weiss keiner. 32 oder 64 Bit OS *noahnung*;D

Bei Spielen gibt es sowas wie Grafikeinstellungen. Hääää?

Die meisten hier im Forum haben die Entwicklung miterlebt. Die jüngeren hatl nicht mehr.

Darum finde ich die ganze Diskusion über X4 oder nicht X4 überflüssig.
 
Ich bin gespannt wie die 1 Moduler abschließen.

Sowohl in den Office PC meines Bekannten, als auch in mein NAS soll mindestens ein 2 Kerner reinkommen.

Ob 2 Kerne = 2 Module sind werde ich entscheiden, wenn die Test dazu raus sind..
(Wenn die Test zu den kleinen denn so zeitnah kommen )(( )
 
Na und? Ich finde auch dass deine Meinung völlig daneben ist.
Als FPUs noch mathematische Co-Prozessoren hiesen und auf diskreten Steckkarten waren gab es auch schon CPU Kerne. auch als es Cache noch nicht auf dem DIE gab sondern auf dem Mainboard und er genau so austauschbar war wie DRAM heute. CPUs gab es wohl schon bevor du deine eigene Definition davon kreeirt hast.

Ein CPU Kern war noch nie was anderes als ein Integer Core. Finde dich damit ab und reihe Intels Marketing in die Fererro Kiste mit ein.
Sehe ich genau so, wenn hier jeder mit seiner eigenen Definition daherkommt. Zugespitzt könnte man den GPU Teil auch als Kern definieren und plötzlich bauen alle nur noch Einkerner oder gar Nullkerner,*buck* egal wie viele INT, FPU und SMT Teile verbaut sind. Auch ein 1 Threader kann mehr als einen Thread verarbeiten.
 
Als FPUs noch mathematische Co-Prozessoren hiesen und auf diskreten Steckkarten waren gab es auch schon CPU Kerne. auch als es Cache noch nicht auf dem DIE gab sondern auf dem Mainboard und er genau so austauschbar war wie DRAM heute. CPUs gab es wohl schon bevor du deine eigene Definition davon kreeirt hast.

Ein CPU Kern war noch nie was anderes als ein Integer Core. Finde dich damit ab und reihe Intels Marketing in die Fererro Kiste mit ein.

Bei allem oben aufgezählten ging die Entwicklung allerdings auch in die richtige Richtung.

Wenn AMD bei CPUs, Chipsätzen und teilweise auch Grafikchips nur mit höheren Nummern und neuen Bugs aufwarten kann, kauft das Zeug niemand mit Durchblick.
 
Deswegen haben ja auch alle die den Durchblick hatten die verbuggten P6x Chipsätze von Intel gekauft :]

Ich hab ehrlich gesagt auch keine Ahnung warum du mich zitierst um dann etwas völlig ohne Zusammenhang zu posten - weder zum Thema, noch zu meinem Zitat. *noahnung*
 
Sehe ich genau so, wenn hier jeder mit seiner eigenen Definition daherkommt. Zugespitzt könnte man den GPU Teil auch als Kern definieren und plötzlich bauen alle nur noch Einkerner oder gar Nullkerner,*buck* egal wie viele INT, FPU und SMT Teile verbaut sind. Auch ein 1 Threader kann mehr als einen Thread verarbeiten.

... sicher doch und die Erde ist eine Scheibe und die Quadratur des Kreises gelingt Dir auch, weil in Deiner Welt Pi := 3 ist ...
 
Deswegen haben ja auch alle die den Durchblick hatten die verbuggten P6x Chipsätze von Intel gekauft :]

Die betroffenen erhielten allerdings recht schnell neue Boards mit Chips des nächsten Steppings. Bei Hardwareproblemen von Llano, Phenom I oder dem 686B Chip wurde per Bios die Leistung beschnitten oder der Kunde mit dem Fehler allein gelassen.
Mit heftigen Bugs in 7xxG/8xxG IGPs, wirrer Threadzuweisung beim Bulldozer, HDMI Tonproblemen bei HD7xxx, flackernden Texturen bei HD6xxx muss der Kunde sich bei AMD leider abfinden, selbständig Problemminderung betreiben und darf noch Monate oder ewig auf Treiber und Wunder warten.

Mit dem derzeitigen Produktportfolio und vor allem auch der (Treiber)Qualität der letzten ein, zwei Jahre demontiert AMD seinen Ruf nachhaltig auf das Niveau von ATI in schlechten Jahren.


Ich hab ehrlich gesagt auch keine Ahnung warum du mich zitierst um dann etwas völlig ohne Zusammenhang zu posten - weder zum Thema, noch zu meinem Zitat. *noahnung*

Kannst oder willst du den ersten Satz meines Postings nicht verstehen?
 
Mein Llano ist Fehlhaft, warum sagt mir das keiner? Und warum werde ich mit diesem Problem allein gelassen? Ich habe noch das erste BIOS drauf, warum sollte ich auch updaten, wo liegt der Fehler? Konnte keinen finden unter Linux Mint, Ubuntu, HyperV 2008 R2, Windows Vista 64, Windows 7 64 oder Windows 8 64, wie soll sich denn der Fehler äußern?
 
Zuletzt bearbeitet:
Da ist sicher das Erratum 665 gemeint. Dieses betrifft die Hardware Division Unit des Llano. Diese kann sich unter Umständen verrechnen.

Allerdings lässt sich dieser Fehler leicht durch das Deaktivieren der Einheit umgehen. Allerdings fällt dadurch die Leistung auf 1/5 ab.
Aber da der K10 eine solche Hardware Division Unit nicht besitzt, fällt der Llano trotz dessen nicht hinter die Vorgänger CPU zurück.
 
Die hohe TDP-Angabe wurde beim LIano durch die recht hohe Grundspannung der CPU erreicht und nicht durch die iGPU.
Ich könnte mir fast denken, dass die TDP-Angaben bei den APUs sich nur auf den CPU-Teil beziehen und nicht auf beides.

Vergleichen wir mal Intel Core i5-3350P (ohne iGPU 69W TDP) mit Intel Core i5-3450 (mit iGPU 77W TDP).
Beide CPUs haben den gleichen Base-Takt von 3,1GHz, der dem Modell mit iGPU liegt allerdings der Turbo 200MHz höher.
Nun glaube ich nicht, dass eine intrigierte HD Graphics 2500 in Verbindung mit dem höherem Turbo-Takt nur +8W TDP ergeben sollte.

Beim Intel Core i5-3350P kommen wir dann ohne iGPU bei 3,3GHz im Turbo auf 69W TDP.
Ein Intel Core i3-3220 mit 3,3GHz ohne Turbo aber mit HD Graphics 2500 soll 55W TDP haben.
Keine Ahnung, aber so realitätsfremd sollte das nicht sein: QC ohne iGPU = 69W TDP / 2 = DC 35W TDP, bleiben 20W TDP für die iGPU um auf 55W TDP zu kommen.
Der Intel Core i3-3220T ist ein Core i3-3220 nur mit weniger Takt (500MHz pro Core) und weniger Spannung aber mit identischer iGPU (-100MHz im Turbo) und kommt auf 35W TDP.
.
EDIT :
.

Vielleicht gibt es bei AMD keine Erbsenzähler und man legt einfach fest, alles größer 65W = 100W und nicht 65W, 80W (Beispiel) und 100W. *noahnung*
 
Zuletzt bearbeitet:
Die hohe TDP-Angabe wurde beim LIano durch die recht hohe Grundspannung der CPU erreicht und nicht durch die iGPU.
Ich könnte mir fast denken, dass die TDP-Angaben bei den APUs sich nur auf den CPU-Teil beziehen und nicht auf beides.

[...]

Ich glaube kaum, daß CPU und GPU getrennt taxiert werden - beide sind im selben Chip und ich muß im Zweifelsfalle den ganzen Chip mit einer Kühlung versehen - und kann mich nicht auf GPU oder CPU beschränken. wie sollte das auch gehen?

Ich werde abwarten, was die ersten Benchmarks mit vernünftigen Mainboards und ordentlich Speicher (8 GB RAM mini.) aussagen werden. AMD muß seine 32 nm Chips wohl mit hohen Spannungen antreiben, weil der SOI Prozeß kein genügsameres Silizium zuläßt - zumindest so meine Erfahrung. Wenn 100% der Chips, die wirklich funktionieren sollen auch mit niederigeren Spannungen funktionieren würden, wäre AMD wirklich kaum zu retten, wenn sie dann diese Spannung nicht als das Infimum ansetzen würden.
.
EDIT :
.

[...] Vielleicht gibt es bei AMD keine Erbsenzähler und man legt einfach fest, alles größer 65W = 100W und nicht 65W, 80W (Beispiel) und 100W. *noahnung*

Gerade das aber weigere ich mich zu glauben. Das würde implizieren, daß AMD nur Idioten in der PR Abteilung sitzen hat!

Energiesparen ist in aller Munde. Nicht nur die BILD Zeitung lesende bundesdeutschen Bevölkerungsschichten wissen bereits, was Energiesparen bedeutet und worauf man achten muß. Behörden und Institutionen geben bereits Richtlinien bezüglich des Energieverbrauches heraus. Man kann sich kaum vorstellen zu welcher Art Stilblüte dies bereits hierzulande geführt hat!

Die EDV-Vernatwortlichen sind angehalten das günstigste und sparsamste Angebot zu kaufen und ggf. Kompromisse einzugehen. Arbeitsplatzrechner müssen sparsam sein, bei den numerischen Rechensystemen und Servern hat die Leistung Priorität.

Jetzt überlege ich mir gerade wo denn "Trinity" zum Einsatz kommen könnte ... In einem leistungsfähigen Server ganz gewiß nicht, in einer "Workstation" kann ich mir den Chip auch nicht vorstellen, wohl aber in einem Bürorechner. Da aber Intel wie AMD für Großkunden entsprechende Rabatte einräumen, sind die Straßenpreise sind ansetzbar. Daß DeLL dann mit Ivy-Bridges ins Feld zieht und den Zuschlag für Rechner mit diesem Chip erhält, weil nur 35W oder 55W, ist dann kein Wunder, oder wundert sich noch jemand?

Wie wichtig - und zuweilen absurd - die Watt-Angaben sind und daß sie nicht einfach zu ignorieren sind, will man am Markt Geld verdienen, leuchtet ein. In der Schwachsinnskonstruktion "EU" werden ja auch 100 W Glühbirnen verboten, um hochgiftige und energetisch viel dreckigere Energiesparlampen einzuführen! Die überwiegende Mehrheit im Land der Deutschen kann kaum noch rechnen und ist nicht imstande nachzudenken, also zählt das, was auf der Packung steht.

Die Leute in Technikforen sind Hobbyisten, Spezialisten auf einem kleinen Gebiet, die sich auskennen (die meisten, hoffe ich ...). Das ist NICHT die Mehrheit! Im Management macht der das Rennen, wer am besten "schmiert". Der kleinste gemeinsame Nenner wird gesucht und der wird auf Druck einer Regulierung, nicht der Vernunft, gefunden, auch wenn Regulierung und Vernunft häufig koinzidieren.

Das Ende des Pentium 4 kam nicht, weil die Kundschaft ein gesteigertes Energiebewußtsein entwickelte! Das Aus kam, weil die US amerikanische Energiebehörde im Rahmen einer Ausschreibung für US weit eingesetze Arbeitsplatzrechner Vorgaben hinsichtlich des Energieverbrauches machte! Bei den Dreckschleuder-Amis macht nämlich prinzipiell keiner das Licht oder den Rechner aus (wer mal in den USA eine Weile gearbeitet hat, weiß, daß wir uns (noch) von denen da drüben erheblich unterscheiden), da läüft alles bis zum nächsten Morgen durch, auch übers Wochenende. Und weil die Kosten für den Energiehaushalt eben bei der Energiebehörde zum Dach hinaus schossen, mußte da etwas getan werden. Allerdings nicht ohne dafür zu sorgen, daß Intel genügend Zeit eingeräumt wurde, um nachzubessern!

Aus diesem Grunde "gluabe" ich nicht, daß AMD aus Gründen wie oben genannt die TDP Klassen nicht ändert.
 
...
Gerade das aber weigere ich mich zu glauben. Das würde implizieren, daß AMD nur Idioten in der PR Abteilung sitzen hat!
...
Das letzte was ich aus der AMD PR Abteilung gehört habe war das "Bulldozer rette uns Video". Seit dem sind die bei mir auf der ignorieren Liste.

Zum Glück wurde die Hälfte davon entlassen.
 
@Drohne

Ich bin mir darüber im klaren, dass mein Beitrag etwas vom Troll in mir abbekommen hat.
Deine Zusammenfassung würde ich unterschrieben, ich sehe das ähnlich und habe gleichwertige Erfahrungen gemacht.

Ich versuche halt immer noch krampfhaft Argumente zu finden, egal wo - und irgendwie muss das mal was werden.
Die TDP-Angaben bei AMD können jedenfalls nicht stimmen, siehe 10-5700 vs 10-5800K, 400MHz Grundtakt und +200MHz im Turbo verursachen niemals +35W TDP.

Und beim LIano war der A6-3650 auch mit 100W TDP gelabelt, genau wie ein X4 631 der hat aber keine iGPU.
Das selbe zeigte sich auch beim A8-3870K zum X4 651K, die haben auch die gleiche TDP-Einstufung, dass geht eigentlich nicht.

Die meisten hier werden wohl zustimmen, dass sich eine iGPU irgendwie in der thermischen Verlustleistung bemerkbar machen muss.
Seltsam wird die ganze Geschichte, wenn ich mir X4 640 (45nm) zum X4 651K anschaue und dann zum A8-3870K schwenke.
Demnach würde ich denke, dass die 100W TDP (maximaler Wert) für den X4 651K realistisch sein sollten, der A8-3870K aber mehr haben müsste, so 125W TDP.

Ich hoffe ich habe es für den i7-3720QM (45W TDP) noch richtig im Kopf: AVG 31W Package - AVG 12W CPU - AVG 14W iGPU (MAX 39W Package, inklusive Memory-Controller und Cache)
Ich vergesse bei der Ivy Bridge immer das 22nm Verfahren (wenig Spannung) und die Bauweise mit Tri-Gate-Transistoren, wie die das bei AMD rechnen, keine Ahnung! Logisch ist das nicht.
 
Zuletzt bearbeitet:
Es dürfte wohl jedem klar sein das die Athlons nicht Dies erster Wahl sind, sondern vll 3. oder 4. Wahl. Ausschuss halt. Die Dinger werden über die VCore stabil ans laufen gebracht. Darum die hohe TDP.

Im normalem Desktopbetrieb halten die das schon eine zeitlang aus, wenn man aber viel zu berechnen hat z. B. Boinc kann es passieren das nach einem halben Jahr die CPU schon ausgelutscht ist. Ist mir mit nem Athlon II 620 so ergangen.

Wer billig kauft kauft zwei mal.
 
Zurück
Oben Unten