News AMD FX-8370E und FX-8320E sind deutlich taktreduziert

War es damals nicht die EE Versionen die weniger TDP hatten?
Evt. gleicher Verbrauch aber weniger Temperatur (Leckströme) ?
 
Wenn AMD bei den CPUs nicht bald mit einer guten Architektur kommt die im High-End Bereich mithalten kann, also da wo auch die Margen fett sind, dann wird es eng. Bei den Budget CPUs lässt sich eben nichts verdienen, zumal wenn man auch noch einen Auftragsfertiger bezahlen muss.
Was nützt einem die gute Marge (Porsche), wenn man dann von einem Budget-Hersteller (VW) geschluckt wird?
Aldi hat auch so gut wie keine nennenswerten Margen, zählt aber nicht gerade zu den ärmsten Unternehmen.
Margen sind wurscht, allein der Umsatz und der Gewinnen müssen stimmen.
Und wenn AMD (zurecht) die wenigen Kunden, die sich HighEnd kaufen würden, links liegen läßt und sich auf den Massenmarkt konzentriert, dann hilft das beim Überleben.
Auch Intel verdient die meiste Kohle mit Massenware, zumindest war es früher so, als ich da noch regelmäßig nachgeschaut habe. In den Millionen Bürokisten von Dell und HP stecken nunmal selten i7.

Interessant, vor allem da AMD deutlich mehr Innovationen fur die nächsten 2 Jahre angekündigt hat als Intel. Auch hat AMD die letzten 2 Jahre innovativere Produkte heraus gebracht als Intel. Wo war denn die letzte Innovation seit Core2Duo?
Zudem Sind AMD APU-Syteme die derzeit stromsparendsten in jedem Vergleich...weiss nicht wo du das mit dem Stromfressen her hast.
Äh, wenn das von AMD Innovationen waren, dann war auch der Core-i und der Atom jeweils eine.
Welches leistungsfähige AMD-System war das doch gleich, was einen idle-Verbrauch von 10W schafft, so wie es für die Intel-APUs möglich ist?
 
@WindHund
Den EE Zusatz bekam die erste Stufe der Energieeffizienteren Variante, EE SFF bekam die zweite Stufe, letztere waren aber im freien Handel kaum erhältlich und deutlich teurer. Vielleicht mobile Dies im Desktop Bereich?
Beide Bezeichnungen wurden aber scheinbar im Desktop Bereich eingestampft, gegen das derzeitige E ersetzt und wie bei Intel deutlich in der Taktfrequenz reduziert.
Zwischenzeitlich gab es aber auch noch die AMD Business Class Modelle mit dem grossen B, sowie Modelle einem kleinen e wie beispielsweise den Athlon II X4 605e, welche mit reduzierter TDP daher kamen.
Bei AMD finde ich aber auch noch Modelle wie den Athlon™ II X2 270u die mit einem kleinen u, einer TDP von 25W und deutlich reduzierter Taktfrequenz daher kamen.

http://products.amd.com/pages/desktopcpuresult.aspx?AspxAutoDetectCookieSupport=1

---------- Beitrag hinzugefügt um 16:29 ---------- Vorheriger Beitrag um 16:15 ----------

Äh, wenn das von AMD Innovationen waren, dann war auch der Core-i und der Atom jeweils eine.
Welches leistungsfähige AMD-System war das doch gleich, was einen idle-Verbrauch von 10W schafft, so wie es für die Intel-APUs möglich ist?
Wenn die Prozessoren Berechnungen auf der GPU auch abseits der Grafikberechnungen (OpenCL, DirectCompute und Co.) ermöglichen wüde deine Argumentation einen Sinn haben, denn das ist ja ein Kernpunkt der APUs. Da reicht es nicht lediglich irgendeine GPU in den Kern bzw. das CPU Gehäuse zu integrieren.
Bei AMD ging das meines wissens nach ab den Anfang 2011 erhältlichen Zacate/Llano Modellen, bei Intel erst 2012 mit den Ivy Bridge Modellen.
 
Was nützt einem die gute Marge (Porsche), wenn man dann von einem Budget-Hersteller (VW) geschluckt wird?
Aldi hat auch so gut wie keine nennenswerten Margen, zählt aber nicht gerade zu den ärmsten Unternehmen.
Margen sind wurscht, allein der Umsatz und der Gewinnen müssen stimmen.
Und wenn AMD (zurecht) die wenigen Kunden, die sich HighEnd kaufen würden, links liegen läßt und sich auf den Massenmarkt konzentriert, dann hilft das beim Überleben.
Auch Intel verdient die meiste Kohle mit Massenware, zumindest war es früher so, als ich da noch regelmäßig nachgeschaut habe. In den Millionen Bürokisten von Dell und HP stecken nunmal selten i7.


Äh, wenn das von AMD Innovationen waren, dann war auch der Core-i und der Atom jeweils eine.
Welches leistungsfähige AMD-System war das doch gleich, was einen idle-Verbrauch von 10W schafft, so wie es für die Intel-APUs möglich ist?

Die Aldis und Lidls mögen reich sein, doch auf wessen Kosten ?
Die Lieferanten, bzw. deren Beschäftigten zahlen den Preis.
Hauptsache billig ist ein Irrweg.
 
Und wie immer hat es der Kunde in der Hand....
Unterm Strich bleibt es aber dabei dass das Geld idR. mit der Allerweiltswahre verdient wird, da diese sich entsprechend oft verkauft.
Wann verdient man mehr? Wenn man 10.000 Produkte mit einem Gewinn von 300,- pro Stück verkauft oder 1.000.000 mit einem Gewinn von 30,- pro Stück?
Um mal im Hardware Bereich zu bleiben...
 
Die Aldis und Lidls mögen reich sein, doch auf wessen Kosten ?
Die Lieferanten, bzw. deren Beschäftigten zahlen den Preis.
Hauptsache billig ist ein Irrweg.
Aldi ist zu Zeiten reich geworden, wo man sich einfach auf das Wesentliche beschränkt und mit viel Umsatz von wenigen Produkten den satten Gewinn erwirtschaftet hat. Da waren weder die Lieferanten noch die Mitarbeiter sonderlich unter Druck.
Irgendwann kam aber die Konkurrenz auf und hat das Erfolgsmodell adaptiert. Erst da wurde mit härteren Bandagen gekämpft, begünstigt durch die Ausbeutergesetze einiger Alt-Regierungen. Heute gehen vermutlich selbst hochpreisige Supermärkte wie Tengelmann oder Rewe in die (falsche) Richtung und beschäftigen "Sklaven" für einen Hungerlohn, wenn ich mich mal in denen so umsehe (ich sag nur Regaleinräumer von einer Sub-firma, die man nicht mal mehr fragen kann, wo welches Produkt steht)
 
Zuletzt bearbeitet:
Wann verdient man mehr? Wenn man 10.000 Produkte mit einem Gewinn von 300,- pro Stück verkauft oder 1.000.000 mit einem Gewinn von 30,- pro Stück?
Um mal im Hardware Bereich zu bleiben... das ist, mit Verlaub, eine fangfragenbehaftete Milchmädchenrechnung. Für das Unternehmen ist es bedeutend wirtschaftlicher und lukrativer, 10 000 Produkte mit einem Gewinn von 300,-- zu verkaufen. Du darfst nicht vergessen: Reklamationsquote, Garantiezeitraum, Marktsättigung und die ganzen anderen schönen Dinge. Da können mittel- und langfristig gesehen 3 000 000 ganz schnell mehr sein, als 30 000 000.

Verramsche ich Produkte nach dem Schema 1 000 000 mit einem Gewinn von 30,-- Schokotalern pro Stück, sieht es wirtschaftlich aus wie bei AMD: Foundry abgestossen, Niederlassung verkauft und angemietet, Personalkarussel, orientierungslos und superbe Hardwarefunktionen ohne Softwareunterstützung - wenn wir denn bei AMD bleiben. Das lässt sich auch auf die Smartphonehersteller ausweiten, die tatsächlich alle 6 Monate einen völlig übersättigten Markt bedienen müssen um keine Miese einzufahren.

Zu den E-Produkten selber: AMD scheint es Intel nun gleichtun zu wollen. An für sich spricht nichts dagegen, aber es wäre taktisch eleganter gewesen dass etwas früher bekannt zu geben (wohlwissend um die Fertigungsproblematik bei AMD, dass sie nicht so fertigen können, wie sie gerade wollen).

Und der Kunde sagt...
... ich will es möglichst billig - mir egal was drin ist, hauptsache ich zahle nicht zuviel.

Die handvoll Enthusiasten interessieren niemanden ernsthaft - sie werden nur als Werbeträger benutzt.
 
Andere Firmen wie Qualcomm machen ohne den ganzen Ballast, den AMD früher hatte, auch Milliardengewinne. Und das nicht mit Klasse, sondern mit Masse.
 
AMD hätte aber immer noch die Möglichkeit mit einem hammer Chip eben 10.000 Produkte mit einem Gewinn von 300,-- zu Verkaufen.

Ich muss ja zugeben, dass ich vom FX-9530 recht angetan war, denn bis jetzt hat jeder AMD Prozessor die Taktfrequenz mit der er Verkauft wurde immer mit deutlich weniger VCore geschafft. Dass das beim 9530 so gewesen wäre will ich nicht behaupten - aber ich kann mir dann doch vorstellen, dass der dann mit 3 GHz möglicherweise mit deutlich weniger Spannung läuft, als ein 8320 oder so etwas. Egal - ich schweife ab...
 
Und was hat das damit zu tuen das die Taktfrequenz bei Intel ebenfalls deutlich gesenkt wird?
Vielleicht das man nun auch die Erwartung der gußeisernen Fanboys enttäuscht hat, dass der inzwischen gereifte Prozess es ermöglichen würde diese Senkung der Taktfrequenzen zu umgehen?

Wer sich hier nicht auf profitable Entwicklungen konzentriert sondern die Kohle in Prestigeprojekte verpulvert ist in meinen Augen schlicht dämlich oder will das Unternehmen gegen die Wand fahren.
Eine effiziente CPU Architektur zur entwickeln die bei IPC und Leistung pro Watt mithalten kann, würde ich nicht als Prestigeprojekt bezeichne, denn auch den APUs würde das gut tun und für eine neue Heigh-End oder Server CPU ist das sowieso unumgänglich. Sich bei den Server CPUs alleine auf ARM Kerne zu verlassen, ist auch ein hohes Risiko, denn bisher gibt es praktisch überhaupt keinen Markt für ARM Server, das sind bisher Kerne die in Controllern, Smartphones und Tablets verbaut werden. Man hofft hier also auf ein komplett neues Marktsegment und kann sich nicht auf mehr als Absichten und Vorhersagen verlassen.

Er kostet 50,- € mehr...;)
Diese wären besser investiert in eine SSD. Bei selben Kosten ein insgesamt schnelleres System.
Und was soll jemand kaufen, der schon eine schnelle SSD hat und eine oder mehrere dicke Grakas?

Man muß eben einen Mittelweg finden. AMD setzt hingegen konsequent auf die falschen Produkte. Ewig können die sich nicht auf auf veraltete, stromfressende CPUs oder lahmen APUs stützen. Schon derzeit verkauft man allein über den Preis, nicht aufgrund der Leistung
Da stimme ich Dir voll zu.

Die falsche Entscheidung fing mit dem Bulldozer an
Eigentlich wohl schon mit der Entscheidung für die APUs, dann das hat viele Resourcen gebunden und die Anforderungen dafür haben auch einen großen Einfluss auf die Architektur und die Verzögerungen bei BD gehabt.
Mit den "neuen" FX zeigen sie das ihre Kunden Ihnen völlig egal sind.
Was sollen sie dann machen? Die haben keine x86er Architektur die bringen könnten. Die soll ja Ende 2015 kommen und es hängen wohl verbliebenen Fans ihren Hoffnungen daran, aber wenn die wieder ähnlich enttäuscht wie BD, dann dürfte es für AMD eng auf dem CPU Markt werden und sie müssen auf ARM hoffen, womit sie dann nur noch mit NVidia im Wettbewerb stehen würde, aber kaum noch mit Intel. Das kann ja durchaus reichen das Überleben zu sichern.

Interessant, vor allem da AMD deutlich mehr Innovationen fur die nächsten 2 Jahre angekündigt hat als Intel.
Ankündigungen sind das eine, es zählt am Ende aber nur, was dabei rauskommt.

Auch hat AMD die letzten 2 Jahre innovativere Produkte heraus gebracht als Intel. Wo war denn die letzte Innovation seit Core2Duo?
Wohl nur wenn man nicht weiß, was Intel seid dem C2D gebracht hat, kann man so einen Satz schreiben. Was hat den AMD bei den CPUs so an innovativere Produkten gebracht als Intel? Die Graka zählen nicht, da steht sie ja nicht im Wettbewerb.
Zudem Sind AMD APU-Syteme die derzeit stromsparendsten in jedem Vergleich...weiss nicht wo du das mit dem Stromfressen her hast.
Wenn ich mir das hier so ansehe, gilt das nur im Idle aber schon nicht mehr beim Abspielen einer Blue-Ray. Und ja, die reine APU ist beim Spielen Intels CPUs überlegen, aber das ist Low-End, kein halbwegs ambitionierter Gamer wird auf eine Graka verzichten und dann wendet sich das Blatt.
Von den angekündigten ARM basierenden Designs fang ich erst gar nicht an.
Das ist auch besser so, denn möchstest Du im PC auf ARM umsteigen? Gibt es von der ganze SW die Du nutzt auch ARM Versionen? Ich muss beide Fragen mit Nein beantworten und das dürfte hier vielen so gehen.
Übrigens hat ein Kaveri 3-5 fache IPC bei HSA Workloads als ein i5...was daran lahm sein soll erklär mir mal.
Theorisch kann man bei parallelen Befehlen viele IPC errechnen, entscheidend bleibt aber, wie lange ein reales Programm an einem realen Problem arbeitet und solange da die APUs an den verbreiteten Programmen länger rumkauen müssen als die Intel CPUs interessiert das keinen vernünftigen Kunden das die es theoretisch vielleicht schneller könnten. Was zählt ist eben immer noch, war zuerst die Ziellinie überschreitet und nicht die vielleicht elegantere Technik des zweitplazierten.

Was nützt einem die gute Marge (Porsche), wenn man dann von einem Budget-Hersteller (VW) geschluckt wird?
Das ist nun aber ein ganz dummer Vergleich, denn wenn die EU das VW-Gesetz gekippt hätte, wäre die Geschichte anders ausgegangen. Der kleine mit der guten Marge hätte dann sehr wahrscheinlich den großen geschluckt, obwohl die Margen bei VW so schlecht nicht sind, weit besser als bei AMD und die bei Intel sind nochmal besser als die von Porsche.
 
Andere Firmen wie Qualcomm machen ohne den ganzen Ballast, den AMD früher hatte, auch Milliardengewinne. Und das nicht mit Klasse, sondern mit Masse.
Du kannst aber nicht Firmen einbringen, die (fast) ausschließlich Bauteile für andere Firmen fertigen und mit Firmen, die neben dem OEM Geschäft auch den Endkundenmarkt bedienen. Dort herrschen ganz andere Regeln vor, sowas wie Garantie und Gewährleistung gibt es dort auch nicht in der bekannten Art.

Und besonders viele Qualcomm Mobilprozessoren habe ich dieses Jahr auch noch nicht gekauft. ^.^ Auch wenn Qualcomm kürzlich 225 Millionen MSM-Chips aus der Snapdragon-Reihe ausgeliefert hat (irgendwann ist auch hier der Markt satt). Umsatz / Gewinn haben ein ziemlich unschönes Verhältnis ( http://www.zdnet.de/88199600/mobilprozessoren-bescheren-qualcomm-rekordgewinn-im-dritten-quartal/ ).
 
Zuletzt bearbeitet:
@Scour
Den Mittelweg haben sie doch schon und bauen ihn weiter aus.
Konzentration auf den umsatzträchtigen Bereich, schrittweise Integration von zukunftsträchtige Features und Ausbau der Produktpalette abseits der Intel Dominanz.
Man sieht man ja auch das die Performance auf einmal deutlich zunimmt wenn wenn die Funktionen auch genutzt werden. Investion in die Zukunft ebend.

Zukunftsträchtige Features sind die die genutzt werden, also nicht was AMD mit dem BD eingeführt hat. Jetzt sind 2,5 Jahre vorbei, eine Zeit in der viele anspruchsvolle User schon aufgerüstet haben, aber Fortschritte die die breite Masse nutzen kann --> kaum was zu sehen

Nur die Konsolen halten AMD über Wasser, wenn das so umsatzträchtig wär hätte man bessere Zahlen. Aber dein Hammer ist "Produktpalette abseits der Intel Dominanz",gerade der Serverbereich ist geprägt von Intel und ausgerechnet da hat AMD bodenlos Geld verbraten um etwas zu bauen das im Servermarkt gegen 2 Jahre alte Xeons kaum bestehen konnte und für den Desktop unbrauchbar war :P

Aber das Thema haben wir schon oft genug durch, nach wie vor knn ich deinen Ansichten nicht folgen.


Interessant, vor allem da AMD deutlich mehr Innovationen fur die nächsten 2 Jahre angekündigt hat als Intel. Auch hat AMD die letzten 2 Jahre innovativere Produkte heraus gebracht als Intel. Wo war denn die letzte Innovation seit Core2Duo?
Zudem Sind AMD APU-Syteme die derzeit stromsparendsten in jedem Vergleich...weiss nicht wo du das mit dem Stromfressen her hast.

[/COLOR]Übrigens hat ein Kaveri 3-5 fache IPC bei HSA Workloads als ein i5...was daran lahm sein soll erklär mir mal.

Was helfen mir Innovationen die ich nicht nutzen kann? Mit was vergleichst du die APUs, die für Office und anspruchsvolles Gaming uninteressant sind? Mit einem Intel Quad und einer fetten Grafikkarte?

HSA spielt derzeit keine Rolle und wird es auch in den nächsten Jahren nicht tun; außer Intel unterstützt es und plättet AMD dann


Ich bitte um mehr Realismus und nicht nur "wenn es mal unterstützt wird"-Theorien

Nicht ohne Grund ist der Anteil an Intel-Systemen hier in den letzten Jahren deutlich gestiegen; man bedenke dies ist ein AMD-nahes Forum ;)

Aber da dies hier wieder eine Endlosdiskussion geben wird warum AMD trotz schlechteren Produkten irgendwie doch besser ist -> ich verabschied mich mal aus diesem Topic. Zum 8370E und 8320E wurde ja schon alles erwähnenswerte gesagt
 
AMD hätte aber immer noch die Möglichkeit mit einem hammer Chip eben 10.000 Produkte mit einem Gewinn von 300,-- zu Verkaufen.

Ich muss ja zugeben, dass ich vom FX-9530 recht angetan war, denn bis jetzt hat jeder AMD Prozessor die Taktfrequenz mit der er Verkauft wurde immer mit deutlich weniger VCore geschafft. Dass das beim 9530 so gewesen wäre will ich nicht behaupten - aber ich kann mir dann doch vorstellen, dass der dann mit 3 GHz möglicherweise mit deutlich weniger Spannung läuft, als ein 8320 oder so etwas. Egal - ich schweife ab...

Mein I3 3245 im zweit Pc läuft mit D3 im Fenstermodus ( ok die Auslastung ist bestenfalls bei 35% pro Kern) bei 3,4 Ghz bei ca. 0,8V- 0.9V laut Asus Pc Probe, mach das mal nach.
Hm, muss da echt mal mit Prime mal testen wie hoch die Vcore überhaupt gehen kann, der Taktet teilweise sogar noch runter.

Naja, wäre schon schön wenn Amd mal wieder einen "A64" oder T-Bird raushauen könnte.
Vor allem muss alles auf einem Sockel laufen können, egal ob Apu oder FX, das ist auch nur eine unnötige Behinderung ist, zumindest für den Selbstschrauber, weil man nicht wirklich eine freie Wahl hat.
Bei Intel hat man die Einschränkung nicht, abgesehen davon das es als normale Desktop Cpu eh fast nix mehr ohne Grafikeinheit gibt, Xeon zähle ich jetzt nicht als normale Desktop Cpu, das müste mal verbessert werden.
Finde ich zumindest.*engel*
 
Zuletzt bearbeitet:
Zukunftsträchtig ist vor allem das was mittel bis langfristig genutzt wird und nicht unbedingt das was zu diesem zeitpunkt angesagt ist. Das ist dem Markt hinterher entwickeln und daran sind schon ganz andere zu grunde gegangen, andere würden es aufgrund der nötigen Entwicklungszeiten auch als "Trend verschlafen" bezeichnen.
Wie sehr AMD damit angeblich auf dem Holzweg war sieht man ja bereist daran das Intel 1-2 Generationen weiter auf einem vergleichbaren Ausstattungsstand ist. Der einzige wirkliche Nachteil ist letztendlich nur die vergleichsweise geringe Einzelkernleistung.
 
Mein I3 3245 im zweit Pc läuft mit D3 im Fenstermodus ( ok die Auslastung ist bestenfalls bei 35% pro Kern) bei 3,4 Ghz bei ca. 0,8V- 0.9V laut Asus Pc Probe, mach das mal nach.
Hm, muss da echt mal mit Prime mal testen wie hoch die Vcore überhaupt gehen kann, der Taktet teilweise sogar noch runter.

Naja, wäre schon schön wenn Amd mal wieder einen "A64" oder T-Bird raushauen könnte.
Vor allem muss alles auf einem Sockel laufen können, egal ob Apu oder FX, das ist auch nur eine unnötige Behinderung ist, zumindest für den Selbstschrauber, weil man nicht wirklich eine freie Wahl hat.
Bei Intel hat man die Einschränkung nicht, abgesehen davon das es als normale Desktop Cpu eh fast nix mehr ohne Grafikeinheit gibt, Xeon zähle ich jetzt nicht als normale Desktop Cpu, das müste mal verbessert werden.
Finde ich zumindest.*engel*

http://www.planet3dnow.de/vbulletin...lting-Thread?p=4938478&viewfull=1#post4938478

Ich bin mir zwar nicht Sicher in wie weit die Messungen direkt an der 12V Leitung repräsentativ sind: 45 Watt bei 2 GHz für 8 Kerne bei 100% Auslastung finde ich dann doch Bemerkenswert. Ich würde mal fast behaupten, dass ein Intel da nicht wirklich viel besser ist.
 
Die Reduzierung der Taktfrequenz ist eine Sache, eine andere aber die Reduzierung der Spannung (77W @ 1,1875V vs. 40W @ 0,85V bei 2GHz und Last 8 Threads SIMAP)
 
bis jetzt hat jeder AMD Prozessor die Taktfrequenz mit der er Verkauft wurde immer mit deutlich weniger VCore geschafft. Dass das beim 9530 so gewesen wäre will ich nicht behaupten - aber ich kann mir dann doch vorstellen, dass der dann mit 3 GHz möglicherweise mit deutlich weniger Spannung läuft, als ein 8320 oder so etwas. Egal - ich schweife ab...
Hab ich bis zum FX-8350 auch gedacht. Aber der läuft bei mir ohne LLC exakt auf der VCore, die er auch mindestens braucht, gerade mal 0,01V gehen da noch nach unten. Immerhin ist die Spanne bei 3GHz deutlich besser, da gehen 0,15V weniger.


Du kannst aber nicht Firmen einbringen, die (fast) ausschließlich Bauteile für andere Firmen fertigen und mit Firmen, die neben dem OEM Geschäft auch den Endkundenmarkt bedienen. Dort herrschen ganz andere Regeln vor, sowas wie Garantie und Gewährleistung gibt es dort auch nicht in der bekannten Art.

Und besonders viele Qualcomm Mobilprozessoren habe ich dieses Jahr auch noch nicht gekauft. ^.^ Auch wenn Qualcomm kürzlich 225 Millionen MSM-Chips aus der Snapdragon-Reihe ausgeliefert hat (irgendwann ist auch hier der Markt satt). Umsatz / Gewinn haben ein ziemlich unschönes Verhältnis ( http://www.zdnet.de/88199600/mobilprozessoren-bescheren-qualcomm-rekordgewinn-im-dritten-quartal/ ).
Doch, kann ich. ;)
Garantie und Gewährleistung wird von Dir wohl überschätzt. So viel geht da nun auch nicht kaputt, dass man daran zugrunde geht.
Das OEM-Geschäft ist teilweise sogar noch härter. Einem Endkunden gibt man einfach ein Ersatzprodukt aus dem Regal. Einige OEM-Kunden verlangen hingegen eine detailierte Fehleranalyse und Abstellmaßnahmen, damit ein Defekt nicht wieder vorkommt. Manche verlangen auch von vornherein Fehlerquoten von weniger als 10ppm

Das Verhältnis dürfte bei Qualcomm in ähnlichen Dimensionen wie Intel liegen.
Da die nicht nur Mobil-CPUs fertigen, sondern auch diverse Mobilfunkchips, ist eigentlich in fast jedem Handy/Smartphone was von denen drin.
 
Hab ich bis zum FX-8350 auch gedacht. Aber der läuft bei mir ohne LLC exakt auf der VCore, die er auch mindestens braucht, gerade mal 0,01V gehen da noch nach unten. Immerhin ist die Spanne bei 3GHz deutlich besser, da gehen 0,15V weniger.

Gut - das ist dann eher nicht ganz so erfreulich. Trotzdem - Mantle steht "großflächig" vor der Tür und wenn dann 2 GHz reichen um eine 295X ans Limit zu bringen interessiert das keinen der "Gamer". Und wenn man sich Phronix-Benches mal anguckt, dann finde ich, dass der FX gar keine SO schlechte Figur macht, wie es immer heißt. Da liegt er inzwischen sehr oft auf oder einen tick über i7-3770K Niveau. Und da gehört er auch hin. Einen über 2 Jahre alten Chip mit z.B. den Haswells zu vergleichen ist Blödsinn.

Setzt man jetzt aber mal den von AMD angesetzten Preis des FX-8320E (und setzt den Turbotakt auf 4 GHz hoch, das geht zumindest mit dem 750K und dem 760K sehr gut) gegen einen i7-4770, dann ist der i7 natürlich schneller. Sollte man ja schließlich auch von einer 150 Euro teureren CPU erwarten. Trotzdem gbt es einige Dinge, in denen der FX-8350 immer noch schneller als der i7-4770 ist...zumindest laut Phronix. Der Stromverbrauch ist dann jedoch bei weitem nich so extrem wie bei einem "normalen" FX-8350...zumindest theoretisch.

Ich bin momentan wirklich am überlegen mir nicht doch einen AM3+ zu besorgen. Allerdings hab ich "damals" die neue Plattform haben wollen und auf FM2 bzw. FM2+ gesetzt..die vorstellung eine so alte Plattform neu zu Kaufen hat mir dann doch sehr viele Bauchschmerzen gemacht.
 
Einen über 2 Jahre alten Chip mit z.B. den Haswells zu vergleichen ist Blödsinn.
Nö, das ist kein Blödsinn, sondern sinnvoll. Man vergleich das, was man aktuell kaufen kann, idealerweise fürs gleiche Geld.
Wie alt der Chip ist, interessiert mich doch als Endkunde überhaupt nicht, da zählt nur Preis und Leistung.
Also einen FX-6350 mit einem i3-4150
oder einen FX-8320 mit einem i3-4350
oder einen FX-8350 mit einem i5-4460
oder einen FX-9590 mit einem i7-4790
(alternativ kann man hier noch was aus der FM2-Plattform einfügen)
 
Nö, das ist kein Blödsinn, sondern sinnvoll. Man vergleich das, was man aktuell kaufen kann, idealerweise fürs gleiche Geld.
Wie alt der Chip ist, interessiert mich doch als Endkunde überhaupt nicht, da zählt nur Preis und Leistung.
Also einen FX-6350 mit einem i3-4150
oder einen FX-8320 mit einem i3-4350
oder einen FX-8350 mit einem i5-4460
oder einen FX-9590 mit einem i7-4790
(alternativ kann man hier noch was aus der FM2-Plattform einfügen)

Dann sieht Intel aber kein Land mehr - geht ja nich, dass AMD gut da steht ;)*buck*
 
Der Vergleich der Vishera- mit der Haswell Serie ist schon aufgrund der Ausstattung des Chips (Befehlssätze) durchaus sinnvoll aber dabei darf man ebend nicht den Preis aus den Augen verlieren.
 
Wenn man Dauercruncher ist, sollte man aber auch den Stromverbrauch in die Rechnung einbeziehen und dann sieht AMD teilweise kein Land mehr.
 
Wenn man Dauercruncher ist, sollte man aber auch den Stromverbrauch in die Rechnung einbeziehen und dann sieht AMD teilweise kein Land mehr.
Das habe ich schon ein paar mal probiert, den Stromverbrauch mit einzuberechnen.
Jedesmal bekomme ich Geld zurück, obwohl ich rechnerisch draufzahlen müsste. *buck* (TDP<>ACP)

Ich crunche aber auch nicht dauernd, sondern nur so lang ich Lust habe, das sind selten mehr als 48h am Stück.
Da ich auch zwei GPUs zu füttern habe, gehen die bis zu 250W Peaks der CPU in den 500W der GPUs unter.
Welche CPU bräuchte ich denn, wenn ich zwei PCIe 3.0 Karten mit jeweils x16 Anbinden möchte?
Der Sockel 2011 braucht mit der selben Ausstattung wieder mehr Strom im idle.

Zwickmühle!
 
Zurück
Oben Unten