Steigende Thuban Preise!

@Reina
Du bist echt der Renner....vergleichst nen Athlon II X2 sammt Chipsatz Grafik mit nem voll ausgebauten Quad Llano und beschwerst dich das letzterer teurer ist.
Und nichts für ungut aber ich habe bisher noch keinen Office PC erlebt bei dem ein Athlon64 X2 nicht gereicht hätte, vorausgesetzt das die Kiste auch genug RAM Speicher hat.

Sicherlich gibt es auch Anwendungsfälle in denen mehr Leistung benötigt wird aber dann werden die Rechner auch entsprechend ausgestattet. Mit den Dualcore Llanos kann man meiner Meinung nach schon einen Großteil abdecken, zumal die Llano Mainboards auch noch sparsamer sind.
 
irgendwie sinnlos hier zu diskutieren, wenn immer nur Gedankenfetzen aus dem Zusammenhang herausgegriffen werden^^
 
Ah,

man weis nicht weiter. Und aus dem Zusammenhang gerissen wird hier nichts!
 
@Reina
Wenn du die Intel Dualcores besser findest aufgrund der besseren Singlethreaded Leistung, wiederspricht dir da niemand.
Wenn allerdings mehrere Anwendungen laufen, sieht es selbst für den I7 Quad nicht so toll aus, egal ob Leistung oder Verbrauch.

MfG
 
Jaja...

ich bin ja jetzt echt der AMD-fanboi ( seit 1999 ausschließlich amd prozzessoren und nur ATI/ Amd Grafikkarten in drei Rechnern ) aber jetzt das... 14zoll diagonale mit 1366x768,
wo gibts das noch außer bei Aldi an der Kasse.
Was man aus diesem Vid entnehmen kann ist lediglich daß der intel HD 3000 Grafikchip grottenschlecht ist. Steckt in die Rechner die gleiche Grafiklösung....
BTW : wer hat eigentlich so ein Benutzerverhalten, Im Hintergrund ein Video laufen lassen
und davor was rendern?
 
@Reina
Wenn du die Intel Dualcores besser findest aufgrund der besseren Singlethreaded Leistung, wiederspricht dir da niemand.
Wenn allerdings mehrere Anwendungen laufen, sieht es selbst für den I7 Quad nicht so toll aus, egal ob Leistung oder Verbrauch.

MfG

nicht schon wieder dieses video *suspect* das Intel Vergleichssystem kann es so garnicht gegeben haben ein i7 2630QM passt nicht auf ein ASUS P8H67-M *lol* Das einzige was man in dem Video sieht ist das Intels GPU Schlechter ist als die des A8. Wobei mich immer noch interessieren würde wie die Genies vom AMD marketing eine FCPGA988 CPU auf einem Sockel 1155 Board betrieben haben :) das macht zumindest die Verbrauchsangaben total unglaubwürdig.
 
Ist mittlerweile total OT hier ^^

Vor ein paar Wochen hätte ich wohl auch zu einem Athlon X2 + 760G-Board fürs Office gegriffen, aber dank der neuen kleinen Llano wäre ein A4-3400 wohl meine erste Wahl

Finde es trotzdem schade das es bald keine Thuban, Deneb und Propus mehr gibt. Hatte mich so an denen gewöhnt ...
 
Jaja...

ich bin ja jetzt echt der AMD-fanboi ( seit 1999 ausschließlich amd prozzessoren und nur ATI/ Amd Grafikkarten in drei Rechnern ) aber jetzt das... 14zoll diagonale mit 1366x768,
wo gibts das noch außer bei Aldi an der Kasse.
Was man aus diesem Vid entnehmen kann ist lediglich daß der intel HD 3000 Grafikchip grottenschlecht ist. Steckt in die Rechner die gleiche Grafiklösung....
BTW : wer hat eigentlich so ein Benutzerverhalten, Im Hintergrund ein Video laufen lassen
und davor was rendern?
Da es sich ja um Laptop´s handelt bei dem Video, wo leider die Systemangaben nicht 100% richtig sind (wie Shadowtrooper schon erwähnt hat: Intel Mainboard), gibt es durchaus einen nutzen.
Im Büro den kleinen Intel (I3-I5), da kann man neben her keine Videos angugen und muss sich auf die Arbeit konzentrieren.
Auf dem Heimweg dann die AMD APU im Laptop ein Video anschauen und nebenher die Statistiken für die Arbeit fertig rechenen lassen.
Cloud computing lässt grüßen!

Ähm, sorry für OT... Preise sind Top! :)
 
Zuletzt bearbeitet:
Neuer Höchststand für den x6 1100T von 186,21€! / Händler MF

mfg
 
...und täglich grüßt die Performance des BD (Zambezi für Markus Everson,LoRDxRaVeN) ;D
 
Zuletzt bearbeitet:
Der X6 1090T ist noch bezahlbar, derzeit 156,28€ . Allerdings lag der mal bei 125€.
 
Auf dem Heimweg dann die AMD APU im Laptop ein Video anschauen und nebenher die Statistiken für die Arbeit fertig rechenen lassen.
Cloud computing lässt grüßen!

Ähm, sorry für OT... Preise sind Top! :)

Jau, hab ich gemacht, merkwürdigerweise bin ich dann der Notaufnahme aufgewacht,
die Sanis haben sich auch ein bisschen drüber aufgeregt wie man beim Autofahren
ein Video anschauen kann..*chatt*

PS. Ich bin mit meiner Arbeit fertig wenn ich meinen Arbeitsplatz verlasse.

@Topic tscha, wer zuspät kommt den bestraft AMD.
 
@Topic tscha, wer zuspät kommt den bestraft AMD.

AMD verzichtet so eher auf Kunden.
Ich bin sicherlich nicht der einzige dem sein "alter" AMD Phenom II X3/X4 oder Athlon II unter diesen Umständen eben noch reicht.

So sparte ich eben die 125€ und jeden Tag an dem der PC läuft etwas Strom.
Wenn ich in einigen Monaten dann unbedingt aufrüsten 'muss' gibt es endweder einen wirklich günstigen 2nd Hand Thuban oder einen neuen i5 die momentan nicht nur mehr Leitung pro Euro bieten, sondern auch sehr effizient arbeitet.
 
Bin mal gespannt wie sich die Preise entwickeln wenn die Thuban langsam knapp werden. Wird bestimmt nicht erfreulich, so verjagt man Kunden.

Ist sich AMD denn so sicher das die Kunden dann alle aus Zwang zu einem Zambezi greifen, wenn es keine AM3-CPUs gibt? Ich denke eher, verärgerte Kunden von AMD sind zukünftige Intel-Kunden
 
Ach, es gibt haufensweise Leute die Sachen einfach kaufen weil sie neu sind und die
Bugs für Features halten. Und spätestens wenn Dice, Crytek und Co nicht mehr für
Intel optimierte Spieleengines programmieren ist Weihnachten und Ostern an einem Tag mag sich ein Bulldozer auch rentieren:P
 
Nach der derzeitigen Situation, die sich auch nicht groß im kommenden Jahr ändern wird, rentiert sich ein BD nie. Selbst wenn er viel billiger wird spricht immer noch der hohe Verbrauch eine Rolle
 
Nach der derzeitigen Situation, die sich auch nicht groß im kommenden Jahr ändern wird, rentiert sich ein BD nie. Selbst wenn er viel billiger wird spricht immer noch der hohe Verbrauch eine Rolle
Ja unglaublich viel Verbrauch, in der selben TDP wie ein X6 mit 8 Kerne, lulu! :]
 
TDP ist nicht Verbrauch

Bei HT4u hat er unter Last 18W mehr verbraucht als ein X6 1100 und satte 69W mehr als ein 2600K, der in ziemlich allem schneller ist.


Sorry, aber ich denke ein BD in dieser Form ist generell keine gute Entscheidung. Nur wenn einem das alles nicht interessiert (Viel Stromverbrauch für wenig Leistung) kann man sich einen BD holen.

Da stimme ich Scour voll zu.


Aber BTT, ich bin auch auf die Preisentwicklung gespannt. Aber ein Aufrüsten ist bei mir nicht drin, ich werde wahrscheinlich zur Ivy greifen, AMD hat schon jetzt Intel nichts entgegenzusetzen
 
Nette Argumente, aber warum kommst du jetzt mit Intel? Das ist doch keine Konkurenz mit dem kleine Cache und der TDP pro core!
4 Kerne / 95W = 23,75W mit 1,280kB L1&L2 Cache.
vs.
8 Kerne / 125W = 15,62W mit 2,432kB L1&L2 Cache.

Das einzigste was ihn zum 4 Kerne macht ist die 4x 265Bit FPU die aber noch nicht zum Einsatz kam, da die Programmen zuerst recompiliert werden müssen.
Sollte das der Fall sein (AVX 265Bit compilierte Programme), werden wohl dick Tränen pullern.
Das ist meiner Meinung nach wohl auch der Grund warum Leute wie du Intel versuchen zu verteigen!
Reicht dir ihre tolle Werbung nicht?

MfG
 
Deine Rechnung ist falsch. Der Bully hat nicht 8 Kerne, sondern 8 logische Prozessoren, ebenso der i7.
Also entweder du teilst beide durch 4 oder durch 8, aber nicht unterschiedlich. Wir wollen doch nicht mit zweierlei Maß messen ;)
Und was soll/bringt die Rechnung mit dem L1 & L2? Das sind beide unterschiedliche Architekturen mit unterschiedlichen Cache-Systemen.
Auch wenn der Cache des Intels kleiner ist, ist dieser immer noch um eine ganze Ecke schneller.

(Edit, zur Intel TDP, bei den 95Watt ist GPU incl, ohne GPU sind es 80Watt, das wird häufig vergessen! nach deiner Rechnung wären das dann 80Watt / 8 logische Proz. => 10Wat pro logischer Proz *buck*)
 
Zuletzt bearbeitet:
Ich zähl doch nicht die Bauteile der CPU, sondern a.) was vorne reinkommt und b. hinten raus. Vorne wenig rein und hinten viel raus ist doch besser als umgekehrt.

Und für eine Neuanschaffung muß man natürlich auch Intel nennen, denn nicht jeder hat ein AM3+Board das den Zambezi aufnimmt.

Bei mir werden nicht die Tränen kullern, selbst wenn BD-optimierte Programme in 5 Jahren kommen. Falls überhaupt, schon frühere AMD-Features sind von Programmierern selten berücksichtigt worden.

Deshalb bitte ich um ein bißchen Realismus, das wann und wenn spiegeln nicht die aktuelle Situation wider. Diese ganzen Theorien was der BD mit optimierter SW alles könnte helfen mir nicht, da ich bei aktuellen Anwendungen, die ich gut und gerne noch Jahre benutze, nicht das Geringste davon habe
 
Leistung/Watt ist ausschlaggebend, zumindest für mich. Und da hat der Zambezi ganz schlechte Karten.

Und das in den nächsten Jahren der Markt mit BD-optimierter SW überrollt wird denke ich auch nicht.

Somit: Lahm und stromschluckend, so ist der BD aktuell.

Aber wollen wir mal wieder BTT praktizieren, also die Preise der alten X4/X6 beobachten
 
@2D
Ja, nur das hinter 8 logische Kerne auch 8 Integer Kerne stehen, somit 8 Kerner.
Mehr Cache & weniger Verbrauch pro Kern, wobei die Rechnung nicht ganz stimmt, allerdings pro Intel.
In Cinebench 11.5 wir er nur als 4 Kerner dargestellt, weil er als SMT CPU angesprochen wird. ;)

@Scour
Lange kannst die Preise aber nicht mehr beobachten, die fallen bald aus dem Sortiment, bevor sie zu billig verkauft werden.
 
Zurück
Oben Unten