Kann AMD mittelfristig noch mithalten?

So gesehen könnte man das sogar beinah hoffen, dass die PS4 "Crossfire" an Bord haben wird und Sony AMD auf die Füsse tritt. Denn wenn sie das tun, können auch die Desktopprodukte profitieren und dadurch würde der prestigeträchte Highendbereich, der bei AMD seit der HD3xxx traditionell aus MGPU-Karten besteht, auch tatsächlich nutzbar für "Enthusiasten" :)

Im mehr oder weniger konstant 0 schreibenden GPU-Bereich und bei kleinen bis mittleren CPUs resp. APUs sehe auch ich AMDs Zukunft - sowohl Mobile und Desktop als auch Server. Da könnten sie bei klarer Fokussierung ihrerseits und bei Weiterentwicklung der ausserordentlich trägen Softwarelandschaft tatsächlich langfristig grosse Gewinner sein. Erst bei konstanten, grösseren Gewinnen in diesem Umfeld orakle ich, dass sie im CPU-Highend wieder Fuss fassen können.
 
Zuletzt bearbeitet:
Äpfel (CPU) und Birnen (CPU+GPU)? *noahnung*
Warum sollte CPU+GPU Crunchen auf einem Intel-System nicht möglich sein?
Ich hatte vor nicht all zu langer Zeit einen Core2Qaud mit 3xNV-GPUs am Crunchen. War kein Problem.
Nun, wie S.I. schon geschrieben hat, ich habe nicht geschrieben das es mit Intel nicht geht.
Wobei mich die GPU Auslastung mit dem nvinspector schon mal interessieren würde, wenn die Intel CPU zu 100% ausgelastet ist.

Mein System kommt so auf max. 730W Peak an der Steckdose, zwei GTX580 haben 488W TDP + 11% NT Verlustleistung die mein NT bis 100% load halten kann.
Das macht Insgesamt 541,68W für die GPU´s an der Dose, es bleiben also 188,32W für den Rest des System.
Wenn ich jetzt noch aufzähle, was alles im System drin ist...*lol*

MfG
 
Zuletzt bearbeitet:
Ein weiterer sinnvoller Beitrag zum Thema wie viel zu viel Strom dein System verbraucht? Danke *great*
 
jo, Twodee, er hat ja auch gar nicht gesagt, dass das nicht möglich wäre... ;)
(Deinen Post hab ich vorhin nicht gesehen)

Ja stimmt, er hat stattdessen eine nicht belegte Behauptung aufgestellt. Wozu?
.
EDIT :
.

Ach 2D, dir ist nicht mehr zu helfen. :-/
Klär uns auf. Was wolltest du mit den Verbrauchsangaben aufzeigen?
Nur mal als Info: Die X79 Plattform mit SB-E@Stock zieht hier unter Boinc ohne GPU ~165Watt an der Dose (incl. NT und co!), bei grob 50-60% mehr Rechenleistung, doppeltem IMC und RAM-Module ist dieser Wert ziemlich beachtlich, verglichen mit deinem BD-System.
 
Oh man Windhund.;D AMD Sys und Karten von nVidea verbaut.*glaubses*


Wenn immer geschrieben wird die "Entwickler" müssen die Software anpassen......

Wo bitte leistet AMD da ihren Beitrag? Ich habe noch nie eine Demo oder so etwas in der Art gesehen wo sie aufzeigen können was sie mit "Fusion" meinen und wo sie an verbesserungen arbeiten.

Intel macht da anscheinen mehr, bei nVidea sieht man immer wieder mal Demos an denen sie arbeiten und verschiedene Dinge Testen.

Tut mir leid, belehrt mich eines besseren.
 
Bitte versteht mich nicht falsch aber wie passt es zusammen das auf der einen Seite der Stromverbrach so wahnsinnig wichtig sein soll und dafuer ausgerechnet das Crunchen als Beispiel herangezogen wird? ???
 
Oh man Windhund.;D AMD Sys und Karten von nVidea verbaut.*glaubses*
...
Du bist bestimmt auch einer von den PCGH-Freaks, die vor Jahren gesagt haben: AMD läuft nur mit nvidia gut und Intel übertrifft sich selbst ausschließlich nur mit ATI/

bis AMD ATI gekauft hat, dann war alles anders, ist klar. ;) Ich habe auch so einige Spezialisten hier... Die genau jetzt meinen: Wie kannst du nur in einem Intel System AMD verbauen und so was will Fachinformatiker werden, traurig.
 
Zuletzt bearbeitet:
@sompe
Hat zwar nichts mit dem Thema an sich zu tun, aber beim Crunchen zahlst du für JEDES WATT. Da liegt es auf der Hand, das Systeme, die mehr verbrauchen aber weniger Leisten, ungeeignet sind.
 
Ich sehe das eher so das derjenige dem jedes Watt wichtig ist den Strom nicht beim Crunchen verbraet, da es mMn keinen handfesten Mehrwert bring.
Versteh mich nicht falsch, denn ich war lange genug mit dabei aber spaetestens im Sommer nerfte zumindest der Heizeffekt.
 
Klär uns auf. Was wolltest du mit den Verbrauchsangaben aufzeigen?
Nur mal als Info: Die X79 Plattform mit SB-E@Stock zieht hier unter Boinc ohne GPU ~165Watt an der Dose (incl. NT und co!), bei grob 50-60% mehr Rechenleistung, doppeltem IMC und RAM-Module ist dieser Wert ziemlich beachtlich, verglichen mit deinem BD-System.

Das braucht mein System für Folding@home in etwa auch. Besteht aus undervolteten FX-6100 UND einer undervolteten Graka GTS 450. Sicher nicht so toll wie Dein Intel (Leistung vergleichbar?, keine Ahnung), aber für die Aufgabe auch nicht so schlecht der Bulli.

Kommt immer drauf an.
 
Hier ist wieder was los... da kündige ich meinen Account bei Computerbase, wg. solchen Intel Fanatikern, die immer behaupten dass CPU Leistung das A und O wäre, bei der Grafik stößt man dann aber auf taube Ohren...

BTT:
-Ich bin heute sehr posititv überrascht worden von Lenovo Thinkpad E525 mit Llano A6 3400M APU, gleichzeitig auch richtig enttäuscht und sauer, und zwar auf die mangelhaft verbaute RAM Riegel der Endprodukte.
-Anstatt 2x2GB bzw. 2x4GB Ram zu nehmen, wird meist ein einziger Ram verbaut und der Dualchannelmodus kommt erst gar nicht zum tragen, da wird sowas von Grafikleistung verschwändet, -einfach nur unglaublich.
-Wäre ich nicht tägl. lesender Hardwarefreak würde ich davon auch nichts erfahren und mich mit Rucklern in Spielen zufrieden geben müssen, -wo es gar nicht sein muss.
-Da ich davon aber gelesen habe, habe ich mir direkt einen extra 4GB Ram Riegel von Crucial bestellt, harmoniert super mit dem orginal verbauten Samsung.

Die Ergebnisse: Orginal (Singlechannel) / "Gepimpt" Dualchannel
3dMark06: 3683 Pkt. / 5295 Pkt.

Win7 Leist-Index: CPU 6.6 / 6.6
RAM 5.9 / 7.3
Grafik 4.5 / 5.9
Grafik-Spiele 6.1 / 6.5
HDD 5.9 / 5.9

-Also bei Spielen merke ich diesen Unterschied enorm, fühlbar so groß wie der 3D Markt06 Unterschied, es läuft einfach smooth, Dirt3 sogar, auf einen 450€ Gerät inc. Extraram, bin immer noch begeistert. -Aber egal jetzt ob Lenovo, Samsung etc., die meisten scheinen dem gleichen Mist zu fabrizieren. -Merken die noch was? *noahnung*
-Mir ist heute eigentl. klar geworden was für ein Brecher Trinity sein wird (die Demo mit Eyfinity, 3 Monitoren und die 5000er Auflösung), einfach Hammer, nur sollen die Hersteller endlich kappieren wie man die Teile konfiguriert, oder sollen paar AMD Ex-Mitarbeiter einstellen damit die denen unter die Arme greifen.
-Ich würde an AMD´s stelle auch mit denen noch ein Wort Reden, denn die Geräte werden auch so getestet...und dann wird über dem Inahlt geurteilt, und das ist AMD. -Bei solchen Differenzen sind Sieg/Niederlage/Gleichstand alles drin.
 
Zuletzt bearbeitet:
Bitte versteht mich nicht falsch aber wie passt es zusammen das auf der einen Seite der Stromverbrach so wahnsinnig wichtig sein soll und dafuer ausgerechnet das Crunchen als Beispiel herangezogen wird? ???
Hehe, das denke ich mir auch immer. Aber da Crunchen hier auf P3D weit verbreitet ist, halte ich mich meist zurück. Ich stelle mir dabei immer irgend welche Teenager vor, die mit ihrem PC die Stromkosten von Mama und Papa in die Höhe treiben, weil es sie ja direkt nix kostet. :-X

@Amando: Schauen wir mal. Wie gesagt, zu wünschen wäre es AMD (und uns, denn Konkurrenz lässt bekanntlich die Preise sinken). Glauben werde ich allerdings erst daran wenn ich es sehe, denn leere Versprechungen gab es in der Vergangenheit genug.
 
Klär uns auf. Was wolltest du mit den Verbrauchsangaben aufzeigen?
Nur mal als Info: Die X79 Plattform mit SB-E@Stock zieht hier unter Boinc ohne GPU ~165Watt an der Dose (incl. NT und co!), bei grob 50-60% mehr Rechenleistung, doppeltem IMC und RAM-Module ist dieser Wert ziemlich beachtlich, verglichen mit deinem BD-System.
Folding@home lastet mein Sys zu 100% aus und zwar komplett, von daher kann man den Verbrauch als "worst case" betrachten.
Allerdings sind ~50.000PPD auch nicht gerade wenig, schafft das deine CPU only?
Der Verbrauch schwankt zwischen 710W und 729W ich hab extra ein Watt zusätzlich addiert, somit ist mein Restsystemverbrauch = deinem Intel System @ CPU load only.
Oh man Windhund.;D AMD Sys und Karten von nVidea verbaut.*glaubses*

Wenn immer geschrieben wird die "Entwickler" müssen die Software anpassen......

Wo bitte leistet AMD da ihren Beitrag? Ich habe noch nie eine Demo oder so etwas in der Art gesehen wo sie aufzeigen können was sie mit "Fusion" meinen und wo sie an verbesserungen arbeiten.

Intel macht da anscheinen mehr, bei nVidea sieht man immer wieder mal Demos an denen sie arbeiten und verschiedene Dinge Testen.

Tut mir leid, belehrt mich eines besseren.
Die NVIDIA Karten hab ich, weil ich auch CUDA und PhysX nutze sowie demnächst 3D-Vision.
Ausserdem kann man mir dann nicht nachschreien ich sei zu 100% AMD FAN! ;D

Auch AMD mach Techdemos, man muss sich halt die mühe machen und sie suchen: http://www.pcgameshardware.de/aid,6...fuer-HD5870-und-HD-5850/Grafikkarte/Download/
Für Fusion braucht es keine extra Demo, das kannst auch mit den vorhandenen testen.
AMD hat freilich nicht so viel Software Entwickler wie Intel, daher dauert es einfach länger...
 
Das man sich Grakas mit einem Verbrauch von 300Watt ins System schraubt habe ich noch nie verstanden. In meinen Augen ist das Energeiverschendung. Jedem halt das seine.

Mit meinem PhII 955 hatte ich auch das Problem mit dem hohen Verbrauch und der dadurch schwierigen Kühlung. Boinc save Settinngs waren bei dem nur 3,3 GHz, wo man alles mit rechnen konnte.

Gegenüber dem jetztigen core i5 2500k der mit 4,5 GHz save getaktet ist ist das schon eine Menge. Der Verbrauch vom System geht nicht über 140 Watt, ist deshalb leicht und leise zu kühlen (auch im Sommer;D). Mit dem Takt schliesse ich zu einem PhII X6 auf, was für die Leistungfähigkeit von Intel spricht.

Intel hat mich auf jeden Fall auf ganzer Line überzeugt.
 
Das man sich Grakas mit einem Verbrauch von 300Watt ins System schraubt habe ich noch nie verstanden. In meinen Augen ist das Energeiverschendung. Jedem halt das seine.
Wenn du nicht weist sie zu nutzen, ist es klar Energie Verschwendung.
Wenn du sie nutzen kannst, bringt es natürlich mehr Leistung bzw in deinem Fall mehr PPD (Points Per Day - Punkte pro Tag) ;)
 
Folding@home lastet mein Sys zu 100% aus und zwar komplett, von daher kann man den Verbrauch als "worst case" betrachten.
Allerdings sind ~50.000PPD auch nicht gerade wenig, schafft das deine CPU only?
Der Verbrauch schwankt zwischen 710W und 729W ich hab extra ein Watt zusätzlich addiert, somit ist mein Restsystemverbrauch = deinem Intel System @ CPU load only.
1. Lastet Boinc mein System auch zu 100% aus. Das von mir gewählte Projekt belastet sogar den RAM auf äußerste, das kann man von Folding nicht behaupten!
2. Was interessieren hier die 50.000PPD Folding Punkte, die überwiegend durch die beiden GPU zustande kommen?
Du machst schon wieder wie einige Posts zu vor einen ÄPFEL vs. BIRNEN Vergleich!
Würde ich ebenfalls 2xGTX580 im System haben, wären unter Garantie die 50.000PPD kein Problem, aber deswegen steigt nicht der CPU-Verbrauch an sich, und genau darum ging es einst in deiner Verbrauchsaufzählung (Falls du dich noch daran erinnern kannst)
3. Wenn dein (CPU)System bereits über 180 Watt hat, wie kann das dann meinem System ähneln, wenn dieses an der Dose etwas über 160Watt zieht?
Erklär mir mal das? Und beachte, du hast hier einen QuadCore (laut Gruffis Definition eines Bulldozers) gegen einen SixCore gestellt.
Die Mainboardausstattung dürfte auf beiden Seiten in etwa gleich ausfallen. Die X79-Plattform ist recht üppig. Der doppelte RAM incl. quad IMC tut sein übriges.
 
Zuletzt bearbeitet:
Das Problem ist nur das die Äpfel und Birnen am gleichen Baum hängen.
Die 20W mehr an der Dose rechne ich dir locker flockig raus.
Aber egal dein System braucht weniger, wenn es dich glücklich macht. ;)
 
Es ist nicht nur der absolute Verbrauch, sondern auch die Leistung/Verbrauch.
20Watt mögen wenig sein, aber bei 50-60% mehr CPU-Power ist das gewaltig.
 
tja... nun sind wir wieder gut abgedriftet von der Frage ob AMD mittelfristig noch mithalten kann..., was - zugegeben - kaum wer vorraussehend trefflich beantworten kann.
Man kann da nur spekulieren und hoffen, denn sonst bekommt Intel sein Monopol, quasi - was der nette Konzern dann wohl recht kurzfristig mit Höchstpreisen für seine Chips beantworten wird. Da der im Vergleich rel. kleine Chipfertiger AMD in Schach gehalten werden kann dürfte es sogar halbwegs im Interesse Intels sein, dass es ihn gibt. *noahnung*

Wie dem auch sei... Man kann nur durch den Blick in die Vergangenheit und Gegenwart eine wage Prognose treffen. Auch Intel kocht nur mit Wasser, doch sind deren Kochtöpfe halt deutlich größer als beim kleinen Konkurenten.
Dennoch hat AMD bis heute gezeigt, dass es einigermaßen mithalten kann.
Es geht auch gar nicht darum ob der Marktführer die besseren Chips hat,- wie eigentlich schon im Thread vorher herausgeschält, kann AMD da erstaunlich gut mithalten bisher.
Es sei denn man greift sich ausgesuchte Benches seiner Wahl heraus: Denn dann kann der jeweils bevorzugte Chip davonziehen... ;D
Insgesamt dachte ich, sei das geklärt, dass hier bis heute nicht viel rum ist zwischen den beiden Herstellern in Sachen Performance. ;)

Dass BD nun in m. Augen ein Zwitter ist und kein waschechter 8 Kerner ist meine bescheidene Meinung - und dass er auf dem Desktop nicht der Nachfolger von Thuban sein kann ebenso.
In seinem Bereich, etwa bei Datenbanken, wird der frühreife Chip spätestens mit Win8 imho sein Potezial haben.
Und es ist sicher auch richtig, wenn man unterscheidet, ob da nun 4, 6 oder 8 Cores werkeln, klar. Doch da kommt eben dann wieder die Frage, ob man BD tatsächlich als echten 8 Core bezeichnen kann.
Dem Endverbraucher, der allgemein eher nicht auf den längsten Balken in einem ausgesuchten Bench schielt, und der nicht die angegebenen Cores zählt und sagt: "meiner hat aber mehr Cores" oder sonst was - ihm wird es egal sein. Inssofern ist ein Performancevergleich durchaus zulässig.
Man sollte jedoch fairer Weise alle Benches und Anwendungen zusammenrechnen und wird im Schnitt feststellen, dass AMD bisher noch recht gut mitgehalten hat.

Und wer den BD nicht ganz zu Unrecht als Desktop-deplaziert einstuft, der kann noch immer einen Thuban nehmen. Der reicht eig. für alles allemal auch noch nächstes Jahr und übernächstes.
Nicht unbekannt ist, dass AMD allgemein eher einen halben Schritt zurückliegt, was die neuesten Innovationen betrifft, oder Schrinks. Das kann man aber der ungleich kleineren Fertigung schultern, ohne sich herausreden zu müssen.
Eigentlich ist das Thema ja klar umrissen und auch recht gut formuliert: Mithalten bedeutet dass wer vorangeht und ich (mehr oder weniger gerade so) mithalten kann.

Es bleibt zu hoffen, dass AMD das stemmen kann!
In diesem Sinne bitte freundlich und höflich weiter im spekulieren!

Danke!
 
Mithalten kann AMD derzeit nur über den Preis und das auch nur bis zu einer gewissen Performanceklasse.
Das mag zwar früher, als man noch eine eigene Fertigung hatte, rentabel gewesen sein, doch heutezutage ohne eigene Fertigung ist es fraglich das auf Dauer durchzustehen.
Man sieht ja schon die ersten Anzeichen: Weg vom Highend, hin zu Cosumer-Massenmarkt.
 
Es sind tatsächlich nur ein paar Watt absolut gesehen!
Das aufgerechnet auf die Kilowattstunde rechtfertigt Ausgaben aus diesem Grund nicht, sondern sind Scheinargumente in einer akademischen Diskussion.

Der einzige Bereich wo der Stromverbrauch kaum abweichend ist, ist der Idle Bereich. Das wars dann aber auch schon. Unter Last bzw. dazwischen sind bereits große Unterschiede vorhanden zwischen beispielsweise einem FX8150 und einem i2500K.
http://www.computerbase.de/artikel/...amd-bulldozer/19/#abschnitt_leistungsaufnahme

Der FX frißt deutlich mehr Strom, ist langsamer und weniger kosten tut er auch nicht. Und hier reden wir nicht von irgendwelchen Mondpreisen, sondern von Preisbereichen < 250 Euro. Das ist nichtmal High End. Das ist bereits mittleres Preissegment.

Ebenso ob man 36,4 oder 38,2 fps hat.
Insbesonders wo Grafikkarten einen weit größeren Effekt auf die Spielegeschwindigkeit als Prozessoren haben.

Diverse Tests belegen, dass die Unterschiede sehr wohl spürbar sind. Die Grafikkarte ist sehr wichtig, wird aber auch sehr schnell von der CPU ausgebremst bzw. klebt am CPU Limit, wenn die CPU nicht schnell genug ist und das wird beim FX8150 sehr viel schneller der Fall sein als bei den Intel Pendants.

Um zum Topic zu kommen:
Selbstverständlich kann AMD am Markt mithalten.
Der Markt besteht nämlich, hoffentlich nicht zur Überaschung bestimmter Leute hier, nicht nur aus SB 2700K.
Das Preis-/Leistungsverhältnis ist bei AMD immer noch in weiten Teilen in Ordnung.

AMD kann aktuell im CPU Bereich (Desktop und Laptop) nur im Low Budget Segment (APUs) mithalten. In allen anderen Segmenten findet der Kunde bei Intel das bessere Angebot. Das muss man aktuell einfach neidlos anerkennen. Und da reden wir nicht nur von High End und irgendwelchen SB2700K, sondern bereits von den CPUs darunter. Bei Laptops ist der Unterschied sogar noch größer als bei Desktops auf Grund der sehr sehr schlechten Effizienz der Bulldozer CPUs.

Nur den absoluten Low Cost Bereich zu bedienen ist in meinen Augen zu dünn und wird wie bereits schon gesagt dazu führen, dass AMD nochmal schrumpfen muss - sprich wandert immer mehr in die Bedeutungslosigkeit bei CPUs. Es ist wirklich sehr erheiternd wie einige plötzlich so tun als ob der Markt sich total geändert hat und plötzlich alle nur noch nach billigen Low Budget Gurken schauen. Die Konkurez schein aber trotzdem ordentlich i3, i5 und i7 CPUs zu verkaufen.

Noch dazu kommt das nicht jeder Produkte von in der EU verurteilten Wirtschaftsverbrechern kaufen möchte.

Typisches Fanboy gesabbel. Das dürfte den normalen Verbraucher wohl kaum interessieren. Niemand kauft sich Produkte aus Mitleid, sondern schaut was das beste für Ihn ist. AMD ist eine Firma, die zudem mehr als genug Subventionen von Deutschland / der EU kassiert hat. Es ist nicht das Problem des Endverbrauchers wenn AMD nicht in der Lage ist daraus mehr zu machen. Ein Teil des Rückstandes ist sicherlich auf den Fertigungsrückstand zurückzuführen aber ein anderer Teil eben auch auf das Design. Bulldozer ist einfach im Desktop und Laptop völlig deplaziert und die Phenom Teile sind einfach nicht mehr so richtig konkurenzfähig. Ich hab mir ja damals selber einen gekauft. Da war es auch noch ok aber heute sprich hier wirklich nichts für AMD. Man kann beim Neukauf aktuell guten Gewissens nur Intel empfehlen. So ist es leider.

Historisch betrachtet muss man sagen, dass AMD aktuell sehr weit von der Konkurenz weg ist wie schon lange nicht mehr. Das Erinnert schon fast an K5/6 Zeiten bzw. phasenweise beim K7 (zum Ende hin). Sie waren aber auch schon über viele Jahre deutlich näher drann. Die Fertigung ist sicherlich ein Grund (hier ist die Ausgangslage aber langfristig gesehen für AMD sehr schlecht, weil sie es nicht mehr in der eigenen Hand haben). Ein anderer Grund ist aber auch das Design. Fertigungsrückstand hatte AMD schon immer. Es gab aber viele Jahre in denen AMD trotzdem deutlich mehr daraus gemacht hat, auf Grund kluger Entscheidungen die in den Bereich des CPU Designs fallen.
 
Zuletzt bearbeitet:
Ihr diskutiert hier immer über Heimanwender und Spiele-PCs.. viel düsterer sieht es aber im grösseren Unternehmens und Büro-Bereich aus.

Fusion APUs mit fetter GPU oder stromhungrige und Single-Thread-IPC-schwache Bulldozer sind hier völlig inadäquat.

Ich musste neulich neue PCs fürs Büro anschaffen. Ich habe, zumal auch AMDs K10 CPUs und die IGP-Mainboards teurer wurden, überhaupt keine Rechtfertigung mehr dafür finden können, statt Sandy Bridge AMD zu kaufen - selbst vom Preis her wird ein Intel System günstiger. Und heute, wo man gleich zu SSDs statt HDDs greift, wird eine kräftigere CPU auch wieder bedeutsamer.

Es ist zum verzweifeln...
 
Zurück
Oben Unten