Intel vs. AMD in Spielen - woran liegt es jetzt wirklich?

Welche AMD Desktop CPU hat 8 Kerne?

btt:

Die Threadzuweisung übernimmt doch sowieso der Sheduler. Und sollte es denn wirklich so sein das ~ 60% der Ressourcen nicht genutzt werden hat ja wohl AMD Mist gebaut.

Das interessiert aber bei der Leistung in Abhängigkeit von der CPU Auslastung kein Stück.
Aben beide CPUs die gleiche Gesammtleistung dann kann der 4 Kerner bei 3 belasteten Kernen 75% seiner Leistung entfalten wärend der 8 Kerner gerade einmal auf ca. 37,5% und der Rest liegt brach.
 
FX-8150 2GHz vs 4GHz
Counter Strike:Source Benchmark:
Auflösung 1280x720 / alle Details auf low / AA u. AF aus
2GHz: 310,25 FPS
4GHz: 591,21 FPS

3DMark Vantage Performance
Gesamt Score / CPU Score / Graphic Score
2GHz: 12479 / 10365 / 13390
4GHz: 19058 / 20239 / 18694

Bei 3DMark sieht man auch schön, wie die Grafikkarte durch die CPU gebremst wird.

Die anderen Spiele die ich habe, haben keinen Benchmark und eine bestimmte strecke ablaufen, z.B. in BF3 finde ich zu ungenau. Wie ist das eigentlich bei SC2 und Replays, wird das als eine Art Video gespeichert und wiedergegeben? Oder werden da nur einzelne Infos zum Spiel gespeichert und der eigene PC muss das Szenario berechnen? Frage weil bei PCGH wurde von einem realtime-replay gesprochen, als die mal Grafikkarten getestet haben.
 
Zuletzt bearbeitet:
Details sollten immer auf High sein, weil gewisse Detaileinstellungen auch auf die CPU-Last einen Einfluss haben können. Eine Strecke ablaufen o.ä. ist unabdingbar, weil integrierte Benchmarks oft Berechnungen weglassen, die auf die CPU gehen, Skripte für KI/Wegfindung etc. Zudem ist hier oft auch "wenig los". Vergleiche z.B. mal den integrierten Benchmark von GTA 4 mit den Werten, die du real im Spiel hast. Das ist ein deutlicher Unterschied - im Spiel sind die fps klar geringer.

Aber man sieht hier schon sehr schön, dass es fast eine 1:1 Skalierung gibt mit dem Takt. Danke für die Benchmarks.
 
Meine Meinung ist dass, AMD leider zu Früh ganz auf MT/MC gesetzt hat für die Software, diese ist Richtig erkannt in den seltesten Fällen x64 (Wird besser) oder gar MC/MT fähig!
x64 deshalb erwähnt, weil erst dann die großen RAM und gewissen eigenschaften der CPUs ihr volles Potential ausschöpfen können, wird leider oft Vergessen in dem Zusammenhang.
Naja, das ist halt so ein Henne-Ei-Problem, solange es die CPU nicht kann, wird auch keine Software dafür geschrieben.
Stimmt die meisten Spiele sind in 32Bit, es gibt nur sehr wenig Spiele die wirklich den nativen 64Bit Modus nutzen!
Crysis Warhead ist z.B. mit nativen 64Bit. Wenn das Afterburner OSD im Spiel funktioniert wird 32Bit genutzt, wenn es nicht geht dann werden native 64Bit genutzt.
Welche AMD Desktop CPU hat 8 Kerne?

btt:

Die Threadzuweisung übernimmt doch sowieso der Sheduler. Und sollte es denn wirklich so sein das ~ 60% der Ressourcen nicht genutzt werden hat ja wohl AMD Mist gebaut.
http://www.amd.com/de/products/desktop/processors/amdfx/Pages/amdfx-key-architectural-features.aspx
AMD nennt ihn 8 Kerner, weil früher die Integereinheiten gezählt wurden und davon hat der Bully 8 Stück.

Der Sheduler ist OS Sache, sonst könnte man einen Prozess nicht mit dem Taskmanager an einen Thread/Core pinnen.

@boxleitnerb
Das Thema ist sehr umfangreich, das könnte sogar für eine Diplomarbeit reichen. *buck*
Ich nutze alle Energie-einsparungen die mein System hergibt und habe nicht das Gefühl das etwas bremst. *joy*

MfG
 
Das ist mir alles vollkommen klar, da sind wir auch auf einer Linie. Es ging darum, dass u.a. behauptet wurde, ein CPU-Limit gäbe es so nicht unbedingt, (sprich ein Limit, was rein am Prozessor liegt), sondern es könnte an anderen Dingen liegen.

Ah jetzt kapiere ich langsam woraauf du hinaus willst.
Diese Herangehensweise hat nur ein Problem. DIe harte CPU Limitierung schwankt von Spiel zu Spiel, hängt stark von der Grafikeinstellung und natürlich auch von der Grafikkarte ab.
Zu versuchen das CPU Limit auszuschließen ist wie mit Kannonen auf Spatzen zu schießen und dann kommt doch wieder ein Spiel daher dem die Leistung der Grafikkart praktisch egal ist. Alternativ kann man natürlich auch eine komplett unterdimensionierte Grafikkarte einsetzen..

Andere Faktoren wie die PCIe Bandbreite usw. spielen meiner Meinung nach erst im harten GPU Limit bzw. beim Überlauf des Grafikspeichers eine Rolle.
Ersteres kann sich beispielsweise bei Spielen äußern die die Karte mit Texturenstreaming usw. entsprechend fordert. Hier könnte eventuell Rage ein Kandidat dafür sein. Letzteres will man aufgrund der extremen Performance Einbrüche nicht erleben und wäre nur ein Indikator für einen zu kleinen Grafikspeicher. (drum bevorzuge ich hier eine gewisse Überdimensionierung)

Warum ich von einem harten CPU Limit ausgehe? anders kann man Faktoren wie die Grafikkarte ebend nicht ausschließen, denn wie ich bereits schrieb gibt es auch noch ein Feld zwischen den harten Limits. Dort profitieren die Spiele von mehr CPU und GPU Leistung allerdings nicht so stark.

Das ist letztendlich auch das Problem bei der gesammten Diskussion. Man kann nicht sagen "Grafikkarte A benötigt CPU B um nicht limitiert zu werden" da es einfach von zu vielen Faktoren abhängt. Jedes Spiel verhält sich hier anders, jede Veränderung der Grafikeinstellungen kann die Aussage absurd werden lassen und zu allem Überfluß hängt es auch noch von der jeweiligen Szene im Spiel ab.
An dieser Stelle kommt dann auch noch der jeweilige Anspruch des Spielers an die Framerate hinzu und hat nen Streuradius wie ne abgesägte Schrotflinte...

@Sagi T 754
Der FX verhält sich nicht zuletzt wegen der CMT Skalierung wie ein 8 Kerner, wird als solcher vermarket und deshalb auch dazu gezählt.
Wie das auf dem Silizium aussieht ist mir inzwischen egal.
Die Threadzuweisung mag zwar das OS übernehmen aber erzeugen tut sie immernoch das Spiel selbst und sind davon nicht genug aktiv, dann wird der Prozessor ebend nicht ausgelastet.
 
Zuletzt bearbeitet:
Der Hauptthread sollte alleine auf einem Modul laufen. So könnte man sicher einige Probleme lösen & ein paar Engpässe. Aber mache das mal. Da bleibt am Ende nur die Variante jeweils einen Integerkern pro Modul zu deaktivieren, solange es die Möglichkeit gibt.

Alles andere sind eben Engpässe, die die FPU betreffen. Die bei Spielen auszureizen wird wohl eine Herausforderung sein.
 
Wie gesagt..er verhält sich ca. wie ein 8 Kerner.
Ein Modul soll ja 180% der Leistung eines einzelnen Kerns haben, er durch den zweite Thread also ca. 80% Mehrleistung bekommt.
Geht man von einer gleichmäßigen Leistungsverteilung bei 2 Threads aus dann käme man auf eine 90% : 90% Aufteilung hinaus. Man verliert am Hauptthread also vermutlich ca. 10%. Ob das den Kohl fett macht? Wir reden schließlich nicht von einer vergleichsweise schwachen SMT Skalierung die nur als Lückenfüller bei der Auslastung dient und die Rechenleistung primär aus der Leistung mit einem Thread generiert wird.
 
Ah jetzt kapiere ich langsam woraauf du hinaus willst.
Diese Herangehensweise hat nur ein Problem. DIe harte CPU Limitierung schwankt von Spiel zu Spiel, hängt stark von der Grafikeinstellung und natürlich auch von der Grafikkarte ab.
Zu versuchen das CPU Limit auszuschließen ist wie mit Kannonen auf Spatzen zu schießen und dann kommt doch wieder ein Spiel daher dem die Leistung der Grafikkart praktisch egal ist. Alternativ kann man natürlich auch eine komplett unterdimensionierte Grafikkarte einsetzen..

In der Fragestellung geht es natürlich nur um harte "CPU" Limits, sprich Szenen, in denen die Grafikkarte praktisch nix zu melden hat. Und wie man dort prüfen kann, ob die CPU-Einheiten wirklich volle Kanne laufen oder wegen einem Stau an anderer Stelle außerhalb der CPU teilweise Däumchen drehen.
 
Wie gesagt..er verhält sich ca. wie ein 8 Kerner.
Ein Modul soll ja 180% der Leistung eines einzelnen Kerns haben, er durch den zweite Thread also ca. 80% Mehrleistung bekommt.
Geht man von einer gleichmäßigen Leistungsverteilung bei 2 Threads aus dann käme man auf eine 90% : 90% Aufteilung hinaus. Man verliert am Hauptthread also vermutlich ca. 10%. Ob das den Kohl fett macht? Wir reden schließlich nicht von einer vergleichsweise schwachen SMT Skalierung die nur als Lückenfüller bei der Auslastung dient und die Rechenleistung primär aus der Leistung mit einem Thread generiert wird.
Das stimmt so nicht. Wenn zwei gleich-starke Threads auf einem Core (+HT) ausgeführt werden, so bekommen die Threads auch gleich viel Resourcen. Wie bei CMT auch, nur nicht 90%:90%, sondern eher 60%:60%. (oder beim LuxMark: 75%:75% :o)
 
Zuletzt bearbeitet:
@boxleitnerb
Bei den harten CPU Limits ist es ebend in erster Linie das Problem der CPU Auslastung bzw. ob das Spiel genügend Threads generieren kann um die Berechnungen auf alle Kerne zu verteilen.
Solange keine zusätzlichen Nebenberechnungen per direct compute und Co. auf der Grafikkarte ausgeführt werden ist auch die PCIe Bandbreite eher trivial.
Bei dem Problem des CPU Limits bei heutigen Spielen kann man sich wohl auf die mangelhafte CPU Auslastung in Kombination mit der relativ schwachen singlethread Leistung der heutigen Bulldozer Modelle versteifen. Die Unterstützung der neuen Befehlssätze dürfte bei beiden fehlen.

@Twodee
Danke für die Info.
Mit SMT habe ich nicht noch keine Erfahrungen sammeln können aber der grundsätzliche Unterschied ist wohl das SMT zwar nicht so viel Mehrleistung bringt aber die Leistung des kerns flexibler verteilen kann...korrekt?
.
EDIT :
.

Bei THG hab ich noch einen Test gefunden bei dem man die Limits recht gut sehen kann.
http://www.tomshardware.de/fx-8150-zambezi-bulldozer-990fx,testberichte-240885-19.html
Wärend es bei beiden Architekturen in 1680x1050 kaum einen Unterschied macht ob AA an ist oder nicht ist der Vorsprung von Intels Modellen doch sehr ausgepräg.
In 2560x1600 wendet sich für die Intel Modelle das Blatt und man kann beim dazuschalten vom FSAA eine Limitierung der Grafikkarte bei ca. 62 FPS erkennen, wärend es die AMD Modelle bei ca. 55-60 FPS kaum interessiert. Die Grafikkarte hat ebend noch etwas Luft. bis zum Limit.
 
Der Grund warum SMT überhaupt funktioniert, ist schlicht darin begründet dass man die vorhandenen Rechneinheiten mit einem einzelnen Thread nicht vollständig auslasten kann. - es bleiben immer einzelne Einheiten übrig die "im Leerlauf" sind und daher mit dem zweiten Thread befüttert werden können bzw. müssen wenn sie überhaupt was tun sollen. Wäre das anders bekäme man nie eine Verbesserung sondern die "skalierung" wäre bei 50:50...
 
also bei Everest im Speicher Benchmark ,
finde den am3 955 be ziemlich zwach trotzt ddr3 und 1t und 1600mhz
da Schaft mein am2 System mit dual core und 800mhz RAM und AMD 690G cipsatz mehr

das sind werte aus mein am2 System 10749/8267/12087
das sind werte aus mein am3 System 8103/6881/10100

Stadt Verbesserung das gegen teil ist es Absicht vom AMD oder liegt es am internen Speicher Controller *noahnung*
 
Doch natürlich ist das Absicht von AMD. :]
Es gehört zum Geschäftsmodell dass jede Generation langsamer wird wie die letzte, so sollen die Benutzer zu mehr Geduld erzogen werden *SCNR*
Der Benchmark braucht nur so gestrickt sein dass erauf kurze Latenzen anspricht und schon ist DDR2 im Vorteil.
Zudem ist der Speichercontroller des Phenom asynchron getaktet zu den Prozessorkernen.
 
@Blutengel_6_6_6
was für ein AM2 System meinst du? *noahnung*
 
Hi Blutengel_6_6_6

hm bei mir sie das mir 2133 11-12-11 besser aus
15239/11026/19522

lg
 
@Blutengel_6_6_6
was für ein AM2 System meinst du? *noahnung*

das sys habe ich leider nicht mehr seit 2009 es waren ocz reaper verbaut und ein asrock mb cpu war glaube ich ein FX
hatte
die werte in mein sysp stehe daher wusste ich das noch und wunderte mich nur

Hi Blutengel_6_6_6

hm bei mir sie das mir 2133 11-12-11 besser aus
15239/11026/19522

lg

auch auf ein amd wie bis den du auf 2133mhz gekommen die werte von dir sind ja top die hätte ich auch gerne
 
Hi Blutengel_6_6_6

unter mein system kann man das sehen ist nen 8150 auf nen asus 990x board.
das takten war am anfang etwas gewöhnungsache aber wenn man 1866 einfach
wegläst ist das schon ok.der ram ist 1600 muskin

lg
 
leider bekomme ich meine ram nicht über 1600mhz sonst hätte das mal getestet ob es dann besser ist
 
das sys habe ich leider nicht mehr seit 2009 es waren ocz reaper verbaut und ein asrock mb cpu war glaube ich ein FX
hatte
die werte in mein sysp stehe daher wusste ich das noch und wunderte mich nur
Ah OK...hatte mich schon gewundert. :)
Nachdem ich inzwischen von meinem X6 auf dem FX gewechselt bin kann ich bei meinem Board auch deutlich schnelleren Speicher einstellen.
Wo bei meinem X6 nur 1600er Speicher einstellbar und mein 1866er Speicher damit etwas unterfordert war ist nun auch 2400er Speicher einstellbar. Offensichtlich gibt es hier bei den K10 Modellen eine Beschränkung.
Der Speicher Benchmark von Everest Home 2.20 spuckte übrigens bei der 1866er Einstellung einen Lesedurchsatz von 37490 MB/s, einen Schreibdurchsatz von 5679 MB/s und eine Speicherverzögerung von 22,7ns aus.....falls die Werte jemanden weiter helfen.
Werte vom X6 werde ich wohl erstmal schuldig bleiben müssen, da ich ehrlch gesagt keine Lust hab den Rechner schon wieder aus einander zur reißen. ;D

Edit:
OK die Version war wohl "leicht" veraltet. Hier mal die Werte bei AIDA64 Extreme 2.60.2100:
Lesedurchsatz: 13809 MB/s
Schreibdurchsatz: 10012 MB/s
Kopierdurchsatz: 18021 MB/s
Speicherverzögerung: 50.0 ns

Die Werte unterscheiden sich doch massiv von der alten Version.
 
Zuletzt bearbeitet:
Zurück
Oben Unten