News Sockel AM5: Hybrid Graphics ausprobiert

MusicIsMyLife

Redaktion
☆☆☆☆☆☆
Mitglied seit
22.02.2002
Beiträge
15.579
Renomée
2.567
Standort
in der Nähe von Cottbus
  • QMC Race
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Wow!-Event 2019
  • BOINC Pentathlon 2020
titelbild_s-300x243.jpg

Als AMD Ende September 2022 Zen 4 aka Ryzen 7000 in den Markt entlassen hat, gab es zahlreiche Reviews rund um die neuen Prozessoren und die neue AM5-Plattform. Auch wir haben uns im Anschluss an den Launch genauer mit der Plattform beschäftigt, indem wir das ASUS ROG Strix X670E-E Gaming WiFi auf Herz und Nieren getestet haben.

Erstmals bei AMD bieten alle Prozessoren für Sockel AM5 eine integrierte Grafik an – auf Sockel AM4 war das noch einigen wenigen APU-Modellen vorbehalten. Zen 4 trägt eine RDNA2-GPU in sich, welche für eine grundlegende Grafikausgabe ausreicht. Insbesondere im Office-Bereich genügt die Leistung, für größere Sprünge in puncto 3D-Leistung reicht es hingegen nicht. Das ist seitens AMD aber auch nicht anders gewollt.

Dafür ermöglicht die iGPU die Nutzung eines Features, welches bisher extrem wenig Beachtung findet: Hybrid Graphics. Worum es sich bei dem Feature handelt, was Vor- und Nachteile sind und warum jeder dieses Feature eigentlich ausprobieren sollte, klären wir in diesem kurzen Artikel.

Viel Vergnügen beim Lesen!
(…)

» Artikel lesen
 
Zuletzt bearbeitet:
Sind die Messungen der einzelnen Karten untereinander vergleichbar?
Ich wundere mich, warum die Vega und erst Recht die Nvidia so viel mehr verbrauchen im Leerlauf. Ich hätte gedacht, die werden komplett abgeschaltet?
 
Sind die Messungen der einzelnen Karten untereinander vergleichbar?

Nicht wirklich.

Ich habe die Karten, BIOS, Windows und Treiber bunt "durchgemischt". Hinzu kommt, dass ich teilweise eine zweite SSD im System stecken hatte, teilweise auch nicht.

Da sind viel zu viele Veränderungen drin, als dass die Werte der Karten untereinander vergleichbar wären. Das war aber auch nicht Sinn und Zweck der Tests.
 
Hätte ja sein können, dass die Karten unterschiedlich tief schlafen. ;)
 
Naja, ich kenne die Vega64 und ich weiß sie geht in den Tief Schlaf.
Von daher sind die Ergebnisse für mich Nachvollziehbar.

Ohne iGPU muss es jetzt noch mit 2 dGPU im System klappen.
Also die zweite geht in den Zero Core Mode. ;)
 
Danke für den Test, mal wieder wird hier ein Thema beleuchtet, was der Rest links liegen lässt. Dafür schätze ich den Planeten sehr. 👍🏻
 
Es läuft bei mir mit einem Godavari (A10-7870K) auf FM2+ und einer alten MSI R200 (Win8.1).
Außerdem auf 2 AM4 Plattformen mit Renoir (4650G) und Cezanne (5750GE s.Bild1) jeweils mit einer 5500XT (Win10 1709). Und ich hatte damit noch keine Probleme. In manchen Spielen muss man anschließend die Grafikkarte noch nachträglich in den Optionen (s.Bild1) auswählen. Und bei einer Neuinstallation im Energiesparplan entsprechend manchmal nachjustieren. Aber es rennt.
Und wenn es jetzt eine Bios-Einstellung bräuchte, dann erst seit AM5. Weder auf dem betagten A88XM-Plus noch auf dem ASUS X470-Prime und dem PRO WS X570-ACE muss ich dies zusätzlich einstellen - nur die iGPU als Primär auswählen. Mehr nicht.
Aus meiner Sicht wurde Hybrid Graphics von der Masse in den letzten Jahren einfach nur schlicht vergessen und ignoriert - m.M.

Edit: Eigentlich warte ich ja immer noch eher auf die Ursprüngliche AMD Idee seit Kaveri. iGPU als Co-Processor z.B. für Physik via HSA (Bild 2)
Edit2: DualGraphics war ja mit dem Kaveri auch möglich - war aber eher ein Rohrkrepierer. (MicroRuckler hoch Tausend) :o
 

Anhänge

  • Titanquest.jpg
    Titanquest.jpg
    1.004,3 KB · Aufrufe: 93
  • AMD-Catalyst-13.35-Kaveri-Co-Processor.jpg
    AMD-Catalyst-13.35-Kaveri-Co-Processor.jpg
    177 KB · Aufrufe: 94
Zuletzt bearbeitet:
Ich glaube hier sollte man mal ein paar Sachen trennen.

Beim Hybrid Graphics des Tests geht es nur darum die von der Grafikkarte berechneten Bilder an die IGP weiter zu leiten, sie darüber auszugeben und die Grafikkarte im normalen Desktop Betrieb deaktivieren zu können. Also im Prinzip das was im Laptop zum Einsatz kommt wenn eine zusätzliche dGPU verbaut ist.

Bei AMDs "Radeon Dual-Grafik" ging es um einen Crossfire Verbund zwischen der IGP und einer entsprechenden Grafikkarte. Weil die Leistungsentfaltung der GPUs wohl alles andere als gleichmäßig sein dürfte fallen auch die Framelatenzen entsprechend ungleichmäßig aus und führen so zu den besagten Rucklern.

Beim Co Prozessing ging es darum bestimmte Elemente des Bildes auf der IGP zu berechnen und so beide GPUs am gleichen Bild rechnen zu lassen.

Das sind also 3 unterschiedliche Varianten die IGP zusammen mit der dGPU zu nutzen.
 
Das COOP Rendern mit iGPU und dGPU war mit DDR3 & DDR4 nicht so der Burner, klar der VRAM war 10 mal schneller.
Da konnte man gar keine so schlechte dGPU verbauen, damit es nicht Ruckelt. *buck*

Heute sieht das wieder anders aus: Gen 5 ATX Standard. So fasse ich es mal zusammen. ;)

Heute gibt es z.B. resizeBAR, damit ist ein Flaschenhals mehr frei.
 
Jetzt frage ich mich ob das ganze auch ohne Performance Verluste funktioniert, war es nicht so das man bei Laptops drauf achten soll das ein sogenannter MUX Switch verbaut sein soll damit keine Leistung verloren geht.
 
Zumindest die Latenz wird sich erhöhen, dass ist gar nicht zu vermeiden.
Diese wiederum könnte Auswirkungen auf die MinFrames haben.
 
Aus meiner Sicht wurde Hybrid Graphics von der Masse in den letzten Jahren einfach nur schlicht vergessen und ignoriert - m.M.
Die Frage ist halt, wer konnte es sinnvoll nutzen? Bürorechner kommen eh meist mit der Grafik vom Prozessor aus, da wird kaum was nachgesteckt.
Und wenn eine Bürorechner ausnahmsweise MIT einer dGPU kommt, dann wird der Hersteller eher die Onbord-Anschlüsse abdecken und die onboard-Grafik im BIOS deaktivieren. Das reduziert den Support-Aufwand, den der kostet Geld, wenn Leute wild an dGPU und iGPU Monitore anschliessen und dann das Resultat nicht den Erwartungen entspricht.
Wer eine Grafikkarte nachrüstet, der kann auch nur davon profitiere, wenn die Anschlüsse auf dem Board für seine Monitore geeignet sind. Bei mir war das bislang nie der Fall, entweder hatte das Board keine Onboard-Grafik oder zu wenig (digitale, keine VGA) Ausgänge.
Die Hardcoregamer werden es sowieso nicht wollen, die haben Angst vor zusätzlicher Latenz.
 
Wenn korrekt umgesetzt praktisch jeder der auch mit einem Gaming Laptop zufrieden wäre. Alternativ natürlich auch diejenigen die über den hohen Strombedarf in idle und beim Abspielen von Videos meckern da die Grafikkarte dann dafür nicht mehr benötigt wird udn abgeschaltet werden kann.
Bleiben also am Ende nur die sogenannten Hardcore Gamer und diejenigen denen auch abseits des Gamings die Fähigkeiten der IGP nicht reichen.
Die potentielle Zielgruppe wäre also im Vergleich dazu riesig.
 
Boah ist das stressig.
Könnte ja mal jemand sagen, dass CSM deaktiviert sein muss...
(Sonst hier nur Piiiiiiip, piiep, piiep, piiep...)

Nächste Frage:
Wie schauts mit Linux aus?
Auf die Schnelle scheint meine Netzwerkverbindung jetzt kaputt zu sein (Manjaro, aktuell).
 
Sehr schöner Artikel! Ich wusste echt nichts von diesem Feature. Für meinen Alltags-PC wäre das toll, meine Sapphire RX570 saugt idle lächerliche 30(!)W *chatt*
 
Mit einem HDMI/DP in Port und einen Mux-Switch wie bei einigen Laptops wäre auch der Nachteil der zusätzlichen Latenz beseitigt.
 
Die Performance leidet irrelevant aber messbar - wie bei Laptops eben auch.

7600X
ASUS X670E-I
32GB DDR5-6000 CL30
RX 6800


Ich habe mal ein paar Benchmarks gefahren - 240Hz FHD Display - einmal direkt an der GPU, einmal am Mainboard per Hybrid Grafik.
Timespy - absolut keinen Unterschied
Timespy Extreme 4K - absolut keinen Unterschied
Borderlands 3 Benchmark - absolut keinen Unterschied
Shadow of TOMB Raider Benchmark - absolut keinen Unterschied

Also aus alltäglicher Relevanz würd ich behaupten Hybrid Graphics lässt sich auf AM5 ohne Beeinträchtigungen nutzen - Die dGPU fällt auf 6W Verbrauch im Standby zurück.

Aus meiner Notebookerfahrung weiß ich, dass extrem hohe FPS Unterschiede zutage bringen können.
Also habe ich nochmal Passmark angeschmissen um reproduzierbar extrem hohe FPS rauszukitzeln (Je nach Test 300-1000FPS) uns siehe da:
-15% Ergebnis bei Anschluss ans Mainboard.

CSGO:
Direkt: 643 AVG
über die IGPU: 519 AVG

Einen Vorteil bringt das ganze noch: man kann Thunderbolt/USB-C docks benutzen und USB-C Brillen und Displays betreiben auch wenn die Grafikkarte keinen passenden Ausgang hat.
 
Es läuft bei mir mit einem Godavari (A10-7870K) auf FM2+ und einer alten MSI R200 (Win8.1).
Läuft bei mir mit 2400G auch seit 2018 so. So kann man den Mining-Rig auch ohne Probleme für Office und Gamen brauchen und die GPU's laufen auch besser wenn da kein Monitor direkt dran hängt.

Bei MSI Bios einfach bei Interner Grafik auf "Force IGP" o.ä. stellen.

Mining ist ja grad vorbei aber ich lasse das weiter so, da ich weniger Strom brauche und auch weniger Probleme so habe. Da merkt man auch schnell wie unterschiedlich z.Bsp. eine GTX 1070 zu einer 1060 3gb ist. Die 1070 braucht einige Watt weniger im Idle als die 1060. Also manchmal ist eine grössere GPU sparsamer.

Edit: Eigentlich warte ich ja immer noch eher auf die Ursprüngliche AMD Idee seit Kaveri. iGPU als Co-Processor z.B. für Physik via...

Dazu habe ich gehört dass AMD so etwas für KI/ AI plant.
 
Zuletzt bearbeitet:
Die 1070 braucht einige Watt weniger im Idle als die 1060. Also manchmal ist eine grössere GPU sparsamer.
Das dürfte aber vor allem an der (möglicherweise schlechten) Implementierung der Hersteller liegen.
Normalerweise sollte eine 1060 bei 5W liegen im Leerlauf.
 
leider geht das bei mir nicht BF3/4 Spuelt nur über der onboard grafikkarte
 
Hi zusammen,

@wertzius hat ja eine super Alltags Simulation nachgestellt auch wenn nicht jeder FHD240hz+ hat/mag.
In dem Vergleich würde mich mal interessieren wieviel RAM der igp zugewiesen war und ob mehr/weniger GB da ein Unterschied machen würden?

Ich glaub das test ich demnächst mal bei mir, obwohl da müsst ich den RAM wieder runter Takten.. 🤔

Grüße 🖖🏼
 
Müsste eigentlich wurscht sein, die IGPU muss das ja nicht rechnen, sondern nur durch den Framebuffer schieben. Zugewiesen waren 1024MB aber dynamisch nimmt sich die IGPU ja mehr, falls nötig.
 
Wenn korrekt umgesetzt praktisch jeder der auch mit einem Gaming Laptop zufrieden wäre. Alternativ natürlich auch diejenigen die über den hohen Strombedarf in idle und beim Abspielen von Videos meckern da die Grafikkarte dann dafür nicht mehr benötigt wird udn abgeschaltet werden kann.
Bleiben also am Ende nur die sogenannten Hardcore Gamer und diejenigen denen auch abseits des Gamings die Fähigkeiten der IGP nicht reichen.
Die potentielle Zielgruppe wäre also im Vergleich dazu riesig.
Ich antworte mir mal selbst:
Fluppt unter Linux auch einwandfrei.
"switcheroo-control" installiert, den freien Amdgpu-Treiber installiert und beim starten des Programms einfach per Rechtsklick wählen ob dGPU genutzt werden soll oder per Linksklick die iGPU.
 
Da ich dieses Feature sehr interessant find hab ich es auch mal auf meinem System in Benutzung.
Allerdings erflogte schnell Ernüchterung.
Ausgangslage 1 x27" Monitor mit 144Hz per DP angeschlossen 1 x RX 6600XT und 1 x die iGPU vom 7800x3d.
Im IDLE, also nur Desktop anzeigen, zieht die 6600XT 6 -8 Watt, die iGPU schwankt zwischen 15 -25 Watt.
Twitchstream oder Youtubevideo: 6600XT 17 - 19 Watt, iGPU 25 -35 Watt.
Soll die die iGPU so viel ziehen?
 
Zurück
Oben Unten