News Sockel AM5: Hybrid Graphics ausprobiert

Ja wer brauch schon einheitliche Standarts ... das ist ja totaler Quatsch.
Allerdings verwundert mich der CPU verbrauch etwas ... 38-45W ohne das Leistung abgefordert wird finde ich schon arg viel aber mir scheint hier einiges noch nicht ganz ausgegoren sowohl bei AM5 als auch aktuell bei den GPU Treibern die AMD so raus gibt ...
Ich werde es dennoch mal ein wenig testen und mal meine Erfahrungen teilen, gerade weil es ja bei 4K144 durchaus nen unterschied machen kann wenn die GPU nicht mit läuft im Desktopbetrieb, aber bei 18-20W verbrauch stimmt auch noch etwas nicht, kann aber auch daran liegen das ich das im laufenden Betrieb umgesteckt habe
Doppelposting wurde automatisch zusammengeführt:

So ich habe mal neugestartet ^^
Also die 6800XT schaltet sich ab und braucht dann ~8,5W TGP, witzigerweise schaltet sie sich aber immer mal wieder ein zwischendurch, warum auch immer.
Der hohe CPU/GPU verbrauch von angeblich ~38W ist aber geblieben, ist immer noch weniger als vorher aber mal abwarten ob es noch weitere Probleme gibt mit der Zeit
 
Zuletzt bearbeitet:
So nach 2 Tagen muss ich sagen bin ich schon leicht genervt ... auch wenn es schön ist den Verbrauch zu reduzieren gibts immer wieder Probleme gerade nachdem der Monitor in den Standby geht bzw der ganze PC, dann muss ich immer erst das DP Kabel ausziehen und wieder einstecken damit ich einen Link bekomme und mein Bild wieder da ist.
Ob das ein Treiber, UEFI oder Hardware Problem ist kp ...
Ansonsten konnte ich leicht schlechtere FPS feststellen, im Schnitt so 5-10FPS aber in UHD ist das halt schon ne ganze Menge, woran genau das liegt keine Ahnung.
Ich bleibe dennoch erstmal dabei, sollte mir noch mehr negatives auffallen geb ich bescheid :P
 
Also ich habe das jetzt wieder umgestellt und hab den Monitor wieder an die Grafikkarte direkt angeschlossen.
Die Gründe dafür sind vielfältig und alle für sich auch nicht unbedingt tragisch aber die Summe ist halt nervig.

Pro:
- GPU schaltet ab bzw geht in den Ruhezustand und benötigt dann noch ~9W trotz UHD@144Hz
- das Umschalten funktionierte bei den von mir genutzt spielen zuverlässig

Contra:
- häufig verliert die iGPU den DP Link, dann muss man das Kabel raus ziehen und wieder einstecken
- trotz HDMI 2.1 unterstützt die iGPU kein UHD@144Hz sondern nur UHD@60Hz
- es gehen FPS verloren aus Gründen die sich mir nicht ganz erschließen

Am Ende ist das häufige verlieren des DP Links nachdem der Monitor sich ausgeschaltet hat der Hauptgrund warum ich wieder gewechselt habe, mit dem neuen Treiber und der Änderung von 144Hz auf 120Hz verbraucht die 6800XT trotz UHD nur noch ~10W auf dem Desktop und das ist ok für mich.
Denn seien wir mal ehrlich, selbst die 120FPS durchgängig zu erreichen ist mit einer 6800XT nicht wirklich einfach :P
 
Ausgelesen mit der Adrenalin Software.

Moin maikrosoft ... 👍

ja, ich weiß, dieser Test und Dein Kommentar sind lange her ... 🙂
Aber dies hier ist einer der wenigen Tests zu "Hybrid-Grafik" ... daher vielleicht auch für andere interessant, die über Google hierherfinden:

Deine Messungen mit dem Adrenalin-Treiber spiegeln nicht den tatsächlichen Stromverbrauch der Grafikkarte wieder.
Da wird bis zur 6000er Serie nur der Verbrauch des GPU-Package angezeigt.
(Gilt auch für alle anderen Tools wie HW-Info, etc ... )

Alles andere, der Verbrauch des PCB-Boards, der Lüfter, RGB, der Verlustleistung der Spannungswandler, etc ... das bleibt unsichtbar.
Das ist aber der viel höhere Anteil des "Verbrauchs" im Idle/Desktop/2D-Modus.


Info dazu zB hier bei "Igors Lab":
>> Total Board Power (TBP) vs. reale Leistungsaufnahme
>> Hier das alles als Video auf Igors Youtube-Kanal

Spoiler: Nvidia macht es anders:
Die messen an den Stromanschlüssen der Karte den tatsächlichen, kompletten Verbrauch.
AMD macht es seit der 7000er-Serie genauso ... 👍



Die einfachste Möglichkeit ist ein Stommessgerät zu nutzen:

Eins, das 7,50 Euro kostet und in die Steckdose gesteckt wird.
Ist zwar kein High-Tech ... aber die sind genau genug - nutze ich selber.


Fazit:
Rechne grob, dass jede Grafikkarte mindestens 20 Watt im Idle zusätzliche Last zu CPU, RAM, Mainboard, Peripherie erzeugt.
Je mehr VRAM, je mehr Stromschienen und Wandler ... also je "dicker die Karte" ... desto höher die Grundlast.

Wenn Videos angezeigt werden, kommen nochmal 10 bis 15 Watt hinzu.
(Je nach Codec und Auflösung)

Wenn Hersteller schlampig arbeiten und zB Sleep-Modi nicht gut implementieren, kann es duchaus deutlich mehr sein.

Damit zeige ich auf AMD ...
Das ist denen bei einigen 6000er-Modellen und vor allem bei der 7000er-Serie im Multimonitorbetrieb bei High-Refresh-Displays passiert.

Da kamen einige Karten auf 70 bis über 100 Watt zusätzlichen Dauerverbauch, weil der VRAM plötzlich immer auf hochtouren lief.
Wurde zwar nachgebessert, aber richtig optimal läuft das bei vielen Nutzern immernoch nicht.

(Habe ich selbst bei einer AMD 7900xt gehabt ...🙁)
 
Zuletzt bearbeitet:
Die einfachste Möglichkeit ist ein Stommessgerät zu nutzen:
Eins, das 7,50 Euro kostet und in die Steckdose gesteckt wird.
Ist zwar kein High-Tech ... aber die sind genau genug - nutze ich selber.
Nichts für ungut aber das ist nicht die Einfachste sondern mit Abstand ungenaueste Variante weil man nicht den Strombedarf der Grafikkart mißt sondern den des gesammten Systems mit den Netzteilverlußten oben drauf.
Haben die Dinger dann auch noch ein Problem mit der mit geringen Lasten oder dem Leistungsfaktor der Verbraucher können gerade die Billigheimer sonstwas anzeigen.
 
Nichts für ungut aber das ist nicht die Einfachste sondern mit Abstand ungenaueste Variante weil man nicht den Strombedarf der Grafikkart mißt sondern den des gesammten Systems.

Richtig.

Aber Hauptsache, die Leute messen ihr System überhaupt mal aus und optimieren ... (y)

Aussreisser, die aufgrund fehlerhafter Treiber die Karte ständig auf Hochtouren laufen haben (siehe oben), erkennt man dann auch mit einer solchen Messung.

Wer eine IGP/APU im Prozessor verbaut hat, kann zum Vergleich ohne Grafikkarte nachmessen ...
Zusätzlich kann mit Erfahrungswerten aus Foren verglichen werden.

Gott sei Dank wird Effizienz für viele User zum Thema, entsprechend gibt es Austausch im Internet.


Wer die Grafikkarte bis aufs Watt genau vermessen will:

Das ist eben leider nicht so einfach ... Man muss sich zusätzliches Equipment beschaffen und den Strom an den Ein- und Ausgängen der Karte messen. Dazu dann auch noch die Leistung rechnen, die durch den PCIe-Slot gegeben wird.

Mit einem normalen Strommessgerät wird das nichts, weil dieses zu träge ist, die hohen Schalt-Frequenzen und die Peaks im Millisekunden-Bereich zu erfassen.

Infos zu solchen Sets gibt es in Igors Video, das ich oben bereits verlinkt habe.



... mit den Netzteilverlußten oben drauf

Ist die Effizienz des Netzteils aus dem Datenblatt des Herstellers bekannt, kann man den zusätzlichen Verbrauch ganz einfach herausrechnen.

Will man die Grundlast (Idle/2D-Desktop/Video) des gesamten Systems ermitteln, ist es schon auch wichtig, den Verlust des Netzteils einschätzen zu können.

Gerade NoName-Billigheimer haben im unteren Lastbereich erschreckend schlechte Effizienzen.

Hier gibt es zusätzliche, unabhängige Messungen von Cybenetics:
>> https://www.cybenetics.com/index.php?option=power-supplies

... falls der Hersteller nur ungenaue (oder gar keine) Angaben zum eigenen Netzteil gemacht hat.
 
Zuletzt bearbeitet:
Aber Hauptsache, die Leute messen ihr System überhaupt mal aus und optimieren ... (y)
Wenn zum Aktionismus nur irgendetwas gemessen werden soll kannst du auch den GPU Wert nehmen.

Mal ehrlich, sowas interessiert meiner Erfahrung nach nur so lange wie der favorisierte Hersteller im Vorteil ist und verliert für diejenigen für gewöhnlich jegliche Bedeutung wenn das nicht mehr der Fall ist.
Das Schema betrifft nicht nur den Strombedarf sondern konnte auch bei vielen anderen Funktionen beobachtet werden die für ach so wichtig hingestellt wurden.

Ein paar Beispiele?
Der über Auflösungen, Bildwiderholraten und Anzahl der Bildschirme hinweg auf recht geringen Niveau stabile idle Strombedarf von AMDs HBM Modellen, der teils explodierende Strombedarf von GDDR Karten abseits der Standard Testszenarien wo die Geforce Karten nicht selten die Radeons im negativen Sinne hinter sich ließen.
Der Zirkus um Themen wie Downsampling, SSAA, virtuelle Auflösungen, adaptive Sync und was weiß ich noch alles.
Ebenfalls erkennbar war es am Zirkus um das Thema Filterqualität, die sätere fehlende Relevanz von Bildfehlern durch upscaling Technologieen oder die schlichte Weigerung bei PhysX zuwischen den reinen CPU Titeln und den für die Diskussion relevanten GPU beschleunigten Varianten zu unterscheiden um die Anzahl der Spiele künstlich aufzublasen.
Beim Thema Tesselation interessierte es die Wenigsten das es nur allso oft übermäßig eingesetzt wurde um Abstände künstlich zu herhöhen, selbst wenn es dadurch übermäßig Leistung frißt.
Aktuells ehen wir das gleiche Schema beim Thema Raytracing. Die angeblich größere Zukunftssicherheit der Geforce Karten durch die höhere RT Performance ist praktisch nichts wert weil der Leistungsbedarf erheblich stärker stieg und der VRAM Geiz ohnehin nicht zu zum Thema Langzeitnutzung passt.

Alles in allem läuft es also lediglich auf eines hinaus, eine Rechtfertigung für die Kaufentscheidung und dafür so viel Kohle auf den Kopf gehauen zu haben.
 
Wenn zum Aktionismus

Wieso "Aktionismus"?
Eine möglichst niedrige Grundlast finde ich wichtig.
Und das wird zunehmend vielen anderen Nutzern ebenfalls wichtig.

Mein Rechner läuft jeden Tag bis zu 18 Stunden.
Und das eben hauptsächlich für Office, Coding, Video, Browsen ... also bei Niedriglast.

Übrigens:
Schon zwischen den Tastendrücken beim Schreiben eines Kommentares geht der Rechner kurz in Idle-Modus.

50 Watt ständige und unsinnige Mehrlast kostet mich pro Jahr 100 Euro (bei 36 Cent/kWh).
Klar ... das macht mich nicht arm.

Aber ich kann das Geld auch deutlich sinnvoller ausgeben:
Nach 4 Jahren ist die nächste CPU quasi umsonst und gratis.


... kannst du auch den GPU Wert nehmen.

Das ist eben falsch, da die realen Werte stark abweichen.

Meine Vega 56 hat da für die GPU 1,5 bis 3 Watt angezeigt.
Tatsächlich genehmigt sich die gesamte Karte mit ihrer ganzen elektrischen Peripherie aber ständig 15 bis 20 Watt.
Einfach so ... ohne irgendwie wirklich zu arbeiten.

Da musst Du schon zugeben, dass das ein ziemlicher Unterschied ist.

Meine aktuelle 7800xt zeigt im Idle auch genau diese korrekten 20 Watt als "Total Board Power" an.
Allein die GPU als Messwert, wie bei den alten Karten, wird da gar nicht mehr im Treiber angezeigt.
 
Mir ist nicht ganz klar was dein Beitrag mit dem Thema zutun hat ...

Hier geht es um Hybridgrafik, dazu habe ich ausführlich berichtet hier im Thread, sofern es da keinerlei neuen Erkenntnisse gibt das es nun besser läuft erschließt sich mir das hin und her von dir nicht!
Teste es doch einfach selber aus wie "gut" es so läuft und berichte davon ansonsten schreibst du hier sinnlos Text den keiner Versteht und der hier auch nichts zu suchen hat, mach nen eigenen Thread auf mit PC Leistungsaufnahme Optimierung oder so, da kannst du dann darüber Philosphieren wie man das ordentlich macht und wo es einsparpotential deiner Meinung nach gibt, hier gehört das aber nicht hin.
 
Heyheyhey, @sompe und @NEO83: Die Intention unseres neuen Mitglieds scheint gut zu sein, viele seiner Aussagen sind, für sich genommen, erst mal korrekt. Stromsparen u. Effizienz sind wichtige Themen, auch da liegt er richtig. Mit euren Beiträgen habt ihr ebenfalls weitgehend gute Punkte angebracht, ihr könnt dabei jedoch sicher netter u. willkommenheißender zum neuen P3Dler sein.

Eure Argumente können prima nebeneinander Bestand haben.

@NEO83: Er hat kurz angerissen, wieso er es hierher schreibt, obwohl es thematisch nur eingeschränkt passt (Effizienz, Stromsparen -> Kostensparen) – sogar vorweg zu seinen eigentlichen Aussagen:
Aber dies hier ist einer der wenigen Tests zu "Hybrid-Grafik" ... daher vielleicht auch für andere interessant, die über Google hierherfinden: [...]
 
2007 registriert, 2010 erster Beitrag, alle anderen 3 seiner Beiträge in diesem Forenthema, das er knapp 12 Monate nach hiesigem letztem Beitrag wiederbelebte – für mich ist er ein Neuzuwachs. Umso mehr, wenn er schreibt:
vielleicht auch für andere interessant, die über Google hierherfinden:
 
Zurück
Oben Unten