AMD Hybrid Crossfire im Vorabtest

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Wie wir bereits vor einigen Wochen <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1193329230">berichteten</a>, soll "Hybrid Crossfire" eines der Eckpfeiler des Jahres 2008 für AMD werden.

<b>Was ist Hybrid Crossfire? </b>
Crossfire dürfte jedem Planet 3DNow! Leser bekannt sein. Es ist AMDs bzw. ATIs Interpretation von <a href="http://www.planet3dnow.de/artikel/hardware/sli/">NVIDIAs SLI-Technologie</a>. Hier werden zwei Grafikkarten zu einem Duo zusammengespannt, um gemeinsam mehr Grafikleistung erreichen zu können. Crossfire und SLI sind reine sog. Enthusiasten-Plattformen, also hochpreisige Geräte für eine Hand voll Power-User.
Hybrid-Crossfire adressiert eine andere Kundschaft; jene, die eigentlich ein preisgünstiges, leises, stromsparendes Gerät bevorzugen, auf ein gelegentliches Spielchen mit aktuellen 3D-Games aber nicht verzichten wollen, ohne dabei für den Rest der Zeit eine stromdurstige, teure Gaming-Grafikkarte mitschleppen zu müssen. Hier kommt nun Hybrid-Crossfire ins Spiel. Diese Technik kombiniert nicht zwei High-End Grafikkarten zu einem Doppel, sondern eine Onboard-Grafik (IGP) und eine Mainstream-Grafikkarte.

<b>Die Komponenten</b>
Die neue Plattform ist bereits für Q1 2008 angekündigt und besteht im Wesentlich aus dem neuen <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1197374774">AMD RS780 Chipsatz</A>, der eine DX10 R600 basierende GPU in sich trägt und zudem - je nach Ausführung - 16 MB oder 32 MB lokalen Framebuffer. Das sorgt dafür, dass nicht bereits unter der Windows-Oberfläche auf UMA-Speicher (also auf Speicher aus dem RAM des Systems) zurückgegriffen werden muss, was dem Gesamtsystem immer ein paar Prozentpunkt an Leistung raubt. Trotzdem kann die IGP auf UMA-Speicher zurückgreifen, sollte der lokale Framebuffer nicht genügen.
In den PCI-Express Slot des Mainboards kann der Anwender zusätzlich eine der kommenden ATI-Grafikkarten stecken. Im Falle eines Tests bei <a href="http://enthusiast.hardocp.com/article.html?art=MTQzMiwxLCxoZW50aHVzaWFzdA==" TARGET="_blank">HardOCP</a> war es eine RV620 GPU 55nm DX10.1 PCIe Karte mit 256 MB GDDR3 Speicher, eine Karte die ca. 50 Dollar kosten wird, wenn sie auf den Markt kommt.

<b>Was bringt's</b>
Sobald der Anwender im Catalyst-Control-Center den Crossfire-Haken aktiviert, arbeiten IGP und Grafikkarte im Gespann. Natürlich stehen ausführliche Tests noch aus und das frühe Betastadium der Technologie darf auch nicht verschwiegen werden, allerdings waren die Tester bei HardOCP recht angetan von der Performance und dem Performance-Zuwachs durch Hybrid-Crossfire. Während die IGP alleine im HDR/SM3.0 Score des 3DMark lediglich gut 1400 Punke zustande brachte, waren es im Hybrid-Crossfire Modus knapp 2600 Punkte. Selbst Crysis, eines der härtesten Spiele aktuell für Grafikkarten, soll in Medium-Auflösung spielbar gewesen sein und 50 Prozent mehr Leistung erreicht haben, als die IGP alleine. Bei UT3 (einem eher CPU-lastigen Spiel) soll der Performance-Zuwachs bei 33 Prozent gelegen haben.

Der Markterfolg von Hybrid-Crossfire dürfte in erster Linie davon abhängen, ob eine solche Plattform günstiger zu bekommen sein wird, als ein konventionelles System mit einer Mittelklasse-Grafikkarte. Anwender, die stärker ins Detail gehen bei der Auswahl ihrer Komponenten, dürfte zudem interessieren, ob die externe Grafikkarte in der Zeit, in der sie nicht genutzt wird (also beim arbeiten, surfen, etc.), weitestgehen abgeschaltet wird oder trotzdem Strom verbraucht. In letzterem Falle dürfte es das Interesse der Zielgruppe an Hybrid-Crossfire enorm schwächen. Lassen wir uns überraschen...
 
Warum gerade nur mit Mittelklasse-Karten?
Das macht für mich keinen Sinn. Die fressen doch sowieso nicht so viel.

Mehr Sinn würde es doch eher bei Karten vom Schlage einer 2900XT oder einer 3870 machen. Zwar hat letzere recht gute Stromsparfunktionen...trotzdem frisst sie im idle noch deutlich mehr als ne IGP unter Volllast. Da wäre der Leistungszugewinn und Sinn bei Spielen auch deutlich größer

Ich hoffe die beschneiden ihr Potential nicht wieder künstlich selbst durch die limitierung auf Mid-Range (2600, 36xx....)...Soll doch endlich mal wieder der Konsument entscheiden können...denn generell finde ich die Sache echt spannend...
 
In den PCI-Express Slot des Mainboards kann der Anwender zusätzlich eine der kommenden ATI-Grafikkarten stecken
Das sieht für mich dann wohl so aus, das jetzige Ati Käufer wohl gelitten haben mit Spider.
Also das wäre ja wohl nicht gerade dolle, wenn es sich tatsächlich auf "kommende Grakas" beschränken würde.

Edit
Das will ich mal nicht hoffen.
 
In meinen Augen geht dieses Projekt wohl mit dem "Fusion" einher.

Man stelle sich vor: Die IGP steckt im Prozessor oder mit eigenem Speicher auf dem Mobo und braucht auf diese Weise kaum Strom. Unterwegs das übliche Geschehen.

Dann aber kommt die Steckdose in greifbare Nähe und der hochgezüchtete Grafikchip kann aktiviert werden. Einfach genial. Fernab der Steckdose IGP und mit ungebändigtem Stromfluss kommt die Grafikpower zurück.

Mobilität der Laptops i.V.m. der Leistung von Desktop-PCs. Hervorragend. Auch in Desktop-PCs von Interesse, vor allem was Stromverbrauch, Hitzeentwicklung und Lautstärke angeht.

Wichtigstes Augenmerk: die "externe" Grafikkarte müsste sich in StandBy oder komplett ab-schalten lassen.
 
Zuletzt bearbeitet:
Warum gerade nur mit Mittelklasse-Karten?
Das macht für mich keinen Sinn. Die fressen doch sowieso nicht so viel.
Es geht ja nicht nur um die Stromsparfunktion, auch um den Leistungsgewinn. Die allermeisten Rechner sidn ja mit eher schwachen Grafikkernen ausgestattet, entweder nur IGP oder bestenfalls einer unter-50$-Karte. Wenn man beide verbinden kann und damit die Power verdoppelt oder zumindest 50% dazugewinnt, dann ist das schon enorm.

Das sieht für mich dann wohl so aus, das jetzige Ati Käufer wohl gelitten haben mit Spider.
Also das wäre ja wohl nicht gerade dolle, wenn es sich tatsächlich auf "kommende Grakas" beschränken würde.
Nein, es wird wohl eine Grafikkarte der HD3000er Reihe benötigt, die HD3850 und HD3870 gehören da dazu. Die kleineren Vertreter RV620 und RV635, also Ersatz für HD2400 und HD2600, kommen ja demnächst erst. Ältere Karten gehen aber wohl nicht, weil dann unterschiedliche Architekturen aufeinandertreffen, normales Crossfire geht mit je einer X850XT und einer X1900XT ja auch nicht.

Spider-Käufer haben insofern nur keine Chance darauf, wenn sie ein Board ohne IGP kaufen, das ist ja klar. Ich denke, auf Dauer wird es aber sowieso nur noch Chipsätze mit IGP geben, auch und gerade im oberen Marktsegment.

In meinen Augen geht dieses Projekt wohl mit dem "Fusion" einher.
Nein, Fusion ist noch einen oder zwei Schritte weiter, das soll ja ein Chip werden, der CPU, Grafikkern und komplette Northbridge enthält. Hybrid-CF wird bis dahin aber wohl Standard sein und Fusion kann das sicher auch.
 
Zuletzt bearbeitet:
Nein, Fusion ist noch einen oder zwei Schritte weiter, das soll ja ein Chip werden, der CPU, Grafikkern und komplette Northbridge enthält. Hybrid-CF wird bis dahin aber wohl Standard sein und Fusion kann das sicher auch.

Soweit ich weiß, ist Fusion ein Projekt, was in mehreren schritten die GPU und die CPU vereinen soll. Es wird nicht einen konkreten Chip mit Namen Fusion geben. (irgendwo gab es dazu doch auch mal nen par folien zu sehen... *kopfkratz)
 
Hybrid-Crossfire adressiert eine andere Kundschaft; jene, die eigentlich ein preisgünstiges, leises, stromsparendes Gerät bevorzugen
[...]Diese Technik kombiniert nicht zwei High-End Grafikkarten zu einem Doppel, sondern eine Onboard-Grafik (IGP) und eine Mainstream-Grafikkarte.

Ich will aber ZWEI 3870 (oder eine 3870 dual) mit einer IGP koppeln.
Das wäre eine gute lösung.

Imho auch gerade für Enthusiasten, die nicht im idle sinnlos Strom verballern möchten.
 
solche leute gibts?

Ich dachte Enthusiast bedeutet für die Hersteller generell nur Leute, die auch bei 10W Verlustleistung einer Northbridge mindestens 3 Heatpipes und Kühler aus massivem Kupfer brauchen, zusätzlich immer dicke die Grafikkarten für den 2D Betrieb übertakten und gleichzeit ohne Sonnenbrille nichtmehr in den Rechner gucken können wollen.

Oder waren das doch die Gamer? Bei beiden ists auf jeden Fall fakt, dass alles unter 1000g nicht ausreichend gut kühlt....
Aber Strom spielt doch bei beiden keine Rolle....

P.S.:

Wer Ironie findet, darf sie gern behalten. Ist ja bald Weihnachten... :)
 
Also mich haut das jetzt nicht wirklich um, die IGP läuft ja auch nicht ganz ohne Strom, nur weil's eine IGP ist. Zusätzlich dazu muss noch eine diskrete GPU Karte gekauft werden und mitlaufen (und Systemressourcen belegen).

Ich weiß nicht, ob ich das 3DMark06 Bild richtig interpretiere, denn ich bin kein Gamer, aber knappe 2600 Gesamtpunkte im 3DMark06 hole ich aus meiner 2400XT auch raus, wenn ich sie mittels RivaTuner o/c, wobei die GPU nach 1 Stunde UT2007 o/c bei 54C steht und im Leerlauf bei 29C - das ganze passiv gekühlt wohlgemerkt.

Sehe echt keine Vorteile in dieser Hybrid Lösung.
 
Also mich haut das jetzt nicht wirklich um, die IGP läuft ja auch nicht ganz ohne Strom, nur weil's eine IGP ist. Zusätzlich dazu muss noch eine diskrete GPU Karte gekauft werden und mitlaufen (und Systemressourcen belegen).
Natürlich läuft nichts ohne Strom, aber ein IGP benötigt schon deutlich weniger als eine
extra Grafikkarte.
Nimm doch mal Notebooks, die brauchen im Normalfall insgesamt(!) im Idle so 20-30W,
subnotebooks auch gerne darunter. Soviel ist es aber bei manch einer Grafikkarte schon
alleine, wenn sie im Idle läuft.

Deshalb macht es schon einen Unterschied, ob ein PC im Idle z.B. 50W oder eben, so wie
bisher 60-80W verbrät.
 
Hi,

welche Idee steht hier im Vordergrund? Stromsparen und Ressourcen effektiv nutzen. Macht doch eigentlich keine Sinn, wenn man sobald man eine Grafikkarte installiert eine vorhandene IGP Däumchen dreht. Diese Idee finde ich richtig gut. Ich hoffe, dass AMD damit als erster auf den Markt kommt und dass es erst einmal ein Alleinstellungsmerkmal bleibt.

IGP Chipsätze bekommen einen großes Feature hinzu und werden damit noch attraktiver. Und ev. bringt es mehr Kunden für ATi GPUs.

Greetz
neax;)
 
Zuletzt bearbeitet:
Die Frage ist doch im Endeffekt auch, ob das Betriebssystem damit umgehen kann, falls sich eine Grafikkarte komplett abschalten lässt zum stromsparen und zum spielen etc. wieder einschalten lässt.
Das ist ja nicht ganz unerheblich.

Da müsste quasi dann Plug´n´Play unter Windows auch mit Grafikkarten funktionieren wie z.B. mit USB-Geräten.

In Hinsicht auf Linux denke ich sollte die Integration relativ problemlos sein, oder sehe ich das falsch?


Das gute ist natürlich auch, dass IGPs bei diesem System noch stromsparender und schwächer werden können als bisher weil ja bei Bedarf immer die Zusatzkarte aktiviert werden kann. :)
Das sollte sich dann ja nochmals positiv auf die Laufzeit auswirken.
 
neax schrieb:
welche Idee steht hier im Vordergrund? Stromsparen und Ressourcen effektiv nutzen.

Und Weltfrieden...

Macht doch eigentlich keine Sinn, wenn man sobald man eine Grafikkarte installiert eine vorhandene IGP Däumchen dreht.

Wen stört die Verlustleistung des IGP von 10 Watt nachdem er eine Gamerkarte eingesteckt hat die 60 Watt @Idle säuft?

Niemanden.

Ich habe gerade in meine Kristallkugel geblickt und unter dem Schneegestöber erschreckendes gesehen.

- das Gerücht dass die Karte im PCIe _abgeschaltet_ wird wenn sie nicht gebraucht wird ist ein solches. Ein Gerücht.

- AMD spricht selbst nur davon dass die externe Karte die Leistungsaufnahme reduziert. Na toll. Etwa von 60 auf 40 Watt so wie einst Intel beim Saufkumpan PIV?

- meine Kristallkugel behauptet ferner dass selbst diese Stomsparfunktion noch nicht gleich kommt sondern "irgendwann" wenn die Arbeiten am Leistungsgewinn Früchte tragen. Und sie zeigt mir bootende PCs...danach war das Schneegestöber schon wieder so dick dass ich sie gleich zur 100.000-Deutungen Inspektion gegeben habe.


--
Ein Engel? Das ist ein Fußgänger der es nicht auf die andere Straßenseite geschafft hat.
 
Meiner Meinung nach eine absolut sinnlose Idee:

1.) Eine IGP ist wirklich langsam, sodass es nur bei einer Low Cost Karte etwas bringt und welcher Spieler holt sich eine Grafikkarte um 50 Euro? Die sind nur gut für Büro-PCs, die ein bisschen Grafik bei Vista brauchen und das auch nur, wenn sie keine IGP haben, was bei vielen Boards der Fall ist.

2.) Crysis auf Medium spielbar mit diesem Schrott? Das meinen die doch nicht ernst. Vielleicht auf 640x480. Crysis ist auf Medium nicht einmal auf meiner X1800XT spielbar, es sei denn man nennt 30fps Average mit Einbrüchen unter 20fps spielbar.

3.) AMD sollte lieber schauen, dass sie ein ordentliches Crossfire für 2 gute Karten zusammenbringen, das nicht nur in ein paar ausgewählten Benchmarks gut skaliert und dann 2 3870 koppeln. Damit würden sie wieder etwas reißen und könnten wieder ihr Image aufbessern.
 
Und Weltfrieden...



Wen stört die Verlustleistung des IGP von 10 Watt nachdem er eine Gamerkarte eingesteckt hat die 60 Watt @Idle säuft?

Niemanden.

Ich habe gerade in meine Kristallkugel geblickt und unter dem Schneegestöber erschreckendes gesehen.

- das Gerücht dass die Karte im PCIe _abgeschaltet_ wird wenn sie nicht gebraucht wird ist ein solches. Ein Gerücht.

- AMD spricht selbst nur davon dass die externe Karte die Leistungsaufnahme reduziert. Na toll. Etwa von 60 auf 40 Watt so wie einst Intel beim Saufkumpan PIV?

- meine Kristallkugel behauptet ferner dass selbst diese Stomsparfunktion noch nicht gleich kommt sondern "irgendwann" wenn die Arbeiten am Leistungsgewinn Früchte tragen. Und sie zeigt mir bootende PCs...danach war das Schneegestöber schon wieder so dick dass ich sie gleich zur 100.000-Deutungen Inspektion gegeben habe.

Dir ist aber schon aufgefallen daserste Schritte bereits begangen wurden oder wie soll man sonst erklären das bei der HD 3000er Reihe bereits nicht genutzte Chipteile abgeschaltet werden (Idle Verbrauch zw. HD 2400 und HD2600) und ein ähnliches Funktionsprinzip, wenn ich mich echt erinnere, auch schon im mobile Sektor existiert? (Akkubetrieb = IGP, Netzbetriebt = separater Grafikchip)
Der Vergleich mit dem Pentium 4 hinkt hier allerdings derb bei deiner Argumentation, denn diese waren bis zum Northwood in Idle durchaus recht sparsam....mit Verringerung der Strukturgrösse und demzusätzlichen Kern krankte dieser aber scheinbar mehr und mehr an den Leckströmen.
 
Meiner Meinung nach eine absolut sinnlose Idee:

1.) Eine IGP ist wirklich langsam, sodass es nur bei einer Low Cost Karte etwas bringt und welcher Spieler holt sich eine Grafikkarte um 50 Euro? Die sind nur gut für Büro-PCs, die ein bisschen Grafik bei Vista brauchen und das auch nur, wenn sie keine IGP haben, was bei vielen Boards der Fall ist.

2.) Crysis auf Medium spielbar mit diesem Schrott? Das meinen die doch nicht ernst. Vielleicht auf 640x480. Crysis ist auf Medium nicht einmal auf meiner X1800XT spielbar, es sei denn man nennt 30fps Average mit Einbrüchen unter 20fps spielbar.

3.) AMD sollte lieber schauen, dass sie ein ordentliches Crossfire für 2 gute Karten zusammenbringen, das nicht nur in ein paar ausgewählten Benchmarks gut skaliert und dann 2 3870 koppeln. Damit würden sie wieder etwas reißen und könnten wieder ihr Image aufbessern.
Was hindert dich daran zwei 3870er Karten mit der IGP zu betreiben? Wenn du surfst werden sie einfach abgeschalten, oder in einen Ruhezustand gesetzt. Das ist doch einfach die perfekte Lösung.
 
[MTB]JackTheRipper;3437672 schrieb:
Was hindert dich daran zwei 3870er Karten mit der IGP zu betreiben? Wenn du surfst werden sie einfach abgeschalten, oder in einen Ruhezustand gesetzt. Das ist doch einfach die perfekte Lösung.
Es gibt hier halt einige, die immer nur an Performance denken und da bringt Hybrid Crossfire
in der Tat nix, aber für diejenigen ist es auch gar nicht gedacht.
 
Es gibt hier halt einige, die immer nur an Performance denken und da bringt Hybrid Crossfire
in der Tat nix, aber für diejenigen ist es auch gar nicht gedacht.
Was auch nicht korrekt ist, denn oben ist eindeutig von einem Performancezuwachs die Rede. Bedenke auch das mit der aktuellen Spider Plattform bis zu 4 Grafikkarten gekoppelt werden können.
 
Was auch nicht korrekt ist, denn oben ist eindeutig von einem Performancezuwachs die Rede. Bedenke auch das mit der aktuellen Spider Plattform bis zu 4 Grafikkarten gekoppelt werden können.
Du hast mich falsch verstanden.
Hier gibt es einige, die nur den Performancegewinn sehen wollen.
Natürlich würde es sich, wenn man nur die Performance betrachtet nicht lohnen.

Mit der Spider Plattform hat das erstmal gar nix zu tun, obwohl man natürlich nicht
ausschließen kann, dass das irgendwann auch für die Spiderplattform realisiert wird.
Aber "Hybrid Crossfire" bedeutet erstmal nur IPG+zus. Graka.
 
wadenbeisser schrieb:
Dir ist aber schon aufgefallen daserste Schritte bereits begangen wurden

Erste Schritte? Gamertaugliche GPUs mit <30Watt unter Vollast existieren seit Jahren. Als Mobilversion. Also die gleiche Situation wie bei Desktop-CPUs vor der Einführung des Athlon64. AMD hat mit C&Q einen Geniestreich gelandet.

oder wie soll man sonst erklären das bei der HD 3000er Reihe bereits nicht genutzte Chipteile abgeschaltet werden (Idle Verbrauch zw. HD 2400 und HD2600)

Und der liegt wo? _Nur_ noch 30 statt 60 Watt @Idle? Für einen stehenden Desktop die Anzeige einer Webseite?

und ein ähnliches Funktionsprinzip, wenn ich mich echt erinnere, auch schon im mobile Sektor existiert? (Akkubetrieb = IGP, Netzbetriebt = separater Grafikchip)

Dummerweise hat es bisher kein Hersteller für sinnvoll befunden die Features der Mobile Chips konsequent auch für den Desktop anzubieten. Das nach der ersten Freude beim Durchlesen der Featureliste der neuen Radeons keine weiteren Berichte kommen macht mich stutzig.

Der Vergleich mit dem Pentium 4 hinkt hier allerdings derb bei deiner Argumentation, denn diese waren bis zum Northwood in Idle durchaus recht sparsam.

Verglichen mit einem Elektroofen - ja. Verglichen mit einem P1@233 dessen Leistung für Idle auch ausgereicht hätte ganz sicher nicht.

...mit Verringerung der Strukturgrösse und demzusätzlichen Kern krankte dieser aber scheinbar mehr und mehr an den Leckströmen.

Er "krankte", zumindest war das mein Eindruck als intressierter Laie, was den Idle-Verbrauch anging daran dass Intel bei seiner Konstruktion Energiesparen ausschließlich den Mobilvarianten zugestanden hat für die extreme Aufpreise zahlen sollte. Also keine dynamische Absenkung der Kernspannung, Reduzierung des Taktes nur um einen lächerlich geringen Anteil.

Nebenbei: http://newstuff.orcon.net.nz/wCalc.html ist mir bei der Suche nach dem Idle-Verbrauch des Willamette untergekommen.
 
Meiner Meinung nach eine absolut sinnlose Idee:

1.) Eine IGP ist wirklich langsam, sodass es nur bei einer Low Cost Karte etwas bringt und welcher Spieler holt sich eine Grafikkarte um 50 Euro? Die sind nur gut für Büro-PCs, die ein bisschen Grafik bei Vista brauchen und das auch nur, wenn sie keine IGP haben, was bei vielen Boards der Fall ist.

Gibt auch Leute wie mich, die 2x im Jahr ihre NFS-Most Wanted Lizenz rausholen und mal ein Woe die Reifen qualmen lassen, zu diesem Zweck habe ich eine HD2600, die ich aber 360 Tage im Jahr nicht brauche...

und ich könnte wetten, dass weltweit mehr PCs verkauft werden, die eher meinen Gaming-Gewohnheiten entsprechen als die von irgendwelchen beseelten Hardcore-Gamern... über den Tellerrand schauen ist manchmal gut
 
Erste Schritte? Gamertaugliche GPUs mit <30Watt unter Vollast existieren seit Jahren. Als Mobilversion. Also die gleiche Situation wie bei Desktop-CPUs vor der Einführung des Athlon64. AMD hat mit C&Q einen Geniestreich gelandet.



Und der liegt wo? _Nur_ noch 30 statt 60 Watt @Idle? Für einen stehenden Desktop die Anzeige einer Webseite?



Dummerweise hat es bisher kein Hersteller für sinnvoll befunden die Features der Mobile Chips konsequent auch für den Desktop anzubieten. Das nach der ersten Freude beim Durchlesen der Featureliste der neuen Radeons keine weiteren Berichte kommen macht mich stutzig.



Verglichen mit einem Elektroofen - ja. Verglichen mit einem P1@233 dessen Leistung für Idle auch ausgereicht hätte ganz sicher nicht.



Er "krankte", zumindest war das mein Eindruck als intressierter Laie, was den Idle-Verbrauch anging daran dass Intel bei seiner Konstruktion Energiesparen ausschließlich den Mobilvarianten zugestanden hat für die extreme Aufpreise zahlen sollte. Also keine dynamische Absenkung der Kernspannung, Reduzierung des Taktes nur um einen lächerlich geringen Anteil.

Nebenbei: http://newstuff.orcon.net.nz/wCalc.html ist mir bei der Suche nach dem Idle-Verbrauch des Willamette untergekommen.

Ich liebe Aussagen wo es offenbar nur ums rummotzen geht und wo man nur zu deutlich merkt das darüber nicht nachgedacht wurde.

Zu Punkt 1: (erste Schritte)
- Bei der HD 3xxx Reihe sind im Desktop Markt erstmals Mobil Stromspartechnologien integriert worden
- Auf dem Mobile Sektor existiert beines Wissens nach bereits ein Konzept wo im Akku Betrieb die integrierte Grafik des Chipsatzes und im Netzbetrieb die externe Grafik genutzt werden kann.
- Bei der Spider Plattform könnenbis zu 4 Grafikkarten miteinander gekoppelt werden und es sind schon lange keine externen Brücken und keine Masterkarte mehr nötig damit das Bild an nur einer Grafikkarte ausgegeben werden kann

Alles Einzelschritte zu dem was diesesn Hybrid Crossfire werden soll.

Zu Punkt 2: (Idle Stromverbrauch)
Wer lesen und rechnen kann ist klar im Vorteil aber ich teile meinen Eindruck gern mit dir.
Nehmen wir als Ausgangsbasis mal diesen Test bei Computerbase und diese Verbrauchsangabe der Sapphire HD 2400XT. (max. 25W)
Da in dem Test aber nicht der Strombedarf der Grafikkarte, sondern der des gesammtsystems ermittelt wurde rechnet man hier bei der HD 2400XT zuwischen Idle und Load aus und kommt dabei auf einen Differenzwert von 21W. Vernachlässigt man nun den Wirkungsgrad der Stromversorgung und zieht den Differenzwert vom bei geizhals.at angegebenen max. Verbrauchswert ab so landet man auf einem Wert von ca. 4W in Idle bei dieser Grafikkarte und ca. 154W für den Rest des Sytemes.
Wer nun also den Idle Verbrauch der Grafikkarten abschätzen will, der brauch nun nur noch den idle Verbrauch des restlichen systems vom gemessenen idle Wert abzuziehen und landet hier beispielsweise bei der HD 3850 bei ca. 7W und bei der HD 3870 bei ca. 13W...also meilenweit von deinen 30-60W entfernt.

Zu Punkt 3: (Nutzung von Funktionen seitens der Hersteller der Laptops)
Ob ein Hersteller nun eine Funktionsmöglichkeit nutzt oder nicht ist nachwievor das Bier der Hersteller selbst. Was hier warscheinlich abschreckend wirkt ist die Integration des ganzen auf den beschränkten Platz im Laptop und die Tatsache das es schwierig sein dürfte die externe Grafik komplett stromlos zu schalten....somit addieren sich dann letztendlich die Idle Stromaufname der internen und der externen Grafikeinheit und die Preisfrage kommt auch ob das ganze dann noch Sinn macht.

Zu Punkt 4: (Idle Verbrauch des Pentium 4 Willamette)
Der Sinn deines Links entzieht sich mir völlig, da nirgens auf diesen Wert eingegangen wird. Bestenfalls ist http://users.erols.com/chare/elec.htm interessant aber auch hier wird nichtmal ansatzweise darauf eingegangen, sondern nur auf den TDP und den Max. Wert.
 
wadenbeisser schrieb:
Ich liebe Aussagen wo es offenbar nur ums rummotzen geht und wo man nur zu deutlich merkt das darüber nicht nachgedacht wurde.

Schön für Dich, allzu oft solltest Du das aber nicht versuchen.


- Bei der HD 3xxx Reihe sind im Desktop Markt erstmals Mobil Stromspartechnologien integriert worden

Schön dass Du es nochmal (zum dritten Mal) erwähnst.

Erinnere Dich an die Stromspartechnologien des PIV. Tolle Sache, nicht wahr? Das Stromspartechnologien da sind heißt noch lange nicht dass sie auch funktionieren. Dass sie funktionieren heißt noch lange nicht dass sie merklich was bewirken.

Auf dem Mobile Sektor existiert beines Wissens nach bereits ein Konzept wo im Akku Betrieb die integrierte Grafik des Chipsatzes und im Netzbetrieb die externe Grafik genutzt werden kann.

Konzepte gibts wie Sand am Meer. Nützt nichts solange sie nicht in Produkte verwandelt und die Produkte nicht verkauft werden.
Es gibt ein Konzept wo eine Desktop-Grafikkarte per PICe-Extern angebunden wird. Und berichtet wurde von einem Laptop mit IGP und Mobil-GPU bei dem man zwischen beiden per Schalter wählen konnte.
Beide Schritte in die richtige Richtung, aber nicht wirklich massentaulglich weil zum umschalten gebootet werden muss.


Alles Einzelschritte zu dem was diesesn Hybrid Crossfire werden soll.

Hast Du mich möglicherweise missvertanden? Ich habe keinen Augenblick lang daran zweifeln wollen dass ATI in die richtige Richtung marschiert. Wollte stattdessen nur nochmal daran erinnern dass zwischen den vollmundigen Versprechungen der Marketingabteilung (*) und der Realität manchmal eine schmerzhafte Lücke klafft.


(Idle Stromverbrauch)
Wer lesen und rechnen kann ist klar im Vorteil aber ich teile meinen Eindruck gern mit dir.

Das ist nett.

Nehmen wir als Ausgangsbasis mal diesen Test bei Computerbase und diese Verbrauchsangabe der Sapphire HD 2400XT. (max. 25W)

Das erste ist ein gemessener Wert, das zweite eine TDP-Angabe. Wenn Du die miteinander multiplizierst und dann die Jahreszahl abrechnest kriegst Du das Atomgewicht von Kartoffelsalat.


Da in dem Test aber nicht der Strombedarf der Grafikkarte, sondern der des gesammtsystems ermittelt wurde rechnet man hier bei der HD 2400XT zuwischen Idle und Load aus und kommt dabei auf einen Differenzwert von 21W. Vernachlässigt man nun den Wirkungsgrad der Stromversorgung und zieht den Differenzwert vom bei geizhals.at angegebenen max. Verbrauchswert ab so landet man auf einem Wert von ca. 4W in Idle bei dieser Grafikkarte und ca. 154W für den Rest des Sytemes.

Und hast Du mal darüber nachgedacht wo diese 150 Watt herkommen sollen? CPU 120 Watt Idle?


[/QUOTE]Zu Punkt 3: (Nutzung von Funktionen seitens der Hersteller der Laptops)[/QUOTE]

Lies nochmal worum es mir ging. Der Erdrutsch bei Intel lief aus meiner Sicht so ab: Immer mehr Leute wollten unbedingt Intel aber keine Elektroheizung. Also haben immer mehr Leute den PentiumM mittels Adapter oder Vergewaltigung in ein DesktopBoard gebaut. Nach und Nach hat eine zunehmende Zahl von Herstellern erkannt dass man diesen "Enthusiasten" eine Menge Geld aus der Tasche ziehen kann wenn man ihnen direkt Boards verkauft die einen gar nicht für den Desktop gedachten Mobil-Prozessor PentiumM aufnehmen.

Gehen wir zurück zur GPU. Ich schließe von mir auf andere und behaupte dass eine Menge Leute Geld dafür ausgeben würden eine Performante MobilGPU auf einer PCIe Steckkarte zu betreiben. Das liefert aber kein Hersteller. Bedauerlich.

Zu Punkt 4: (Idle Verbrauch des Pentium 4 Willamette)Der Sinn deines Links entzieht sich mir völlig, da nirgens auf diesen Wert eingegangen wird.

Der war auch nicht als Teil der Argumentationskette gedacht. Ich bin nur beim gurgeln darüber gestolpert und fand ihn für Berechnungen der Leistungsaufnahme recht intressant.
 
Ah wieder einer von der Sorte "ich rupp das gesammte Posting aus dem Zusammenhang um meiner Argumentation Nachdruck zu verleihen und schreib noch ein bischen abwertenden Schrott dazu".

Der Pentium 4 litt (wenn ich mich recht erinnere) anfangs weniger an Leckströmen als die letzten Modelle des Pentium 3, was allerdings nicht mit dem Strombedarf bei Last verwechselt werden darf....genau deshalb ist der link mit der Berechnung der max. Verlußtleistung auch so sinnlos wenn es um den Idle Verbrauch geht.

Wir erinnern uns jetzt alle an das wunderschöne "Athlon XP vs. Pentium 4" THG Video wo demonstriert wird was passiert wenn der Kühler "abfällt". (der Prozessor legt Warteschleifen bis zum gehtnichtmehr ein um nicht zu überhitzen und wird dabei entsprechend lahm, der AthlonXP brennt aufgrund der langsamen externen Übertemperaturabschaltung durch)

Des weiteren scheinst du vergessen haben (oder ignorierst einfach) das es auch ein paar andere Verbraucher als nur den Prozessor (welcher auch noch übertaktet wurde und man sich somit jegliche TDP Werte an die backe schmieren kann) und die Grafikkarte gibt. Da wäre beispielsweise das Mainboard mit allen Onboardkomponenten, dem Chipsatz (im Test wurde ein für seine "Sparsamkeit" bekannter Nvidia nForce 680i verwendet) und dem Spannungsregler des Prozessors. Nicht zu vergessen sind hierbei aber auch noch die anderen verbraucher wie alle Laufwerke (Toshiba SD-H802A HD-DVD-Laufwerk, Pioneer BDC-202BK SATA Blu-ray-Laufwerk, Samsung SATA2-HDD mit 500 GB und 16 MB Cache), ein paar Propeller und natürlich durch seinen Wirkungsgrad das Netzteil an sich.

"Kleinfieh" macht ebend auch Mist.

Willst du mal wissen wieviel dein Rechner ohne die Grafikkarte frisst, dann schnapp dir eine asbach uralt PCI Grafikkarte, welche noch ohne Kühlkörper auskommt), stopfe diese anstatt deiner jetzigen Grafikkarte rein und mess dann mal den Stromverbrauch.

Bevor du meine Überschlagsrechnung zum Idle Verbrauch des Rechner spontan als Mist abstempelst solltest du lieber selbst mal dafüber nachdenken was im Rechner alles Strom frisst und diesen in Wärme umsetzt bzw. eine eindeutige Messung mit einem vergleichbaren System liefern.
 
Zurück
Oben Unten