AMDs Hybrid CrossFire

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.384
Renomée
9.729
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Sowohl NVIDIA, als auch AMD planen Hybrid SLI beziehungsweise Hybrid CrossFire, durch das die Leistung einer integrierten Grafik mit einer diskreten Grafikkarte zusammen genutzt werden kann.

Bei AMD soll dies ab dem RS780 und bei NVIDIA ab dem MCP78 möglich sein. Laut VR-Zone soll mit dem RS780 und einer Radeon HD 2400 eine 50 prozentige Steigerung im synthetischen Benchmark 3DMark 06 erzielt werden können. Bei NVIDIA soll mit einer Mainstreamkarte und dem MCP78 eine Leistungssteigerung von 40 Prozent möglich sein. Karten aus dem Bereich Performance und Enthusiast bieten dann nur noch eine Steigerung von 20 bzw. 5 Prozent.

AMD wirbt für den RS780 mit einem Idle-Verbrauch von 1,2 Watt und gleichzeitig kann auch eine eingesteckte Grafikkarte ausgeschaltet werden, sollte die Leistung nicht benötigt werden, dafür übernimmt dann der integrierte Grafikkern des Chipsatzes.

<b>Quelle:</b> <a href="http://www.vr-zone.com/?i=5363" target="b">AMD Touts Hybrid Crossfire Performance</a>
 
Wie hoch ist eigentlich der Idle&Maximal-Verbrauch des RS690s???
 
AMD wirbt für den RS780 mit einem Idle-Verbrauch von 1,2 Watt und gleichzeitig kann auch eine eingesteckte Grafikkarte ausgeschaltet werden, sollte die Leistung nicht benötigt werden, dafür übernimmt dann der integrierte Grafikkern des Chipsatzes.
Das ist mal höchst interessant, schließlich braucht man, wenn man nur surft, ja keine Karte vom Schlage einer HD2900XT für die bloße 2D-Darstellung.
 
AMD wirbt für den RS780 mit einem Idle-Verbrauch von 1,2 Watt und gleichzeitig kann auch eine eingesteckte Grafikkarte ausgeschaltet werden, sollte die Leistung nicht benötigt werden, dafür übernimmt dann der integrierte Grafikkern des Chipsatzes.

Das wäre tatsächlich ein "Killer" Feature. Mir würde in 95% der Zeit eine Onboard Grafik reichen. Bin gespannt obs wirklich funktioniert.
 
Karten aus dem Bereich Performance und Enthusiast bieten dann nur noch eine Steigerung von 20 bzw. 5 Prozent.

Versteh ich nicht... bin ziemlich müde.
Heißt das, dass wenn ich eine High-End-Karte dazustecke und dann SLI/Crossfire mit der IGP starte ich weniger Performancegewinn haben werde als wenn ich eine Low-End-Karte dazustecke?
 
Natürlich, da der Anteilverhältnis und somit die Perfomance-Steigerung der IGP bei der High-End-GPU kleiner ist als bei einer Low-End-GPU.
 
Versteh ich nicht... bin ziemlich müde.
Heißt das, dass wenn ich eine High-End-Karte dazustecke und dann SLI/Crossfire mit der IGP starte ich weniger Performancegewinn haben werde als wenn ich eine Low-End-Karte dazustecke?
die Performancesteigerung wird sicher gleich sein, aber wenn man z.B. ne 8800GTX hat macht die zusätzliche IGP nur einen sehr geringen Teil (%) der Performance aus.
 
Also wenn die IGP ne Leistung von 100 Apfelpunkten hätte, dann habe ich eine Leistung von 140APs mit einer HD2400 (z.B.) und mit einer HD2900 105-120Aps?

edit: ahh ich glaube ich habe es verstanden. Die Prozentzahl gibt nicht den Anteil der dedizierten Karte an, sondern den Anteil der IGP. Sag das doch mal einer :)
Wobei da die Meldung missverständlich ist imho.
 
Zuletzt bearbeitet:
Also wenn die IGP ne Leistung von 100 Apfelpunkten hätte, dann habe ich eine Leistung von 140APs mit einer HD2400 (z.B.) und mit einer HD2900 105-120Aps?

ja wenn die HD2400 100 apfelpunkte hat, hast du dann 140 apfelpunkte. also 40% mehr.
wenn du eine 2900XT hast, die schon 1000 apfelpunkte bringt, dann hast du 1040 apfelpunkte. was nur noch einer steigerung von 4% entspricht ;) verstanden?
 
AMD wirbt für den RS780 mit einem Idle-Verbrauch von 1,2 Watt und gleichzeitig kann auch eine eingesteckte Grafikkarte ausgeschaltet werden, sollte die Leistung nicht benötigt werden, dafür übernimmt dann der integrierte Grafikkern des Chipsatzes.
Damit wär dann auch das Problem gelöst, wie man das Bild von der Integrieten Karte und der dicken Graka gleichzeitig zum Monitor kriegt... Man aktiviert einfach Crossfire und schon können beide Karte gleichzeitig auf den Monitor schreiben... Echt clever :)

Ich würd mir so ein Board kaufen *great*
 
und über welchen ausgang käme dann die bildinformation?

denke doch mal über den, der dicken hd2xxx, weil anders herum hätte man doch bestimmt latenz probleme oder?

also is die dicke graka doch nich ganz ausgeschaltet;)

find diese entwicklung aber auch sehr interssant, dann kann man sich auch die toolz sparen, die meine fette graka mit 100W Verlustleistung im idle runterdrosseln
 
und über welchen ausgang käme dann die bildinformation?

denke doch mal über den, der dicken hd2xxx, weil anders herum hätte man doch bestimmt latenz probleme oder?
Ne, das Bildsignal muss von der Integrierten kommen. Die Latenz kann man glaub ich vernachlässigen. Oder hast du schon mal von Latenzproblemen bei nem ausgewachsenem Crossfire/SLI-System gelesen?
 
ne, hab leider keins und kenn auch keinen, aber wenn die gesamten daten erst zur graka hin gehn, und wieder über chipsatz and so on bis zum stecker vom mobo gehn könnt ich mir das schon vorstellen, wegen den umwegen halt.
beim "richtigen" crossfire/sli geht die daten doch fasst ausschließlich über diesen connector oder irre ich?

naja, is auf jeden fall en riesen sprung in die richtige richtung*buck*
 
vielleicht gibts ja wieder eine externe kabelpeitsche :D

aber abgesehen davon würde ich mir auch so ein board kaufen :)
 
beim "richtigen" crossfire/sli geht die daten doch fasst ausschließlich über diesen connector oder irre ich?
Wenn ich mich nicht irre, dann zeigte AMD mal ein Phenom mit 790FX & 2x HD2900XT ohne Connektor-Verbindung.
Grund, weil sie es nicht nötig haben, da PCIe 2.0 x16 ausraucht.

Nagut, wenn 790FX&HD3800 rauskommt, dannn ist die HD2900xt mehr mainstream als High End-Karte.
 
Finde die Idee auch Klasse. Endlich werden mal diese zwei Welten zusammengebracht.
So würden sich bestimmt etliche Leute dazu hinreißen lassen eine stromgierige High-End Karte zu kaufen, wenn sie abgeschaltet wird wenn ihre Leistung nicht benötigt wird.

Dies würde den Grafikkartenherstellern auch wiederum mehr Geld in die Kassen spülen und zudem zufriedene Kunden bescheren.
 
Das wär mal ein Feature wo ich gerne ein paar Euro mehr in die Graka stecken würde.
Auf die 10% mehr Performance kann ich auch verzichten wenn das mit dem Deaktivieren der Karte im idle/2D funktioniert.
 
das ganze hat natürlich auch Nachteile. Man kann sich dann herausreden und muss wohl nicht weiter am Stromhunger der dicken Karten arbeiten, der 2D Modus der Onboard Karte dient dann als Feigenblatt. Darunter leiden dann diejenigen die keinen AMD Chipsatz, jedoch eine AMD Grafikkarte haben (wer weiß wie sich der Markt hier entwickelt, vielleicht wird ja die nächste Generation der Brüller und keiner will mehr Nvidia kaufen). Z.B. Intelsysteme hätten dann wohl die A-Karte gezogen.

Ansonsten ist das ganze wirklich ein Killerfeature für mich, ich Spiele vielleicht 2-3h die Woche, den Rest der Zeit würde die Onboard ausreichen. Wenn man dann allein die Stromarsparnis berechnet (Systemlautstärke überhaupt nicht berücksichtigt) lohnt sich ein Aufrüsten ja schon fast finanziell (bei 80W Ersparnis und 10h Betrieb pro Tag spart immerhin 60€ im Jahr).
 
Finde die Idee auch Klasse. Endlich werden mal diese zwei Welten zusammengebracht.
So würden sich bestimmt etliche Leute dazu hinreißen lassen eine stromgierige High-End Karte zu kaufen, wenn sie abgeschaltet wird wenn ihre Leistung nicht benötigt wird.

Dies würde den Grafikkartenherstellern auch wiederum mehr Geld in die Kassen spülen und zudem zufriedene Kunden bescheren.
Ehrlich gesagt kenne ich niemanden, der sich denkt "Boah geile Grafikkarte, superschnell, brauch ich zum spielen! Aber halt, Stromverbrauch zu hoch, nee, dann lieber doch nicht" ;D

Derzeit entscheidet doch ausschließlich der Geldbeutel über die Grafikkarte. Ob die dann 100W, 200W oder 500W verbraucht ist erstmal sekundär, Hauptsache die Leistung stimmt. Stellt ja auch keiner Fragen warum moderne Grafikkarten gleich drei dedizierte PCIe Stromleitungen belegen.
 
Ehrlich gesagt kenne ich niemanden, der sich denkt "Boah geile Grafikkarte, superschnell, brauch ich zum spielen! Aber halt, Stromverbrauch zu hoch, nee, dann lieber doch nicht" ;D

Derzeit entscheidet doch ausschließlich der Geldbeutel über die Grafikkarte. Ob die dann 100W, 200W oder 500W verbraucht ist erstmal sekundär, Hauptsache die Leistung stimmt. Stellt ja auch keiner Fragen warum moderne Grafikkarten gleich drei dedizierte PCIe Stromleitungen belegen.
Doch, ich ;) Siehe meine x800xl... Wer seinen Strom selber bezahlen muss, macht sich über sowas zwangsläufig Gedanken...

Und noch was kommt zum tragen: Wenn die Karte wirklich an die 200W verbraucht, kann schon so manches Netzteil in die Knie gehen. Das sind dann nochmal 60€ mehr für n neues Netzteil... Da kommt dann vielleicht ne etwas sparsamere Karte deutlich billiger...

Noch dazu lassen sich sparsame Karten deutlich leiser kühlen...
 
Zuletzt bearbeitet:
AMD is also touting low power consumption of the RS780 chipset reaching only a mere ~1.2W on idle and has ability to shutdown the discrete graphics when GPU load is low.

Je nachdem, wie man diesen "load"-Level konfigurieren kann bzw. ob man ihn überhaupt konfigurieren kann, ist das sicher ein ganz nette Sache. Der Stromverbrauch würde dann wirklich nur bei den intensiven Dingen auf dem derzeitigen Level liegen.
Das erinnert mich so ein bisschen an mein heiss-geliebtes cebop HEL 750 mit sowohl ner onboard-Karte als auch ner 6600 GO, die ich manuell (!!!) je nach Gebrauch wechseln konnte.
Gibts so ein Notebook eigentlich wieder? Denn cebop wurde ja irgendwie verkauft...antwort reicht per pm, da das ja eh ot ist.
 
AMD wirbt für den RS780 mit einem Idle-Verbrauch von 1,2 Watt und gleichzeitig kann auch eine eingesteckte Grafikkarte ausgeschaltet werden, sollte die Leistung nicht benötigt werden, dafür übernimmt dann der integrierte Grafikkern des Chipsatzes.

<b>Quelle:</b> <a href="http://www.vr-zone.com/?i=5363" target="b">AMD Touts Hybrid Crossfire Performance</a>

Absolut klasse Feature! Wenn das wirklich so funktioniert werde ich mir das sicher zu legen.

Ehrlich gesagt kenne ich niemanden, der sich denkt "Boah geile Grafikkarte, superschnell, brauch ich zum spielen! Aber halt, Stromverbrauch zu hoch, nee, dann lieber doch nicht" ;D

Derzeit entscheidet doch ausschließlich der Geldbeutel über die Grafikkarte. Ob die dann 100W, 200W oder 500W verbraucht ist erstmal sekundär, Hauptsache die Leistung stimmt. Stellt ja auch keiner Fragen warum moderne Grafikkarten gleich drei dedizierte PCIe Stromleitungen belegen.

Täusch Dich da mal nicht. Es gibt schon viele, die auch die Leistungsaufnahme im Blick haben. Und es werden immer mehr.
Wenn es dann eine Möglichkeit gibt, die Spielekarte (die auch wirklich nur zum Spielen gebraucht wird) nur dann zu verwenden, wenn sie gebraucht wird...
Super - für mich der absolut richtige Schritt zur richtigen Zeit.

In irgendeinem Forum habe von einem User gelesen, der seine 3D-Karte unter der Woche ausgebaut hat, weil er nur am Wochenende zum Spielen kommt und sonst mit dem Rechner arbeitet.
 
In irgendeinem Forum habe von einem User gelesen, der seine 3D-Karte unter der Woche ausgebaut hat, weil er nur am Wochenende zum Spielen kommt und sonst mit dem Rechner arbeitet.
War hier:
heise.de/newsticker/foren/go.shtml?read=1&msg_id=13730963&forum_id=125846

Und kannst dir sicher sein, dass der gute Ali gerade seine Grafikkarte bei Ebay verticken will um dann im November/Dezember auch grafikkartentechnisch zu ATi zu wechseln. ;)
 
Je nachdem, wie man diesen "load"-Level konfigurieren kann bzw. ob man ihn überhaupt konfigurieren kann, ist das sicher ein ganz nette Sache. Der Stromverbrauch würde dann wirklich nur bei den intensiven Dingen auf dem derzeitigen Level liegen.
Das erinnert mich so ein bisschen an mein heiss-geliebtes cebop HEL 750 mit sowohl ner onboard-Karte als auch ner 6600 GO, die ich manuell (!!!) je nach Gebrauch wechseln konnte.
Gibts so ein Notebook eigentlich wieder? Denn cebop wurde ja irgendwie verkauft...antwort reicht per pm, da das ja eh ot ist.

Sicher. Hab bei notebooksbilliger.de von einem Asus AMD Notebook *Gamer oder Gold-Edition* gelesen, von dem die User neben der HD2600 auch von einer onboard x1250 oder so berichteten. Musste mal nachschauen. Gibts also noch.
 
Zurück
Oben Unten