App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
NVIDIAs Hybrid SLI: Mehr Leistung und weniger Verbrauch
- Ersteller NOFX
- Erstellt am
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Mit Hybrid SLI plant NVIDIA nach Informationen von X-bit labs ein Desktop-Pendant zu der kürzlich von AMD in Kombination mit der Puma-Mobil-Plattform vorgestellten PowerXPress-Technologie (<a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1179482432" target="b">wir berichteten</a>).
Dabei handelt es sich in beiden Fällen um die Möglichkeit, zwischen einer integrierten Grafikeinheit und einer zusätzlichen dedizierten zu wechseln, ohne merkbare Verzögerungen oder Einschränkungen (wie z.B. Bildschirm umstecken). Der Vorteil für dieser Idee liegt auf der Hand, so kann im reinen 2D-Betrieb die meist stromhungrige 3D-Grafikkarte komplett abgeschaltet werden, was bei heutigen Grafikkarten, die im Idle-Betrieb noch über 70W verbrauchen, zum erheblichen Stromeinsparungen führen kann.
NVIDIAs Hybrid SLI soll sogar noch einen Schritt weiter gehen und die integrierte Grafikeinheit an den 3D-Berechnungen beteiligen und dadurch noch einen Geschwindigkeitsschub bekommen. Inwieweit dies jedoch der Fall ist, ist unklar, so bietet eine derzeitige integrierte Grafikeinheit nicht einmal 10% der Leistung einer Mainstream- oder High-End-Grafikkarte. Rechnet man einen gewissen Effektivitätsverlust durch SLI mit ein, so wird diese Hybrid SLI-Technik wenig bis gar keine Leistungsgewinne bringen - Probleme mit unterschiedlichen DirectX-Fähigkeiten einmal komplett beiseite gelassen.
<b>Quelle:</b> <a href="http://www.xbitlabs.com/news/video/display/20070625083756.html" target="b">Nvidia Readies Hybrid SLI Technology.</a>
Dabei handelt es sich in beiden Fällen um die Möglichkeit, zwischen einer integrierten Grafikeinheit und einer zusätzlichen dedizierten zu wechseln, ohne merkbare Verzögerungen oder Einschränkungen (wie z.B. Bildschirm umstecken). Der Vorteil für dieser Idee liegt auf der Hand, so kann im reinen 2D-Betrieb die meist stromhungrige 3D-Grafikkarte komplett abgeschaltet werden, was bei heutigen Grafikkarten, die im Idle-Betrieb noch über 70W verbrauchen, zum erheblichen Stromeinsparungen führen kann.
NVIDIAs Hybrid SLI soll sogar noch einen Schritt weiter gehen und die integrierte Grafikeinheit an den 3D-Berechnungen beteiligen und dadurch noch einen Geschwindigkeitsschub bekommen. Inwieweit dies jedoch der Fall ist, ist unklar, so bietet eine derzeitige integrierte Grafikeinheit nicht einmal 10% der Leistung einer Mainstream- oder High-End-Grafikkarte. Rechnet man einen gewissen Effektivitätsverlust durch SLI mit ein, so wird diese Hybrid SLI-Technik wenig bis gar keine Leistungsgewinne bringen - Probleme mit unterschiedlichen DirectX-Fähigkeiten einmal komplett beiseite gelassen.
<b>Quelle:</b> <a href="http://www.xbitlabs.com/news/video/display/20070625083756.html" target="b">Nvidia Readies Hybrid SLI Technology.</a>
Das klingt nach einer sehr vorbildlichen Idee. Ich könnte mir sehr gut vorstellen, ein Board mit integrierter Grafik zu verwenden und dann beim Spielen eine leistungsstarke GraKa hinzu zu schalten. Der Leistungsgewinn, der evtl durch dieses hybrid-sli entsteht wird wohl bestenfalls marginal ausfallen, aber es geht ja vor allem um die Stromersparnis beim Surfen, Office-Arbeiten etc.
TheVenom
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 2.080
- Renomée
- 2
- Mein Laptop
- Acer Aspire2023 WLMi
- Prozessor
- Phenom II X6 1055T
- Mainboard
- ASRock 870 Extreme3
- Kühlung
- EKL Alpenföhn Nordwand Rev. B
- Speicher
- 2x 2048 MB G.Skill DDR3LV 1600Mhz
- Grafikprozessor
- MSI Radeon HD 5770 Hawk
- Display
- Samsung Syncmaster 226BW
- HDD
- OCZ Vertex 2 60GB, WD 640 GB
- Optisches Laufwerk
- Samsung SH-B083L Blu-ray
- Gehäuse
- Xigmatek Midgard
- Netzteil
- Enermax Modu87+
- Betriebssystem
- Windows 7 SP1 x64
- Webbrowser
- Firefox 8
- Verschiedenes
- Synology Diskstation DS211+
Ein äußerst wünschenswerter Schritt! Das wäre für mich der Grund mir wieder eine echte Highend-Grafikkarte zuzulegen. Bisher stört mich an den Teilen nämlich der exorbitante Idle-Stromverbrauch.
Ich frage mich allerdings, wie das mit dem Display-Output funktionieren soll. Kann eine dedizierte Grafikkarte ihr Signal auch über den Ausgang einer integrierten Grafik ausgeben? Ansonsten müsste man ja ständig die DVI- bzw. VGA Kabel umstöpseln.
Edit: Ah, ich lese grade Bei Xbit Labs, dass man bei Nvidia anscheinend eine Logik in die GPUs integriert hat, die das Umstöpseln der Signalkabel unnötig macht. Endlich mal eine sinnvolle Innovation
Ich frage mich allerdings, wie das mit dem Display-Output funktionieren soll. Kann eine dedizierte Grafikkarte ihr Signal auch über den Ausgang einer integrierten Grafik ausgeben? Ansonsten müsste man ja ständig die DVI- bzw. VGA Kabel umstöpseln.
Edit: Ah, ich lese grade Bei Xbit Labs, dass man bei Nvidia anscheinend eine Logik in die GPUs integriert hat, die das Umstöpseln der Signalkabel unnötig macht. Endlich mal eine sinnvolle Innovation
Zuletzt bearbeitet:
MusicIsMyLife
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.02.2002
- Beiträge
- 15.581
- Renomée
- 2.572
- Standort
- in der Nähe von Cottbus
- Lieblingsprojekt
- Asteroids@Home
- Meine Systeme
- Alltags-PC, Test-PC (wechselnde Hardware)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Alltags-PC
- Mein Laptop
- HP DV7-2225sg
- Prozessor
- AMD Ryzen 9 7950X
- Mainboard
- ASRock B650M PG Riptide
- Kühlung
- Watercool Heatkiller IV Pro Copper
- Speicher
- 2x 32 GB G.Skill TridentZ 5 TGB (F5-6000J3040G32X2-TZ5RS)
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- ASUS ROG PG42UQ (3840x2160), Philips BDM4065UC (3840x2160), Samsung C27HG70 (2560x1440)
- SSD
- Micron 9300 Pro 7,68 TB (U.2), Samsung 850 Evo 4 TB (SATA)
- HDD
- keine, SSD only...
- Optisches Laufwerk
- LG CH08LS10 Blu-ray Disc-Player
- Soundkarte
- Creative SoundBlasterX AE-5 Plus
- Gehäuse
- Dimastech BenchTable EasyXL (vorübergehend)
- Netzteil
- Corsair RM850i
- Tastatur
- ASUS ROG Strix Flare
- Maus
- Steelseries Sensei 310
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼250 MBit ▲45 MBit
Edit: Ah, ich lese grade Bei Xbit Labs, dass man bei Nvidia anscheinend eine Logik in die GPUs integriert hat, die das Umstöpseln der Signalkabel unnötig macht. Endlich mal eine sinnvolle Innovation
Ist ja beim aktuellen SLI bzw. CrossFire auch so, dass eine Grafikkarte zwar rechnet, ihr Bild aber über die andere Karte an den Monitor abgegeben wird. Somit muss es ja technisch möglich sein, das entstandene Bild "umzuleiten".
JKuehl
Grand Admiral Special
- Mitglied seit
- 22.06.2003
- Beiträge
- 7.903
- Renomée
- 145
- Standort
- Stockholm, Schweden
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- POEM, SIMAP
- Lieblingsprojekt
- SIMAP, POEM
- Meine Systeme
- Q6600
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- Ryzen-3700x
- Mainboard
- Asus B350 Prime Plus
- Kühlung
- Fractal Design Celsius 240
- Speicher
- 48 GB Corsair LPX 3000
- Grafikprozessor
- 1080ti
- Display
- 28" Samsung 3840x2160
- SSD
- Samsung Evo 960 500Gb
- Soundkarte
- Creative X-Fi Titanium PCIe
- Netzteil
- Be Quiet Dark Power 650
- Betriebssystem
- Windows 10 64 Bit
na endlich! 100 Watt weniger, wenn der Rechner Tage- und wochenlang nur Boinc cruncht.
Habe die Grafikkarte zwar derzeit auf 80 Mhz Core und 240 Ram heruntergetaktet - aber ich werde das Gefühl nicht los, dass die sich immer noch einen guten Schluck Strom aus dem Netzteil gönnt.
Habe die Grafikkarte zwar derzeit auf 80 Mhz Core und 240 Ram heruntergetaktet - aber ich werde das Gefühl nicht los, dass die sich immer noch einen guten Schluck Strom aus dem Netzteil gönnt.
[P3D] Crazy_Chris
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.451
- Renomée
- 116
- Mein Laptop
- Sony Vaio VPC-CW2S1E/R (14,1", Core i3 330M, GeForce GT 330M, Intel X25-M G2 80 GB)
- Prozessor
- Intel Core i5-750 @ 3.36Ghz (1,18V)
- Mainboard
- Gigabyte GA-P55M-UD2
- Kühlung
- Scythe Mugen 2 Rev. B
- Speicher
- 4x 2GB G.Skill F3-12800CL9D-4GBNQ (DDR3-1600)
- Grafikprozessor
- Gigabyte GV-N570OC-13I (GeForce GTX 570 OC 1280MB GDDR5)
- Display
- Dell UltraSharp 2407WFP
- HDD
- Crucial RealSSD C300 128 GB, Samsung SpinPoint F3 1TB
- Optisches Laufwerk
- LG GGC-H20L SATA *Blu-ray*
- Soundkarte
- Creative Sound Blaster X-Fi Titanium PCIe
- Gehäuse
- Silverstone Temjin TJ08 µATX
- Netzteil
- ELVT NesteQ NA4501 (450 W, Semipassiv)
- Betriebssystem
- Windows 7 und Ubuntu (x64)
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- guckguck :-P
Das war schon längst überfällig
nazgul99
Grand Admiral Special
- Mitglied seit
- 01.05.2005
- Beiträge
- 3.592
- Renomée
- 224
- Standort
- Irgendwo in der Nähe
- Mein Laptop
- ThinkPad Edge E145 / 8GB / M500 480GB / Kubuntu /// Asus U38N / 6GB / Matt / Postville / Kubuntu/W8
- Prozessor
- AMD A10-7800
- Mainboard
- MSI A88XI AC
- Kühlung
- Scythe Shuriken Rev.2
- Speicher
- 2x 8GB DDR3-2133
- Grafikprozessor
- IGP
- Display
- HP LP2465, MVA, 1920x1200, 24"
- SSD
- Samsung 850 EVO 500GB
- HDD
- ST9500325AS 500GB
- Optisches Laufwerk
- ja, so'n USB-Dings
- Soundkarte
- onboard, optisch -> SMSL Q5 PRO -> ELAC EL60
- Gehäuse
- Silverstone ML06B
- Netzteil
- SST-ST30SF
- Betriebssystem
- Kubuntu
- Webbrowser
- Firefox
- Verschiedenes
- Synology DS414slim 3x 1,5 TB RAID5
Tja, die Idee stammt von AMD/ATI und nun greift Nvidia sie auf - das ist ja auch gut so. Ob die Chipsatz-integrierte GPU aber merkbar zur Leistung einer Highend-GPU beitragen kann, darf man doch bezweifeln - zumal die integrierte dazu auch noch Bandbreite vom CPU-Hauptspeicher abgreift. Dieser Teil sieht für mich nach Marketing-Architektur aus. Nvidia erwähnt aber als erstes - so begreife ich den Artikel jedenfalls - auch Desktop-Systeme - das ist ein echter Fortschritt ggü. AMDs bisher vermeldeten Absichten. Ich hoffe, AMD plant derartiges auch. Bei in die CPU integrierter GPU (Fusion) hat AMD damit natürlich ein weiteres Argument für seine eigenen Grafikprozessoren, denn zwei unterschiedliche Treiber zu so engem Zusammenspiel (und damit meine ich nur die reine Seamless-Umschaltung) zu überreden, wird wohl kaum gelingen - und ist auch sicher nicht die Absicht der Hersteller. Hier ist wohl auch klar, daß integrierte und diskrete zueinander passen müssen, sie werden also vermutlich der gleichen Generation entstammen müssen und die gleiche API(/DirectX)-Version unterstützen müssen.
Für mich wäre eine solche Technik jedenfalls auch das Wegfallen des entscheidenden Hemmnisses, mir eine stärkere Grafikkarte zu kaufen: unnötig hoher Stromverbrauch, wenn keine hohe 3D-Leistung angefordert wird.
Und wo bleibt Intel? (Mal wieder) Zeit für eigene diskrete GPUs: Larrabee 8)
Noch was: integrierte Grafik kann ihr Videosignal schon heute (standardisiert) an den PEG-Slot weiterreichen (Die Bezeichnung dafür hab ich nicht parat), genau das wird bei DVI- und HDMI-Adapterkarten ohne Grafikchip für den PEG-Slot von bestimmten Boards mit integrierter Grafik gemacht. Gibt's z.B. bei Dell (IIRC). Eine umschaltfähige Grafikkarte könnte diese Bilddaten also direkt an den Grafikausgang weitergeben während die GPU selbst, wie auch der zugehörige Speicher, abgeschaltet bleibt, bis sie gebraucht wird.
Für mich wäre eine solche Technik jedenfalls auch das Wegfallen des entscheidenden Hemmnisses, mir eine stärkere Grafikkarte zu kaufen: unnötig hoher Stromverbrauch, wenn keine hohe 3D-Leistung angefordert wird.
Und wo bleibt Intel? (Mal wieder) Zeit für eigene diskrete GPUs: Larrabee 8)
Noch was: integrierte Grafik kann ihr Videosignal schon heute (standardisiert) an den PEG-Slot weiterreichen (Die Bezeichnung dafür hab ich nicht parat), genau das wird bei DVI- und HDMI-Adapterkarten ohne Grafikchip für den PEG-Slot von bestimmten Boards mit integrierter Grafik gemacht. Gibt's z.B. bei Dell (IIRC). Eine umschaltfähige Grafikkarte könnte diese Bilddaten also direkt an den Grafikausgang weitergeben während die GPU selbst, wie auch der zugehörige Speicher, abgeschaltet bleibt, bis sie gebraucht wird.
Coyo
Fleet Captain Special
Ein nächster Schritt wäre dann wohl, Chipsätze mit integrierter Grafik zu entwickeln, bei denen der Grafikchip nur noch die Leistung bringt, die im Desktop-Betrieb denkbar ist, das aber dafür um so energieeffizienter. Bei 3D-Spielen wird dann die Highend-Grafikkarte bzw. das SLI-System aktiviert und die integrierte Grafik könnte sich dann ja um die Physikberechnung kümmern - schliesslich behaupten nVidia bzw. ATI ja schon länger, dass das auf einer GPU genauso gut geht, wie auf einer Aegia, damit könnten sie den Beweis antreten.
Kommando
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 3.138
- Renomée
- 28
- Mein Laptop
- Laptop: Clevo P751ZM (15,6")
- Prozessor
- Intel® Core™ i5 4690K @ 4 GHz @ 1 V
- Speicher
- 2x8 GB Hyper X Impact @ 2200-10-11-11-1T
- Grafikprozessor
- nVidia GeForce GTX 970M 6 GB @ 1238/3130 MHz
- Display
- Dell 2709W (27", 1920x1200)
- SSD
- Samsung SSD 830 (512 GB)
- Netzteil
- 230W
- Betriebssystem
- Windows 10 Professional (64 bit)
- Webbrowser
- Opera
- Verschiedenes
- Razer Orochi
Das ist wirklich längst überfällig. Ich verstehe nur nicht, warum man das nicht auf einer einzelnen Grafikkarte realisieren kann? Also, dass man z.B. 7/8 des Chips für Office einfach abschaltet.
nazgul99
Grand Admiral Special
- Mitglied seit
- 01.05.2005
- Beiträge
- 3.592
- Renomée
- 224
- Standort
- Irgendwo in der Nähe
- Mein Laptop
- ThinkPad Edge E145 / 8GB / M500 480GB / Kubuntu /// Asus U38N / 6GB / Matt / Postville / Kubuntu/W8
- Prozessor
- AMD A10-7800
- Mainboard
- MSI A88XI AC
- Kühlung
- Scythe Shuriken Rev.2
- Speicher
- 2x 8GB DDR3-2133
- Grafikprozessor
- IGP
- Display
- HP LP2465, MVA, 1920x1200, 24"
- SSD
- Samsung 850 EVO 500GB
- HDD
- ST9500325AS 500GB
- Optisches Laufwerk
- ja, so'n USB-Dings
- Soundkarte
- onboard, optisch -> SMSL Q5 PRO -> ELAC EL60
- Gehäuse
- Silverstone ML06B
- Netzteil
- SST-ST30SF
- Betriebssystem
- Kubuntu
- Webbrowser
- Firefox
- Verschiedenes
- Synology DS414slim 3x 1,5 TB RAID5
@Kommando: Das ist durchaus eine berechtigte Frage. Leider geben die GFX-Chip-, wie auch die Kartenhersteller keine genauen Daten für die einzelnen Verbrauchsszenarien heraus (jedenfalls sind mir keine bekannt), AMD z.B. (sicher auch Intel?) gibt hingegen für jeden CPU-P-State zumindest den jeweiligen Maximalverbrauch (TDP) heraus. Somit wissen wir also nicht mal genau, über welche Verbrauchsdifferenzen hier gesprochen wird, bzw. wie hoch das Einsparpotenzial ist.
Ein Gegenbeispiel hab ich grad zu Haus getestet: das System brauchte mit Onboard-Grafik (NF 6150 - MCP51 - die ältere 2-Chip-Lösung) nur 2-3 Watt weniger (wenn überhaupt, eher Meßungenauigkeit) bei ruhender Linux-Konsole (Textmodus) als mit eingesteckter X300LE-Grafik. Die ist zwar beiweitem nicht rasend schnell, hängt aber den integrierten Chip natürlich weit ab. Leider fiel mir erst nachher ein, daß ich noch mit einer alten PCI-Graka (S3 ohne Kühlkörper) hätte testen können - naja. Werd ich demnächst hoffentlich mit einem MCP61-NF6100, derselben X300 und besagter S3 nachholen können.
Übrigens war meine GF6600 auch kaum schlechter - wohlgemerkt IDLE - als die X300. Wirklich sehr dumm, daß die aktuellen 8000er solche Stromfresser* sind - da lohnt sich sowas wie Hybrid SLI dann natürlich.
*) Immerhin hat c't halbwegs annehmbare Idle-Verbräuche von wenig mehr als 10W für einige 8500er-Karten gemessen - die sollten meine 6600 doch locker abhängen.
Noch was: Die minimalen Unterschieden in den (laut Nvidia Maximal-) Verbrauchszahlen der 8600/8500/8400 von 43/40/40 Watt zeigen doch recht deutlich, daß die Teile einfach nicht auf Sarsamkeit ausgelegt zu sein scheinen - brutal kastrierte Leistung bei den kleinen und weniger aktive Einheiten, aber so gut wie keine Verbrauchsabnahme. Sehr serh eigenartig
Ein Gegenbeispiel hab ich grad zu Haus getestet: das System brauchte mit Onboard-Grafik (NF 6150 - MCP51 - die ältere 2-Chip-Lösung) nur 2-3 Watt weniger (wenn überhaupt, eher Meßungenauigkeit) bei ruhender Linux-Konsole (Textmodus) als mit eingesteckter X300LE-Grafik. Die ist zwar beiweitem nicht rasend schnell, hängt aber den integrierten Chip natürlich weit ab. Leider fiel mir erst nachher ein, daß ich noch mit einer alten PCI-Graka (S3 ohne Kühlkörper) hätte testen können - naja. Werd ich demnächst hoffentlich mit einem MCP61-NF6100, derselben X300 und besagter S3 nachholen können.
Übrigens war meine GF6600 auch kaum schlechter - wohlgemerkt IDLE - als die X300. Wirklich sehr dumm, daß die aktuellen 8000er solche Stromfresser* sind - da lohnt sich sowas wie Hybrid SLI dann natürlich.
*) Immerhin hat c't halbwegs annehmbare Idle-Verbräuche von wenig mehr als 10W für einige 8500er-Karten gemessen - die sollten meine 6600 doch locker abhängen.
Noch was: Die minimalen Unterschieden in den (laut Nvidia Maximal-) Verbrauchszahlen der 8600/8500/8400 von 43/40/40 Watt zeigen doch recht deutlich, daß die Teile einfach nicht auf Sarsamkeit ausgelegt zu sein scheinen - brutal kastrierte Leistung bei den kleinen und weniger aktive Einheiten, aber so gut wie keine Verbrauchsabnahme. Sehr serh eigenartig
Ähnliche Themen
- Antworten
- 504
- Aufrufe
- 74K
- Antworten
- 758
- Aufrufe
- 162K
- Antworten
- 8
- Aufrufe
- 11K