App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Details zum G70, Vorstellung am 21. Juni?
- Ersteller Toonfish
- Erstellt am
Lutscher
Vice Admiral Special
- Mitglied seit
- 18.10.2004
- Beiträge
- 956
- Renomée
- 3
- Standort
- In der Nähe von Bremerhaven
- Mein Laptop
- Lenovo T430
- Prozessor
- Core i7 13700K
- Mainboard
- MSI Pro Z790-A Wifi
- Kühlung
- be quiet Pure Loop 2 FX
- Speicher
- GSkill Trident Z5 DDR6400 CL32
- Grafikprozessor
- MSI GeForce RTX 3080 12G
- Display
- ASUS PA32UCK
- SSD
- Samsung 990 Pro NVMe
- Soundkarte
- Creative AE9-PE
- Gehäuse
- Corsair AIR
- Netzteil
- be quiet Straight Power 11 1200W
- Betriebssystem
- Windows 11
- Webbrowser
- Firefox
- Internetanbindung
- ▼500 ▲100
Naja mit meiner 6800GT wird es auch schon eng im Cooler-Master TAC-T01.
Ich habe zwischen Festplatte und Grafikkarte vielleicht gerade noch so 2cm Platz.
Mit G70 wird es wohl nicht mehr passen.
Überlege schon ob ich nicht auf ein kleines Lian-Li umsteige, sobald ich mir mal wieder eine neue Grafikkarte kaufe.
Ich denke aber ich werde die nächste Generation überspringen, da ich mir zZ ein Pentium M Arbeitstier zusammenstelle.
Ich habe zwischen Festplatte und Grafikkarte vielleicht gerade noch so 2cm Platz.
Mit G70 wird es wohl nicht mehr passen.
Überlege schon ob ich nicht auf ein kleines Lian-Li umsteige, sobald ich mir mal wieder eine neue Grafikkarte kaufe.
Ich denke aber ich werde die nächste Generation überspringen, da ich mir zZ ein Pentium M Arbeitstier zusammenstelle.
JoshLukas
Vice Admiral Special
tztztz. Ich würd an eurer Stelle ersmal abwarten wenn die Karte draußen ist. Glaube das mit den 150W zwar auch nicht aber hoffentlich orientiert sich ATI nicht an solchen Lösungen von niVida.
Ich hab bald ne P650 die passiv gekühlt wird und gut is.
Gruß,
Josh
Ich hab bald ne P650 die passiv gekühlt wird und gut is.
Gruß,
Josh
hyundai_racer
Grand Admiral Special
Warum geht es einfacher wenn es Wärmer wird?...andererseits werden GPUs sowieso viel wärmer als CPUs, wodurch die Wärmeabfuhr erheblich einfacher geht
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
hyundai_racer schrieb:Warum geht es einfacher wenn es Wärmer wird?
Weil die Differenztemperatur zwischen Umgebungsluft und Kühler größer ist, und somit bei gleichem Luftstrom und gleicher Oberfläche die Wärmeabgabe höher ist.
Toonfish
Grand Admiral Special
- Mitglied seit
- 05.01.2002
- Beiträge
- 5.971
- Renomée
- 30
- Standort
- München
- Mein Laptop
- Lenovo/IBM ThinkPad X61
- Prozessor
- Intel Core2 Duo T7100
- Speicher
- 2GB DDR2 PC5300
- Grafikprozessor
- Intel GMA X3100
- Display
- 22" Chimei CMV 222H
- HDD
- Hitachi Travelstar 5K160 80GB SATA
- Betriebssystem
- Microsoft Windows Vista Business
NOFX schrieb:aus diesem Posting
Weil die Differenztemperatur zwischen Umgebungsluft und Kühler größer ist, und somit bei gleichem Luftstrom und gleicher Oberfläche die Wärmeabgabe höher ist.
Die Luft kann aber trotzdem nicht mehr Wärme aufnehmen...
Aber kann sich weiter erwärmen, und damit doch mehr Wärme aufnehmen .
Angenommen da strömen 100cm³ Luft pro Sekunde durch, dann können diese bei der CPU maximal auf CPU Temp., bei der GPU max. auf GPU Temp erwärmt werden. Die erreichen zwar diese Temperaturen sowieso nicht, aber der Wärmeübergang zwischen 2 Medien hängt von einer Konstante und der Temperaturdifferenz ab - bzw. ist der Wärmeübergang proportional zur Temperaturdifferenz.
Das ist auch das Problem bei einer Herdplatte. Du verbrennst dir die Finger beim drauffassen nicht, weil die Herdplatte heiß ist, sondern weil durch die hohe Temperaturdifferenz zu deinem Finger ziemlich schnell ziemlich viel Wärme in deinen Finger "fließt".
Angenommen da strömen 100cm³ Luft pro Sekunde durch, dann können diese bei der CPU maximal auf CPU Temp., bei der GPU max. auf GPU Temp erwärmt werden. Die erreichen zwar diese Temperaturen sowieso nicht, aber der Wärmeübergang zwischen 2 Medien hängt von einer Konstante und der Temperaturdifferenz ab - bzw. ist der Wärmeübergang proportional zur Temperaturdifferenz.
Das ist auch das Problem bei einer Herdplatte. Du verbrennst dir die Finger beim drauffassen nicht, weil die Herdplatte heiß ist, sondern weil durch die hohe Temperaturdifferenz zu deinem Finger ziemlich schnell ziemlich viel Wärme in deinen Finger "fließt".
MainzelChris
Lieutnant
Also selbst wenn die Karte nur annähernd an die 100W kommt kommt die mir in keinen Rechner ...
mal ganz im ernst, seit der riva128 ist die 2D Leistung nicht mehr wirklich gestiegen (okay, irgendwelche Mickey-Mouse Beschleuniger für Video die kein Mensch braucht) und das Ding hat keine 5W verbraucht ... eine 6600GT braucht selbstgemessene 30W wenn einfach nur der Desktop läuft ... und die Werbepropaganda spricht da von Energiesparmassnahmen
Soviel braucht der schnuckelige Athlon 64 Winchester gerademal wenn er ordentlich am Rechnen ist ...
Ich find's halt bekloppt soviel Strom rauszupusten ... da kauf ich mir lieber wieder eine ati, die zwar 20€ mehr bei 5% niedrigerer Leistung kostet und nicht gaaaanz so schöne Treiber hat aber dafür gehts auch leise und sparsam *energiesparkollerverbreitentut*
mal ganz im ernst, seit der riva128 ist die 2D Leistung nicht mehr wirklich gestiegen (okay, irgendwelche Mickey-Mouse Beschleuniger für Video die kein Mensch braucht) und das Ding hat keine 5W verbraucht ... eine 6600GT braucht selbstgemessene 30W wenn einfach nur der Desktop läuft ... und die Werbepropaganda spricht da von Energiesparmassnahmen
Soviel braucht der schnuckelige Athlon 64 Winchester gerademal wenn er ordentlich am Rechnen ist ...
Ich find's halt bekloppt soviel Strom rauszupusten ... da kauf ich mir lieber wieder eine ati, die zwar 20€ mehr bei 5% niedrigerer Leistung kostet und nicht gaaaanz so schöne Treiber hat aber dafür gehts auch leise und sparsam *energiesparkollerverbreitentut*
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Hast du mal deine Karte im Betrieb auf der Rückseite angefaßt? Bei 2D wird die niemals so warm wie wenn sie 30W verbraten würde.
Ich hab dank dem identischen Kühler (innovatek Graph-O-Matic) einen guten Vergleich, eine G4Ti4200 die bei 3D ungefähr die 30W verballert wird so warm, dass man sich auf der Rückseite die Finger fast verbrennt und die 6600GT wird nichtmal handwarm.
Ich hab dank dem identischen Kühler (innovatek Graph-O-Matic) einen guten Vergleich, eine G4Ti4200 die bei 3D ungefähr die 30W verballert wird so warm, dass man sich auf der Rückseite die Finger fast verbrennt und die 6600GT wird nichtmal handwarm.
MainzelChris
Lieutnant
Ich kann dazu nur sagen dass das Teil laut Durchfluss-Stromzähler an der Steckdose fast 30W mehr verbraucht im 2D Betrieb
... Vergleichskarte ist eine Matrox Millenium 2 PCI
Meine alte R9500 Pro war da nur knappe 10W drüber, wenn überhaupt (auch zu viel, aber nicht so viel)
... Vergleichskarte ist eine Matrox Millenium 2 PCI
Meine alte R9500 Pro war da nur knappe 10W drüber, wenn überhaupt (auch zu viel, aber nicht so viel)
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Und wieviel verbraucht die dann bei Volllast?
Die 30W gehen ja noch durch's Netzteil, aber stimmt schon - 20W gehen da im 2D Betrieb locker durch. Die 2D Leistung ist aber schon gestiegen - nur in Größenordnungen, die niemand auf dem Desktop braucht.
Die Voodoo Karten liefen mit einem Takt in der Größenordnung von 100MHz und haben bei weitem nicht so viel pro Takt gerechnet wie heutige Boliden. Es würde also locker ausreichen den GPU Takt im Desktop Betrieb auf vielleicht 40MHz zu reduzieren, vielleicht 80MHz. Das gäbe dann statt vielleicht 20W nur noch 5W Verbrauch (wie hoch ist der Takt einer 6600GT bei 2D eigentlich?) - die Verlustleistung läuft annährend linear mit der Taktrate. Bei 80MHz könnte man die Chipspannung auch in den Keller senken, und dazu verläuft die Verlustleistung immerhin quadratisch - ½ Spannung macht ¼ Verlustleistung.
Die Voodoo Karten liefen mit einem Takt in der Größenordnung von 100MHz und haben bei weitem nicht so viel pro Takt gerechnet wie heutige Boliden. Es würde also locker ausreichen den GPU Takt im Desktop Betrieb auf vielleicht 40MHz zu reduzieren, vielleicht 80MHz. Das gäbe dann statt vielleicht 20W nur noch 5W Verbrauch (wie hoch ist der Takt einer 6600GT bei 2D eigentlich?) - die Verlustleistung läuft annährend linear mit der Taktrate. Bei 80MHz könnte man die Chipspannung auch in den Keller senken, und dazu verläuft die Verlustleistung immerhin quadratisch - ½ Spannung macht ¼ Verlustleistung.
MainzelChris
Lieutnant
Stimmt schon, weniger Takt würde für alles locker ausreichen ... aber das sollte dann wenschon der Treiber machen, scheint er aber nicht in diesem Maße zu tun
Wäre toll wenn man das angeben könnte ... von wegen Minimum = 40 MHz
Takt weis ich nicht, habe keine Tweak Utilitys installiert ... kenns aber von anderen Karten dass sie spätestens bei 100MHz abstürzen, genauso bei mehr als 100MHz unter Referenztakt ...
Ansich würden ja - wenn sich nix tut auf dem Desktop - auch 4 MHz reichen ... das sollte mal wer in die OmegaTreiber mit einbauen, so anhand der CPU Last runtertakten bis zum fast-Stillstand
Wäre toll wenn man das angeben könnte ... von wegen Minimum = 40 MHz
Takt weis ich nicht, habe keine Tweak Utilitys installiert ... kenns aber von anderen Karten dass sie spätestens bei 100MHz abstürzen, genauso bei mehr als 100MHz unter Referenztakt ...
Ansich würden ja - wenn sich nix tut auf dem Desktop - auch 4 MHz reichen ... das sollte mal wer in die OmegaTreiber mit einbauen, so anhand der CPU Last runtertakten bis zum fast-Stillstand
DrEAmEr
Commodore Special
- Mitglied seit
- 17.12.2001
- Beiträge
- 440
- Renomée
- 5
- Standort
- St. Leon-Rot
- Aktuelle Projekte
- QMC, Spinhenge, Simap
- Lieblingsprojekt
- ??? Viele
- Meine Systeme
- K6-2+ 500, P3 666, Athlon XP 2400+, Athlon64 3800+
- BOINC-Statistiken
- Mein Laptop
- Acer Aspire
- Prozessor
- AMD Athlon II X2 250 @ 3600 MHz
- Mainboard
- Gigabyte
- Kühlung
- Scythe Mugen
- Speicher
- 6GB (2x2GB + 2x1GB)
- Grafikprozessor
- MSI Geforce 9600GT mit Scythe Kühler
- Display
- 22" LG W2242T
- HDD
- 640GB WD Caviar Blue
- Optisches Laufwerk
- 2. LG GSA-H10N
- Soundkarte
- Terratec DMX 6fire mit Frontpanel + Onboard Sound für Skype
- Gehäuse
- Sharkoon Rebel9 Economy schwarz
- Netzteil
- Bequiet BQT E5 350W
- Betriebssystem
- Windows XP / Vista Dualboot
- Webbrowser
- 1. Firefox
Wäre es nicht besser wenn die 3D einheit komplett deaktiviert werden würde,
dann würde auch einiges an leckströmen wegfallen.
Es wird also nur der GPU Takt um 200 Mhz reduziert (ich weiß nur nicht um wieviel die Spannung gesenkt wird)
und das nennen die Knallköpfe dann stromsparen.
Eine Karte für Server schlicht und einfach OHNE 3D wäre auch mal interessant und dürfte mit weniger als 1 Watt @ 100Mhz auskommen.
Ich würde Sie meinem Server sofort spendieren,
da ja sogar die Integrierten GPU's mittlerweile wer weiß wieviele Pipelines für 3D besitzen (der nächste nFurz soll mit 4 oder 8 kommen)
und OHNE wäre deutlich Sparsamer als jede Stromsparfunktion
(außer die komplette deaktivierung, was aber leider nicht gemacht wird)
dann würde auch einiges an leckströmen wegfallen.
Hab im Februar eine MSI 6600GT verbaut, die läuft im 2D Modus mit 300 Mhz GPU und 500 Mhz Speichertakt.i_hasser schrieb:
Es wird also nur der GPU Takt um 200 Mhz reduziert (ich weiß nur nicht um wieviel die Spannung gesenkt wird)
und das nennen die Knallköpfe dann stromsparen.
Eine Karte für Server schlicht und einfach OHNE 3D wäre auch mal interessant und dürfte mit weniger als 1 Watt @ 100Mhz auskommen.
Ich würde Sie meinem Server sofort spendieren,
da ja sogar die Integrierten GPU's mittlerweile wer weiß wieviele Pipelines für 3D besitzen (der nächste nFurz soll mit 4 oder 8 kommen)
und OHNE wäre deutlich Sparsamer als jede Stromsparfunktion
(außer die komplette deaktivierung, was aber leider nicht gemacht wird)
Ohne 3D geht heute nicht, weil sämtliche 2D Sachen von den 3D Einheiten berechnet werden. Einen 2D Beschleuniger wie früher gibts garnimmer, das tut heute alles die GPU. Nur sind dazu eben keine 300MHz *hust* notwendig.
MainzelChris
Lieutnant
Also die letzte, stabil laufende und somit Server-geeignete wirkliche 2D karte war wohl die S3 Trio 64(V+) ... je nach Herstelle zwischen 40 und 60MHz getaktet (ging mit 75MHz echt ab ) ... wenn's is bau dir die rein
Alles was danach kam war schon im messbaren Stromverbrauchsbereich angesiedelt ...
bla ... was auch immer ...
wollte damit nur andeuten dass ein purer und mit sicherheit ziemlich primitiver (S3 halt) 2D Kern wie der Trio 64 doch wohl mittlerweile absolut billig auf einem Die dazugeätzt werden könnte .... anstatt den ganzen schiss dann über die 3D GPU zu jagen
... das ding war bei 75 MHz schon so schnell dass man keine Verzögerung in der GUI mehr feststellen konnte - find ich, und ich bin da empfindlich
Alles was danach kam war schon im messbaren Stromverbrauchsbereich angesiedelt ...
bla ... was auch immer ...
wollte damit nur andeuten dass ein purer und mit sicherheit ziemlich primitiver (S3 halt) 2D Kern wie der Trio 64 doch wohl mittlerweile absolut billig auf einem Die dazugeätzt werden könnte .... anstatt den ganzen schiss dann über die 3D GPU zu jagen
... das ding war bei 75 MHz schon so schnell dass man keine Verzögerung in der GUI mehr feststellen konnte - find ich, und ich bin da empfindlich
J.S.Shadow
Commander
Schlecki02 schrieb:aus diesem Posting
Also die letzte, stabil laufende und somit Server-geeignete wirkliche 2D karte war wohl die S3 Trio 64(V+) ... je nach Herstelle zwischen 40 und 60MHz getaktet (ging mit 75MHz echt ab ) ... wenn's is bau dir die rein
Alles was danach kam war schon im messbaren Stromverbrauchsbereich angesiedelt ...
bla ... was auch immer ...
wollte damit nur andeuten dass ein purer und mit sicherheit ziemlich primitiver (S3 halt) 2D Kern wie der Trio 64 doch wohl mittlerweile absolut billig auf einem Die dazugeätzt werden könnte .... anstatt den ganzen schiss dann über die 3D GPU zu jagen
... das ding war bei 75 MHz schon so schnell dass man keine Verzögerung in der GUI mehr feststellen konnte - find ich, und ich bin da empfindlich
Damit die GPU-Hersteller sich um sowas keine grösseren Köpfe mehr zerbrechen müssen, kommt mit Longhorn ja der 3D-Desktop.
Dann braucht man die 3D-Einheiten auch auf dem Desktop......und die IHVs haben eine Ausrede sich nicht mit Stromsparen im 2D-Betrieb beschäftigen zu müssen.
DrEAmEr
Commodore Special
- Mitglied seit
- 17.12.2001
- Beiträge
- 440
- Renomée
- 5
- Standort
- St. Leon-Rot
- Aktuelle Projekte
- QMC, Spinhenge, Simap
- Lieblingsprojekt
- ??? Viele
- Meine Systeme
- K6-2+ 500, P3 666, Athlon XP 2400+, Athlon64 3800+
- BOINC-Statistiken
- Mein Laptop
- Acer Aspire
- Prozessor
- AMD Athlon II X2 250 @ 3600 MHz
- Mainboard
- Gigabyte
- Kühlung
- Scythe Mugen
- Speicher
- 6GB (2x2GB + 2x1GB)
- Grafikprozessor
- MSI Geforce 9600GT mit Scythe Kühler
- Display
- 22" LG W2242T
- HDD
- 640GB WD Caviar Blue
- Optisches Laufwerk
- 2. LG GSA-H10N
- Soundkarte
- Terratec DMX 6fire mit Frontpanel + Onboard Sound für Skype
- Gehäuse
- Sharkoon Rebel9 Economy schwarz
- Netzteil
- Bequiet BQT E5 350W
- Betriebssystem
- Windows XP / Vista Dualboot
- Webbrowser
- 1. Firefox
hmmm... Ok, das liegt dann aber nur daran das die Hersteller das so implementieren.i_hasser schrieb:aus diesem Posting
Ohne 3D geht heute nicht, weil sämtliche 2D Sachen von den 3D Einheiten berechnet werden. Einen 2D Beschleuniger wie früher gibts garnimmer, das tut heute alles die GPU. Nur sind dazu eben keine 300MHz *hust* notwendig.
Selbst eine S3 Trio läuft heute noch wunderbar und die hat ja kein 3D.
Hab auch noch ein paar S3 Trio da,Schlecki02 schrieb:aus diesem Posting
Also die letzte, stabil laufende und somit Server-geeignete wirkliche 2D karte war wohl die S3 Trio 64(V+) ... je nach Herstelle zwischen 40 und 60MHz getaktet (ging mit 75MHz echt ab ) ... wenn's is bau dir die rein
Alles was danach kam war schon im messbaren Stromverbrauchsbereich angesiedelt ...
bla ... was auch immer ...
wollte damit nur andeuten dass ein purer und mit sicherheit ziemlich primitiver (S3 halt) 2D Kern wie der Trio 64 doch wohl mittlerweile absolut billig auf einem Die dazugeätzt werden könnte .... anstatt den ganzen schiss dann über die 3D GPU zu jagen
... das ding war bei 75 MHz schon so schnell dass man keine Verzögerung in der GUI mehr feststellen konnte - find ich, und ich bin da empfindlich
in meinem Server läuft grad ein K6-2+ auf einem Aopen MX 59 Pro II mit MVP4
(Grafik im Chipsatz) Trident Blade 3D/MVP4
[Träum]
Eine TNT hatte glaube ich ca. 7M Transistoren, es dürfte doch für die kein Problem sein,
einen Chip zu entwickeln mit
ca. 20M Transistoren mit vernünftigen Videofunktionen
im 110 nm Prozess mit ca. 100Mhz
Wieviel Strom würde die wohl verbrauchen?
Die Karte wäre für jeden Server und Media PC spitze und es gibt sicher genug Leute die eine solche Karte kaufen würden.
[/Träum]
DrEAmEr
Commodore Special
- Mitglied seit
- 17.12.2001
- Beiträge
- 440
- Renomée
- 5
- Standort
- St. Leon-Rot
- Aktuelle Projekte
- QMC, Spinhenge, Simap
- Lieblingsprojekt
- ??? Viele
- Meine Systeme
- K6-2+ 500, P3 666, Athlon XP 2400+, Athlon64 3800+
- BOINC-Statistiken
- Mein Laptop
- Acer Aspire
- Prozessor
- AMD Athlon II X2 250 @ 3600 MHz
- Mainboard
- Gigabyte
- Kühlung
- Scythe Mugen
- Speicher
- 6GB (2x2GB + 2x1GB)
- Grafikprozessor
- MSI Geforce 9600GT mit Scythe Kühler
- Display
- 22" LG W2242T
- HDD
- 640GB WD Caviar Blue
- Optisches Laufwerk
- 2. LG GSA-H10N
- Soundkarte
- Terratec DMX 6fire mit Frontpanel + Onboard Sound für Skype
- Gehäuse
- Sharkoon Rebel9 Economy schwarz
- Netzteil
- Bequiet BQT E5 350W
- Betriebssystem
- Windows XP / Vista Dualboot
- Webbrowser
- 1. Firefox
Traurig.... aber wahrJ.S.Shadow schrieb:aus diesem Posting
Damit die GPU-Hersteller sich um sowas keine grösseren Köpfe mehr zerbrechen müssen, kommt mit Longhorn ja der 3D-Desktop.
Dann braucht man die 3D-Einheiten auch auf dem Desktop......und die IHVs haben eine Ausrede sich nicht mit Stromsparen im 2D-Betrieb beschäftigen zu müssen.
wenn wir Glück haben werden Sie aber hoffentlich dafür sorgen,
daß die Karten in nächster Zeit nicht über 100-120 Watt brauchen.
Wäre ja sonst zu aufwändig zu kühlen.
Ich denke der G70 wird ca 70-100 Watt schlucken.
Vielleicht kommt auch noch ein Refresh in 90nm.
Longhorn leg ich mir erst zu wenn es sein muß, bis dahin bleib ich bei Windows 2000
pipescreen
Cadet
- Mitglied seit
- 21.03.2005
- Beiträge
- 45
- Renomée
- 0
was denke ich auch noch eine rolle spielt ist das next gen. konsolen trio.
da werden cpu´s und gpu bestimmt ordentlich heiss und sollen auch noch in ein kleines gehäuse passen.
ich vermute das die next gen. konsolen auch ne next gen. kühlung mit sich mitbringen werden.
wovon außer die admins hier nur wenige von wissen dürften..
da werden cpu´s und gpu bestimmt ordentlich heiss und sollen auch noch in ein kleines gehäuse passen.
ich vermute das die next gen. konsolen auch ne next gen. kühlung mit sich mitbringen werden.
wovon außer die admins hier nur wenige von wissen dürften..
Ähnliche Themen
- Antworten
- 1K
- Aufrufe
- 71K
- Antworten
- 0
- Aufrufe
- 624
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 0
- Aufrufe
- 1K