Details zum G70, Vorstellung am 21. Juni?

Naja mit meiner 6800GT wird es auch schon eng im Cooler-Master TAC-T01.
Ich habe zwischen Festplatte und Grafikkarte vielleicht gerade noch so 2cm Platz. :(
Mit G70 wird es wohl nicht mehr passen. :-[
Überlege schon ob ich nicht auf ein kleines Lian-Li umsteige, sobald ich mir mal wieder eine neue Grafikkarte kaufe.
Ich denke aber ich werde die nächste Generation überspringen, da ich mir zZ ein Pentium M Arbeitstier zusammenstelle.
 
tztztz. Ich würd an eurer Stelle ersmal abwarten wenn die Karte draußen ist. Glaube das mit den 150W zwar auch nicht aber hoffentlich orientiert sich ATI nicht an solchen Lösungen von niVida.
Ich hab bald ne P650 die passiv gekühlt wird und gut is.

Gruß,

Josh
 
hyundai_racer schrieb:
Warum geht es einfacher wenn es Wärmer wird?

Weil die Differenztemperatur zwischen Umgebungsluft und Kühler größer ist, und somit bei gleichem Luftstrom und gleicher Oberfläche die Wärmeabgabe höher ist.
 
NOFX schrieb:
aus diesem Posting

Weil die Differenztemperatur zwischen Umgebungsluft und Kühler größer ist, und somit bei gleichem Luftstrom und gleicher Oberfläche die Wärmeabgabe höher ist.

Die Luft kann aber trotzdem nicht mehr Wärme aufnehmen...
 
Aber kann sich weiter erwärmen, und damit doch mehr Wärme aufnehmen ;).

Angenommen da strömen 100cm³ Luft pro Sekunde durch, dann können diese bei der CPU maximal auf CPU Temp., bei der GPU max. auf GPU Temp erwärmt werden. Die erreichen zwar diese Temperaturen sowieso nicht, aber der Wärmeübergang zwischen 2 Medien hängt von einer Konstante und der Temperaturdifferenz ab - bzw. ist der Wärmeübergang proportional zur Temperaturdifferenz.

Das ist auch das Problem bei einer Herdplatte. Du verbrennst dir die Finger beim drauffassen nicht, weil die Herdplatte heiß ist, sondern weil durch die hohe Temperaturdifferenz zu deinem Finger ziemlich schnell ziemlich viel Wärme in deinen Finger "fließt".
 
Also selbst wenn die Karte nur annähernd an die 100W kommt kommt die mir in keinen Rechner ...

mal ganz im ernst, seit der riva128 ist die 2D Leistung nicht mehr wirklich gestiegen (okay, irgendwelche Mickey-Mouse Beschleuniger für Video die kein Mensch braucht) und das Ding hat keine 5W verbraucht ... eine 6600GT braucht selbstgemessene 30W wenn einfach nur der Desktop läuft ... und die Werbepropaganda spricht da von Energiesparmassnahmen ???
Soviel braucht der schnuckelige Athlon 64 Winchester gerademal wenn er ordentlich am Rechnen ist ...

Ich find's halt bekloppt soviel Strom rauszupusten ... da kauf ich mir lieber wieder eine ati, die zwar 20€ mehr bei 5% niedrigerer Leistung kostet und nicht gaaaanz so schöne Treiber hat aber dafür gehts auch leise und sparsam :D *energiesparkollerverbreitentut*
 
Hast du mal deine Karte im Betrieb auf der Rückseite angefaßt? Bei 2D wird die niemals so warm wie wenn sie 30W verbraten würde.

Ich hab dank dem identischen Kühler (innovatek Graph-O-Matic) einen guten Vergleich, eine G4Ti4200 die bei 3D ungefähr die 30W verballert wird so warm, dass man sich auf der Rückseite die Finger fast verbrennt und die 6600GT wird nichtmal handwarm.
 
Ich kann dazu nur sagen dass das Teil laut Durchfluss-Stromzähler an der Steckdose fast 30W mehr verbraucht im 2D Betrieb *noahnung*

... Vergleichskarte ist eine Matrox Millenium 2 PCI

Meine alte R9500 Pro war da nur knappe 10W drüber, wenn überhaupt (auch zu viel, aber nicht so viel)
 
Und wieviel verbraucht die dann bei Volllast?
 
Die 30W gehen ja noch durch's Netzteil, aber stimmt schon - 20W gehen da im 2D Betrieb locker durch. Die 2D Leistung ist aber schon gestiegen - nur in Größenordnungen, die niemand auf dem Desktop braucht.

Die Voodoo Karten liefen mit einem Takt in der Größenordnung von 100MHz und haben bei weitem nicht so viel pro Takt gerechnet wie heutige Boliden. Es würde also locker ausreichen den GPU Takt im Desktop Betrieb auf vielleicht 40MHz zu reduzieren, vielleicht 80MHz. Das gäbe dann statt vielleicht 20W nur noch 5W Verbrauch (wie hoch ist der Takt einer 6600GT bei 2D eigentlich?) - die Verlustleistung läuft annährend linear mit der Taktrate. Bei 80MHz könnte man die Chipspannung auch in den Keller senken, und dazu verläuft die Verlustleistung immerhin quadratisch - ½ Spannung macht ¼ Verlustleistung.
 
Stimmt schon, weniger Takt würde für alles locker ausreichen ... aber das sollte dann wenschon der Treiber machen, scheint er aber nicht in diesem Maße zu tun :(

Wäre toll wenn man das angeben könnte ... von wegen Minimum = 40 MHz *buck*

Takt weis ich nicht, habe keine Tweak Utilitys installiert ... kenns aber von anderen Karten dass sie spätestens bei 100MHz abstürzen, genauso bei mehr als 100MHz unter Referenztakt ...

Ansich würden ja - wenn sich nix tut auf dem Desktop - auch 4 MHz reichen ... das sollte mal wer in die OmegaTreiber mit einbauen, so anhand der CPU Last runtertakten bis zum fast-Stillstand *lol*
 
Wäre es nicht besser wenn die 3D einheit komplett deaktiviert werden würde,
dann würde auch einiges an leckströmen wegfallen.

i_hasser schrieb:
aus diesem Posting

(wie hoch ist der Takt einer 6600GT bei 2D eigentlich?)
Hab im Februar eine MSI 6600GT verbaut, die läuft im 2D Modus mit 300 Mhz GPU und 500 Mhz Speichertakt.
Es wird also nur der GPU Takt um 200 Mhz reduziert (ich weiß nur nicht um wieviel die Spannung gesenkt wird)
und das nennen die Knallköpfe dann stromsparen. *lol* *lol* *lol*

Eine Karte für Server schlicht und einfach OHNE 3D wäre auch mal interessant und dürfte mit weniger als 1 Watt @ 100Mhz auskommen.
Ich würde Sie meinem Server sofort spendieren,
da ja sogar die Integrierten GPU's mittlerweile wer weiß wieviele Pipelines für 3D besitzen (der nächste nFurz soll mit 4 oder 8 kommen)
und OHNE wäre deutlich Sparsamer als jede Stromsparfunktion
(außer die komplette deaktivierung, was aber leider nicht gemacht wird)
 
Ohne 3D geht heute nicht, weil sämtliche 2D Sachen von den 3D Einheiten berechnet werden. Einen 2D Beschleuniger wie früher gibts garnimmer, das tut heute alles die GPU. Nur sind dazu eben keine 300MHz *hust* notwendig.
 
Also die letzte, stabil laufende und somit Server-geeignete wirkliche 2D karte war wohl die S3 Trio 64(V+) ... je nach Herstelle zwischen 40 und 60MHz getaktet (ging mit 75MHz echt ab ;D ) ... wenn's is bau dir die rein ;)

Alles was danach kam war schon im messbaren Stromverbrauchsbereich angesiedelt ...
bla ... was auch immer ...

wollte damit nur andeuten dass ein purer und mit sicherheit ziemlich primitiver (S3 halt) 2D Kern wie der Trio 64 doch wohl mittlerweile absolut billig auf einem Die dazugeätzt werden könnte .... anstatt den ganzen schiss dann über die 3D GPU zu jagen )((

... das ding war bei 75 MHz schon so schnell dass man keine Verzögerung in der GUI mehr feststellen konnte - find ich, und ich bin da empfindlich
 
Schlecki02 schrieb:
aus diesem Posting

Also die letzte, stabil laufende und somit Server-geeignete wirkliche 2D karte war wohl die S3 Trio 64(V+) ... je nach Herstelle zwischen 40 und 60MHz getaktet (ging mit 75MHz echt ab ;D ) ... wenn's is bau dir die rein ;)

Alles was danach kam war schon im messbaren Stromverbrauchsbereich angesiedelt ...
bla ... was auch immer ...

wollte damit nur andeuten dass ein purer und mit sicherheit ziemlich primitiver (S3 halt) 2D Kern wie der Trio 64 doch wohl mittlerweile absolut billig auf einem Die dazugeätzt werden könnte .... anstatt den ganzen schiss dann über die 3D GPU zu jagen )((

... das ding war bei 75 MHz schon so schnell dass man keine Verzögerung in der GUI mehr feststellen konnte - find ich, und ich bin da empfindlich

Damit die GPU-Hersteller sich um sowas keine grösseren Köpfe mehr zerbrechen müssen, kommt mit Longhorn ja der 3D-Desktop.

Dann braucht man die 3D-Einheiten auch auf dem Desktop......und die IHVs haben eine Ausrede sich nicht mit Stromsparen im 2D-Betrieb beschäftigen zu müssen.
 
i_hasser schrieb:
aus diesem Posting

Ohne 3D geht heute nicht, weil sämtliche 2D Sachen von den 3D Einheiten berechnet werden. Einen 2D Beschleuniger wie früher gibts garnimmer, das tut heute alles die GPU. Nur sind dazu eben keine 300MHz *hust* notwendig.
hmmm... Ok, das liegt dann aber nur daran das die Hersteller das so implementieren.
Selbst eine S3 Trio läuft heute noch wunderbar und die hat ja kein 3D.

Schlecki02 schrieb:
aus diesem Posting

Also die letzte, stabil laufende und somit Server-geeignete wirkliche 2D karte war wohl die S3 Trio 64(V+) ... je nach Herstelle zwischen 40 und 60MHz getaktet (ging mit 75MHz echt ab ;D ) ... wenn's is bau dir die rein ;)

Alles was danach kam war schon im messbaren Stromverbrauchsbereich angesiedelt ...
bla ... was auch immer ...

wollte damit nur andeuten dass ein purer und mit sicherheit ziemlich primitiver (S3 halt) 2D Kern wie der Trio 64 doch wohl mittlerweile absolut billig auf einem Die dazugeätzt werden könnte .... anstatt den ganzen schiss dann über die 3D GPU zu jagen )((

... das ding war bei 75 MHz schon so schnell dass man keine Verzögerung in der GUI mehr feststellen konnte - find ich, und ich bin da empfindlich
Hab auch noch ein paar S3 Trio da,
in meinem Server läuft grad ein K6-2+ auf einem Aopen MX 59 Pro II mit MVP4
(Grafik im Chipsatz) Trident Blade 3D/MVP4

[Träum]
Eine TNT hatte glaube ich ca. 7M Transistoren, es dürfte doch für die kein Problem sein,
einen Chip zu entwickeln mit
ca. 20M Transistoren mit vernünftigen Videofunktionen
im 110 nm Prozess mit ca. 100Mhz

Wieviel Strom würde die wohl verbrauchen?

Die Karte wäre für jeden Server und Media PC spitze und es gibt sicher genug Leute die eine solche Karte kaufen würden.
[/Träum]
 
J.S.Shadow schrieb:
aus diesem Posting

Damit die GPU-Hersteller sich um sowas keine grösseren Köpfe mehr zerbrechen müssen, kommt mit Longhorn ja der 3D-Desktop.

Dann braucht man die 3D-Einheiten auch auf dem Desktop......und die IHVs haben eine Ausrede sich nicht mit Stromsparen im 2D-Betrieb beschäftigen zu müssen.
Traurig.... aber wahr

wenn wir Glück haben werden Sie aber hoffentlich dafür sorgen,
daß die Karten in nächster Zeit nicht über 100-120 Watt brauchen.
Wäre ja sonst zu aufwändig zu kühlen.
Ich denke der G70 wird ca 70-100 Watt schlucken.
Vielleicht kommt auch noch ein Refresh in 90nm.

Longhorn leg ich mir erst zu wenn es sein muß, bis dahin bleib ich bei Windows 2000
 
was denke ich auch noch eine rolle spielt ist das next gen. konsolen trio.
da werden cpu´s und gpu bestimmt ordentlich heiss und sollen auch noch in ein kleines gehäuse passen.

ich vermute das die next gen. konsolen auch ne next gen. kühlung mit sich mitbringen werden.

wovon außer die admins hier nur wenige von wissen dürften..
 
Zurück
Oben Unten