nVidia Geforce RTX 4060/4070/4080/4090 (Ti/Super) (Ada/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

NVIDIA GeForce RTX 4090 – Wo der Irrtum mit den 600 Watt wirklich herkommt und warum die Karten so riesig sind (igor'sLAB)

Das liest sich für mich etwas komisch, und 450w wegen 4-nm-Prozess sehe ich nicht als positiv an - da hätte ich erwartet das des wegen eher weniger Verbrauch als mehr gibt auch wenn ggf die Performance/Watt Leistung besser aussieht- Sieht für mich weiterhin nach Brechstange aus.

Und ich kann mir als Laie nicht vorstellen das man "plötzlich" den Chipfertiger incl Nodewechsel vollziehen kann aber dann den Rest nicht anpassen kann.
 
Zuletzt bearbeitet:
Ich halte das für absoluten Unfug. Also das portieren eines 8nm-Samsung Designs auf TSMC 4nm ist möglich gewesen kurzfristig (was ich ebenfalls für fragwürdig halte), doch dann war keine Zeit den AIBs die neuen Spezifikationen beim verbrauch im portierten Prozess zu kommunizieren? Unglaubwürdige Behauptung. Dann hätte Nvidia allerdings den neuen PCIe-Stecker nicht benötigt - ich glaube eher, die haben deshalb keine neuen Spezifikationen an die AIB raus gegeben, um den neuen Standard durchzudrücken, mit voller Absicht.
 
ggs-jpg.798991
Nächste Woche in »Gibt es keine guten Gehäuse mehr?«:

Meine Grafikkarte ist zu groß für mein Gehäuse. Wer weiß was?

:D

Grüße, Martin
 
Für die 450W Nvidias braucht man eh ein neues Gehäuse um die Abwärme des Netzteils und GPU ohne Drosselung durch Temp-Limit zu bewältigen ;)

„Hitzestau“: Wenn die Abwärme im Gehäuse verbleibt​


Ein Tag vor Fall des NDAs kam dann die Erleuchtung, die irgendwie auf der Hand lag, aber aufgrund der weit über den Erwartungen liegenden Auswirkungen doch nicht als Ursache in Betracht gezogen worden war: Die Asus GeForce RTX 3090 Ti TUF OC war deshalb so laut, weil sie in ihrer eigenen Abwärme badete. Das Gehäuse konnte die 450 Watt der GPU und ca. 200 Watt der anderen Komponenten nicht mehr effektiv abführen. Die GPU-Kühler-Lüfter mussten in diesem Umfeld schneller drehen, die Lautstärke stieg deutlich.

Das im Test genutzte Gehäuse Phanteks Enthoo Evolv X ist dabei gar nicht schlecht bezüglich der Belüftung und befindet sich diesbezüglich eher im Mittelfeld. Auch die Belüftung ist mit insgesamt drei 140-mm-Lüftern Durchschnitt. Wenn es also Probleme mit der Abluft der GeForce RTX 3090 Ti im Enthoo Evolv X gibt, treten selbige in vielen, vielleicht sogar in den meisten anderen Gehäusen auf.

Dieser Umstand lässt sich leider nicht ohne Weiteres lösen. Noch mehr Lüfter bringen im selben Gehäuse so gut wie gar nichts. Eigentlich hilft es nur, die Gehäusetür zu öffnen. Mehr als eine Übergangslösung ist das aber auch nicht.
Neuer Trend: Cabrio-Gehäuse oder Benchtables, ansonsten könnte auch eine Ryzen-CPU schneller bei 95° liegen und einige MHz langsamer takten.
Was kürzlich noch als Aprilscherz galt ;D

03BoUhy8xMqGogBqhHxhyDC-1.fit_lim.size_1600x900.v1617286721.jpg
 
Schon... Aber wieso muss das neue Gehäuse das Format von einem Smart 42 haben? :D

Grüße, Martin
 
Zuletzt bearbeitet:
NVIDIA GeForce RTX 4090 – Wo der Irrtum mit den 600 Watt wirklich herkommt und warum die Karten so riesig sind (igor'sLAB)

Das liest sich für mich etwas komisch, und 450w wegen 4-nm-Prozess sehe ich nicht als positiv an - da hätte ich erwartet das des wegen eher weniger Verbrauch als mehr gibt auch wenn ggf die Performance/Watt Leistung besser aussieht- Sieht für mich weiterhin nach Brechstange aus.

Und ich kann mir als Laie nicht vorstellen das man "plötzlich" den Chipfertiger incl Nodewechsel vollziehen kann aber dann den Rest nicht anpassen kann.
Ehrlich gesagt halte ich es für kompletten Unsinn das so ein Chip mal in Samsungs 8nm Prozess geplant wäre wenn er im jetzigen 4nm Prozess bereits über 600 mm² haben soll. Auch läßt sich der Fertigungsprozess und dazu noch der Auftragsfertiger nicht mal eben wechseln weil dafür das ganze Chip Design und die Produktionsprogramme entsprechend angepasst bzw. umgeschrieben werden müßten und der Chip danach auch noch zur Produktionsreife gebracht werden muss. Beides dürfte so einiges an Zeit benötigen und die fertige Karte kann dann auch erst mit dem fertigen Chip validiert werden.
Ich denke eher dass die Teile durchaus mit den 600W geplant waren, dies aber wegen aufgetretender Probleme mit der anfallenden Abwärme und der unter realen Einsatzbedingungen grenzwertigen Strombelastbarkeit der Stecker auf die 450W gestutzt wurden. Die Differenz bleibt dann für OC Designs und sind damit nicht mehr nvidias Problem.
 
ich weiss nicht was igor geraucht hat, aber das ist nonsense. das ding war nie in 8nm geplant - es ist in 8nm gar nicht umsetzbar.. die transistordichte ist viel zu hoch - das DIE hätte dann 1500 oder 1600 mm².


(..)

mfg
tobi
 
Zuletzt bearbeitet:
ich kann das nicht beurteilen.

aber wer weiß schon, welchen entwicklungsprozess lovelace vollzogen hat. die frühen gerüchte über eine abartig hohe tdp (wurde nicht sogar mehr als 600w spekuliert? oder war das die 4090 ti) wären ja evtl ein indiz, dass die karte vielleicht wirklich mal in 8nm geplant war.

*chatt*

aber ist natürlich alles relativ. wenn die custom-karten anscheinend durch die bank nochmal eine nummer größer sind, dann kann man die founders edition schon als handlich empfinden. ;)
 
Wie gesagt, ich gehe davon aus das die Karte mit 600W geplant war aber mit ziemlicher Sicherheit nicht der Chip in Samsungs 8nm Prozess weil der mit ziemlicher Sicherheit dann deutlich über 1000mm² und noch weniger Takt gehabt hätte. Was etwas mehr Takt beim Verbrauch ausmachen kann dürfte ja spätestens seit der 3090Ti klar sein. Die Merhleistung hält sich sehr in Grenzen aber der Strombedarf explodiert.
Was aber alles andere als irrelevant sein dürfte, es bliebe für die Kartenhersteller praktisch kein Spielraum für OC Designs weil der Stromstecker bereits vom Referenz Design ausgereizt wird.

Für mich hat das eher was von einem Marketing Stunt um den Verbrauch zu relativieren.
 
Vielleicht hat man auch Infos zu RDNA3 und braucht keine 600w als Standard um vorne zu liegen. 3.11. sind wir dann schlauer.

Gibt viele Stimmen die sagen das AD102 so nicht in 8nm herzustellen wäre weil dann viel zu groß.
 
Immer wieder faszinierend wenn reale Produkte die Karikaturen einholen. *rofl*
 
Der Größenvergleich ist schon lustig, und dass die ASUS-Karte nicht in ein typisches Standard-Gehäuse passt. *glaubses*

Ich fand auch schon bei Ampere manch Bild lustig. Strix 3090 auf ITX. ;D

v8hxfe08g0l51.jpg
 
Alt, aber trotzdem noch "neu"... *chatt*
Doppelposting wurde automatisch zusammengeführt:

ASUS TUF 4090 vs TUF 3090. Nicht normal... *chatt*
Ein teurer Spaß, wenn neben der schon sehr teuren 4090 und NT noch ein neues Case her muss (und die Arbeit damit :])
ZJtcBDP.jpg

 
Zuletzt bearbeitet:
einer findet das imponierend, der nächste kratzt sich am kopf.
ich zähle mich mal zu letzteren, denn in summe aller negativen aspekte,
scheine ich einfach nicht die zielgruppe für einen 35cm vierslot-trümmer zu sein.
der nebenbei auch über 2000€ kosten soll und mir dann beim benchmarken
noch die hose runterzieht, weil mein stromversorger die hand aufhält.

zum glück habe ich keinen leidensdruck, sodass ich wohl einfach mal eine
generation aussetze. denn selbst wenn ich jetzt bock hätte, mein altes system
in ein neues case umziehen zu lassen, so würde ich trotzdem nicht auf meine
erweiterungskarten verzichten wollen.

btw,
das beste an lovelace scheint der abverkauf von ampere zu sein. egal ob
neuware oder gebraucht -> viele, die noch mit turing, pascal o.ä. unterwegs sind,
können jetzt recht "günstig" aufrüsten.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Ich empfinde solche Abmaße einer Karte einfach nur als absurd.
Wenn die Dinger nicht mehr in die meisten Gehäuse passen und die Gehäusebelüftung mit deren Abwärme überfordert ist dann ist die Grenze für einen Luftkühler ganz einfach schon längst überschritten.
 
ich denke da ähnlich und gerade mit blick auf das wirklich mickrige PCB wird das "absurd" nochmals unterstrichen.

sollte es kommende woche auch ein kurzes modell geben, werde ich mir ein solches ordern. von ziegelsteinen, die meine derzeitige 3090 strix
als filigran anmuten lassen, halte ich abstand. soweit ich es überblicke kommt dann nur ne ichill von inno3d in frage. allerdings hat die für mein
szenario einen hdmi_2.1 schnuffi zu wenig. habe profilaktisch grad einen dp->hdmi_2.1 adapter bei amazon bestellt, wovon ich mir aber wenig
verspreche. das letzte spiel mit adaptern dieser art hat mich mit der 2080Ti damals echt haare gekostet..
die musste ich mir nämlich ständig raufen - die lösung war mega unzuverlässig.

gott sei dank kann man in heutigen tagen auch alles zurückgeben wenn es nervt.



(..)

mfg
tobi
 
Doppelposting wurde automatisch zusammengeführt:

 
Zuletzt bearbeitet:
Nun reicht es aber an "lustigen" Unboxingvideos und Bildern. Bitte die Reviews am 12.10 abwarten.
 
Durchaus beeindruckend. Leider geht die Fehlentwicklung weiter, die Karten werden brachial auf Performance weit jenseits des Sweetspots gezüchtet.
 
Zurück
Oben Unten