nVidia Geforce RTX 4060/4070/4080/4090 (Ti/Super) (Ada/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

da hat igor aber sein ego gestreichelt inkl. ein paar seitenhiebe richtung gn. ;D

 
Hi,
ich sage mal so gut das sie es endlich ändern den in dem Punkt das der Stecker nicht gut war sind wir uns wohl einig.
Nachdem ich mit dem Anschluss einige Systeme gebaut haben, kann ich das auch sehr gut verstehen das es einfach Quark war
und man sich echt Fragt warum das Konsortium um PCIE das so überhaupt rausgegeben hatte ...
lg
 
vielleicht hat ein mitglied der pci sig es besonders eilig gehabt und deshalb druck gemacht. und wer hat den stecker bisher exklusiv verwendet?
 
Nicht das erste mal bei einem der Mitglieder - vermutlich wollte die PCI-Sig eine Situation vermeiden, wie es der VESA passiert ist mit GSync. So passiert das dann typischerweise.
 
Irgendwie habe ich den Einwand mit der Pinbelegung des Sense Steckers nicht verstanden.
Von den vorhandenen 4 Pins werden bisher nur 2 genutzt und selbst mit denen sollen beim 12VHPWR Stecker
die Ausgangsleistungen von 600W, 450W, 300W und 150W abgedeckt sein. Für die Geforce Karten wurde halt nur die 600W und die 450W Einstellung verwendet und will man bei der neuen Ausführung kompatibel sein müßte das auch beibehalten werden.
1688394311974.png
 
hier fällt das produkt-upsampling der aktuellen generation halt am deutlichsten auf und nvidia am härtesten auf die füße.

wenn gn und andere bereits die 4060 ti eigentlich als 4050 eingestuft haben, was wäre dann dieses modell geworden? als 4050 oder ti wären beide karten zum richtigen preis durchaus interessant. aber so wird nur die abgehobenheit und der größenwahn von nvidia zur schau gestellt.
 
Mal schauen was sich nvidia noch so alles einfallen lässt bis 2025 - in Kürze dann die 4060 Ti 16GB für 100 € Aufpreis.
 
wenn jensen vor ein paar wochen noch betonen musste, dass gamer nvidia immer noch wichtig sind, dann weiß man, dass das angesichts der aktuellen entwicklung längst nicht mehr stimmt ... sinnlose lippenbekenntnisse.
 
Man muss die Fans eben an der Stange halten um sie weiter melken zu können und Worte sind billig. ^^
 
keine neue erkenntnis, aber trotzdem ...

 
Die Breite vom Interface ist dafür erstmal egal denn der VRAM ist so oder so erheblich schneller als als der Zugriff auf den Bereich der in den RAM ausgelagert wird.
Nvidia hat das Ding u.A. mit der Preisgestaltung offenbar künstlich uninteressant gemacht um später sagen zu können das es keine Nachfrage dafür gab und weiterhin mit der VRAM Krüppel Taktik zum möglichst zeitigen Austausch fortfahren zu können.
 
1. eh viel zu teuer die Karten,
2.16GB brauchte keine dermaßen kastrierte GPU
3. ich spiele lieber mit meiner 3080TI😉😊
 
2.16GB brauchte keine dermaßen kastrierte GPU
Das ist leider ein Mythos der immer wieder gern am Leben erhalten wird.
Texturen fressen z.B. viel Platz im VRAM aber so gut wie keine GPU Leistung. Das merkt man allerdings erst wenn genug davon da ist. ^^

Sollte also bei einem Spiel die Framerate bei der bloßen Erhöhung der Texturendetails merklich einbrechen dann tut es das für gewöhnlich nur weil zu wenig VRAM vorhanden ist und die GPU durch die Auslagerung in den erheblich langsameren RAM entsprechend lange auf die Daten warten muss.

Das perfide daran ist also das man den großen VRAM nicht bemerkt, die Auswirkungen des zu kleinen VRAM hingegen sehr wohl.
 
alles kein problem, nur einzelfälle. und laut gn ist der vor allem der user selbst schuld. na denn brauchts ja keine neuen stecker.


nach der 4070 und ti, die die modifikationen wohl schon von haus aus hatten, scheint nvidia nun auch bei anderen modellen den stecker zu ersetzen.
 
Zuletzt bearbeitet:
Soll ihr Dreck doch in den Lagern verstauben.
 
Das Gehabe dieser Firma kotzt nur noch an.

es will ja niemand etwas unterstellen ... aber die (zurückhaltende) gereiztheit diverser redaktionen bei diesem thema zeigt imho, dass trotz aller beteuerungen von unabhängigkeit und objektivität viele eben doch stark von der nvidia-bemusterung abhängig sind. da hält man sich dann doch lieber bewusst oder unbewusst mit kritik zurück.

aber so wie sich nvidia teilweise aufführt, sollten die herrschaften sich vielleicht drauf einstellen, dass nvidia das zukünftig immer häufiger so macht. so wie nvidia eigentlich keinen bock mehr auf die eigenen board-partner hat, so wenig bock haben sie auf unabhängige berichterstattung. die wollen lieber eine eigene hofberichterstattung. ein bißchen wie apple halt, nur noch unsympathischer.

da ist es bei aller kritik dann doch ganz gut, wenn bestimmte influencer ihre hardware selbst kaufen, auch wenn es dann evtl. keine reviews direkt zum launch gibt.
 
Zurück
Oben Unten