nVidia Geforce RTX 4060/4070/4080/4090 (Ti/Super) (Ada/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

Wie ist das eigentlich rechtlich? Ich meine auf dem Karton jeder Karte pappen diverse Siegel. Wenn der Adapter wirklich so gefährlich sein sollte, müsste man die Karten doch aus dem Verkehr nehmen, oder nicht?

Versucht mal ein Handy ohne CE-Zeichen zu importieren, aber Kabel, die im Extremfall einen Brand verursachen sind ok?

Gute Frage.

Die CE-Kennzeichnung bietet – abgesehen von wenigen Ausnahmefällen – keine Gewähr dafür, dass die Konformität auch von offizieller Seite geprüft wurde und stellt auch kein Qualitätssiegel dar. Der Hersteller ist für die Konformität vielmehr selbst verantwortlich und haftet in vollem Umfang für etwaige Fehler. Z.B. kann eine fehlerhafte CE-Kennzeichnung eine wettbewerbsrechtliche Abmahnung oder ein strafrechtliches Verfahren zur Folge haben. Auch stellen sich Fragen der Produkthaftung.


Abmahnen dürfen aber wahrscheinlich wie üblich nur Mitbewerber. Inwieweit hier irgendeine offizielle Stelle bei Kenntnis aktiv werden kann, keine Ahnung.

Es wird wohl eh darauf hinauslaufen, dass Nvidia die Adapter tauschen wird, ob sie wirklich gezwungen sind den Verkauf einzustellen, wieder keine Ahnung. *noahnung*
 
bei allem respekt für seine arbeit.

aber herrschaften, was für ein aufgeblasener klugscheißer. wenn er bereits mehrere stecker zur hand hat, hätte er igors ansatz aufgreifen können, die dinger mit einem ct zu durchleuchten. und sorry für den rant ... aber dann noch seine stiefellecker-community ... ja, youtube ist nicht gut für den charakter. :]

 
Bald sollten alle üblichen "Verdächtigen" die Kuh durch das Dorf getrieben haben, aber es geht auch mehrfach.

Simple Ursache? NVIDIA GeForce RTX 4090, der verschmorte 12VHPWR Anschluss und das Einstecken | Blind Test (igor'sLAB)


Ich frage mich immer wieder was sich die Reviewer von ihren "Grimassenstartbildschirm" versprechen? Mehr Cklicks? Mich schreckt das eher ab.

Bei GN nervt mich auch langsam das umfangreiche anbiedern ihre "Merchadiseartikel".

Am liebsten schaue ich da noch HU, das meist recht nüchtern und nicht so reißerisch.
 
Das liegt wohl auch daran das es nicht nur peinlich ist einen Adapter mit so vielen Mängeln einer Karte dieser Preisklasse beizulegen.
Er ist für gängige Gehäuse bei der Höhe der Karten zu hoch um die Biegeradien einhalten zu können, die Kabel sind zu kurz um das Gewicht der 8 Pin Steckverbindungen sicher abfangen zu können und übt aber wegen der Länge eine entsprechende Hebelwirkung auf die 12 Pin Steckverbindung aus. Das Problem der schlechten Anschlussqualität kommt da erst noch oben drauf. Das trifft dann einfach auf nvidias teils selbstherrliche Selbstdarstellung.
 
Bei GN nervt mich auch langsam das umfangreiche anbiedern ihre "Merchadiseartikel".
auf den pfaden von ltt. die zicken sich mittlerweile auch regelmäßig an, vor allem gn in richtung ltt, seit ltt sei lab-project angekündigt hat. wie gesagt, youtube scheint nicht gut für den charakter.

ltt ist aber um faktor x noch schlimmer als gn. gn bringt ja wenigstens noch interessante und fachlich fundierte sachen, aber bei ltt gibt es ja fast nur noch gescripteten müll. und die häufigkeit von linus-dicke-hose-videos a'la ich hab produkt x für summe x (also für viel geld) gekauft, nimmt gefühlt immer mehr zu inkl. stetig steigender nervigkeit. und seit einiger zeit gibt es wirklich nur noch click-bait-headlines.

Am liebsten schaue ich da noch HU, das meist recht nüchtern und nicht so reißerisch.
da hat sich meine meinung mittlerweile geändert. deshalb stimme ich zu, dass hu von den ganzen hardware-kanälen am wenigsten überkandidelt ist. oder sowas wie kitguru u.a.

Das liegt wohl auch daran das es nicht nur peinlich ist einen Adapter mit so vielen Mängeln einer Karte dieser Preisklasse beizulegen.
Er ist für gängige Gehäuse bei der Höhe der Karten zu hoch um die Biegeradien einhalten zu können, die Kabel sind zu kurz um das Gewicht der 8 Pin Steckverbindungen sicher abfangen zu können und übt aber wegen der Länge eine entsprechende Hebelwirkung auf die 12 Pin Steckverbindung aus. Das Problem der schlechten Anschlussqualität kommt da erst noch oben drauf. Das trifft dann einfach auf nvidias teils selbstherrliche Selbstdarstellung.
die verbreitung entsprechender netzteile wird schritt für schritt zunehmen, dann wird man ohne adapter auskommen. die spannende frage ist dann, inwiefern der stecker abseits der adapter etwas taugt. also die langfristige haltbarkeit der nativen stecker. ich hab die befürchtung, dass das ganze konstrukt nichts taugt.
 
die verbreitung entsprechender netzteile wird schritt für schritt zunehmen, dann wird man ohne adapter auskommen. die spannende frage ist dann, inwiefern der stecker abseits der adapter etwas taugt. also die langfristige haltbarkeit der nativen stecker. ich hab die befürchtung, dass das ganze konstrukt nichts taugt.
Und bis dahin dürfen die Gehäuse nicht mehr egschlossen werden damit der Adapter nicht potentiell die Karte abfackelt oder ist es die sekundäre Aufgabe des Adapters als Seitenwandsperre herzuhalten damit die Karten genug Frischluft bekommen?
So oder so, das Ding ist ne Fehlkonstruktion und das mit Ansage.
 
was kann der siegesmund dafür, dass .... äh, was kann nvidia dafür, dass die gehäuse nur so schmal sind. *chatt*
 
Die können sehr viel für die Bauform des Adapters den sie beilegen obwohl er für reguläre Systeme mit der besagten Karte unbrauchbar ist. ;)
Mit einer abgewinkelten Variante hätte man das Problem von Anfang an umgehen können.
 
Zuletzt bearbeitet:
WTF *chatt*
Nichtsdestoweniger sieht Galax wohl die Notwendigkeit, für extremes Overclocking zwei 12VHPWR-Stecker zu verbauen, wodurch die theoretisch maximal mögliche Leistungsaufnahme mitsamt der 75 Watt über den PCIe-Steckplatz auf absurde 1.275 Watt steigt.
 
Nette Entwicklung. Lässt für die Zukunft großes erwarten. *abgelehnt
 
5800X vs. 5800X3D vs. 13900k mit einer RTX 4090

Techpowerup hat in den Grafiken des 13900K vs 5800X3D (mittleres Bild) vergessen Teile der Titel anzupassen.

Gegenüber dem gleichen Modell ohne V-Cache wird der minimale Taktvorteil vollständig kompensiert und der V-Cache kann teils deutliche Unterschiede auch in 4k ausmachen. Bei AoE4, Anno1800 und Hitman ist der höhere Takt des Intel dann ausschlaggebend. Zum optischen Vergleich von mir die entsprechenden Titel für FHD zusammengestellt.

Der Intel mit 30% mehr Takt gewinnt in LoRes besonders in Simulationen hinzu, aber auch bei bestimmten EgoShooter rd. 15%, vermutlich wenn mehr Gegner-KI oder Simulation dabei ist. Bei Ace Combat, CiV und F1-22 sieht man, dass bei steigenden Auflösungen sich die Last auf der CPU auch mal stark ändern kann, von Taktvorteil zum Cache- bzw. RAM-Latenz Vorteil.
directx-12-vulkan.png
directx-12-vulkan.png
tpu_X3Dvs13900k_FHD.png
Das erste Bild zeigt eindrücklich wo viel L3 Cache mit wenig Latenz hilft. Man sollte nicht vergessen, dass auch der 13900k deutlich im L2 zugelegt hat gegenüber dem einfachen Zen3.
 
Zuletzt bearbeitet:
Die dezeitigen 364,-€ lassen auch bei mir die Finger langsam jucken, als Replacement für meinen 3700X - so war das am Ende der AM4-Periode auch geplant - schön wenn man Hochpreisphasen aussitzen kann. Auf 16 Core oder schnelleren 8-Core Upgrade. Das einzige was mich derzeit abhält ist, dass ich überhaupt kein Performance-Defizit mit meinem Setup/Usecase habe. Womöglich investiere ich doch eher in ein neues QNAP-NAS und 2,5 Gbit Switch und warte noch bis H2/2023
 
Die dezeitigen 364,-€ lassen auch bei mir die Finger langsam jucken, als Replacement für meinen 3700X - so war das am Ende der AM4-Periode auch geplant - schön wenn man Hochpreisphasen aussitzen kann. Auf 16 Core oder schnelleren 8-Core Upgrade. Das einzige was mich derzeit abhält ist, dass ich überhaupt kein Performance-Defizit mit meinem Setup/Usecase habe. Womöglich investiere ich doch eher in ein neues QNAP-NAS und 2,5 Gbit Switch und warte noch bis H2/2023
Im Mindstar aktuell nur 349 € - ohne Deine Entscheidung irgendwie beeinflussen zu wollen! ;D
 
Mein Preis war Mindfactory *lol*
Das geht aber schnell jetzt.
 
Das ganze klimmpimps um die Spannungsversorgung versteh ich eh nicht wirklich. Rein von der Technischen Seite reicht eine 6 polige Leitung locker für 1200 Watt. Bei einer 2,5 mm² Zuleitung Länge 1 Meter. Werte mit Wechselstrom da dürfte noch nichts abfackeln.
  • Spannungsfall: 4,46 % bzw. 0,54 V
  • nutzbare Spannung: 11,46 V
  • Verlustleistung: 53,57 W

Das meiste wird bei der Buchse und Platine vermurkst.

Bei guten Netzteilen braucht man sich da keinen Kopf über Lötstellen und Anschlüsse zu machen. Die sind vom Fach.
 
Zuletzt bearbeitet:
Ich verstehe gerade nicht was das Netzteil für einen Unterschied machen soll wenn die Karte nicht direkt sondern weiterhin per Adapter angeschlossen wird. *kopfkratz
 
Da wird sich nVidia aber freuen:


 
Endlich mal einer der den Stromanschluss da platziert hat damit man das Gehäuse bei den Meisten auch schließen könnte.
Schade für die Geforce Kundschaft das es diese Karte nicht geben wird.
 
Klarer Fall von "you're holding bending inserting it wrong"..
 
Zurück
Oben Unten