nVidia Geforce RTX 4060/4070/4080/4090 (Ti/Super) (Ada/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

Habe mir das GN Video angeschaut, das "Marketing Speech" einiger Hersteller ist schon befremdlich. "Brutal by Nature" *rofl*
 
Sehr unterhaltsam fand ich im Teil mit den Gigabyte Karten die Einblendung "yes, its the real framerate of the website"
 
nVidia gibt Details zum AD102-Chip und zur Ada-Lovelace-Architektur bekannt (3D Center)

Aus technologischer Sicht erweist sich "Ada Lovelace" damit eher denn als "Ampere auf Stereoiden": Rein Architektur-seitig wurde vergleichsweise wenig verändert, dafür gibt es an der Spitze ein klar breiteres Design samt den Feature-Erweiterungen. Als hauptsächlicher Performance-Bringer quer durchs Chip-Portfolio agiert somit "nur" der durch den Wechsel auf Chipfertiger TSMC gewonnene Mehrtakt.

Wurde schon in anderen Foren als Click & Bait klassifiziert:

Preise für RTX 4090 und RTX 4080: Selbst "Fanboys" winken ab (PC GamesHardware)
Doppelposting wurde automatisch zusammengeführt:

 
dieses spielchen kann nvidia selbst spielen, viel vergnügen.


Diese "Preisverschiebung" nach oben wurde schon mit der letzten Generation ausführlich getestet und hat super funktioniert.
ne, mit den turing super modellen mussten sie auf amd reagieren. und ampere war vergleichsweise günstig. die preiserhöhungen während des ampere-lifecycle kamen während des crypto-booms.

Die Käufer haben die Preise akzeptiert und zahlen nun mehr - dauerhaft.
welche käufer? das waren doch zu > 90% miner. wenn nvidia der meinung ist, dass gamer den spaß mitmachen, sollen sie es gerne ausprobieren. siehe die pcgh-meldung oben. aber vielleicht glaubt nvidia die eigenen märchen immer noch.

es wird vermutlich genügend fanboys geben, die nvidia so oder so das geld hinterhertragen. aber die enthusiasten sind im gegensatz zum rest des marktes eine nische. und der rest des marktes hat momentan andere sorgen als nvidias apotheken-preise zu bezahlen.

btw ... da ist das video von moores law is dead interessant. lovelace soll in der herstellung wohl dramatisch teurer sein als ampere. 50%? wäre ganz schon happig. wenn die teaser zu rdna3 darauf abzielen, könnte amd mit einem "schlanken" chip nvidia in sachen preis/leistung evtl. ordentlich düpieren.
 
Habe auch schon Aussagen von Anhängern gelesen wie das die 4090 zu billig ist für das gebotene und nur das "Beste" ist für ihr Hobby gut genug ist. Mit "Zweitklassigen" will man da sich nicht abgeben und wer das nicht versteht ist nur neidisch.
 
Habe auch schon Aussagen von Anhängern gelesen wie das die 4090 zu billig ist für das gebotene und nur das "Beste" ist für ihr Hobby gut genug ist. Mit "Zweitklassigen" will man da sich nicht abgeben und wer das nicht versteht ist nur neidisch.
kann man ja so sehen. nur muss man sich dann nicht wundern, wenn das pc-gaming dann nachhaltig den bach runtergeht. macht für entwickler schon einen unterschied, ob ich 100 millionen ps4 besitzer adressieren kann oder die paar hanseln, die ihr geld noch beim pc verbraten. der markt schrumpft eh schon seit vielen jahren. und nvidia möchte diesen erfolgreichen trend weiter fortsetzen. weniger grafikkarten, dafür mehr highend und höhere preise.
 
Vermutlich spielt es ohnehin keine entscheidene Rolle wieviele Desktop Karten davon verkauft werden denn so wie ich das sehe sind die ohnehin nur die Resteverwertung der professionellen Variante welche, oh Wunder, auf 300W begrenzt ist.

Man will halt dennoch das maximum an Profit rausschlagen und wird erst dann einlenken wenn sie gnadenlos darauf sitzen bleiben bis die Wafer Lager überquellen.
 
kann man ja so sehen. nur muss man sich dann nicht wundern

Nicht für jeden ist das "Beste" was sie meinen dann wirklich das Beste. Möglichst viel Leistung um jeden Preis egal wie viel Verbrauch, Größe und Wärmeentwickelung ist nicht für jeden das Beste.
 
Nachdem was ich bisher zu DLSS 3 gelesen hatte habe ich so meine Zweifel an dessen tieferen Nutzen.

Die Zwischenbildberechnungerhöht zwar die Framerate hilft aber der Eingabelatenz herzlich wenig und scheint auch noch kontraproduktiv für die Bildqualität zu sein. Irgendwie klingt das nach einem reinen Benchmark Feature.
Die Frage ist natürlich auch wie sich die Zwischenbildberechnung beim bewegten Bild schlagen wird denn ein Soap Effekt wie beim TV kann man da absolut nicht gebrauchen.
So ganz ohne ist das nicht, die "Optical Multi Frame Generation" berechnet nicht veränderte Pixel nicht noch einmal sondern lässt diese im FrameBuffer unangetastet.
Somit haben sie eine bessere Latenz, da nicht jedes Bild komplett neu Berechnet werden muss.

Es ist jetzt aber nicht so, dass das nur Nvidia kann. :)
 
Darauf wollte ich auch garnicht hinaus sondern darauf das der Desktop Markt für teuer Geld nur den Teildeaktivierten Abfall bekommen würde wenn diese Karte auf dem gleichen Chip aufbaut. ;)
 
Darauf wollte ich auch garnicht hinaus sondern darauf das der Desktop Markt für teuer Geld nur den Teildeaktivierten Abfall bekommen würde wenn diese Karte auf dem gleichen Chip aufbaut. ;)
Ja gut, bei HBM sind sie ja nicht geblieben, daher sitzt der VRAM ja auf dem PCB.
Als Gamer ist dir ECC relativ egal, daher ist ja der Abfall deaktiviert.

Wer es dennoch braucht, kann ja die Profi Karten kaufen. :)
 
Ja wie gesagt, es ging nur um den Chip an sich. Wie er am Ende konfiguriert wird ist ein anderes Thema aber für die voll funktionstüchtigen Chips dieser Karte dürfte eine erhebliche Menge an teildefekten Chips abfallen die dann über die Desktop Sparte mit deutlich mehr Takt und Strombedarf zu hohen Preisen verbraten werden. Mit seiner Fan Gemeinde kann man es ja machen.
 
Ja wie gesagt, es ging nur um den Chip an sich. Wie er am Ende konfiguriert wird ist ein anderes Thema aber für die voll funktionstüchtigen Chips dieser Karte dürfte eine erhebliche Menge an teildefekten Chips abfallen die dann über die Desktop Sparte mit deutlich mehr Takt und Strombedarf zu hohen Preisen verbraten werden. Mit seiner Fan Gemeinde kann man es ja machen.
In Ordnung, jetzt hab ich es verstanden.

Nun ja, es sitzt ja der PAPA an der Spitze vom ATX 3.0 Standard.
Da geht es nur noch durch mehr kommt von mehr. ;)
 
Ich möchte doch hoffen, dass in dem Segment ausschliesslich modulare NTs genutzt werden und die NT-Hersteller entsprechende Kabelpeitschen für die neuen Stromanschlüsse bereitstellen, inclusive Hinweisen bei welchen NTs das nicht gemacht werden sollte.

-----

Bei Ada Lovelace ist nach meinem Eindruck die neue Architektur noch nicht verstanden. Hier mal kurz das wesentliche Konzept so wie ich es sehe und mir aufgefallen ist
  • doppelte Anzahl Shader-Einheiten und Leistung
  • relativ geringfügig gestiegenes Speicherinterface
  • dafür bis Faktor 16 grösserer L2 Cache
  • dafür optimiertes Scheduling per Hardware (Shader Execution Reordering)
  • damit extrem steigende Berechnungen je Polygon mit Micro-Meshes
    • ähnlich Tesselation-Konzept
    • Displacement Microdreiecke für Meshes, Faktor 50 der Berechnungen in Sub-Details bei RT Shader
      • im Beispiel gar Faktor 325, jedes Sub-Polygon nutzt 4 Bit.
    • Opacity Microdreiecke fürs Mapping, Abbildung der Sub-Details bei RT Shader
      • im Beispiel werden AnyHit-Shader je Sub-Mapping zusammenfassbar
Es sollte klar sein, dass das ohne Softwareanpassung kaum Vorteile bringt. Der L2 Cache ist für diese Technologien ausgelegt, das SI bleibt zunächst im Vergleich zu RDNA2 mit IF-Cache relativ breit, es wird aber dennoch Energie gespart, der Speicherzugriff beschleunigt.
Erst sobald diese Micro-Meshes im Code einfliessen wird man mit Ada Lovelace sehr grosse Vorteile gegenüber anderer Hardware sehen, ähnlich wie es mit Tesselation lief, das Poster-Child für diese Technik soll wohl Cyberpunk 2077 werden. Gut möglich dass wir dann erst den wirlkichen Energiebedarf der Ada Lovelace sehen, weil dann erst mehr Last auf Cache und SI kommt.

Ich habe momentan noch Zweifel, ob das bei der UE5-Engine mit Nanite und Lumen grossen Nutzen haben kann. Da müsste man sich mal reindenken oder auf Infos von Epic hoffen.
 
dieses spielchen kann nvidia selbst spielen, viel vergnügen.


Diese "Preisverschiebung" nach oben wurde schon mit der letzten Generation ausführlich getestet und hat super funktioniert.
ne, mit den turing super modellen mussten sie auf amd reagieren. und ampere war vergleichsweise günstig. die preiserhöhungen während des ampere-lifecycle kamen während des crypto-booms.

Die Käufer haben die Preise akzeptiert und zahlen nun mehr - dauerhaft.
welche käufer? das waren doch zu > 90% miner. wenn nvidia der meinung ist, dass gamer den spaß mitmachen, sollen sie es gerne ausprobieren. siehe die pcgh-meldung oben. aber vielleicht glaubt nvidia die eigenen märchen immer noch.

es wird vermutlich genügend fanboys geben, die nvidia so oder so das geld hinterhertragen. aber die enthusiasten sind im gegensatz zum rest des marktes eine nische. und der rest des marktes hat momentan andere sorgen als nvidias apotheken-preise zu bezahlen.

btw ... da ist das video von moores law is dead interessant. lovelace soll in der herstellung wohl dramatisch teurer sein als ampere. 50%? wäre ganz schon happig. wenn die teaser zu rdna3 darauf abzielen, könnte amd mit einem "schlanken" chip nvidia in sachen preis/leistung evtl. ordentlich düpieren.
>90% Miner also. Wenn das so ist dürften sie ja mit der jetzigen Preisvorstellung direkt gegen die Wand fahren. Nicht mal die Enthusiasten kaufen bei diesen Preisen. Was ich eben nicht glaube. Man wird schon erhoben haben, wie weit man gehen kann.

Richtig dreist ist, dass man mit DLSS3 die alte Hardware gleich gar nicht mehr unterstützt. Typisch Nvidia halt. Geht doch alles wenn einem genügend Nvidioten hinterherlaufen.
 
Erst sobald diese Micro-Meshes im Code einfliessen wird man mit Ada Lovelace sehr grosse Vorteile gegenüber anderer Hardware sehen, ähnlich wie es mit Tesselation lief,
Ich hoffe dass das nicht dein ernst war denn gerade der Punkt mit der Tesselation war das denkbar schlechteste Beispiel.

Man setzte sich bei der Tesselation vor allem deshalb an die Spitze weil es standardmäßig mit vollkommen überzogenen Tesselationsmodi eingesetzt und damit für den User nutzlos Leistung verbraten wurde. Bei sinnvollen Tesselationsstufen gaben sich beide nicht viel und damit gab es letztendlich nur einen Grund für diese Einstellung, sie sicherte ihnen den obersten Platz bei den Benchmarks. Gebrochen wurde der Unsinn erst nachdem der max. Tesselationsmodus bei AMDs Treibern begrenzbar war. Danach ging es mit dem beschleunigten Physx, Gameworks und Co. weiter.
Der größte Trumpf nvidias ist schon seit Jahren bis Jahrzehnten die künstliche Ausbremsung der Konkurrenz.
Die automatische Sortierfunktion für den Sheduler zur optimalen Abarbeitung ist ja schön und gut, wobei das wohl vor allem nvidias Raytracing Umsetzung helfen soll, aber Sachen wie eine Softwareoptimierung für ein besseres Sortierergebnis oder der Weg über eine separate API für den direkten Zugriff auf SER schreien mal wieder nach einseitiger Software Optimierung und künstlicher Ausbremsung der Konkurrenz.
 
Nicht mal die Enthusiasten kaufen bei diesen Preisen. Was ich eben nicht glaube. Man wird schon erhoben haben, wie weit man gehen kann.

ist es ein spiegelbild von 2018. und das in ganz vielerlei hinsicht. nur unter verschärften bedingungen.

crypto-boom, crypto-krise, volle lager, generationswechsel auf turing mit satten preiserhöhungen. bei nvidia von krise zu sprechen, war damals wie heute natürlich unsinn. aber trotzdem war turing ein relativer flop und nvidias bilanzen haben weit in 2019 hinein gelitten.

Nvidia CEO laments low Turing sales, says last quarter was a ‘punch in the gut’

heute haben wir aber multiple krisen. deshalb würde ich fast schon behaupten, dass es völlig egal ist, wie gut lovelace tatsächlich wird. das geld sitzt nicht mehr so locker. und grafikkarten und gaming - momentan kriselt es ja überall in der hardware- und games-branche - haben momentan in der breite des marktes keine priorität mehr. klar werden die fanboys nvidia das geld hinterhertragen. die alleine reichen aber wohl nicht aus, um den absatz wieder anzukurbeln.

Man wird schon erhoben haben, wie weit man gehen kann.
2018? oder jetzt? ist denn die strategie der preisstabilisierung von ampere in den letzten monaten aufgegangen? die kunden haben nvidia doch hängen lassen, sonst gäbe es nicht diese rekordlagerbestände. ich hab eher das gefühl, dass nvidia den bezug zu den gamern komplett verloren hat.

Richtig dreist ist, dass man mit DLSS3 die alte Hardware gleich gar nicht mehr unterstützt. Typisch Nvidia halt. Geht doch alles wenn einem genügend Nvidioten hinterherlaufen.

man wird tests abwarten müssen. aber viele beobachter sind mittlerweile skeptisch. da macht sich die meinung breit, dass lovelace nur ein gepimpter ampere-chip ist und die verbesserungen fast ausschließlich durch den besseren fertigungsprozess zustande kommen. deshalb wäre es software-seitig doppelt dreist, wenn man software-features, die eigentlich auch auf alten karten laufen könnten, dann auf exklusiv auf lovelace beschränkt. können sie so machen, muss ich aber nicht gut finden. ;)

am ende hängt es natürlich auch vom presse-echo ab, ob da ein hype erzeugt wird. aber ich persönlich hab mittlerweile den eindruck, dass lovelace eher entäuschend wird. denn performance ist nur ein aspekt. stromverbrauch, preise, kühlbarkeit usw. stehen auf einem ganz anderen blatt.
 
Zuletzt bearbeitet:
deshalb wäre es software-seitig doppelt dreist, wenn man software-features, die eigentlich auch auf alten karten laufen könnten, dann auf exklusiv auf lovelace beschränkt. können sie so machen, muss ich aber nicht gut finden. ;)
Das gab es doch auch schon, siehe erste DLSS Generation bei der man sich wegen der Abgrenzung zu der alten Generation auf die Tensor Cores berief die aber letztendlich garnicht genutzt wurden.
Ein weiteres Beispiel wäre wohl das beschleunigte Physx das in der Fassung unter diesem Namen bei der Konkurrenz im CPU Fallback lief und in der Gameworks Fassung nach der Blackbox Phase offenbar auf einmal doch auch auf GPUs anderer Hersteller lauffähig war.
Nvidia bedient sich schon lange der künstlichen Beschränkung/Ausbremsung um die Verkaufszahlen zu pushen.
 
@cruger ich hoffe ja innig, dass es so kommt wie du es analysierst. Vor allem aber hoffe ich auf einen angemessenen Konter seitens AMD- das würde ohnehin rasch zu Preisanpassungen führen.

Das proprietäre DLSS war ab Tag 1 seiner Einführung eine unglaubliche Sauerei die eigentlich alleine schon reicht um überhaupt nie mehr Nv zu kaufen. Meine Meinung.
 
leider gibt es auch immer noch honks, die die märchen von nvidias marketing- und abverkauf-strategie 1:1 wiedergeben.

naja, wenn lovelace nun so teuer wird, sehen die aktuellen preise der highend ampere-modelle schon wieder günstig aus. und zum launch wird natürlich wieder eine knappheit beschworen. wenn dann tatsächlich genügend leute losrennen, ist das wie bei jeder hamster-aktion eine self-fulfilling prophecy. ja, das toilettenpapier ist knapp. :]

aber ich finde die menge an kritik auch seitens der presse doch erstaunlich. ist gefühlt sogar mehr als bei turing.

aber dann müssen unsere ach so objektiven reviewer auch mal den arsch in der hose haben und nicht nur die langen balken bewundern, sondern sowas wie preis- und stromverbrauch auch mal in relation zu aktuellen problemen setzen.
 
Ich kann mich über manche Kommentare wirklich aufregen. Z.B. zum Thema die Preise werden nicht mehr sinken.

GameStar: Nvidia-Chef Jensen Huang hat sich zu den hohen Preisen von Geforce RTX 4090, 4080 16G und 4080 12G geäußert. Die Antworten sind nachvollziehbar.

Wer zwingt NVIDIA eigentlich zu solch aufgeblähten und vollgestopften monolitischen Designs?

Und warum argumentiert ein Games-Hardware-Redakteur aus sich eines Unternehmen und nicht aus Sicht seiner Leserschaft?

Warum stellt der Redakteur nicht mal die Frage, wie das Unternehmen wieder bedarfsgerechte Produkte für seine Kunden entwickeln kann? Oder merkt die GameStar nicht, dass so eine Entwicklung auch ihren Ast absägt, wenn die potentielle Käuferschaft bei dieser Preisentwicklung immer mehr ausgedünnt wird?

Vielleicht kommt irgendwann ein Kipppunkt, wo die Bereitschaft der Gamer, diese Entwicklungen mitzugehen, wirklich schlagartig und in erheblichen Ausmaß einbricht. Vielleicht ist dieser Punkt sogar schon gekommen.

Vielleicht muss NVIDIA auch mal komplett vor die Wand fahren? Aber so weit weg wie NVIDIA mittlerweile vom klassischen Gaming-Kunden arbeitet, wird man den Eindruck nicht los, dass Gaming für NVIDIA immer weniger Relevanz hat. Man hat mittlerweile margenträchtigere Märkte erschlossen und war zusätzlich vom Mining verwöhnt.

Man kann nur hoffen, dass AMD mehr ein Ohr am Kunden hat als NVIDIA.
 
Zurück
Oben Unten