nVidia Geforce RTX 3050/3060/3070/3080/3090 (Ti) (Ampere/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

Ampere spielt doch dabei eine kleine Rolle:

Das Gaming-Umfeld war durch den Produktstart der GeForce RTX 3080 (Test), RTX 3090 (Test) und zuletzt RTX 3070 (Test) in den vergangen Wochen in aller Munde. Nur ein Bruchteil davon wurde im dritten Quartal, welches Ende Oktober endete, verbucht, dennoch konnte es trotz augenscheinlich eher geringen Stückzahlen bereits zum Umsatz beitragen. Im Call mit Analysten gab Nvidia zu verstehen, dass es noch Monate dauern wird, um die hohe Nachfrage vollständig zu bedienen.

Nvidia-Quartalszahlen: Viel mehr Umsatz und Gewinn dank Ampere und Mellanox (Computerbase)

Ja Paperlaunch *chatt* hin oder her - Verfügbarkeit schlecht. Vieles nicht kaufbar oder nur kurz in kleinen Mengen und überhöhte Preise. Da kannst das nennen wie du willst. Mist bleibt Mist.
 
Ja Paperlaunch *chatt* hin oder her - Verfügbarkeit schlecht
an der verfügbarkeit und dem ärger vieler kaufwilliger kunden ändert das alles nichts.

es zeigt aber trotzdem, dass nvidias darstellung, dass die dinger weggegangen sind wie warme sammeln, nicht so falsch sein kann. denn 39% mehr umsatz in der gaming-sparte sind ein brett. 39% gegenüber dem vorjahresquartal - und das war rein turing. diesen schub erreichst du nicht durch den abverkauf von turing oder mit einem ampere-paperlaunch zumal nvidia die großen modelle frühzeitig hat auslaufen lassen.

deshalb würde schon vermuten, dass ampere seinen teil dazu beigetragen hat. auch wenn das terminlich nicht aufs ganze quartal durchgeschlagen ist.

aber die diskussion ist natürlich müßig, wenn man etwas kaufen möchte, was aber auf dauer nicht zu haben ist. und wenn, dann nur zu mondpreisen.
 
Zuletzt bearbeitet:
Feststeht jedenfalls: NVidia wird auf Big Navi in irgendeiner Form reagieren, z. B. mit einer 3080 Ti, 3070 Ti. Und wenn sich die Verfügbarkeit bis dahin nicht ändert, dann werden halt viele Leute erst recht wieder auf NVidia warten und dann kaufen. Verfügbarkeit ist in diesen Zeiten ein Schlüsselfaktor.
 
Beim Nachtest von CB geht den "kleinen" 3000ern offenbar unter 5K schon der RAM aus unter CoD und es kommt zu aufploppenden Texturen.
 
Feststeht jedenfalls: NVidia wird auf Big Navi in irgendeiner Form reagieren, z. B. mit einer 3080 Ti, 3070 Ti. Und wenn sich die Verfügbarkeit bis dahin nicht ändert, dann werden halt viele Leute erst recht wieder auf NVidia warten und dann kaufen. Verfügbarkeit ist in diesen Zeiten ein Schlüsselfaktor.

Das Problem ist imho, dass der von nVidia eingesetzte GDDR6X Speicher teurer ist, als der von AMD eingesetzte GDDR6 Speicher (dafür aber auch deutlich mehr Bandbreite hat). Und da ja nur Vielfache der der ursprünglichen Bestückung möglich sind, also 20GB bei der 3080Ti bzw. 16GB bei den kleineren Karten, wird's dann teuer.

Und warum brauchen die Karten überhaupt mehr Ram? Bisher scheint sich das ja wirklich zu bewahrheiten, dass die Ampere Karten prinzipiell weniger Ram brauchen. In den Tests 6800XT vs. 3080, die ich bisher gesehen habe, liegt die 3080 in UHD leicht vorne, trotz der 10GB. Einfach weil sie deutlich mehr Bandbreite hat. Mehr Speicher bringt halt auch nur sehr bedingt was, wenn er deutlich langsamer ist. Wenn nVidia dann demnächst auch Smart Access Memory einsetzt, könnte es durchaus sein, dass die 16GB der AMD Karten in der Praxis keinen wirklichen Vorteil ausspielen können im Vergleich zu den 10GB einer 3080.
Viele sagen ja, die 16GB der AMD Karten wären langlebiger. Naja, das wird sich dann erst noch zeigen müssen, ob sich das wirklich bewahrheitet. Und für wieviele der Käufer ist das relevant, ob eine Karte nach 4 oder 5 Jahren sich besser schlägt (wo sie eh veraltet ist)?

Allerdings machen sich 16GB marketingtechnisch natürlich deutlich besser, als 10GB, das stimmt. Von daher ist das von AMD schon ganz schlau gemacht.
 
Beim Nachtest von CB geht den "kleinen" 3000ern offenbar unter 5K schon der RAM aus unter CoD und es kommt zu aufploppenden Texturen.
Noch mal in Bildform, falls die Seite nicht "lesbar" ist:

codh6jzz.png
 
@Thunderbird 1400

Das Thema ist nicht neu. NVIDIA hat anscheinend ein deutlich effizienteres Speichermanagement. Nur als das früher Thema war, hat man halt über Unterschiede zwischen 8GB AMD-Karten und 6GB NVIDIA-Karten gesprochen. Hier ist die Differenz nun erheblich größer. Und ich bezweifle, dass NVIDIAs "Zauber" das auf die typischen Nutzungsdauer einer solchen Grafikkarte aufwiegt. Zumal auch AMD in der Entwicklung nicht stehen bleibt.

Anderer Punkt ist das Thema Optimierung. Mit dem, was AMD jetzt macht, steht man gerade erst am Anfang, NVIDIA bewegt sich hingegen eher auf ausgetretenen Pfaden. Ich glaube, dass AMD aus der Plattform-Strategie noch einiges wird rausholen und potentielle Bremsen wird lösen können. Und man darf hoffen, dass sich auch die von NVIDIA dominierte Software-Landschaft ändern wird. Denn Plattformisierung? Dazu gehören nun auch die Konsolen. Im Gegensatz zur letzten Generation sind die nun auf dem Stand der Zeit.

Ansonsten stimme ich dir durchaus zu. Umso beachtlicher finde ich das, was AMD da vollbracht hat. Kleineres Speicherinterface, kein GDDR6X - und trotzdem hat AMD in vielen Punkten gleichgezogen. Und wenn AMD mit der nächsten Generation wieder so drauflegen kann, dann wäre ein Fortschritt, wie NVIDIA ihn mit Ampere präsentiert hat, nicht mehr genug für die Leistungsspitze. Also stay tuned. ;)
 
Lol, 5K :] Das sind eben mal 1,78x soviele Pixel wie 4K, das ist komplett realitätsfern für diese Karten.
 
Nein ist es nicht, sieht man doch ist spielbar. Weiter gilt für mich 8 und 10 GB VRAM kaufe ich nicht für 500 oder mehr Euro.
 
Bei einem heutigen Titel ist es vielleicht halbwegs spielbar. Aber nicht mehr bei zukünftigen Titeln, wenn 5K sich als Standard bei Bildschirmen etabliert hat (falls das überhaupt jemals passieren wird - aktuell geht der Trend ja eher zu niedrigeren Auflösungen mit KI-Aufbereitung). Ich denke, in 1-2 Jahren werden die Karten bei neuen Titeln auch für 4k höchstens noch mit ach und krach reichen.
 
wenn man vr im blick hat ... bei der reverb g2 mit ihrem kleinen fov mögen 2x2k ausreichen. schaut man sich aber z.b. mal die pimax 8kx mit ihrem großen fov an, dann ist schon mit 2x4k dabei. und dabei sind die pixel per degree auf afaik ähnlichem niveau.
 
dazu brauchts nichtmal irgendwelche kommenden vr-hmds. schon bei der cv1 lässt man bei ausreichend reserven supersampling drüberlaufen.. vor jahren noch über externe tools; inzwischen ist eine SSAA-vr-adaption bestandteil des NV-treibers. die lässt sich genauso steuern, wie anno dunnemals die ssaa-umsetzung, über den MSAA-anteil und die profilflags.



bei speicher, geld, autos, häusern, frauen usw ist haben immer besser als brauchen.


(..)

mfg
tobi
 
Setze es mal in Zusammenhang zu der "Aussage" im Post darüber *rofl*
 
Klar, haben ist immer besser als brauchen. Ich werde die 3080 mit ihren 10GB auch nicht kaufen. Da schmecken mir die 16GB der 6800XT schon besser. Dennoch bin ich sehr skeptisch, ob sich die 16GB GDDR6 zukünftig in der Praxis wirklich als Vorteil erweisen werden im Vergleich zu den 10GB GDDR6X. Wenn DLSS sich weiter durchsetzt...
Aber ich bin sehr gespannt, was nVidia da bringen wird mit mehr Ram, und vor allem, wie sie dann preislich mit dem teureren Ram konkurrieren wollen.
 
im moment ist dlss im vr-bereich quasi eine nullnummer. soll sich mit dlss 2.1 ändern. aber da werde ich erstmal abwarten, wie viel aufwand nvidia bereits ist, in entsprechende optimierungen reinzustecken.
 
Meinst Du nicht, dass das Angebot schlecht bleibt und die Nachfrage hoch?
 
Für die aufgerufenen Preise ist das völlig unabhängig von der Nachfrage bzw. der Liefersituation immer ein schlechtes Angebot.
 
Wenn ich mir den allgemeinen Tenor im CB Forum und im Luxx ansehe wollen in der Zwischenzeit wohl noch einige auf den Speicherkrüppel-Zug der 3070 und 308 aufspringen, weil sie derzeit nur die Rohrleistung sehen, bei Nvidias Preisen kannst du ja nicht mal sagen: "Wer billig kauft, kauft zweimal." aber scheinbar sind manche ihrem Geld echt böse.

Lieber würde ich momentan 1000€ für die 6800XT ausgeben, bevor ich 900 für die 3080 rauskloppe.... tue ich natürlich beides nicht....??
 
Zurück
Oben Unten