nVidia Geforce RTX 3050/3060/3070/3080/3090 (Ti) (Ampere/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

Argh diese Stimme, ja die Bilder kursieren durch alle Seiten. Preislich wird sie bei mir eh schon ausscheiden (unabhängig davon das ich nicht mehr Lager Grün kaufen will) - aber so eine große Karte will ich auch nicht haben egal von wem.
 
der igor halt ;)

größe wäre mir egal. leistungsaufnahme, vor allem aber der preis hingegen nicht.

aber mal schauen, ob nvidia die preisschraube nun endgültig überdreht. wenn die 3090 tatsächlich irgendwo bei 1399 us-dollar zzgl. steuern landen sollte, dann muss die performance schon durch die decke gehen, damit so ein preis in meinem augen gerechtfertigt wäre. wenn er sich für eine grafikkarte denn überhaupt rechtfertigen lässt.

und wenn bereits eine founders edition in diesem bereich liegt, möchte ich nicht wissen, wie die board-partner bei ihren oc-karten hinlangen.
*suspect*

da kann man nur hoffen, dass amd endlich mal aus dem quark kommt und was brauchbares bringt. die stille rund um big navi verheißt imho nicht gutes. zumindest sagt das die erfahrung der letzten jahre.

dabei könnte sich für amd eine einmalige gelegenheit ergeben, wenn ein shitstorm wg. der nvidia-preise losbrechen sollte. dann kann man nur hoffen, dass amd etwas dagegensetzen kann. und dabei muss amd nicht mal mit der spitze konkurrieren können. hauptsache preis/leistung/verbrauch stimmen und sie schaffen es, mit einigem abstand die 2080 ti zu knacken.

denn ganz ehrlich ... ich mag vr und brauch die grafikkarten-performance eigentlich nur für vr. und da geht es mir mittlerweile auf den keks, dass man bisher im prinzip nur nvidia kaufen kann.
 
Mit VR habe ich gar nichts am Hut bisher und auch wenig Interesse daran, so ein "Klotz" passt in kaum eins meiner Gehäuse und die sind nicht umsonst nicht so riesig.
 
EgF-6JsUMAANnnL


Quelle
Doppelposting wurde automatisch zusammengeführt:

12-Pin Micro-Fit 3.0 Stecker für Ampere-GeForce-Karten bestätigt (HardwareLUXX)
 
Zuletzt bearbeitet:
Wow was so ein Netzteilkabel alles aus lösen kann in Foren, jedem das seine aber für mich geht die Karte sollte sie so kommen in die falsche Richtung.
Aber das kann ja jeder für sich selber entscheiden.
 
Hmm, könnte interessant werden, für den neuen Flight Simulator muss auf jeden Fall eine neue Karte her, spätestens wenn die VR-Unterstützung kommt. Und wenn MS an der Performance-Schraube nicht noch ordentlich dreht, ist für VR auch eine 2080Ti zu schlapp. Ich denke mal, bei der kommenden Generation schlage ich mal wieder ordentlich zu, endlich gibt es Anwendungen, die für mich VR und eine teure Grafikkarte auch rechtfertigen.
Nur, eine 3080 zu kaufen, ist auch irgendwie blöd. Schon bei der GTX980 habe ich diesen Fehler gemacht und dann kam etwas später die 980Ti raus. Finde ich sehr ärgerlich, wenn nVidia nicht gleich das Topmodell raus bringt, denn dann ärgert man sich, wenn es ein halbes Jahr später auf den Markt kommt.
 
Nun bei mir ist das einfach, ich habe da Grenzen gesetzt was eine Grafikkarte kosten darf, wie groß sie sein darf und wie viel sie verbrauchen darf. Da wird die "3090" über all drüber liegen. Ich nehme die Brechstange egal was es "kostet" etc ist nicht mehr angesagt bei mir. Auch Big Navi könnte sich ähnlich ausgehen.
 
@Thunderbird 1400

so wie es aktuell aussieht, spult nvidia sein übliches programm runter. sie lassen bewusst lücken in ihrer produkt-range, damit sie auf amd reagieren können. entweder indem sie die lücken mit nachzügler-produkten füllen, über die preisschiene oder aber beides.

vr ist im moment in der tat ein performance-fresser. aber es gibt natürlich stetige entwicklungen, um den performance-bedarf zu senken.

und sowas wie die reverb g2 dürfte für eine weile in sachen auflösung wohl sowas wie einen standard setzen. viel mehr brauchts erstmal nicht, da werden wieder andere aspekte wie fov, linsenqualität uvm. wichtiger.

Wow was so ein Netzteilkabel alles aus lösen kann in Foren, jedem das seine aber für mich geht die Karte sollte sie so kommen in die falsche Richtung.
Aber das kann ja jeder für sich selber entscheiden.
hui, da stören sich viele daran, dass so ein adapter die optik ihres kabelmanagements stört. wenn man sonst keine probleme hat. ;)

man wird sehen, ob nvidia das durchdrücken kann und amd evtl. mitzieht. ist ja an sich nicht komplett blöd.

angeblich soll nvidia ja mit den netzteil-herstellern kooperieren. fragt sich nur seit wann, wenn das angekündigte be quiet premium-netzteil dark power pro 12 noch nicht über den stecker (nativ) verfügt.
 
Das alte Stecksystem hat schon seinen Sinn mit den kleinen 6/8 poligen. Was machst nämlich mit den kleineren Karten haben die dann auch so einen Prügel an Steckerleiste oder wie? Braucht man dann einen Adappter auf einen 6 poligen?*chatt*

Aus Platzgründen hätten sie locker 3 x 6 polige verbauen können, das können die größeren Netzteile sowieso. Na ja gut man muss nicht alles verstehen.
 
Bei modularen Netzteile spielt es doch keine Rolle welcher Stecker Netzteilseitig verbaut ist. Es wird halt anstatt des Kabels mit 2x8 Steckern das neue mit dem 12 pol. Stecker eingesteckt. Ich weiß nicht wo man da einen Adapter braucht? Es muß dann halt nur jeder Netzteilhersteller ein entsprechendes Kabel beilegen.
 
Ich verfolge aktuell auch den Spekulationsthread zu Ampere im 3DCenter-Forum.

Die ganzen Gerüchte und Informationshäppchen lassen mich auch irgendwie ratlos zurück. Gesichert scheint zu sein, dass der Verbrauch nach oben gehen wird und dass damit einhergehend der Kühler größer und teurer wird. Für das Warum habe ich für mich persönlich noch keine richtig plausible Erklärung gefunden.

Derzeit halte ich zwei Varianten für möglich:

1. NVIDIA geht die Düse, weil sie in etwa wissen, wo Big Navi landen wird und müssen deshalb notgedrungen die Brechstange auspacken, um weiterhin (deutlich) vorn zu bleiben.
2. NVIDIA packt die Brechstange aus, weil man sich ansonsten leistungstechnisch nicht weit genug von Turing absetzen kann, was wiederum zu weniger Kaufanreizen bzw. zu notgedrungen geringeren Preisen führen würde.

So gern ich Variante 1 sehen würde, so wenig realistisch stufe ich diese ein. Ich glaube eher, dass NVIDIA - warum auch immer (Fertigungprozess vielleicht?!) - Mühe hat, sich ohne "Gewalt" signifikant von Turing abzusetzen. Um doch mehr Leistung herauszuholen, um weiterhin die hohen Preise (bzw. vielleicht noch höhere) zu rechtfertigen, wird dann alles getan, was nötig ist. Und wenn es ein neuer Stecker ist, der ja endlich sovieles besser macht... *noahnung*

Ich selbst habe mit meiner gebraucht gekauften 2080 Ti vielleicht 20 Stunden gezockt (wenns hochkommt). Ich will diese Generation eigentlich komplett aussetzen, weil ein Upgrade rational nicht zu begründen wäre. NVIDIA tut bisher scheinbar alles dafür, dass ich auch nicht schwach werden würde.

Wenn ich die Ti rausschmeissen sollte, dann würde ich viel lieber ins AMD-Lager wechseln. An der Stelle würde ich dann auch das Thema Rationalität etwas weniger eng auslegen... *chatt*
 
Bei modularen Netzteile spielt es doch keine Rolle welcher Stecker Netzteilseitig verbaut ist. Es wird halt anstatt des Kabels mit 2x8 Steckern das neue mit dem 12 pol. Stecker eingesteckt. Ich weiß nicht wo man da einen Adapter braucht? Es muß dann halt nur jeder Netzteilhersteller ein entsprechendes Kabel beilegen.
Ich will das nun nicht unbedingt verteufeln und lieber mal abwarten, ob und was es nun tatsächlich an Vorteilen bringt.

Aber wahrscheinlich > 90% aller Netzteile haben kein Kabelmanagement. Und wenn selbst Be Quiet bei einem ganz neuen Produkt noch keinen neuen Stecker mitzuliefern scheint, kann die Kommunikation mit NVIDIA wohl nicht so toll gelaufen sein.

Denn genau -> Das Dark Power Pro 12 ist ein modulares Netzteil. Mit ausreichend Vorlaufzeit sollte es da überhaupt kein Problem sein, entsprechende Kabel mitzuliefern. Also nicht nur einen Adapter.

Derzeit halte ich zwei Varianten für möglich:

1. NVIDIA geht die Düse, weil sie in etwa wissen, wo Big Navi landen wird und müssen deshalb notgedrungen die Brechstange auspacken, um weiterhin (deutlich) vorn zu bleiben.
2. NVIDIA packt die Brechstange aus, weil man sich ansonsten leistungstechnisch nicht weit genug von Turing absetzen kann, was wiederum zu weniger Kaufanreizen bzw. zu notgedrungen geringeren Preisen führen würde.
Ich hab offen gestanden wenig Ahnung von der Materie.

Aber was man zwischen den Zeilen so rauslesen mag, wird Ampere den größten Sprung wohl beim Thema Raytracing hinlegen. Schaut man sich im Vergleich mal an, wie groß bei Turing die Unterschiede der Leistungsaufnahme zwischen RTX ON und OFF sind, dann kann man erahnen, warum NVIDIA bei der Spannungsversorgung und der Kühlung von Ampere einen derart großen Aufwand betreibt.

Lässt im Umkehrschluss die Vermutung zu, dass die Karten mit RTX OFF durchaus leistungsstark und sparsam sein können. Oder NVIDIA hat den Fokus so sehr auf Raytracing gelegt, dass die Karten mit RTX OFF vielleicht doch nicht so der ganz große Wurf werden.

In Kürze wissen wir mehr.
 
Ich verfolge aktuell auch den Spekulationsthread zu Ampere im 3DCenter-Forum.

Die Spekulationsthreads im 3D Center sind mir zu anstrengend geworden, zu hohe Spinnerdichte mittlerweile. Nächsten Dienstag hat das meiste ein Ende hoffentlich.
Doppelposting wurde automatisch zusammengeführt:

GeForce RTX 3080 mit 10 GB, GeForce RTX 3090 mit satten 24 GB GDDR6X (HardwareLUXX)
Doppelposting wurde automatisch zusammengeführt:

RTX 30 teaser video incoming (VideoCardz)

NVIDIA-GeForce-RTX-30-Teaser-2-1200x639.jpg

Doppelposting wurde automatisch zusammengeführt:

 
Zuletzt bearbeitet:
Die Spekulationsthreads im 3D Center sind mir zu anstrengend geworden, zu hohe Spinnerdichte mittlerweile.

Anstrengend ja, aber mitunter auch recht amüsant (und manchmal sogar informativ *chatt*).


Ich hab offen gestanden wenig Ahnung von der Materie.

Aber was man zwischen den Zeilen so rauslesen mag, wird Ampere den größten Sprung wohl beim Thema Raytracing hinlegen. Schaut man sich im Vergleich mal an, wie groß bei Turing die Unterschiede der Leistungsaufnahme zwischen RTX ON und OFF sind, dann kann man erahnen, warum NVIDIA bei der Spannungsversorgung und der Kühlung von Ampere einen derart großen Aufwand betreibt.

Lässt im Umkehrschluss die Vermutung zu, dass die Karten mit RTX OFF durchaus leistungsstark und sparsam sein können. Oder NVIDIA hat den Fokus so sehr auf Raytracing gelegt, dass die Karten mit RTX OFF vielleicht doch nicht so der ganz große Wurf werden.

In Kürze wissen wir mehr.

Ich habe ja auch nicht so die große Ahnung von Grafikkarten. Ein wenig (gefährliches) Halbwissen ist aber schon vorhanden.

Ich denke mittlerweile tatsächlich, dass NVIDIA viel Aufwand betreiben muss, um sich signifikant von seiner eigenen Vorgängergeneration absetzen zu können. Ein höherer Verbrauch, ein neuer (monströser) Kühler mit neuem Konzept, ein neuer Stecker - das alles erscheint mir immer wichtiger dafür, dass NVIDIA überhaupt eine ordentliche Performancesteigerung erzielen kann.

Nun gibt es natürlich reichlich NVIDIA-Fans sie sich relativ leicht vom Marketing beeindrucken lassen. So ganz nach dem Motto: Endlich tut mal jemand was gegen diese unsäglichen Netzteilkabel-Standards, die ja ohnehin überholt gehören. Und endlich bringt mal jemand neue Ideen in das Thema Gehäusebe-/entlüftung. Bei 3DCenter schreibt beispielsweise wieder mal jemand einschlägig Bekanntes:

Dural @ 3DCenter schrieb:
Ganz im Gegenteil, der neue NV Kühler beruhigt den Luftstrom sogar, ich Wette damit ist das ganze System Kühler!

Der Kühler wird zum besten gehören was wir jemals im Grafikkarten Bereich gesehen haben.

NVIDIA ist gefühlt jetzt also der Messias, der endlich alle Hitzeprobleme im Rechner löst. Auf diesen Zug sind gefühlt schon viel zuviele Leute aufgesprungen...


Ich persönlich glaube zwar dran, dass das durchaus gute Konzepte sind, ich halte sie aber schlichtweg für notwendig, damit NVIDIA deutlich was an Performance drauflegen kann. Ich glaube nicht, dass sie solch einen riesigen Aufwand betrieben hätten, wenn sie die gleiche Mehrperformance mit den bisher gängigen "Standards" erreicht hätten. Dann hätte man weniger Geld für Forschung und Entwicklung ausgeben müssen, hätte weniger Angriffsfläche geboten und hätte obendrein nicht nochmal ne Schippe mehr beim Preis drauflegen müssen (die Margen werden wohl auch bei Turing gepasst haben...).

Auf mich wirkt das bisher so, als ob man die teils drastischen, aber notwendigen Veränderungen jetzt komplett als bahnbrechende Neuerungen verkaufen will, die natürlich nur zum Wohle der Menschheit gemacht wurden. *chatt*

In Sachen Performance denke ich, dass wir durchaus große Fortschritte sehen werden - nur nicht im klassischen Rasterizing. Je höher die Auflösung und je mehr RT, desto größer werden vermutlich auch die Steigerungen ausfallen. Mein Tipp wäre, dass NVIDIA ohne die "Brechstange" aber im klassischen Rasterizing nicht signifikant schneller gewesen wäre - also in dem Bereich, der noch immer den Hauptteil der Reviews abbildet. Wenn eine 3090 ohne RT, DLSS und Co. nur 10 Prozent schneller wäre als eine 2080 Ti, gäbe es einen riesigen Aufschrei. Da wäre es dann auch egal, wenn sie mit RT plötzlich 5x so schnell wäre als der Vorgänger.

Klassisches Rasterizing ist für mich der Hauptgrund, warum NV so schwere Geschütze auffährt. Nämlich um da nennenswert schneller als die Vorgängergeneration zu sein, um nicht in den ganzen Reviews "abgestraft" zu werden.



Mal sehen, ob dieser Denkansatz irgendetwas mit der Realität zu tun haben wird oder nicht. *buck*
 
Wichtig ist für mich, dass man ein besseres Performance/Preis-Verhältnis haben wird, als bei den jetzigen Karten. Bei einer neuen Generation erwarte ich mehr Performance zum gleichen Preis oder eben gleiche Performance zum niedrigeren Preis. Nochmal kann sich nVidia solche drastischen Preissteigerungen wie bei der jetzigen Generation imho nicht erlauben. Die 2080Ti hat 71% mehr gekostet als eine 1080Ti bei durchschnittlich 26% höherer Performance (Angabe von Tomshardware https://www.tomshardware.com/reviews/nvidia-geforce-rtx-2080-ti-founders-edition,5805.html). Da kann nVidia nicht nochmal preislich oben drauf legen, das funktioniert nicht. Im Gegenteil, sie müssen das eigentlich wieder nach unten korrigieren, wenn sie sich nicht immer unbeliebter machen wollen.

Wenn ich 10-20% mehr Rohleistung (ohne Raytracing) einer 2080Ti bekomme für den aktuellen Marktpreis (1.100€), dann wäre es in Ordnung. Aber warum habe ich nur das leichte Gefühl, dass das nicht passieren wird?
 
Das wird nicht passieren. Die werden wieder die Preise hochschrauben. Bei der 2000er hast du ja für Raytracing bezahlt, obwohl es eig noch nutzlos ist. In meinen Augen.
 
Naja, aber irgendwo sind Grenzen erreicht. Wollen sie etwa 1500€ verlangen für etwas mehr Performance als eine 2080Ti? Das wird nicht funktionieren, außer bei einer kleinen Minderheit.
Und auch in der Mittel- und Oberklasse muss es in der neuen Generation mehr Performance für's gleiche Geld geben. Naja, ich bin mal gespannt.
 
Naja, aber irgendwo sind Grenzen erreicht. Wollen sie etwa 1500€ verlangen für etwas mehr Performance als eine 2080Ti?

Ich glaube, dass die Definition von Performance das Problem ist.

Für dich ist Performance scheinbar die "Rohleistung" - das, was ich als klassisches Rasterizing bezeichne. Also die Szenarien, in denen kein RT, DLSS und Co. genutzt wird. Also alle (älteren) Games, die solch eine Technik nicht einsetzen (können).

Mit Turing hat NV aber das Raytracing-Zeitalter eingeläutet und dank neuer Konsolen sowie AMDs aufspringen auf den Zug dürfte der Fokus auch in diese Richtung gehen. Deshalb gehe ich davon aus, dass es auf diesem Gebiet auch massive Fortschritte geben wird - in einigen Szenarien vielleicht sogar um den Faktor 2, 3 oder gar 4. Dieses Themengebiet ist aber natürlich auch "Performance". Nur scheinbar nicht die, die du meinst bzw. die für dich relevant ist.

Wenn NVIDIA 1500 Euro oder mehr aufrufen sollte, dann werden die Fortschritte in RT und Co. dort natürlich auch eine gewichtige Rolle spielen. Das wird NVIDIA ganz klar herausstellen. Dieser Fortschritt muss (und wird höchstwahrscheinlich) nicht dem Fortschritt entsprechen, den du fühlst.

Diese Diskrepanz lässt mich glauben, dass NVIDIA (notgedrungen) die Brechstange ausgepackt hat, um auch bei der "Rohleistung" ordentlich mehr als bei Turing bieten zu können.
 
Wenn Ampere rein als Gaming Karte entwickelt wurde wird sie eben nur das gut können.

Vega war hingengen eine gute Allrounder, Was da Intel bringen will wird ein Weiterentwicklung davon sein. Auf den "Dreikampf" kann man gespannt sein.

Ampere - Big Navi - Intel (ich sag mal Vega+)
 
Zurück
Oben Unten