nVidia Geforce RTX 3050/3060/3070/3080/3090 (Ti) (Ampere/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

@enigmation
Was mich bei dem unteren Link gerade stutzig macht, Navi 21?
Bisher hatte der größte CHip der Serie immer eine 0 am Ende und bei Polaris waren Polaris 11 / 21 handelte es sich um den nächst kleineren Chip.
Wie hoch ist also die Chance das noch ein größerer Chip kommen wird? Das 384 bit Speicherinterface passt ja auch nicht zu den spekulierten 16 GB Grafikspeicher. *kopfkratz
 
Bin irgendwie davon überzeugt, das NV mehr zu BN weiß als wir und deshalb von Anfang an Kampfpreise aufruft. Da heute meine Austauschkarte avisiert wurde und mir die 5700 XT immer noch locker reicht, kann ich ganz entspannt abwarten was der Black Friday (2021!) bringt. :D
 
@cruger
Sehe ich das richtig das bei dem Kurztest die 3080 mit den mehr als doppelt so vielen Shadern und 40% mehr Strombedarf ohne RT gerade einmal 70-85% schneller als die 2080 war?
Angesichts dessen das die 3090 auf dem Papier nicht sooo viel schneller ist und die 2080Ti ca. 30% schneller als die normale 2080 war könnte der Leistungszuwachs bei der großen für Ernüchterung sorgen.
 
Sehe ich das richtig das bei dem Kurztest die 3080 mit den mehr als doppelt so vielen Shadern und 40% mehr Strombedarf ohne RT gerade einmal 70-85% schneller als die 2080 war?
Gerade mal? Also ich fand das jetzt ziemlich beeindruckend, dass sie 70-85% schneller war.
 
@Thunderbird 1400
Ja mit ca. 3x so vielen Shadern und der ca. 3 fachen Rechenleistung hält sich meine Begeisterung bei dem Ergebnis doch sehr in Grenzen.
Doppelposting wurde automatisch zusammengeführt:

@enigmation
Dann bin ich mal gespannt wie die geschichte noch weiter geht.
 
Man kann es aber auch so sehen: Wenn sie tatsächlich 70-85% schneller ist, als eine RTX2080 (selbst ohne Raytracing wohlgemerkt), dann dürfte sie so schätzungsweise 50% schneller sein, als eine 2080Ti. Eine Grafikkarte, die im Moment noch über 1.000€ (aufwärts) kostet. 50% mehr Performance für mindestens 30% weniger Geld hört sich jetzt für mich ziemlich gut an. Das hätte auch ziemlich anders kommen können. Vor allem hätte ich vermutet, dass sie ohne Raytracing deutlich weniger Abstand zu Turing hat.

Einzig der Stromverbrauch könnte ein ziemlicher Abturner sein. Aber warten wir mal die ganzen Tests ab, wieviel sie wirklich schluckt.
 
Na da lehne ich mich dann doch entspannt zurück. Gestern war ich wirklich noch total heiß auf die 3080, ist aber in den letzten 24h merklich abgekühlt (zum Glück)
 
@Thunderbird 1400
Wenn ich mich nicht verrechnet habe dann hat die 3090 aber nur gute 20% mehr Shader als die 3080 und die Frage ist was am Ende davon ankommt. Damit könnte die 3090 vielleicht 60-80% schneller als die 2080Ti sein und der Speedup könnte deutlich geringer ausfallen als erwartet.
Irgendwie habe ich den Eindruck als würde beim Rendern nur einer der Doppelshader ankommen würde, kommt der zweite vielleicht nur bei RT wirklich zum Einsatz?
 
da wo es drauf ankommt, wird die 3090 knapp doppelt soviele frames schaffen wie die 2080ti; ich gehe von 60-90% aus.. die ampere-generation passt super zu UHD-120Hz-HDMI-2.1-gsync-OLEDs..

jetzt schickt mir doch endlich so ein ding!!

btw,
verglichen mit titan V und titan RTX ist das ding ein schnapper! allerdings lt. meiner glaskugel für weniger lange zeit als turing und volta. schon ein wechsel von samsungs 8nm auf TSMCs 7nm könnte ein 3090Ti modell auf der bildfläche erscheinen lassen, die nochmal etwas mehr takt aus dem 350W budget presst.


(..)

mfg
tobi
 
Wenn schon von früher geredet wird. Ja früher war auch ein Kühler, den man heute nicht mehr als Chipsatzlüfter nehmen würde, vergleichsweise teuer.

Früher wat auch eine im Vergleich zu heute nackte Plantine komplex und teuer. Technik entwickelt sich weiter.

Und nicht vergessen, heute werden externe Karten millionenfach verkauft. Wie hoch waren die Verkaufszahlen bei der Geforce 2 (alle Modelle inkl. MX)?

Nur zur Erinnerung. 3dfx hatte hohe Schulden und wurde geschluckt. Über solche Schulden würde sich heute kein Hersteller große Gedanken machen
 
Naja - letztenendes kommt es doch auf die Leistung im Verhältnis zum Verbrauch und den Kosten an. Und dazu sind die Reviews - und RDNA 2 - noch abzuwarten.
Imho kann man erst dann sagen, ob die grünen Karten der Lederjacke zu teuer / zu ineffizient / zu langsam sind - oder eben nicht...
Ich halte es da wie Igor: Mit einem Kübel Popcorn zurücklehnen, die Show genießen und am Schluß das beste Angebot nehmen! ;)
 
gut ist das so oder so nicht. aber den trend weg vom fachjournalismus hin zu influencern sehen wir nicht nur bei nvidia. genauso geblacklistete reviewer. zuletzt hatte steve burke von gamersnexus bei der vorstellung der ampere-karten durchblicken lassen, dass er zwar nicht direkt von nvidia, afaik aber bei einem der board-parnter (war wohl zotac?) auf einer blacklist steht.

auch wenn ich der art von steve nicht viel abgewinnen kann, ist er aber anscheinend mittlerweile unabhängig genug, dass er sich im zweifel die testmuster selbst kaufen kann. kleine webseiten wie seinerzeit ht4u oder jetzt eben auch tweakpc fallen dann einfach mal hinten runter. :-/

aber es wird auf diese weise für verkaufsstart schon mal ordentlich stimmung gemacht, ohne dass es seriöse tests gibt. da laufen jetzt viele los und bestellen ampere-karten vor. gleichzeitig wird ebay mit "alten" turing-karten geflutet. herzlichen glückwünsch.

und dabei will ich noch gar nicht mal in zweifel ziehen, dass ampere tatsächlich so gut ist, wie es sich derzeit darstellt.
 
Vorbestellungen geht noch nicht, erst an den angekündigten Tagen wenn ich das richtig verstehe

Gamers Nexus und Hardware Unboxed wurden btw auch von AsRock auf blacklist gesetzt wegen "vernichtenden" Tests von Z490 Boards die nicht mal einen 10900K auf Standard ohne drosseln betreiben können.
 
Zuletzt bearbeitet:
Gamers Nexus und Hardware Unboxed wurden btw auch von AsRock auf blcklist gesetzt wegen "vernichtenden" Tests von Z490 Boards die nicht mal einen 10900K auf Standard ohne drosseln betreiben können.

Auch eine Möglichkeit, Kritik an den eigenen Produkten zu unterbinden. Aber leider lässt sich das Phänomen überall in unserer Gesellschaft erleben - unliebsames wird einfach ausgeklammert, auch wenns wahr sein mag.
 
Ich denke auch, dass das Video von DigitalFoundry mit sehr viel Skepsis betrachtet werden sollte.
Es sind ausschliesslich 4k Auflösungen ohne FPS-Angabe und etwas unklarer Konfiguration vorgestellt worden.

Man sollte bedenken, dass z.B. eine RTX2080 bei Control ohne DLSS mit allen RT-Effekten in 4k zwischen 15 und 35 FPS pendelt. Das wären dann gerade so akzeptable Frameraten mit einer RTX3080 in 4k auch ohne DLSS. Bei kleineren Modellen würde hierbei 4k wohl nur mit DLSS akzeptabel werden.

Dass man für Ampere nur von einer doppelten RT-Leistung ausgeht ist vielleicht noch nicht ganz der notwendige Durchbruch. Besseres DLSS blieb unbeantwortet.
Es kommt sehr darauf an wie schnell die Software für die Ampere-Architektur optimiert wird und welche Auflösung und Effekte man mit dem Upgrade nutzen möchte. Ich würde annehmen bei >700Euro tendenziell 4k ohne Kompromisse.

Natürlich ist die Preislage von dem Turing Niveau ausgehend eine viel bessere, dort war RT aber kaum relevant, d.h. ich würde eher auf die PL im Vergleich zu Pascal und Vega/RDNA schauen um Ampere einzuschätzen. Sicherlich wird die Beurteilung nach den Reviews in Full-HD und 1440p bzw. nach dem RDNA2-Start nochmal eine korrigierte sein.
Zumindest sollen die künftigem Konsolen-Titel inklusive Raytracing bei 4k gut spielbare Frameraten schaffen. Von daher müsste ein entsprechendes RDNA2 Angebot für entsprechende Multiplattformer und Portierungen absolut ausreichend sein. Auch wenn der Leistungsvergleich von RDNA2 zu Ampere im Einzelnen zurück liegen mag, der Preis oder die Energieaufnahme könnten dann eher entscheidend werden, wenn 4k 60Hz und Raytracing grundsätzlich stabil geht.
 
Lol geil, sucht mal bei eBay Kleinanzeigen nach RTX2080Ti. Da entbrennt jetzt schon ordentlich der Preiskampf zwischen denen, die die Karte jetzt nur noch bei 300-400€ sehen wegen der RTX3070 (diverse Gesuche nach 2080Ti Karten in dem Preisbereich mit Hinweis, dass alles darüber jetzt unverschämt wäre) und denen, die meinen, ihre Karten jetzt kurz vor dem Preisrutsch noch für 700-900€ jemandem andrehen zu können. Vorhin war sogar ein "Angebot" von einem drin, der mit seinem Angebotsbild dazu aufrufen wollte, dass niemand seine Karte unter 550€ abgeben solle, weil die RTX3070 nur in Raytracing besser sei ;D

Witzig, was nVidia da jetzt auf einmal ausgelöst hat. Wie ich sagte: Bald kann man eine 2080Ti gebraucht zum Schnäppchenpreis bekommen (natürlich erst, wenn die neuen Karten wirklich verfügbar sind). Natürlich sorgt das dann auch bei allen anderen Karten für einen Preisrutsch. Meine bis vor kurzem noch ganz odentliche und immer noch recht hoch gehandelte 1080Ti ist dann vermutlich keine 200€ mehr wert *buck*
 
Zuletzt bearbeitet:
nehme ich.. wenn etwas für 8k/60 angeteasert wird, sollte es für 4k/120 eigentlich reichen..

Du wirst wohl davon ausgehen dürfen, dass das nur mit DLSS auf höchster Stufe zu schaffen sein wird, natives 8k wird sie wohl nicht packen. Und 8k DLSS dürfte wohl nativ bei WQHD bis UD raus kommen.
 
Jup, in 8K erreicht die 3090 in den Spielen Control und Wolfenstein Youngblood laut nVidia gerade mal 8 bzw. 26fps. 8K kann man vergessen, aber solch eine Auflösung ist eh unnütz. DLSS ist aber wirklich eine sehr interessante Entwicklung.

 
Früher hat man sowas "Schummeln bei der Bildqualität" genannt. Wie sich die Zeiten doch ändern.
 
Naja, weil es kein Schummeln ist. Es ist der einzig logische und vorhersehbare Weg, nicht immer weiter die Auflösungen zu erhöhen (was viel zu rechenintensiv ist), sondern auf immer intelligentere Weise die Kanten und Treppchen zu glätten. Die Auflösung von 4K reicht absolut aus, um ein kristallklares Bild mit extrem scharfen Kanten darzustellen.
Unser Gehirn macht schließlich nichts anderes und rechnet geschätzte Details auf Grund von Erfahrungen hinzu. Da es nur um minimalste Details geht, die für das Spielgeschehen nicht relevant sind, ist das absolut der richtige Weg aus meiner Sicht. Die zukünftigen Möglichleiten mit dieser Technologie sind riesig. Im Grunde reicht FHD mit intelligenter KI-Verbesserung aus, man kann hier Unmengen von Rechenleistung und Bandbreite einsparen. Die große Keule der extrem hohen Auflösungen kann man wieder einstecken.
 
Zurück
Oben Unten