nVidia Geforce RTX 3050/3060/3070/3080/3090 (Ti) (Ampere/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1


ui, igor meint ab 750w netzteil kann man besser schlafen. :o
viel strom aber auch viel performance
ich finde vieles wirklich beeindruckend, einige sachen aber auch weniger. und ein punkt ist genau die leistungsaufnahme und effizienz. da hab ich deutlich größere fortschritte erwartet.

warum nvidia so weit über den sweetspot hinaus ist und quasi die brechstange ansetzt, muss man nicht verstehen. dass das allein irgendeiner angst vor big navi geschuldet sein mag, finde ich dann doch etwas weit hergeholt.

aber die meisten reviews sind mir da wieder mal zu oberflächlich, weil sie die leistungsaufnahme in spielen nur pauschal messen und die karten einfach laufen lassen. wie sieht es mit rtx on/off messungen oder dlss aus? bei so einer potenten karte kann man sich gerne auch mal anschauen, wie es mit nem fps-limiter ausschaut.

immerhin hat cb mal mit einem geringeren power-target gearbeitet. funktioniert auch, die effizienz geht dabei sogar nach oben.
 
Also mich überzeugt die FE nicht so sehr als das ich da doch wieder im grünen Lager zu schlagen würde - und bei mir ist das Potential groß bei 5700XT und GTX 1080 in den Spielrechnern. Speicher ist mir eigentlich auch zu wenig für einen Neukauf und von 8 GB kommend auch wenn das bei mir aktuell dicke reichen würde.

Aber ein 4k TfT steht ja auch auf der Wunschliste ggf im nächsten Jahr.
 
Dann kann man sich ja den Besuch von Hardware Seiten für den Rest der Woche sparen.
 
In 1440p 71% mehr Performance als meine 1080Ti, in UHD sogar 85%. Bei 1080p immerhin noch 40%. Ist definitiv eine Hausnummer und passt auch zu den Leaks.

Was die Leistungsaufnahme betrifft:
Ja, in der Tat hat sich da das Verhältnis von Leistungsaufnahme und Performance nicht so sehr verbessert, wie man es bei einer neuen Generation erwarten würde. Allerdings: Die meiste Zeit dürfte sich so eine Karte ja langweilen in Spielen und deswegen im Schnitt nicht annähernd am Leistungsmaximum sein (sinnvollerweise prügelt man die Settings ja nicht so hoch, dass die Karte ständig am Limit ist und man starke Einbrüche hat). Solch eine hohe Rohleistung braucht man ja im Endeffekt nur für die Spitzen, also Stellen im Spiel, wo die Framerate oder Frametimes ansonsten stark einbrechen würden.

Was ich damit sagen will: Es ist gut, die hohe Rohleistung in Reserve zu haben, für die Momente, wo man sie braucht, aber die meiste Zeit dürfte man sich deutlich unter dem Maximum bewegen und da ist Ampere dann vielleicht auch nochmal eine Ecke effizienter als Turing. Echte durchschnittliche Leistungsaufnahme-Messungen in Spielen werden also interessant. Nur die maximale Leistungsaufnahme alleine sagt ja nicht soviel aus.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet:
Falls jemand etwas zu Undervolting finden würde wäre das interessant.

Bei einem GPU-basierten Wärmeabgabe um die 300W und mehr kann der eine oder andere "Arbeitsplatz" schon zu klein ausfallen. Fenster auf Kipp im Winter ist auch nicht jedermanns Sache.
 
Bin kein Fan von nVidia, ich gebe es zu. Aber mir gefällt sehr der Stromverbrauch bei Multimonitornutzung und die Leistung in Anwendungen hat auch einen Schritt gemacht. Ganz klar außerhalb meines Preis- und Verbrauchsbereich, finde die Karte aber trotzdem nett.
 
Falls jemand etwas zu Undervolting finden würde wäre das interessant.

Computerbase hat zumindest die Leistungsaufnahme auf 270W begrenzt...https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#diagramm-the-division-2-effizienzvergleich-in-3840-2160
Ganz interessant, die letzten 5% wurden anscheinend mit 50W Mehrverbrauch erkauft....
 
Also mich überzeugt die FE nicht so sehr als das ich da doch wieder im grünen Lager zu schlagen würde - und bei mir ist das Potential groß bei 5700XT und GTX 1080 in den Spielrechnern. Speicher ist mir eigentlich auch zu wenig für einen Neukauf und von 8 GB kommend auch wenn das bei mir aktuell dicke reichen würde.

Aber ein 4k TfT steht ja auch auf der Wunschliste ggf im nächsten Jahr.
Rein von der Performance-Seite kann man schon durchaus von Ampere angetan sein. Bin ich zugegeben auch.

Aber leider hat das einen oder mehrere Haken. Leistungsaufnahme wurde schon angesprochen. Und rein aus dem Bauch heraus muss ich sagen, dass sich 10GB VRAM im Jahre 2020 bei einer Grafikkarte dieser Preisklasse einfach nicht richtig anfühlen.

Anderer Punkt ist der vermeintlich günstige Preis. Das wird angesichts der Netzteil-Anforderungen wohl auch ein wenig Makulatur, wenn viele plötzlich an der Stelle auch noch upgraden müssen. 750W? Und für hochgezüchtete Custom-Karten vielleicht noch mehr.

Denn das ist der größte TDP-Sprung in der xx80-Schiene seit langem.

780: 250W
980 : 165W
1080 : 180w
2080 : 215w
3080 : 320w

Ist schon ein enormer Sprung, gefällt mir nicht. Aber da stimme ich Thunderbird 1400 zu. Auch ich würde mir viel differenzierte Messungen der Leistungsaufnahme wünschen. Man muss die Karte nicht automatisch immer ins Powerlimit prügeln.

Wie gesagt, der Preis relativiert sich, wenn die Founders Edition vermutlich schnell weg sein wird, die Custom-Karten deutlich mehr kosten und dann noch ein neues Netzteil ansteht.

Da warte ich doch lieber auf Big Navi. Aber nicht nur auf Big Navi. Sondern auch auf NVIDIAs 2080 mit dann 20GB VRAM, die gilt ja quasi als gesichert. Aber die wird dann wohl Richtung 1000 Euro gehen. Dann hat man eine zeitgemäß ausgestattete Karte. Aber der vermeintlich günstige Einsteigerpreis von 699 Euro ist auch dann wieder nur ein Papiertiger.

Insofern löst der 3080-Launch bei mir nun nicht direkt den "Haben-Müssen"-Impuls aus. Ich kann und werde abwarten, wie sich die Karten mit Big Navi oder einer 3080 Super/Ti sortieren. Denn wenn ich soviel Geld ausgebe, dann nicht für nur 10GB VRAM.
 
Man kann auch bedenken das die 3080 auf dem GA102 basiert wie auch die 3090 nur etwas abgespeckt. Also technisch eher die Nachfolgerin der 2080 Ti.

Alle Karten die du aufgelistet hast basieren auf den 104 Ausführungen wie GP104 oder TU104 - alles kleinere Chips mit 256bit Speicherinterface.
Dann relativiert sich das mit der Performance etwas, überraschend ist nur der Preis für den das nVidia auf ein mal anbietet.
 
Für die Einordnung von NVIDIA kann ich ja nichts. ;) Ab der 980 hast du auch recht. Die 780 hatte aber noch ein 384 bit Interface.

Ist bei den Reviews übrigens wieder interessant. Bei Turing haben viele Tests noch sehr genau darauf geachtet, die 2080 auch wirklich nur mit der 1080 zu vergleichen. Weil sie eben in Sachen Performance, Effizienz und Speicherausbau gegenüber der günstig abverkauften 1080 Ti wenig attraktiv aussah.

Nun hingegen wird natürlich vor allem herausgestellt, wie hervorragend sich die 3080 gegen eine 2080 Ti schlägt. Na denn. ;) (und ja, das kann man von technischer Seite schon vertreten).
 
Die 680 würde ja auch in die Liste gehören ;) Egal wir wollen keine Erbsen zählen.
 
*rofl**rofl**rofl**rofl**rofl*

für sowas liebe ich den igor ja *chatt*


jetzt mal die blöde frage ... wie gesichert ist denn eine 3080 ti?

sogar tpu hat die schon in ihrer datenbank gelistet. vielleicht auch einfach nur auf verdacht? und dann noch in 2020?

 
Da hatten wir doch schon auf der Seite davor.

Die Frage ist aber auch wie soll sich eine 3080 Ti einordnen zwischen 3080 und 3090?
Preislich kein Problem aber Performanceluft ist da nicht viel, bliebe noch mehr Speicher.
 
Preislich kein Problem aber Performanceluft ist da nicht viel, bliebe noch mehr Speicher.
das sehe ich auch so. nvidia hat den GA102 schon ziemlich ausgelutscht. also das, was man amd früher immer vorgeworfen hat, alles bis an die kotzgrenze und vielleicht darüber hinaus. sieht man ja auch an der scheinbar schlechten übertaktbarkeit. also in sachen performance dürfte da nicht mehr viel luft sein.
 
was mir wieder mal sauer aufstößt, sind die fast einhellig positiven fazit. und wie teilweise reviews, die pro-community und marketing fast hand in hand gehen.

die leistungsaufnahme wirkt in der heutigen zeit wie ein anachronismus. und fast alle reviews gehen drüber mehr oder weniger hinweg ... ja, die leistungsaufnahme ist gestiegen, aber dafür bekommt ihr ja mehr power. da hat man auch schon mal kritischer draufgeschaut. :]

allgemein wird mittlerweile der eindruck vermittelt, man könne im prinzip nichts mehr unterhalb einer 3070 kaufen. darunter gehörst du im prinzip nicht dazu (natürlich nicht hier bei p3d ;)).

nvidia hat es sehr erfolgreich geschafft, den leuten den eindruck zu vermitteln, dass die karten tatsächlich günstiger seien. applaus, applaus, applaus - klar, wenn man turing als maßstab nimmt, mag das stimmen. blendet aber die entwicklung der letzten jahre vor turing komplett aus. ich finde 500 euro für eine 3070, die das alte flagschiff in etwa ersetzen wird, verdammt teuer. günstig ist das nur, wenn ich mich wieder ausschließlich an den mondpreisen von turing orientiere.

die fe-modelle waren noch nie das maß aller dinge in sachen kühlung. und der neue kühler hat die karte ja scheinbar weitestgehend im griff. aber einer der wenigen, der das thema mal umrissen hat, war anscheinend igor. für eine 3080 mit so einer hohen board-power wäre eine größere platine und wahrscheinlich der kühler der 3090 die bessere wahl gewesen.

nebengeräusche scheinen auch kein echter anlass für kritik zu sein.
 
Ja, sicher gute Karten, aber wenn man die Mehrleistung anschaut, dann ist die in den meisten Szenarien etwa gleich oder ein bisschen höher wie der Mehrverbrauch, so wie ich das überschaue. Habe da mal mit der 2080 FE TI verglichen. Also technischer Fortschritt nur bedingt. Das hätte neben all dem meistens berechtigten Lob ein bisschen mehr Kritik verdient. Bei AMD scheint es ja etwa in die gleiche Richtung zu gehen in Sachen Mehrleistung/Mehrverbrauch, aber mal schauen in ein paar Wochen.

@gruenmuckel Warum? Meinst du die kennen kein anderes Thema mehr?

PS.: die Reviews kann man ja lesen wo man will, den Forenthreads bei größeren Seiten sollte man ggf besser fernbleiben weil da schon die "Grabenkriege" in Gange sind.
Doppelposting wurde automatisch zusammengeführt:

Nvidia GeForce RTX 3000: Amperes NVENC beschleunigt 8K-AV1-Videos auf YouTube (Computerbase)

Ich habe mir mal ein paar Seiten angetan vom Thread in CB, wo es um das Bild der neuen AMD-Karte geht. So bis zu geschätzt 80% der Postings dort kann man in die Tonne treten. Unglaublich, was da Leute schon wissen wollen, obwohl man gar nichts weiss - zu langsam, zu laut, wird zu heiss, säuft zu viel Strom, viel zu spät dran, bis dann hat NVIDIA den ganzen Markt schon abgegrast, die Treiber sind eh Scheisse, und AMD im Gesamten sowieso. Den Thread beim Test der neuen NVIDIA habe ich mir dann gar nicht mehr angetan, habe besseres zu tun mit meiner Zeit.

Da möchte man doch mal sagen, wenn ihr schon nur wegen einem Bild einer Grafikkarte am hyperventilieren seit, atmet doch zuerst einmal in eine Tüte und kommt mal runter, am bester aber vorher noch den Schaum vor dem Mund wegwischen. Dann mal 1, 2 Stunden warten, und überlegen, was man schreibt. Aber wenn dann immer noch nichts besseres in den Sinn kommt, besser gar nichts schreiben. Als ob das ganze Lebensglück davon abhängt, von welchem Hersteller die Grafikkarte (oder wahweise CPU) ist, die man in seinem PC hat. Baut das ganze Selbstwertgefühl darauf auf?

So nebenbei: Werden die Leute eigentlich immer dümmer und agressiver wegen dem Internet (nicht nur bei Computerthemen), oder war das vorher schon so und es fällt nun auf, dass es so ist, weil es das Internet gibt? Reden die Leute auch im wahren Leben so, wie sie in den Foren schreiben? Wäre mal eine Studie wert ;)
 
Werden die Leute eigentlich immer dümmer und agressiver wegen dem Internet

Auch wenn offtopic, ich glaube ja und die "Social Media" tragen nicht unerheblich zu Radikalisierung bei. Im Grunde können wir im Planeten froh sein das wir recht klein sind und es meist sehr "gesittet" zu geht.
Doppelposting wurde automatisch zusammengeführt:

allgemein wird mittlerweile der eindruck vermittelt, man könne im prinzip nichts mehr unterhalb einer 3070 kaufen. darunter gehörst du im prinzip nicht dazu

Ja es wird schon von User "frohlockt" das AMD nun die GPU Sparte zu machen kann und die ganzen Entwickler arbeitslos werden. RDNA2 wird eh ein Ausfall.
Als ob man mit z.B. einer 5700XT für ca 350 Euro nix mehr spielen kann.

Manche sitzen da so sehr in ihren Enthusiastenblase das ist nicht mehr feierlich, wer seine GPU nicht unter Wasser setzt ist eh ein Looser.

Tear-Down: NVIDIA RTX 3080 Founders Edition Disassembly - A Lot Fewer Screws (Gamer Nexus)

Doppelposting wurde automatisch zusammengeführt:

Review: Nvidia GeForce RTX 3080 Founders Edition (Ampere) (Hexus.Net)
Nvidia RTX 3080 Founders Edition Review (KitGuru)
Nvidia RTX 3080: PCIe 4.0 vs 3.0 scaling analysis (KitGuru)
NVIDIA GeForce RTX 3080 FE Review (Overclockers Club)
 
Zuletzt bearbeitet:
@cruger:
Das mit den Preisen kann man aber auch anders sehen: Man bekommt für 500€ eine Grafikkarte mit ausgezeichneter Leistung, mit der man alle modernen Spiele auch in den nächsten Jahren ohne Probleme mit hohen Settings wird spielen können (vielleicht nicht in UHD, aber das ist auch völlig i. O.). Das ist jetzt nicht so schlecht, auch nicht im Vergleich zu den Preisen in der Veegangenheit. Und die Masse der Gamer kauft ohnehin keine Graka für 500€ und wird auch unterhalb dieser Preisklasse gut bedient und kann die Spiele mit ansehnlicher Grafik spielen, auch in der 250-300€ Klasse. Von daher sehe ich da jetzt nicht die große Diskrepanz zu Preisen in der Vergangenheit. Klar, es gibt noch eine 3090 für 1500€, aber das ist halt unsinniger Enthusiastenkrams, den man getrost ausblenden kann.
 
Wenn man bedenkt, was die Karten zum Teil an Netzteilanforderungen haben, kauft man unter Umständen nicht nur eine Grafikkarte. Ein stärkeres Netzteil und eine Überarbeitung der Gehäusebelüftung kann in einigen Fällen durchaus dazu kommen.
 
Ich finde bei einer 500 Euro Karte aktuell 8 GB VRAM nicht mehr zeitgemäß - gerade im Hinblick auf die Aussage: mit der man alle modernen Spiele auch in den nächsten Jahren ohne Probleme mit hohen Settings wird spielen können.
 
Solange man nicht in UHD spielen will, werden die 8GB doch sicherlich ausreichen. Aber ja, mehr Ram wäre definitiv nice.
Allerdings auch hier der Vergleich zur Vergangenheit: Wie lange hat denn damals vor 10-20 Jahren eine vergleichbar teure Grafikkarte gehalten bzw. wie zukunftssicher war sie? Nochmal mein Beispiel mit der GeForce 3, die ich 2001 zum Release für über 1000 DM gekauft habe. Das entspricht heute mit Inflation 679€, also ziemlich genau der 3080. Die GF3 hatte 64MB Speicher. Die GF4 Ti hatte bereits 128 MB, die GF FX ab der 5900XT 256 MB. Bei der GF6800 Ultra ging's erstmalig mit 512MB los. Bei der GF7 waren bei den höheren Modellen 512MB Standard. Also innerhalb von 4 Jahren eine Vervierfachung der Speichermenge. Würde mal behaupten, dass damals eine 1000 DM Karte weniger langlebig/ zukunftssicher war mit ihrer Speicherbestückung, als heute eine 500€ Grafikkarte mit 8GB.
 
Zurück
Oben Unten