nVidia Geforce RTX 3050/3060/3070/3080/3090 (Ti) (Ampere/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

Interessant ist in dem Artikel auf jeden Fall der Bereich "Overclocking und Reduzierung des Power-Limits"

Bei einer Reduzierung der Leistungsaufnahme um 18 % (Anm: also auf 280W) sehen wir um bis zu 8 % niedrigere Durchschnitts-FPS und um 10 % geringere 99th-Percentile. Wenn man nicht auf die maximale Leistung angewiesen ist, kann sich dieser Schritt also bereits lohnen. Bei einer um mehr als 25 % auf 250 W reduzierten Leistungsaufnahme erreichen wir noch immer eine nur um 10 bis 15 % Reduzierung der Durchschnitts-FPS, allerdings fallen die 99th-Percentile hier deutlicher ab.

Der Preis von 880€ für die Karte ist natürlich ein Witz. Ich sehe es wie Tobi, mehr als 700€ darf eine Karte mit 10GB einfach nicht kosten. Mehrleistung im Vergleich zur FE hat man praktisch keine, dafür 6,7% mehr Leistungsaufnahme unter Last und 60% im Idle :]. 180€ Aufpreis für 9% geringere Lautstärke und höheren Stromverbrauch. Was denken sich diese Hersteller? :]
 
Zuletzt bearbeitet:
Im Gamerbereich laufen halt viele Analphabeten oder ads/adhs rum.
Diese erreicht man nur mit Video.
Daher passt die zielgerichtete Kommunikation schon.
Da bin ich auch nicht die Zielgruppe für.
Den Munkel dafür, dass er sagt es gefällt ihm nicht, als garantler zu bezeichnen geht imho zu weit.
Und es ist nur dumm! Und Emoji machen es auch nicht besser, die 2. Krätze in unserer Gesellschaft.
Da verstehe ich bei 19 von 20 nicht was der Nutzer meint, die anderen nicht was ich damit sagen will.

Katastrophal wird es dann, wenn sich das auf die Arbeitswelt überträgt ... Mit Legastheniker zu arbeiten ist ja schon aufwändig ... da erstellt man zur Dokumentation wirklich am besten ein .mp4 oder .mp3.

@Thunderbird 1400

Interessant, wieso mein Nvidia und Partner sich da so stark ins Bein schiessen zu müssen, mit den FE soll es ja noch ausgeprägter sein nur 11% Leistungsverluste bei 1/3 weniger Verbrauch. Gut, die Fanboys interessiert es eh nicht.
 
Was denken sich diese Hersteller? :]

Da ihnen nVidia diesmal schon nicht viel Spielraum übrig lässt (auf Kante genähte FE), müssen sie es halt weiter übertreiben, um nicht langsamer als das Referenzdesign zu sein. War ja schon immer so, dass eine Custom schneller als die Referenz ist und die Kunden das gewohnt sind und auch erwarten.
 
als garantler zu bezeichnen geht imho zu weit.

Ich sehe das im Zusammenhang mit den restlichen Post hier im Thread - und dumm finde ich deine Klassifizierung von "Gamern" und "Videokonsumenten".
Ihr mögt das nicht? Vollkommen ok dann ignoriert es doch einfach.

Dazu die Erwähnung von Legastheniker......

Jedem seine Meinung, deine gefällt mir absolut nicht.
 
180€ Aufpreis für 9% geringere Lautstärke und höheren Stromverbrauch. Was denken sich diese Hersteller? :]
ist das der hersteller-preis? oder sind das derzeit die händler-preise, die damit ein wenig verdienen wollen?

auf Kante genähte FE
je mehr ich lese, desto mehr verleitet mich das zu

ampere = fermi 2.0

nur dass man nvidia dafür damals den arsch versohlt hat, heute wird nvidia dafür gefeiert. und klar, die 480 war natürlich nicht nur ein stromfresser, sondern auch laut wie eine flugzeugturbine.
 
Die Gaming X/Z Versionen von MSI waren schon immer teurer als viele andere Karten.
 
Die Gaming X/Z Versionen von MSI waren schon immer teurer als viele andere Karten.
ja, ich hab davon diverse gehabt. nur weiß ich trotzdem nicht, ob die derzeitigen einzelhandelspreise dem empfohlenen herstellerpreis entsprechen, oder ob der handel momentan aufgrund der eingeschränkten verfügbarkeit noch was abschöpft.
 
Zuletzt bearbeitet:
@eratte
Kann man sehen wie man will, das Beispiel mit dem Legastheniker passt soweit, dass es Zeit das die Inhalte an die Zielgruppe angepasst verkauft werden muss.

Wenn du das mit Gamer und Videokonsumenten als negativ verstehst zeigt mehr wie du denkst als ich.
Ich in meinem Bekanntenkreis lesen nicht mehr richtig. Einfach weil kein Zwang dazu besteht und nichts mehr aufgezwungen wird. Nehmen sie den einfachsten Weg der zu ihnen passt.
Daran ist nichts schlecht, sie funktionieren einfach anders. Wer daran etwas als negativ erkennt, soll es. Nicht mein Problem.

Da sich die Videoersteller mit 100% Sicherheit in irgendeiner Form schriftlich oder bildnerisch vorbereiten, könnten sie damit auch ihre Reichweite erhöhen.
Bei Igor sieht man das schön, wäre da nicht noch Textinhalt, hätte ich noch nie eines seiner Videos geschaut.
Dh, verschwendet HU seinen Aufwand, könnte es ja als Blog 1-2 Tage nach dem Video veröffentlichen, mit dem eingebetteten Video.
Das wird in vlog Tutorials nicht erklärt, da ja mit denen vlog gepuscht werden sollen.
 
Wenn ich sehe wie wenige melden das sie eine Karte bekommen haben dann reden sie sich das gerade schön.
da muss ich noch einmal auf fermi zurückkommen. hab mir gerade mal die indizierten werte bei cb angeschaut.

gtx 480 vs. gtx 285
68% mehr performance
35% mehr leistungsaufnahme (gesamtsystem)
tdp 204w vs 250w
die 250w waren vermutlich etwas sehr geschönt ;)

rtx 3080 vs rtx 2080 ti
31% mehr performance bei 4k ohne rtx und dlss
19% mehr leistungsaufnahme (grafikkarte)
tdp 250w vs. 320w

heute ist der vergleich mit rtx, dlss usw. natürlich deutlich komplexer als damals. und genauso natürlich hatte thermi noch ganz andere probleme abseits der leistungsaufnahme.

aber damals wurde nvidia doch ziemlich einhellig dafür abgestraft, dass sie die mehrleistung vor allem auf kosten einer höheren leistungsaufnahme und der damit verbundenen probleme erkauft hatten.

und heute bei ampere? geht man über das thema weitestgehend hinweg. ja, hohe leistungsaufnahme. könnte besser sein. aber wayne ... :]

tpu damals zur 480 (nur die negativ-punkte)
  • High power draw
  • Noisy cooler
  • High temperatures
  • Fairly high price
  • Paper launch
  • High temperatures and power draw makes SLI and triple SLI difficult
  • Limited availability
  • Only 480 shaders
  • DirectX 11 won't be relevant for quite a while
tpu heute zur 3080
  • Makes little sense for gamers without a 4K or 1440p high refresh-rate monitor
  • Runs in power limit all the time
  • Overclocking more complicated due to power limit
  • Awkward power connector placement
 
Wenn ich sehe wie wenige melden das sie eine Karte bekommen haben dann reden sie sich das gerade schön.
da muss ich noch einmal auf fermi zurückkommen. hab mir gerade mal die indizierten werte bei cb angeschaut.

gtx 480 vs. gtx 285
68% mehr performance
35% mehr leistungsaufnahme (gesamtsystem)
tdp 204w vs 250w
die 250w waren vermutlich etwas sehr geschönt ;)

rtx 3080 vs rtx 2080 ti
31% mehr performance bei 4k ohne rtx und dlss
19% mehr leistungsaufnahme (grafikkarte)
tdp 250w vs. 320w

.......



Um deinen Thermi-Vergleich aufzugreifen:

ATi hatte ja bereits im September ´09 die 5870 gelauncht, ich denke in die Berichterstattung hat zu dieser Zeit auch die Tatsache, dass Nvidia 6 Monate später ein schlechteres (50% mehr Leistungsaufnahme für 10% Mehrleistung) Produkt auf den Markt geworfen hat mit hineingespielt.

Im Moment kann ja noch keiner Sagen, ob das Produkt besser oder schlechter als das des Wettbewerbers ist, da dieses erst noch kommt.

Hätte AMD vor 6 Wochen ein Produkt gelauncht, sagen wir mal mit doppelter RX5700XT Leistung bei max 20% mehr Leistungsaufnahme (rein spekulativ), wäre Nvidia, meiner Auffassung nach, in der Berichterstattung bislang nicht so "gut" weggekommen.

Jetzt ist es natürlich schwieriger für AMD, egal wie gut das Produkt ist, das Produkt welches zuerst am Markt war, hat zunächst eine bessere Reputation.
 
Da sieht man leider mal wieder wie kritikunfähig ein nicht unwesentlicher Teil der Presse gegenüber Marktführern geworden ist.
 
@BlackOak
Punkte wie die hohe Leistungsaufnahme an sich oder die Verfügbarkeit sind für die Konkurrenzsituation aber ziemlich egal.
 
@BlackOak
Punkte wie die hohe Leistungsaufnahme an sich oder die Verfügbarkeit sind für die Konkurrenzsituation aber ziemlich egal.
Kann ich so nicht unterschreiben, ich kann nicht eine hohe Leistungsaufnahme kritisieren, ohne zu wissen was der Wettbewerb in diesen Regionen bieten wird. Wenn die Konkurrenz das auch nicht besser hinbekommt, dann muss der geneigte Reviewer davon ausgehen, dass es sich, wie man beim Automobilhersteller aus Niedersachen immer so schön sagt, um den "Stand der Technik" handelt.
 
@BlackOak
Punkte wie die hohe Leistungsaufnahme an sich oder die Verfügbarkeit sind für die Konkurrenzsituation aber ziemlich egal.
BlackOak hat natürlich nicht unrecht, aber das sehe ich auch so wie du. warum auch immer nvidia die notwendigkeit gesehen hat, ampere deutlich über den sweetspot hinaus zu prügeln, gezwungen hat sie vermutlich niemand. und dass es anders geht, haben ja diverse versuche bereits gezeigt. nur geringfügige leistungseinbußen bei deutlich geringerer leistungsaufnahme.

wenn es im vergleich mit big navi tatsächlich um die 5%, die nvidia sich mit der massiv erhöhten leistungsaufnahme erkauft hat, gehen sollte, dann muss nvidia doch großen respekt vor amd haben.

btw ... bisher waren sich viele in ihren prognosen einig, dass amd vielleicht die 3080 wird angreifen können, niemals aber die 3090. wenn die jetzt geleakten benches stimmen, dann wäre die 3090 gar nicht mal so weit weg.

und dann fragt man sich um so mehr ... preislich mag es eine große lücke zwischen 3080 und 3090 geben. leistungsmäßig anscheinend eher nicht. hätten sie direkt eine 3080 mit 20gb gebracht, dann wäre die 3090 zumindest für gamer vermutlich komplett uninteressant gewesen.

aber mal abwarten, vielleicht gibts bei der 3090 doch noch die ein oder andere überraschung.
 
Frei nach dem Kinderreim
Eins, zwei, drei, vier Eckstein, alles muss versteckt sein.
Hinter mir und vorder mir gilt es nicht, und an beiden Seiten nicht!
NVIDIA hat schon mehr als einmal passend zu einem AMD-Launch den passenden Konter aus dem Hut gezaubert.

So blöd kann AMD eigentlich nicht sein, dass sie darauf noch mal reinfallen. Deshalb wahrscheinlich auch die große Verschwiegenheit.

Anders herum kann aber auch NVIDIA nicht davon ausgehen, dass AMD so blöd ist und sich schon wieder auskontern lässt.

Entweder ist am Ende alles viel einfacher als gedacht. Oder aber wir erleben in den nächsten Wochen ein paar echte taktische Schachzüge. Einfach ein paar Mal um die Ecke denken. Was auch immer dabei heraus rauskommen mag, die Spannung steigt. ;)

Wenn aber die 3080 schon mal frühzeitig den Early Adoptern das Geld aus der Tasche ziehen sollte, dann ist das nach dem aktuellen Stand wohl krachend gescheitert.
Doppelposting wurde automatisch zusammengeführt:

Und aktuell bei Computerbase ein bisschen Beschwichtigung seitens NVIDIA

Nvidia GeForce RTX 3080 Q&A: Der „beste GPU-Verkaufsstart aller Zeiten“ war frustrierend
 
Zuletzt bearbeitet:
Frei nach dem Kinderreim
Eins, zwei, drei, vier Eckstein, alles muss versteckt sein.
Hinter mir und vorder mir gilt es nicht, und an beiden Seiten nicht!
NVIDIA hat schon mal als einmal passend zu einem AMD-Launch den passenden Konter aus dem Hut gezaubert.

So blöd kann AMD eigentlich nicht sein, dass sie darauf noch mal reinfallen. Deshalb wahrscheinlich auch die große Verschwiegenheit.

Anders herum kann aber auch NVIDIA nicht davon ausgehen, dass AMD so blöd ist und sich schon wieder auskontern lässt.

Entweder ist am Ende alles viel einfacher als gedacht. Oder aber wir erleben in den nächsten Wochen ein paar echte taktische Schachzüge. Einfach ein paar mal um die Ecke denken. Was auch immer dabei aus rauskommen mag, die Spannung steigt. ;)

Wenn aber die 3080 schon mal frühzeitig den Early Adoptern das Geld aus der Tasche ziehen sollte, dann ist das nach dem aktuellen Stand wohl krachend gescheitert.
Doppelposting wurde automatisch zusammengeführt:

Und aktuell bei Computerbase ein bisschen Beschwichtigung seitens NVIDIA

Nvidia GeForce RTX 3080 Q&A: Der „beste GPU-Verkaufsstart aller Zeiten“ war frustrierend

Das AMD Marketing ist, leider, immer noch sehr gut im Tiefstapeln, da ist NVIDIA immer noch Lichtjahre voraus.

Wie das Kuddelmuddel um die RTX 3080 Verfügbarkeit jetzt wirklich ins Gesamtbild passt, vermag ich aktuell noch nicht zu sagen, ich denke aber immer noch, dass es Nvidia vor allem wichtig war, zuerst in den Reviews und mit ein paar Kärtchen beim Kunden zu sein, egal ob Ausbeute und Güte der Chips dann für mehr taugen...
 
Zuletzt bearbeitet von einem Moderator:
@BlackOak
Sowohl dem Netzteil als auch der Gehäusekühlung und erst recht dem Stromzähler ist es herzlich egal wessen Logo auf der Karte prangt.
Nicht die Konkurrenz ist für die Eigenschaften des Produkts verantwortlich sondern der Hersteller selbst und sollte dann auch entsprechend kritisiert werden.
Auch läuft die "Wenn die Konkurrenz das auch nicht besser hinbekommt" Aussage ins leere weil die Produkte noch garnicht vorgestellt wurden und "Stand der Technik" ist nicht gleich bedeutend mit Steigerung um jeden Preis.

Auch besteht das Problem mit der Verfügbarkeit recht offensichtlich weil man sich nicht die Zeit für einen ausreichenden Bestandsaufbau genommen hatte und der Paperlaunch steht wohl außer Frage da der Verkauf erst einen Tag später startete. Auch hierfür ist der Hersteller selbst verantwortlich.
 
Zuletzt bearbeitet:
AMD muss wie zunächst gegen Intel über den Preis gehen, selbst bei konkurrenzfähigem Produkt. 3070er Leistung bei 300€ und Lederjacke platzt die Hutschnur wenn er seine Marge abfließen sieht.. Die CPU Sparte sollte momentan stark genug sein, um das eine Weile aufzufangen, bis AMD wieder mehr Marktanteile hat.
 
@hoschi_tux
Das halte ich wiederum für einen Fehler der schon viel zu oft begangen wurde.
Sinnvoller wäre es sich an nvidias Preis zu orientieren und etwas mehr Ausstattung zu geben denn wer nur über den Preis geht ruiniert die eigenen Margen, muss deshalb vielleich an anderen Punkten sparen (z.B. Kühlsystem) und stempelt sich selbst zum Billigheimer ab.
Wenn ich das richtig sehe dann bietet nvidia die GTX3080 angesichts der teuren Komponenten zu billig an weshalb ich diese als primäres Ziel sehe. Angesichts dessen das bei der 3070 deutlich günstigere Komponenten verbaut sein dürften erscheint mir der bisher durchgesickerte Preisnachlass (ab ca. 500€) zu gering, weshalb ein entsprechendes Konkurrenzmodell für 400€ mit 8 GB und 500€ mit 16 GB wohl auch ziemlich weh tuen könnte.
Doppelposting wurde automatisch zusammengeführt:

@eratte
Das sind doch mal Tips die den Besitzer eines entsprechenden Modells aufhorchen lassen.
 
Zuletzt bearbeitet:
Gibt es im DACH-Raum irgendjemanden, der überhaupt eine FE bekommen hat? Mal abgesehen von irgendwelchen Youtube-Knechten?
 
@BlackOak
Sowohl dem Netzteil als auch der Gehäusekühlung und erst recht dem Stromzähler ist es herzlich egal wessen Logo auf der Karte prangt.
Ja...und?!?!

Nicht die Konkurrenz ist für die Eigenschaften des Produkts verantwortlich sondern der Hersteller selbst und sollte dann auch entsprechend kritisiert werden.
Anhand welches Maßstabs? Des Nasenfaktors? Wie will ich etwas ohne Vergleich bemessen? Die 3080 ist, gut oder schlecht, die schnellste Prosumer/Gaming-Grafikkarte die du derzeit (nicht) kaufen kannst. OB AMD diese Leistung mit besserer Effizienz hinbekommt? Hoffentlich, aber wir wissen es nicht, die Tester ebenso wenig, was sollen die also bemängeln? : "Braucht wahrscheinlich mehr Energie als nicht erschienenes Konkurrenzprodukt...." Geiles Review
Auch läuft die "Wenn die Konkurrenz das auch nicht besser hinbekommt" Aussage ins leere weil die Produkte noch garnicht vorgestellt wurden und "Stand der Technik" ist nicht gleich bedeutend mit Steigerung um jeden Preis.
Kann es sein, dass lesen nicht deine Stärke ist? Oder willst du einfach bashen um jeden Preis?
Wie aus meinem Post hervorgeht, weiß noch keiner was über die Leistung des Wettbewerbers, es geht rein um ein fiktives Szenario, in dem der Konkurrent ähnlich weit gehen muss um vergleichbare Resultate zu erzielen, ob er das muss oder auch nicht, wissen wir leider erst in ein paar Wochen, sollte es allerdings bei AMD vergleichbar oder schlechter aussehen mit der Effizienz, ist es halt "Stand der Technik"
Auch besteht das Problem mit der Verfügbarkeit recht offensichtlich weil man sich nicht die Zeit für einen ausreichenden Bestandsaufbau genommen hatte und der Paperlaunch steht wohl außer Frage da der Verkauf erst einen Tag später startete. Auch hierfür ist der Hersteller selbst verantwortlich.
Wilde Spekulation, vielleicht ist die Knappheit des Produkts ja gewollt (Iphone Effekt)...kann sein, kann nicht sein, du weißt es nicht, ich weiß es nicht.
Doppelposting wurde automatisch zusammengeführt:

Gibt es im DACH-Raum irgendjemanden, der überhaupt eine FE bekommen hat? Mal abgesehen von irgendwelchen Youtube-Knechten?
Wenn ich mich im Luxx umsehe.....nein, wenn überhaupt nur Partnerkarten...
 
Bleib doch mal locker. Sompe wollte damit sicher nur aussagen, dass nVidia auch, völlig unabhängig davon, was AMD vielleicht heraus bringt oder nicht, Karten mit niedrigerer Leistungsaufnahme und geringfügig niedrigerer Performance als "Stand der Technik" hätte herausbringen können.
Es kann zwar durchaus sein, dass niemand die aktuell gebotene Performance mit einer geringeren Leistungsaufnahme hinbekommt, und das somit "Stand der Technik" ist, allerdings zwingt auch niemanden den Hersteller, solch eine Performance auf den Markt zu werfen, wenn die Nachteile derart groß sind. Insofern habt ihr beide Recht.

Am Ende entscheidet der Verbraucher, was er will. Man kann ja auch eine 3070 nehmen, wenn einem die größeren Karten zu uneffizient sind. Wenn dann noch eine Variante mit 16GB kommt, sollten alle bedient sein.
Also ich bin inzwischen wieder etwas skeptischer ggü der 3080, nachdem ich die Videos & Artikel zu den Leistungsspitzen und Abschaltungsproblemen gesehen habe. Also schön ist es keinesfalls, da solch einen Stromfresser/ Wärmeschleuder drin zu haben. Ich warte jetzt erstmal ab. Falls AMD nichts mit besserer Effizienz bieten sollte, werde ich mir vielleicht doch einfach eine 2080Ti schießen, gibt's ja jetzt zu Schnäppchenpreisen.
 
Zuletzt bearbeitet:
Zurück
Oben Unten