nVidia Geforce RTX 3050/3060/3070/3080/3090 (Ti) (Ampere/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

Irgendwie erinnert mich das alles an meine damaligen Probleme mit der Radeon Pro Duo und dem Seasonic Platinum Series 860W (SS-860XP2) welches auch vorzeitig ausstieg und sich das Problem mit hochgesetzter Verbrauchsgrenze besserte.
 
Hi cruger
laut den infos ziehen die 10Gb DDR6x schon 60Watt hm alleine das wäre dann schon 60Watt mehr mit 20GB dazu auch noch die Abwärme dazu das wird nicht Lustig wenn sie den wirklich genau auf der hinteren Seite "pappen", aber das lässt sich erst genauer sagen wenn die 3090 mal getestet wird....
lg
 
Ist wahrscheilich auch einer der Gründe warum AMD angefangen hat den System RAM für die Graka nutzbar zu machen. Was ich auch feststelle ist das mit dem AMDGPU Pro Treiber ich den RAM nicht so hoch takten kann als mit dem freien weil der das nicht nutzt.

Das mit dem hohen Verbrauch sind die Nvidia Nutzer nicht mehr gewohnt, aber das mit den Spannungsspitzen ist nicht mehr so das Problem. Die Vega war in der Hinsicht schon ein bischen grob zu den Netzteilen.
 
Die 3090 scheint ja eine richtige Nullnummer zu werden: 4 - 10% Mehrleistung in Spielen gegenüber der 3080. mehr als 500 Watt wenn man sie übertaktet ...

 
Zuletzt bearbeitet:
Hier sei vielleicht gesagt, dass es Szenarien gibt, wo allein aufgrund des Speicher-Ausbaus massive Leistungszuwüchse der 3090 ggü der 3080 zu erwarten sind. In dem Vid scheint der VRAM ja "nur" mit ~9GB ausgelastet zu werden.
Es verfestigt sich aber wirklich der Eindruck, dass bereits die 3080 nur an der viel zitierten Kotzgrenze so positioniert werden kann, dass gegenüber der Vorgängergenartion eine verkaufbare Mehrleistung entsteht.

Wer weiß, vielleicht hat AMD wirklich mal wieder die Chance hier die richtige Nische zu besetzen
 
Tja, und da sind wir wieder beim Thema Preis. Denn ich bin nicht Krösus. D.h. solche Anschaffungen wollen gut durchdacht sein. Und je teurer, desto abwägender wird man.

So ein "staggered", also ein zeitversetzter und scheibchenweise Produktlaunch, ist nichts Neues. Gibt meistens auch gute Gründe. Hier hab ich aber den Eindruck, dass NVIDIA die besser ausgestatteten Modelle aus rein taktischen Gründen zurückhält. Das relativiert dann imho auch den Preis der 3080 mit ihrer wenig zeitgemäßen VRAM-Bestückung. Custom-Karten einer 2080 Super werden dann wohl in die Richtung 1000 Euro gehen und vielleicht noch höhere Netzteil-Anforderungen haben. Also weiter abwarten.

Thema Netzteil nervt mich momentan auch. 750W? 850W? Wieder eine Mehrausgabe.

Und Ampere kann grundsätzlich etwas. Da kommt meine persönliche Befürchtung, dass ein Ampere-Refresh plötzlich einen ähnlichen massiven Effizienz-Schub erfährt wie damals von Maxwell zu Pascal. Dann hat man evtl. in einem Jahr plötzlich die Leistung einer 3080 bei einer TDP von vielleicht 250W. Wertverlust von Ampere, Netzteil-Neukauf war vielleicht überflüssig.
 
zur netzteil-geschichte gibts auch was im aktuellen pcgh-podcast ab ca minute 44:50


es geht da teilweise etwas durcheinander, aber so wie ich das verstanden habe, waren alle systeme, bei denen das netzteil ausgestiegen ist, übertaktet.
 
es geht da teilweise etwas durcheinander, aber so wie ich das verstanden habe, waren alle systeme, bei denen das netzteil ausgestiegen ist, übertaktet.

Ja und die Rede ist auch von 10 Jahre alten NTs, scheinbar scheint aber hier generell das Thema MultiRail nicht von Vorteil zu sein...
 
Hi cruger
laut den infos ziehen die 10Gb DDR6x schon 60Watt hm alleine das wäre dann schon 60Watt mehr mit 20GB dazu auch noch die Abwärme dazu das wird nicht Lustig wenn sie den wirklich genau auf der hinteren Seite "pappen", aber das lässt sich erst genauer sagen wenn die 3090 mal getestet wird....
lg

Das stimmt afair so nicht ganz, weil ja nicht die doppelte Zahl an Speicherchips draufkommen wird, sondern die Chips die doppelte Kapazität bekommen (sollen). Und ich glaube nicht, dass so ein Chip dann auch das doppelte verbraucht...
 
Zuletzt bearbeitet:
Irgendwie ist das mal wieder ein Launch, der einen ratlos zurücklässt, aber als Nicht-Early-Adopter, der schon nicht verstehen konnte, wie man sich tagelang für ein neues iPhone anstellt, kann man sich ja immer bequem zurücklehnen. Zusätzlich gehöre ich bei Preisen von 700 Euro für eine Grafikkarte eh nicht zur Zielgruppe.

Mit unprecedented haben wir auf jeden Fall eine englische Vokabel gelernt. Es gab halt auch lange nichts wirklich neues bei den Grafikkarten, die aufrüstwillige Basis war also gegeben.

Angeblich hatte Nvidia ähnliche Mengen am Start, wie bei der RTX 2000, aber dafür auch einen Monat weniger vorproduziert. Da wir nicht wissen, wie viele Wafer man bei Samsung geordert hat, sagt das aber eigentlich nichts aus. Von Defect Densitys bei den Chips wissen wir auch nichts.

Was mir allerdings als Käufer massiv zu Denken geben würde sind die Testberichte mit den Lastspitzen, die sogar 850-Watt-Platinum-Netzteile zur Schutzabschaltung bringen.

Nvidia scheint hier definitiv etwas über den Sweet-Spot hinausgegangen zu sein. Ob da AMD wirklich der Grund ist, bleibt bislang spekulativ. *noahnung*
 
Über dem Sweetspot läuft die Karte definitiv. Aber bisher hab ich mit der 3080 und einem Threadripper keine Probleme mit meinem 660W Netzteil. Ist aber auch ein Markennetzteil und kein LC-Power Chinaböller.
 
Irgendwie ist das mal wieder ein Launch, der einen ratlos zurücklässt, aber als Nicht-Early-Adopter, der schon nicht verstehen konnte, wie man sich tagelang für ein neues iPhone anstellt, kann man sich ja immer bequem zurücklehnen. Zusätzlich gehöre ich bei Preisen von 700 Euro für eine Grafikkarte eh nicht zur Zielgruppe.

Mit unprecedented haben wir auf jeden Fall eine englische Vokabel gelernt. Es gab halt auch lange nichts wirklich neues bei den Grafikkarten, die aufrüstwillige Basis war also gegeben.

Angeblich hatte Nvidia ähnliche Mengen am Start, wie bei der RTX 2000, aber dafür auch einen Monat weniger vorproduziert. Da wir nicht wissen, wie viele Wafer man bei Samsung geordert hat, sagt das aber eigentlich nichts aus. Von Defect Densitys bei den Chips wissen wir auch nichts.

Was mir allerdings als Käufer massiv zu Denken geben würde sind die Testberichte mit den Lastspitzen, die sogar 850-Watt-Platinum-Netzteile zur Schutzabschaltung bringen.

Nvidia scheint hier definitiv etwas über den Sweet-Spot hinausgegangen zu sein. Ob da AMD wirklich der Grund ist, bleibt bislang spekulativ. *noahnung*
nun sind sich anscheinend alle einig, dass die wahl von samsung wohl viel mit produktionskapazitäten und preis zu tun gehabt soll. sprich nvidia kann theoretisch direkt mit vergleichsweise hohen stückzahlen und zu "fairen" preisen in den handel. sie haben die herstellung der großen turing-karten auch frühzeitig eingestellt.

und nun? doch nur paperlaunch? riskiert nvidia das weihnachtsgeschäft? wenn zotac in verbindung mit der amazon-geschichte sagt, man müsse sich auf wochenlange (ein monat?) wartezeiten einstellen, waren dann wirklich ausreichende stückzahlen verfügbar?

da es ein offenes geheimnis ist, dass nvidia bestimmte modelle als antwort auf amd zurückhält, kann man sich ja mal eine verschörungstheorie basteln.

vielleicht will nvidia gar nicht allzu viele der aktuellen 3080er verkaufen. vielleicht dienen die karten auch nur der pressevorführung. hey, super leistung. super preis. alle jubeln und sind begeistert. wir bringen ein paar unters volk und schüren nachfrage und hype.

tatsächlich plant nvidia aber mit den "großen" karten mit doppelten vram. das ist die eigentliche neue generation. kann man dann auch wieder teils deutlich höhere preise verlangen, so lange amd nicht einen ordentlichen strich durch die rechnung macht. und die karten mit wenig vram lässt man möglichst schnell wieder auslaufen. deren nachfrage dürfte in der preisklasse ohnehin stark nachlassen, sobald 16 bzw. 20gb versionen der 3070 und 3080 auftauchen, oder aber big navi. und nvidia kann sich sogar kurzfristig hinstellen und sagen "hey, ihr wolltet mehr vram, wir bieten euch mehr vram".

ist die frage, ob sich die board-partner sowas gefallen lassen würden. vermutlich eher nicht. und auf kundenseite wäre mit einem großen shitstorm zu rechnen.
 
ist die frage, ob sich die board-partner sowas gefallen lassen würden.

Das ist auch so ein Punkt, der mich irgendwie "beschäftigt".

NVIDIA sägt imho verstärkt an dem Ast, auf dem sie sitzen. Erst der Move, die FE über den eigenen Shop zu vertreiben, dann der Versuch, das GeForce-Partner-Programm durchzudrücken und jetzt immer weniger Möglichkeiten der Boardpartner, sich von der FE abzusetzen (Lautstärke, Leistungsaufnahme, Performance). Und obendrein die sich verdichtenden Gerüchte, dass innerhalb kürzester Zeit ein Refresh gelauncht werden könnte - da wäre ich als Boardpartner irgendwann auch angep***t.

Ich meine, es ist für mich nachvollziehbar, warum NVIDIA die Karten über den eigenen Shop verkaufen will. Eine Karte, die über den eigenen Shop verkauft wird, dürfte mehr Gewinn abwerfen. Aber damit vergraule ich natürlich Stück für Stück meine Partner. Und wenn dann tatsächlich in wenigen Wochen/Monaten Karten mit mehr Speicher kommen würden, wo NV doch eigentlich immer den Standpunkt vertritt, dass die aktuelle Ausstattung ausreichend ist, so würde ich mir auch irgendwann als Käufer verar***t vorkommen.

An diesem Punkt darf man vielleicht auch nochmal erwähnen, was einer der Sargnägel für 3dfx war: Nämlich der gestoppte Verkauf von Chips an (Board)Partner und der ausschließliche Verkauf eigener Grafikkarten. Zwar kann man die Situation damals und heute nicht ganz vergleichen, die Entwicklung könnte das Verhältnis von NVIDIA und den Boardpartnern aber nachhaltig beeinflussen. Spätestens dann, wenn AMD und/oder Intel in Sachen Leistung konkurrenzfähige Produkte liefern können, würde sich zeigen, was die Boardpartner von NVIDIAs Praktiken halten.


EDIT:

Ich musste gerade ziemlich schmunzeln, als ich diesen Post gelesen habe.

Dort geht es um einen Teaser von Raff, bei dem ein Szenario kreiert wurde (u.a. Benchmarks in 8K), wo eine 2080 Ti aufgrund von zu wenig VRAM kein Ergebnis liefern konnte. Vermutlich wurde das Szenario "erdacht", um einen VRAM-Vorteil der 3090 aufzuzeigen.

Frage:
Dural schrieb:
Wie so macht man Benchmarks in Einstellung die komplett fern jeglicher Realität sind?

Antwort:
Lawmachine79 schrieb:
Um Grenzen zu zeigen und Vorhersagen zu treffen?!?

An der Stelle ist es wieder OK, über zu geringen VRAM zu berichten, weil man dadurch einen Grund mehr hat, warum die 3090 gegenüber der 2080 Ti der neue heiße Sch**ß ist. Man will ja nur Grenzen zeigen und Vorhersagen treffen. Aber wehe, man kritisiert die VRAM-Ausstattung der "kleineren" Karten generell, dann sind das natürlich nur konstruierte Worst-Case-Szenarien, die ja keinerlei Relevanz haben... Oh wait... :]

Ich mach mir die Welt, wie sie mir gefällt... *buck*
 
Zuletzt bearbeitet:
Angeblich soll Ampere doch so eine tolle neue Technik haben, wo direkt von einer schnellen NVMe in den Videoram geladen wird und man deswegen garnicht mehr unbedingt so viel Videoram braucht wie in der Vergangenheit. Ist das nur Marketing-Blabla oder ist da was dran?

Und wenn die 2080Ti diese Technik nicht unterstützt, dann wäre der o. g. 8K-Test mit der 2080Ti ja ohnehin ohne Aussagekraft. Dann müsste man schon mit einer 3080 gegen die 3090 testen.
 
naja, ampere zeigt, dass das thema cpu-limit plötzlich viel schneller auf die tagesordnung kommt, als man das vor einiger zeit noch gedacht.

720p-tests? überflüssig, weil unrealistisch. jetzt kommt ampere und zeigt, dass die 720p-tests evtl. doch eine ganz gute prognose für zen und zen+ war. 2 bis 3 jahre später kommt ampere und sowas wie der 3900X(T) rennt bereits bei einigen 1080p-titeln ins cpu-limit. klar, 3080 bei 1080p ist wie mit kanonen auf spatzen zu schießen, aber lass uns mal die nächste grafikkarten-generation abwarten.

NVIDIA sägt imho verstärkt an dem Ast, auf dem sie sitzen. Erst der Move, die FE über den eigenen Shop zu vertreiben, dann der Versuch, das GeForce-Partner-Programm durchzudrücken und jetzt immer weniger Möglichkeiten der Boardpartner, sich von der FE abzusetzen (Lautstärke, Leistungsaufnahme, Performance). Und obendrein die sich verdichtenden Gerüchte, dass innerhalb kürzester Zeit ein Refresh gelauncht werden könnte - da wäre ich als Boardpartner irgendwann auch angep***t.

Ich meine, es ist für mich nachvollziehbar, warum NVIDIA die Karten über den eigenen Shop verkaufen will. Eine Karte, die über den eigenen Shop verkauft wird, dürfte mehr Gewinn abwerfen. Aber damit vergraule ich natürlich Stück für Stück meine Partner. Und wenn dann tatsächlich in wenigen Wochen/Monaten Karten mit mehr Speicher kommen würden, wo NV doch eigentlich immer den Standpunkt vertritt, dass die aktuelle Ausstattung ausreichend ist, so würde ich mir auch irgendwann als Käufer verar***t vorkommen.

An diesem Punkt darf man vielleicht auch nochmal erwähnen, was einer der Sargnägel für 3dfx war: Nämlich der gestoppte Verkauf von Chips an (Board)Partner und der ausschließliche Verkauf eigener Grafikkarten. Zwar kann man die Situation damals und heute nicht ganz vergleichen, die Entwicklung könnte das Verhältnis von NVIDIA und den Boardpartnern aber nachhaltig beeinflussen. Spätestens dann, wenn AMD und/oder Intel in Sachen Leistung konkurrenzfähige Produkte liefern können, würde sich zeigen, was die Boardpartner von NVIDIAs Praktiken halten.
sorry, ich schreib das jetzt einfach mal ohne gedankliche sortierung runter.

ich weiß es auch nicht.

auf der einen seite haben sich die board-partner mangelns konkurrenz schon viel gefallen lassen. da sieht man halt die abhängigkeiten.

aber wenn nvidia wollte, dann würden sie vermutlich schon längst a'la apple die karten exklusiv im eigenen direktvertrieb anbieten. warum rücksicht nehmen auf die board-partner, wenn ich selbst so eine starke marke und ein enormes markenbewusstsein bei den kunden habe? da steht nvidia als marke doch schon lange über den marken der boardpartner.

aber hardware verkaufen? will man sich damit echt den ganzen kram mit service, support usw. ans bein binden? ne, nicht wirklich. das kann apple vielleicht in seinem kleinen kosmos machen. aber in der pc-branche mit so unendlich vielen potentiellen fehlerquellen in einem rechner? nvidia hat halt nicht die kontrolle über ein komplettes system, sondern die grafikkarte ist immer nur ein bauteil von vielen in einem pc.

sollen dann doch lieber die board-partner den ganzen unerwünschten rattenschwanz abwickeln. und am ende erreicht man mit dem partner-marketing - ist ja eine form des co-branding, vielleicht sogar ingredient-branding - eine höhere reichweite und marktdurchdringung als alleine. intel hats in besseren zeiten vorgemacht.

deshalb bin ich der meinung, dass nvidia sich nicht mehr hardware ans bein binden wird als unbedingt nötig. vielleicht mal sowas wie die shield-produkte, wo sie dann mehr kontrolle über das ganze haben. aber bei grafikkarten? ne, dann lieber mit partnern arbeiten, oder wie arm ip's lizenzieren.
 
Was mich gewundert hat, ist das der Abstand von der Leistungsaufnahme von 3070 und 3080 so groß ist. Hab mir die PCB Analyse einer Zotac 3080 angeschaut, 9 Messpunkte auf der Platine für den Stromfluss.

Für mich sieht es ganz so aus das die Fertigung nicht so gut klappt, und man deswegen die 3080 mit 10 GB als Notlösung anbieten muss.
 
Angeblich soll Ampere doch so eine tolle neue Technik haben, wo direkt von einer schnellen NVMe in den Videoram geladen wird und man deswegen garnicht mehr unbedingt so viel Videoram braucht wie in der Vergangenheit. Ist das nur Marketing-Blabla oder ist da was dran?

Und wenn die 2080Ti diese Technik nicht unterstützt, dann wäre der o. g. 8K-Test mit der 2080Ti ja ohnehin ohne Aussagekraft. Dann müsste man schon mit einer 3080 gegen die 3090 testen.
dafür braucht es afaik erstmal den support seitens des betriebssystems. und microsoft wird directstorage irgendwann 2021 implentieren.

Und wenn die 2080Ti diese Technik nicht unterstütz
RTX-IO wird von allen rtx-karten unterstützt, also auch von turing.
 
dafür braucht es afaik erstmal den support seitens des betriebssystems. und microsoft wird directstorage irgendwann 2021 implentieren.
Ok, gut zu wissen. Das hieße dann aber, dass dann irgendwann 2021, wenn diese Technik implementiert wird, ohnehin die Karten neu gemischt werden in Sachen Speicherbedarf. Am Ende braucht man dann vielleicht wirklich nicht mehr als die 10GB, selbst für 4K.
 
Ok, gut zu wissen. Das hieße dann aber, dass dann irgendwann 2021, wenn diese Technik implementiert wird, ohnehin die Karten neu gemischt werden in Sachen Speicherbedarf. Am Ende braucht man dann vielleicht wirklich nicht mehr als die 10GB, selbst für 4K.
keine ahnung. wird sich wohl erstmals mit der ps5 zeigen.

aber eins kann man sich jetzt schon ausrechnen. pcie4-ssds erreichen aktuell sequentuelle transferraten von ~5gb/s. die gddr6x-karten wie die 3080 oder 3090 wuppen mit ihrem vram ein vielfaches von dem, was so eine pci4-ssd liefern könnte. und die ssd's müssen sich ja auch noch um andere dinge kümmern. ;) also auf ausreichend vram wirst du vermutlich nicht verzichten können.
 
sorry, ich schreib das jetzt einfach mal ohne gedankliche sortierung runter.

ich weiß es auch nicht.

auf der einen seite haben sich die board-partner mangelns konkurrenz schon viel gefallen lassen. da sieht man halt die abhängigkeiten.

aber wenn nvidia wollte, dann würden sie vermutlich schon längst a'la apple die karten exklusiv im eigenen direktvertrieb anbieten. warum rücksicht nehmen auf die board-partner, wenn ich selbst so eine starke marke und ein enormes markenbewusstsein bei den kunden habe? da steht nvidia als marke doch schon lange über den marken der boardpartner.

aber hardware verkaufen? will man sich damit echt den ganzen kram mit service, support usw. ans bein binden? ne, nicht wirklich. das kann apple vielleicht in seinem kleinen kosmos machen. aber in der pc-branche mit so unendlich vielen potentiellen fehlerquellen in einem rechner? nvidia hat halt nicht die kontrolle über ein komplettes system, sondern die grafikkarte ist immer nur ein bauteil von vielen in einem pc.

sollen dann doch lieber die board-partner den ganzen unerwünschten rattenschwanz abwickeln. und am ende erreicht man mit dem partner-marketing - ist ja eine form des co-branding, vielleicht sogar ingredient-branding - eine höhere reichweite und marktdurchdringung als alleine. intel hats in besseren zeiten vorgemacht.

deshalb bin ich der meinung, dass nvidia sich nicht mehr hardware ans bein binden wird als unbedingt nötig. vielleicht mal sowas wie die shield-produkte, wo sie dann mehr kontrolle über das ganze haben. aber bei grafikkarten? ne, dann lieber mit partnern arbeiten, oder wie arm ip's lizenzieren.

Mmh, gute Argumente.

Wäre interessant zu wissen, was passiert, wenn die Boardpartner im selben Marktsegment eine Alternative hätten. Nunja, noch ist es ein Wunschdenken...
 
Können die nicht einfach mal nen Text anbieten den man in 5-10 Minuten lesen kann? Dieses Videogelaber nervt wie Whatsapp-Sprachnachrichten einer overly attracted Freundin und es frisst Zeit. Man kann auch nicht daraus zitieren.
Wer hat denn bitte die Zeit sich die ganzen 30-60 min. Videos reinzuschrauben?
 
Niemand, aber wirklich niemand zwingt dich das du dir das anschaust - es gibt genug alternative Artikel in "Textform".

Forumsgrantler trifft es glaube ich ganz gut bei dir ;)
 
Zurück
Oben Unten