nVidia Geforce RTX 3050/3060/3070/3080/3090 (Ti) (Ampere/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

Bei vielen fühle ich mich eher an Anhänger von Sekten oder radikalen Religionen erinnert - rational ist das nicht mehr. Lustig sind so Aussagen wie "ich MUSS updaten, mir bleibt keine andere Wahl".

Egal, das ist jedenfalls beste Unterhaltung bei Langweile ;) - und gruenmuckel dürfte da auch nicht ganz verkehrt liegen.

Die Frage wie viele Karten da eigenlich wirklich im Verkauf waren wird ja offen bleiben.
 
Mal ehrlich, wen wundert da noch irgendetwas?
Alles was bisher bei den Radeons kritisiert wurde spielt auf einmal keine Rolle mehr sobald es die Geforce betrifft und was die Geforce Karten nicht haben hat natürlich keinerlei Relevanz oder ist nichts wert.
Dummer weise habe ich bei solch schwachsinnigen Sachen ein ganz gutes Gedächnis....
 
Die Argumentation geht immer in beide Richtungen. Auch bei AMD gibt es viele Fanboys, die die Sache genauso einseitig betrachten und nur ihren Standpunkt als richtig ansehen und sich ihre favorisierte Hardware immer schönreden, wie es gerade passt, und für die es eher um eine ideologische Entscheidung geht, als um eine nüchterne Betrachtung der Specs.
Dann gibt es aber noch eine riesige Menge Normalos, die sich im Grunde nicht um Markennamen oder irgendeine Firmenpolitik schert, sondern einfach schnelle Hardware will. Lasst den Leuten doch ihren Spaß, wenn sie neue performante Hardware haben wollen. Wenn nVidia jetzt eben schneller dran ist mit ihrer neuen Generation und die Leute ihnen das aus den Händen reißen, weil sie nach neuer schneller Hardware lechtzen (weil Turing zu teuer war) und nicht länger warten wollen, dann ist das eben Pech für AMD.

Ist halt so, wer zuerst kommt, malt zuerst. Ist bei neuen Konsolen auch oft so gewesen, dass ein glücklich gewählter Startzeitpunkt die Entscheidung ausmachen kann. Deswegen braucht man nicht so zu tun, als wären die Leute alle dumm, schwach und prinzipienlos, nur weil man selbst vielleicht eine ganz andere (emotionalere) Denkweise zu diesem Thema hat.
 
Zuletzt bearbeitet:
@Thunderbird 1400
Durchaus richtig aber der Wendehals ist hier oftmals extrem.

Unterfilterung bei der Geforce - egal, hauptsache FPS; Unterfilterung bei der Radeon - no go weil unzumutbar
Tesselation durch DX11 wurde auch für überflüssig gehalten bis Fermi rauskam und deren Bedeutung auf einmal massiv anstieg.
Im zuge dessen war auch das erste mal der hohe Strombedarf egal obwohl zuvor bei den Radeons drauf rumgeritten wurde.
Bei Kepler nahm dann wieder der Strombedarf massiv an Bedeutung zu und Sachen wie Speicherausbau oder Compute Leistung waren auf einmal wieder egal. OK, es sei denn man kann für eine Titan richtig tief in die Tasche greifen.
Low(er) level APIs wie Mantle waren ja auch ach so überflüssig weil der Treiber der Geforce ja so viel besser mit der alten API klar kam nur worauf hätte dann der aktuelle Raytracing hype aufgebaut?
Seit Turing scheint auch der Strombedarf wieder massiv an Bedeutung verloren zu haben und ist mit Ampere offenbar irrelevant geworden obwohl zuvor immer herzerweichend was von Stromkosten und der Abwärme vorgebetet wurde, die Effizienz also nicht die tragende Rolle spielte und wenn dann natürlich nur die Effizienz bei Spielen.
Dazu noch kuriose Sachen wie die Rechtfertigung keine Radeon zu kaufen weil diese nicht das G-Sync für ihren teuer erstandenen Monitor unterstützen aber die langwierige Weigerung nvidias gegenüber dem freien adaptive-sync des DisplayPort Standards scheint wieder irrelevant zu sein.
Was wurde nicht auf die Probleme mit der ersten Navi Generation gemeckert aber Totalausfälle der Vergangenheit z.B. durch defekte Lötstellen, fehlerhafte Lüftersteuerungen in Treibern oder die Nummer mit den falschen Daten bei der GTX970 scheinen wiederum keine Rolle zu spielen.
Auf Geschichten die ausschließlich der Behinderung der Konkurrenz dienen gehe ich besser garnicht erst ein.
Das böse böse Rebrand das bei AMD eine Zeit lang etwas überhand genommen hatte und bei nvidia nahezu ignoriert wurde. Selbst die super modelle bei Turing könnte man mit dazu zählen weil die gleiche 3 Grundchips zum Einsatz kamen anders beschnitten wurden und die Vorgänger ersetzten.
Das so hoch gefeierte und ach so innovative Kühler Design der 3080 FE das seinerzeit bei einigen Custom Furys noch dafür kritisiert wurde weil es den CPU Bereich so aufheizen würde.
Richtig absurd wirde es aber wenn wegen der Preisexplosion gegen AMD gewettert wird, war nicht nvidia der große Preistreiber? Auch das scheint angesichts der Lobeshymnen für ihren Geschäftssinn (Gewinne) egal zu sein.

Die Liste wäre da noch ein gutes Stück länger aber ich will es jetzt nicht zu sehr ausufern lassen.

Keine Frage, die Ampere Modelle sind leistungsfähig, haben einige interessante Ansätze und der Preis der 3080er ist auch durchaus annehmbar aber der Strombedarf ist unterirdisch und die Effizienz angesichts des Prozesswechsels eher lausig und von den teils extrem geschönten Inhalten der Präsentationsfolien fange ich besser garnicht erst an.
 
hab mir mal den erstbesten 3080er timespy ausm 3dc gegriffen

3dmvergleichltkeb.png



freue mich weiter auf die 3090..


(..)

mfg
tobi
 
Die Argumentation geht immer in beide Richtungen.
Richtig, nur kann man gerade rund um einen Launch in bestimmten Foren kaum noch sachliche Diskussionen führen. Und da merkt man dann schon, dass da vielleicht einige wenige, dafür aber sehr intolerante Fanboys solche Diskussionen kapern und dominieren. Ich hab manchmal einfach nur das Bedürfnis - vielleicht auch aus dem Bauch oder einer Laune heraus - meine Meinung kund zu tun. Wenn man dann aber sofort angegangen wird, ist das unschön. Und ich bin normalerweise ein stets ruhiger, besonnener und sachlicher Typ. *buck*

Und bei einem Marktanteil von 80:20 kann man sich in etwa ausmalen, wo es einen dann härter trifft, wenn man mal unerwünschte Kritik äußert. ;)

Lasst den Leuten doch ihren Spaß
Auch das ist richtig. Aber da haben wir so massen"psychologische" Phänome. Wurde schon angesprochen. Einige laufen los und vermitteln den Eindruck des HABEN-MÜSSENS, unter einer 3070 bist du ein Loser und kannst nicht mehr mitreden usw. - und da laufen dann leider auch durchaus nicht wenige "Normalos" hinterher. Deshalb sag ich bei solchen Themen auch gerne meine Meinung - abwarten und Tee trinken.

Ist halt so, wer zuerst kommt, malt zuerst.
Naja, wir reden hier über etwa 4 Wochen Wartezeit bis zur Vorstellung von Big Navi.

Aber ich kann deine Haltung komplett nachvollziehen.

Ich hab mich über Jahre kaum noch für neue Hardware interessiert, war einfach langweilig. Das hat sich in erster Linie mit Ryzen geändert. Plötzlich war wieder Konkurrenz da und die Entwicklungssprünge wurden wieder deutlich größer. Ähnlich jetzt bei Ampere.

Da kam der alte Spieltrieb zurück. Und vor dem Launch konnte ich es auch nicht abwarten, sofort zur Veröffentlichung auf den Bestellbutton zu klicken. Aber wo der Bauch sagt "haben müssen, jetzt sofort", kommt halt der Kopf dazu. Und der sagt, dass es momentan ganz viele Argumente gegen einen voreiligen Kauf gibt.

Hardware? Reift beim Kunden. Erstmal abwarten, über was die Early Adopter jetzt so stolpern.
Kritik an Ampere muss ich nicht nochmal wiederholen, vor allem die Leistungsaufnahme und NVIDIA Veröffentlichungspolitik.

Der Ansturm der Early Adopter hat die Läden leergefegt. Das wird kurzfristig dafür sorgen, dass der Handel die Preise anzieht. Angebot und Nachfrage. Ähnlich sieht es anscheinend bei Netzteilen aus, insbesondere in den USA.

Da sagt der Kopf ganz einfach: hey, du bist mit einer 2080 noch eine Weile ganz gut aufgestellt und hast ganz rational überhaupt keinen Handlungsdruck. Sitz den Ansturm einfach aus und schau, was bis zum Ende des Jahres noch so alles passiert. Big Navi, weitere Ampere-Karten usw.
 
Durchaus richtig aber der Wendehals ist hier oftmals extrem.
[...]
Die Liste wäre da noch ein gutes Stück länger aber ich will es jetzt nicht zu sehr ausufern lassen.
Was erwartest du von Leuten, die geil auf ein neu gekauftes Stück Technik sind? Das gerade gekaufte oder favorisierte Stück Technik ist immer das Beste. Ist ja überall so. Egal ob's die Graka ist oder das Smartphone oder das Auto, oder, oder, oder... Das wird immer schön geredet.
Da rege ich mich nicht drüber auf, sollen die Leute doch kaufen, was sie wollen. Und wenn jemand plötzlich mehr Wert auf Performance legt statt auf Effizienz, obwohl es vor einem Jahr noch anders war... who cares? Meinungen ändern sich, Anforderungen ändern sich, Umstände ändern sich, Prioritäten ändern sich. Wenn ich heute noch die gleichen Prioritäten hätte wie vor 20 Jahren... hui :D

Keine Frage, die Ampere Modelle sind leistungsfähig, haben einige interessante Ansätze und der Preis der 3080er ist auch durchaus annehmbar aber der Strombedarf ist unterirdisch
Ist er das? Gibt's denn schon irgendwo vernünftige Messungen zu realen Durchschnittsverbräuchen in Spielen im Vergleich zur durchschnittlichen Performance? Würde mich sehr interessieren. TDP und maximale Leistungsaufnahme sagen nunmal einfach mal garnichts aus (ok, vielleicht nicht garnichts, aber auch nicht besonders viel).

Man konnte ja schon in dem einen oder anderen Test sehen das eine übertaktete 2080Ti der 3080 auf die Pelle rückt.
Ist halt 3DMark, sagt nicht viel aus. Ein 3700X limitiert eine 3080 vermutlich auch. Man sieht hier auch den krassen Unterschied beim CPU-Score. Davon abgesehen haben die Benchmarks von Tobi ohnehin keinerlei Aussagekraft für die Allgemeinheit, wenn er da eine bis zum Erbrechen übertaktete/ gemoddete Karte vergleicht ;D
Doppelposting wurde automatisch zusammengeführt:

Gerade mal etwas gesucht:
Laut dieses Videos vom Igor (www.youtube.com/watch?v=IicO6d4JHvg&t=5s) verbraucht die 3080 in Spielen wohl im Schnitt 320W, gemittelt über 10 Spiele.
Zur 2080Ti finde ich Angaben von 266W (https://www.guru3d.com/articles-pages/geforce-rtx-2080-ti-founders-review,9.html) bis 279W (https://www.tomshardware.com/reviews/nvidia-geforce-rtx-2080-ti-founders-edition,5805-10.html).

Wobei natürlich fraglich ist, wie vergleichbar die Werte sind (welche Spiele, welche Auflösungen usw). Aber wenn wir mal grob von 320W vs. 270W ausgehen, dann wären das 18,5% höherer Stromverbrauch. Wieviel höhere Performance hat die 3080 im Durchschnitt in Spielen? Kann man noch nicht wirklich sagen, oder? Man findet da Angaben von 30-50%. In manchen Spielen und niedrigen Auflösungen ist der Unterschied deutlich niedriger, aber da wird auch der Stromverbrauch sich mehr angleichen. Man bräuchte wirklich einen Test, der das mal unter gleichen Bedingungen vergleicht.
 
Zuletzt bearbeitet:
Meinungen ändern sich
valide argumente sollten valide argumente bleiben.

nvidia wurde immer als effizienz-weltmeister gefeiert. amd hat über jahre die karten immer bis an die kotzgrenze getrieben und wurde für den hohen stromverbrauch kritisiert. hat man dann exakt dein argument angeführt, nämlich dass der teillast- viel relevanter ist als der maximale verbrauch ist, wurde das gerne weggewischt. und amd hat den kunden viel früher als nvidia von haus aus passende tools an die hand gegeben, um z.b. mit undervolting die effizienz deutlich zu verbessern (ok, ist nicht jedermanns sache).

nun erlebt man bei ampere quasi das gegenteil.

ja, die leistung hat enorm zugelegt. die effizienz ist auch geringfügig besser geworden. aber der großteil des leistungszuwachses geht zu lasten der stromrechnung. rund 30% mehrleistung bei 20% mehrverbauch (3080 vs 2080 ti) haut mich nun nicht wirklich vom hocker. und wie schon gesagt ... es ist irgendwie nicht zeitgemäß.

vorbei sind die zeiten der echten effizienzsteigerung, wo man entsprechende mehrleistung bei gleichbleibender (oder gar geringerer) leistungsaufnahme bekommen hat.
https://www.computerbase.de/2018-09/geforce-480-580-680-780-980-1080-vergleich/3/

Die verbesserte Energieeffizienz ist beeindruckend

Eigentlich noch viel beeindruckender als die Leistungssprünge sind die Verbesserungen der Energieeffizienz – und das ist auch Nvidias eigentliche Stärke gegenüber AMD. Pascal ist in etwa drei Mal so energieeffizient wie Kepler. Damit benötigt die GeForce GTX 1080 quasi dieselbe Energie wie die GeForce GTX 680 – bei der dreifachen Performance. Dadurch muss Nvidia das Design nie auch nur im Ansatz voll ausreizen und hat bezüglich Leistungsaufnahme, Lautstärke und Kühlungseigenschaften große Vorteile gegenüber der Konkurrenz.
der sprung von 780er kepler zu 980er maxwell?
über den daumen rund 25% mehrleistung bei rund 20% weniger leistungsaufnahme.

der sprung von 980er maxwell zu 1080er pascal?
über den daumen rund 60% mehrleistung bei rund 5% weniger leistungsaufnahme.

das waren effizienz-sprünge. ampere? nicht wirklich.
 
Ist halt 3DMark, sagt nicht viel aus. Ein 3700X limitiert eine 3080 vermutlich auch. Man sieht hier auch den krassen Unterschied beim CPU-Score. Davon abgesehen haben die Benchmarks von Tobi ohnehin keinerlei Aussagekraft für die Allgemeinheit, wenn er da eine bis zum Erbrechen übertaktete/ gemoddete Karte vergleicht ;D
Doppelposting wurde automatisch zusammengeführt:

Gerade mal etwas gesucht:
Laut dieses Videos vom Igor (www.youtube.com/watch?v=IicO6d4JHvg&t=5s) verbraucht die 3080 in Spielen wohl im Schnitt 320W, gemittelt über 10 Spiele.
Zur 2080Ti finde ich Angaben von 266W (https://www.guru3d.com/articles-pages/geforce-rtx-2080-ti-founders-review,9.html) bis 279W (https://www.tomshardware.com/reviews/nvidia-geforce-rtx-2080-ti-founders-edition,5805-10.html).

Wobei natürlich fraglich ist, wie vergleichbar die Werte sind (welche Spiele, welche Auflösungen usw). Aber wenn wir mal grob von 320W vs. 270W ausgehen, dann wären das 18,5% höherer Stromverbrauch. Wieviel höhere Performance hat die 3080 im Durchschnitt in Spielen? Kann man noch nicht wirklich sagen, oder? Man findet da Angaben von 30-50%. In manchen Spielen und niedrigen Auflösungen ist der Unterschied deutlich niedriger, aber da wird auch der Stromverbrauch sich mehr angleichen. Man bräuchte wirklich einen Test, der das mal unter gleichen Bedingungen vergleicht.

2080Ti modelle gibt es mit verschiedenen powerlimits.. meine karte darf bis zu 380W verwenden. und das tut sie. die 3080 darf bis zu 320W verwenden.. und auch die tut das.. gut, man tut nicht tut gebrauchen, aber das mit dem powerlimit ist jetzt wirklich nicht neu.


(..)

mfg
tobi
 
@cruger:
Na dann kann man ja gespannt zusehen, ob AMD da eine bessere Effizienz auf die Reihe bekommt.

Klar ist hohe Effizienz und geringer Stromverbrauch geil, das bezweifelt wohl auch niemand ernsthaft. Die Frage ist einfach, welche Alternativen man hat. Performance und Preis sind für die Meisten sicherlich die allerwichtigsten Argumente, das war schon immer so.
Doppelposting wurde automatisch zusammengeführt:

Bei Geizhals sind jetzt diverse RTX3080 Custom Karten gelistet. Natürlich nix mit 700€, sondern eher 800€ aufwärts und alle hässlich wie die Nacht. Die üblichen Klickibunti-LED Plastikbomber :] Und dann vermutlich alle auch noch höherer Stromverbrauch als die FE mit dem ganzen OC-Gedöns (was eh Unsinn ist bei der Performance und dem Stromverbrauch). Also zusammenfassend der komplette Abturner. Nee, für mich wäre nur die FE interessant, aber die kann man sich vermutlich eh erstmal wochenlang abschminken.

 
Zuletzt bearbeitet:
Was erwartest du von Leuten, die geil auf ein neu gekauftes Stück Technik sind?
Kein heuchlerisches Gesabbel sondern ein *haben will* frei raus. ;)
Es steht ja jedem frei zu kaufen was er will aber dann bitte ohne sich und andere zu belügen.

Gerade erst neulich hatte ich mal wieder eine "dolle" Diskussion in den Kommentaren eines Artikels bei Computerbase gelesen wo mal wieder einer steif und fest behauptet hatte aie ach so neutral die Kaufentscheidungen doch wären. Der Server Zusammenbruch des einen oder anderen Shops der beim Verkaufsstart trotz des durchwachsenen Ergebnisses stattfand hatte mir eher das Gegenteil bewiesen.
Doppelposting wurde automatisch zusammengeführt:

Siehe auch der Effizienz Vergleich bei Computerbase:

Mit dem Limit auf 270W hat sie im Durchschitt gerade einmal 4% verloren. Wieviel hätte sie verloren wenn man es wie bei der 2080 Super bei 250W belassen hätte? Vielleicht gute 5-6%? Dann wäre es wohl zweifellos ein rundes Produkt gewesen.
Doppelposting wurde automatisch zusammengeführt:

Na dann kann man ja gespannt zusehen, ob AMD da eine bessere Effizienz auf die Reihe bekommt.
Ich sage mal wenn sie die Aussage mit den 50% mehr Leistung pro Watt halten können dann stehen die Chancen nicht schlecht.
Die Leistung der 3080 bei Standard Spielen sollte mit der 300W Klasse machbar sein denn die 2080Ti FE ist ca. 50% schneller als die 5700XT und bis zur 3080 FE fehlen nur noch weitere 30%. Die RT Leistung lasse ich mangels Anhaltspunkte außen vor.
Angesichts der Verbrauchsdifferenz von 210W zu 320W im Computerbase Test sehe ich da mehr als genug Spielraum.
 
Zuletzt bearbeitet:
Na dann kann man ja gespannt zusehen, ob AMD da eine bessere Effizienz auf die Reihe bekommt.

Klar ist hohe Effizienz und geringer Stromverbrauch geil, das bezweifelt wohl auch niemand ernsthaft. Die Frage ist einfach, welche Alternativen man hat.
ist mir egal, was amd macht. ich bin grundsätzlich der meinung, dass höhere performance nicht immer automatisch auch höheren verbrauch rechtfertigt. wo soll das noch hinführen? 500w? 700w? 1000w? alles egal?

und als alter pentium-4-veteran hab ich nun auch spätestens seit dem p4 alle effizienz-diskussionen und deren hin und her mitgemacht.

und da ist es meiner meinung nach dann einfach bedenklich, wo man mittlerweile angekommen ist. 320w für EINE grafikkarte? soviel, wie früher mal komplette pc's verbraucht haben? da werden viele cpu-diskussionen der letzten 20 jahre ad absurdum geführt.

vor einigen jahren hat man noch über die sli-nische geschmunzelt. wozu braucht man netzteile mit 700w oder 800w? heute braucht man sicherheitshalber 750w für ein system mit nur einer grafikkarte. ne sorry, da setzt einfach irgendwann mal ein prozess des nachdenkens ein, ob die pc-branche - bei consumern gehts ja eigentlich nur ums gaming - da auf dem richtigen weg ist.

die 2080 ti hatte ein power-limit von 250w. in dieses budget hätte auch ampere gepasst. und hätte wohl trotzdem noch deutlich mehr performance geliefert als turing.
 
Die Lücke zwischen 3070 und 3080 wird noch gefüllt werden wo man die ganzen Chipverwertung unterbringt.

Jeder hat da seine eigenen Kriterien was für eine Grafikkarte passt. Ich konnte es auch nicht lassen und hab mir eine 5700xt geholt.
Zielsetzung war diesmal keine Teildefekte GPU mit höher Güte. Muss unter Linux ohne Probleme laufen und configurierbar sein. Bei der 970 musste ich damals das Bios modden. Keine Ahnung ob Nvidia da jetzt was hat.

Kann mich nicht beklagen, im gedrosseltem Setup 130 Watt keine Berechnungsfehler. Rechenzeiten mal besser oder schlechter als eine Vega56.

Big Navi würde für mich zu groß wenn man einen guten Chip haben will.
 
Mit dem Limit auf 270W hat sie im Durchschitt gerade einmal 4% verloren. Wieviel hätte sie verloren wenn man es wie bei der 2080 Super bei 250W belassen hätte? Vielleicht gute 5-6%? Dann wäre es wohl zweifellos ein rundes Produkt gewesen.
Durch den hohen Verbrauch der Standard-Modelle gab es bei AMD-Boardpartnern früher immer mal wieder Karten, die entgegen dem Trend auf Effizienz getrimmt wurden.

Bei NVIDIA gibt es sowas nicht, zumindest ist mir nichts bekannt. Da wird immer nur oben drauf gesattelt. Standard-Boardpower 320w? Da geht noch mehr. Ich vermute mal, dass es auch bei Ampere keinen Hersteller geben wird, der sich diesem Trend entzieht und die Boardpower bereits werkseitig reduziert. Warum nicht die besagten 270w? Dann mal Werbung mit Effizienz machen.

Aber leider wollen es die Kunden anscheinend so, also immer größere Stromfresser. Die PC-Nische wird immer kleiner und teurer. Und die Grafikkarten-Hersteller hauen entsprechende Karten raus.
 
@Cleric
Ehrlich gesagt ist mir kein einziges Radeon Modell bekannt das unter den Referenz Takt gegangen wäre.

Vom Verbrauch her geht bei der 3080 definitiv noch mehr aber die Taktfrequenz hatte nvidia schon nahezu ausgereizt. Da besteht kaum OC Spielraum. Eher haben sie den Takt so ausgereizt wie einst AMD den Takt des Fiji Chips bei der FuryX.
 
@Cleric
Ehrlich gesagt ist mir kein einziges Radeon Modell bekannt das unter den Referenz Takt gegangen wäre.

Vom Verbrauch her geht bei der 3080 definitiv noch mehr aber die Taktfrequenz hatte nvidia schon nahezu ausgereizt. Da besteht kaum OC Spielraum. Eher haben sie den Takt so ausgereizt wie einst AMD den Takt des Fiji Chips bei der FuryX.
War dann vielleicht etwas missverständlich.

Du hattest Fiji angesprochen. Und da hatte ich die Nano im Gedächtnis. Klar, ITX-Nische. Aber eben imho ein Beispiel für Kotzgrenze vs. Sweetspot.

Ungefähr 5% weniger Leistung gegenüber der Fury, dafür ~ 25% weniger Leistungsaufnahme.

Btw, lustige Netzteilberatungen. Bei einer 3090 + 400 Euro Netzteil legt der Threadersteller viel Wert auf "Wirtschaftlichkeit" *party* Und er scheint von einer 2080 Ti zu kommen. *rofl*

 
Also: Ich hatte bei Amazon die Zotac Trinity bestellt, weil ich ein ganz cleveres Kerlchen bin, gleich zwei mal, da ich irgendwie schon davon ausgegangen bin, dass nicht unbedingt jede Bestellung auch geliefert wird.

Beide Bestellungen stehen seit zwei Tagen auf Lieferung Samstag.....beide jedoch bis heute morgen nicht versandt. Gerade bekam ich für die erste Bestellung die Nachricht, dass sie sich verzögert.... schätze mal die zweite geht heute Nachmittag auch auf "verzögert"....Mir ist das jetzt persönlich egal, da ich dann einen guten Grund für BigNavi habe.....

Was mich jetzt unglaublich freut, ist das diese ganzen Bratzen, die ihre von Amazon vorbestellten Trinitys in EKA für 900€ feilbieten jetzt Probleme bekommen*baeh**chatt*
 
@Cleric
Die normale Fury ist für den Vergleich etwas ungünstig weil diese geringer taktete und einen beschnittenen Chip hatte. Da macht sich der Nano vs. FuryX Vergleich deutlich besser denn mit gut 100W weniger fiel man lediglich ca. 10% zurück.
Ähnlich weit ans Limit scheint auch Ampere getaktet zu sein.
 
So, auch die zweite Bestellung wurde ausgesetzt.....alles storniert.... ist mir zu blöd...
 
Ich hatte auch bei Amazon die Zotac drin. Ist jetzt auch storniert, weil ich zufällig zur richtige Zeit bei Mindfactory auf der Seite herumgelungert hatte. Die Palit 3080 gamePro ist vorhin angekommen. Falls es Fragen zur Karte gibt.... immer her damit.
 
@sompe

Ok, Fury X ist vielleicht ein noch besseres Beispiel.

Mein leider komplett abwegiger Wunsch? Statt reihenweise OC-Karten einfach mal eine UC-Karte. Den Sweetspot von Ampere ausloten und dann eine massiv auf Effizienz getrimmte Version bringen. Wie würde wohl die Founders Edition performen - auch in Hinblick auf die Kühlung/Lautstärke - mit der Standard-TDP einer 2080 Ti von 250W und einer optimierten Spannungsabstimmung (also Undervolting). Oder wo auch immer der Sweetspot liegen mag.

Computerbase hat es mit dem 270W-Vergleich ja angedeutet. Leider haben sie die Auswirkungen auf die Kühlung dabei außen vor gelassen.

Nur ist das wohl komplett abwegig. Selektierte Chips ausschließlich für Effizienz-Optimierungen zu verschwenden, lohnt den Aufwand nicht. Zumal sich aktuell auch zeigt, dass die große Käuferschaft an sowas null Interesse hat.

Und es gibt anscheinend auch bei den Herstellern kein Interesse, und sei es nur mal als Versuchsballon.
 
Ich hab erst eltztens mein Prime 750 gegen ein Straight Power 550 ausgetauscht, also selbst wenn ich das Geld für eine 3080 hätte (hab ich sogar gerade), noch mal tausche ich das Netzteil nicht aus.
 
Zurück
Oben Unten