App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
nVidia Geforce RTX 3050/3060/3070/3080/3090 (Ti) (Ampere/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1
- Ersteller eratte
- Erstellt am
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.752
- Renomée
- 2.777
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Bei vielen fühle ich mich eher an Anhänger von Sekten oder radikalen Religionen erinnert - rational ist das nicht mehr. Lustig sind so Aussagen wie "ich MUSS updaten, mir bleibt keine andere Wahl".
Egal, das ist jedenfalls beste Unterhaltung bei Langweile - und gruenmuckel dürfte da auch nicht ganz verkehrt liegen.
Die Frage wie viele Karten da eigenlich wirklich im Verkauf waren wird ja offen bleiben.
Egal, das ist jedenfalls beste Unterhaltung bei Langweile - und gruenmuckel dürfte da auch nicht ganz verkehrt liegen.
Die Frage wie viele Karten da eigenlich wirklich im Verkauf waren wird ja offen bleiben.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.281
- Renomée
- 1.961
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Mal ehrlich, wen wundert da noch irgendetwas?
Alles was bisher bei den Radeons kritisiert wurde spielt auf einmal keine Rolle mehr sobald es die Geforce betrifft und was die Geforce Karten nicht haben hat natürlich keinerlei Relevanz oder ist nichts wert.
Dummer weise habe ich bei solch schwachsinnigen Sachen ein ganz gutes Gedächnis....
Alles was bisher bei den Radeons kritisiert wurde spielt auf einmal keine Rolle mehr sobald es die Geforce betrifft und was die Geforce Karten nicht haben hat natürlich keinerlei Relevanz oder ist nichts wert.
Dummer weise habe ich bei solch schwachsinnigen Sachen ein ganz gutes Gedächnis....
Thunderbird 1400
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 17.972
- Renomée
- 315
- Prozessor
- Ryzen 5900X
- Mainboard
- MSI X570-A Pro
- Kühlung
- Corsair H115i Pro AiO Wakü
- Speicher
- 4x8GB Corsair DDR4-3200 CL16
- Grafikprozessor
- AMD RX6900XT
- Display
- 55" TV & Leinwand
- SSD
- 2TB Samsung 980 Pro (M.2), 2x 2TB Transcent (M.2), 1TB Crucial MX500 (SATA)
- HDD
- 2TB
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design North (white)
- Netzteil
- 850W be quiet! Pure Power 12M ATX3.0
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
Die Argumentation geht immer in beide Richtungen. Auch bei AMD gibt es viele Fanboys, die die Sache genauso einseitig betrachten und nur ihren Standpunkt als richtig ansehen und sich ihre favorisierte Hardware immer schönreden, wie es gerade passt, und für die es eher um eine ideologische Entscheidung geht, als um eine nüchterne Betrachtung der Specs.
Dann gibt es aber noch eine riesige Menge Normalos, die sich im Grunde nicht um Markennamen oder irgendeine Firmenpolitik schert, sondern einfach schnelle Hardware will. Lasst den Leuten doch ihren Spaß, wenn sie neue performante Hardware haben wollen. Wenn nVidia jetzt eben schneller dran ist mit ihrer neuen Generation und die Leute ihnen das aus den Händen reißen, weil sie nach neuer schneller Hardware lechtzen (weil Turing zu teuer war) und nicht länger warten wollen, dann ist das eben Pech für AMD.
Ist halt so, wer zuerst kommt, malt zuerst. Ist bei neuen Konsolen auch oft so gewesen, dass ein glücklich gewählter Startzeitpunkt die Entscheidung ausmachen kann. Deswegen braucht man nicht so zu tun, als wären die Leute alle dumm, schwach und prinzipienlos, nur weil man selbst vielleicht eine ganz andere (emotionalere) Denkweise zu diesem Thema hat.
Dann gibt es aber noch eine riesige Menge Normalos, die sich im Grunde nicht um Markennamen oder irgendeine Firmenpolitik schert, sondern einfach schnelle Hardware will. Lasst den Leuten doch ihren Spaß, wenn sie neue performante Hardware haben wollen. Wenn nVidia jetzt eben schneller dran ist mit ihrer neuen Generation und die Leute ihnen das aus den Händen reißen, weil sie nach neuer schneller Hardware lechtzen (weil Turing zu teuer war) und nicht länger warten wollen, dann ist das eben Pech für AMD.
Ist halt so, wer zuerst kommt, malt zuerst. Ist bei neuen Konsolen auch oft so gewesen, dass ein glücklich gewählter Startzeitpunkt die Entscheidung ausmachen kann. Deswegen braucht man nicht so zu tun, als wären die Leute alle dumm, schwach und prinzipienlos, nur weil man selbst vielleicht eine ganz andere (emotionalere) Denkweise zu diesem Thema hat.
Zuletzt bearbeitet:
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.752
- Renomée
- 2.777
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Die da jetzt richtig absüchtelen hätten größtenteils eh nichts anderes als nvidia gekauft. Grafikkarten werden über längeren Zeitraum gekauft.
Ich sehe hier nicht den Untergang deswegen für AMD - freuen tun sich aktuell Händler und Wiederverkäufer die eine bekommen haben.
Report: Availability & Supply of NVIDIA RTX 3080 Video Cards (Gamers Nexus)
GeForce RTX 3080 Ray Tracing & DLSS Performance, RTX ON vs OFF (Hardware Unboxed)
Ich sehe hier nicht den Untergang deswegen für AMD - freuen tun sich aktuell Händler und Wiederverkäufer die eine bekommen haben.
Report: Availability & Supply of NVIDIA RTX 3080 Video Cards (Gamers Nexus)
GeForce RTX 3080 Ray Tracing & DLSS Performance, RTX ON vs OFF (Hardware Unboxed)
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.281
- Renomée
- 1.961
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@Thunderbird 1400
Durchaus richtig aber der Wendehals ist hier oftmals extrem.
Unterfilterung bei der Geforce - egal, hauptsache FPS; Unterfilterung bei der Radeon - no go weil unzumutbar
Tesselation durch DX11 wurde auch für überflüssig gehalten bis Fermi rauskam und deren Bedeutung auf einmal massiv anstieg.
Im zuge dessen war auch das erste mal der hohe Strombedarf egal obwohl zuvor bei den Radeons drauf rumgeritten wurde.
Bei Kepler nahm dann wieder der Strombedarf massiv an Bedeutung zu und Sachen wie Speicherausbau oder Compute Leistung waren auf einmal wieder egal. OK, es sei denn man kann für eine Titan richtig tief in die Tasche greifen.
Low(er) level APIs wie Mantle waren ja auch ach so überflüssig weil der Treiber der Geforce ja so viel besser mit der alten API klar kam nur worauf hätte dann der aktuelle Raytracing hype aufgebaut?
Seit Turing scheint auch der Strombedarf wieder massiv an Bedeutung verloren zu haben und ist mit Ampere offenbar irrelevant geworden obwohl zuvor immer herzerweichend was von Stromkosten und der Abwärme vorgebetet wurde, die Effizienz also nicht die tragende Rolle spielte und wenn dann natürlich nur die Effizienz bei Spielen.
Dazu noch kuriose Sachen wie die Rechtfertigung keine Radeon zu kaufen weil diese nicht das G-Sync für ihren teuer erstandenen Monitor unterstützen aber die langwierige Weigerung nvidias gegenüber dem freien adaptive-sync des DisplayPort Standards scheint wieder irrelevant zu sein.
Was wurde nicht auf die Probleme mit der ersten Navi Generation gemeckert aber Totalausfälle der Vergangenheit z.B. durch defekte Lötstellen, fehlerhafte Lüftersteuerungen in Treibern oder die Nummer mit den falschen Daten bei der GTX970 scheinen wiederum keine Rolle zu spielen.
Auf Geschichten die ausschließlich der Behinderung der Konkurrenz dienen gehe ich besser garnicht erst ein.
Das böse böse Rebrand das bei AMD eine Zeit lang etwas überhand genommen hatte und bei nvidia nahezu ignoriert wurde. Selbst die super modelle bei Turing könnte man mit dazu zählen weil die gleiche 3 Grundchips zum Einsatz kamen anders beschnitten wurden und die Vorgänger ersetzten.
Das so hoch gefeierte und ach so innovative Kühler Design der 3080 FE das seinerzeit bei einigen Custom Furys noch dafür kritisiert wurde weil es den CPU Bereich so aufheizen würde.
Richtig absurd wirde es aber wenn wegen der Preisexplosion gegen AMD gewettert wird, war nicht nvidia der große Preistreiber? Auch das scheint angesichts der Lobeshymnen für ihren Geschäftssinn (Gewinne) egal zu sein.
Die Liste wäre da noch ein gutes Stück länger aber ich will es jetzt nicht zu sehr ausufern lassen.
Keine Frage, die Ampere Modelle sind leistungsfähig, haben einige interessante Ansätze und der Preis der 3080er ist auch durchaus annehmbar aber der Strombedarf ist unterirdisch und die Effizienz angesichts des Prozesswechsels eher lausig und von den teils extrem geschönten Inhalten der Präsentationsfolien fange ich besser garnicht erst an.
Durchaus richtig aber der Wendehals ist hier oftmals extrem.
Unterfilterung bei der Geforce - egal, hauptsache FPS; Unterfilterung bei der Radeon - no go weil unzumutbar
Tesselation durch DX11 wurde auch für überflüssig gehalten bis Fermi rauskam und deren Bedeutung auf einmal massiv anstieg.
Im zuge dessen war auch das erste mal der hohe Strombedarf egal obwohl zuvor bei den Radeons drauf rumgeritten wurde.
Bei Kepler nahm dann wieder der Strombedarf massiv an Bedeutung zu und Sachen wie Speicherausbau oder Compute Leistung waren auf einmal wieder egal. OK, es sei denn man kann für eine Titan richtig tief in die Tasche greifen.
Low(er) level APIs wie Mantle waren ja auch ach so überflüssig weil der Treiber der Geforce ja so viel besser mit der alten API klar kam nur worauf hätte dann der aktuelle Raytracing hype aufgebaut?
Seit Turing scheint auch der Strombedarf wieder massiv an Bedeutung verloren zu haben und ist mit Ampere offenbar irrelevant geworden obwohl zuvor immer herzerweichend was von Stromkosten und der Abwärme vorgebetet wurde, die Effizienz also nicht die tragende Rolle spielte und wenn dann natürlich nur die Effizienz bei Spielen.
Dazu noch kuriose Sachen wie die Rechtfertigung keine Radeon zu kaufen weil diese nicht das G-Sync für ihren teuer erstandenen Monitor unterstützen aber die langwierige Weigerung nvidias gegenüber dem freien adaptive-sync des DisplayPort Standards scheint wieder irrelevant zu sein.
Was wurde nicht auf die Probleme mit der ersten Navi Generation gemeckert aber Totalausfälle der Vergangenheit z.B. durch defekte Lötstellen, fehlerhafte Lüftersteuerungen in Treibern oder die Nummer mit den falschen Daten bei der GTX970 scheinen wiederum keine Rolle zu spielen.
Auf Geschichten die ausschließlich der Behinderung der Konkurrenz dienen gehe ich besser garnicht erst ein.
Das böse böse Rebrand das bei AMD eine Zeit lang etwas überhand genommen hatte und bei nvidia nahezu ignoriert wurde. Selbst die super modelle bei Turing könnte man mit dazu zählen weil die gleiche 3 Grundchips zum Einsatz kamen anders beschnitten wurden und die Vorgänger ersetzten.
Das so hoch gefeierte und ach so innovative Kühler Design der 3080 FE das seinerzeit bei einigen Custom Furys noch dafür kritisiert wurde weil es den CPU Bereich so aufheizen würde.
Richtig absurd wirde es aber wenn wegen der Preisexplosion gegen AMD gewettert wird, war nicht nvidia der große Preistreiber? Auch das scheint angesichts der Lobeshymnen für ihren Geschäftssinn (Gewinne) egal zu sein.
Die Liste wäre da noch ein gutes Stück länger aber ich will es jetzt nicht zu sehr ausufern lassen.
Keine Frage, die Ampere Modelle sind leistungsfähig, haben einige interessante Ansätze und der Preis der 3080er ist auch durchaus annehmbar aber der Strombedarf ist unterirdisch und die Effizienz angesichts des Prozesswechsels eher lausig und von den teils extrem geschönten Inhalten der Präsentationsfolien fange ich besser garnicht erst an.
TobiWahnKenobi
Grand Admiral Special
- Mitglied seit
- 11.08.2004
- Beiträge
- 7.013
- Renomée
- 152
- Standort
- Hannover
- Mein Laptop
- Macbook Pro 13" Retina BTO /i7
- Prozessor
- Intel Core i9 14900K
- Mainboard
- Z790 (Asrock)
- Kühlung
- H2O
- Speicher
- 48GB DDR5 7000 (40-52-52-52-114)
- Grafikprozessor
- 24GiB NVidia Geforce RTX 4090 OC
- Display
- 55" LG OLED C9 | 140" Acer DLP-3D
- SSD
- 8TB NVMe RAID + 3TB NVMe + 4TB SATA SSD
- HDD
- 36TB
- Optisches Laufwerk
- Bluray RW
- Soundkarte
- HDMI (Dolby Atmos @Yamaha AVR 5.2.2) / ALC / Hercules DJ Instinct Mixer
- Gehäuse
- Thermal Take X71
- Netzteil
- 1200W Corsair
- Tastatur
- Corsair K68 und originale von Cherry
- Maus
- Logitech G502
- Betriebssystem
- Windows 11
- Webbrowser
- Firefox
- Verschiedenes
- DVB-C, x10 Remote, XBox-Elite-Pad, Grafiktablet, Hercules DJ Instinct, iP2500, Fritzbox, Drucker, Oculus Rift VR
hab mir mal den erstbesten 3080er timespy ausm 3dc gegriffen
freue mich weiter auf die 3090..
(..)
mfg
tobi
freue mich weiter auf die 3090..
(..)
mfg
tobi
Cleric
Admiral Special
- Mitglied seit
- 08.01.2003
- Beiträge
- 1.087
- Renomée
- 110
Richtig, nur kann man gerade rund um einen Launch in bestimmten Foren kaum noch sachliche Diskussionen führen. Und da merkt man dann schon, dass da vielleicht einige wenige, dafür aber sehr intolerante Fanboys solche Diskussionen kapern und dominieren. Ich hab manchmal einfach nur das Bedürfnis - vielleicht auch aus dem Bauch oder einer Laune heraus - meine Meinung kund zu tun. Wenn man dann aber sofort angegangen wird, ist das unschön. Und ich bin normalerweise ein stets ruhiger, besonnener und sachlicher Typ.Die Argumentation geht immer in beide Richtungen.
Und bei einem Marktanteil von 80:20 kann man sich in etwa ausmalen, wo es einen dann härter trifft, wenn man mal unerwünschte Kritik äußert.
Auch das ist richtig. Aber da haben wir so massen"psychologische" Phänome. Wurde schon angesprochen. Einige laufen los und vermitteln den Eindruck des HABEN-MÜSSENS, unter einer 3070 bist du ein Loser und kannst nicht mehr mitreden usw. - und da laufen dann leider auch durchaus nicht wenige "Normalos" hinterher. Deshalb sag ich bei solchen Themen auch gerne meine Meinung - abwarten und Tee trinken.Lasst den Leuten doch ihren Spaß
Naja, wir reden hier über etwa 4 Wochen Wartezeit bis zur Vorstellung von Big Navi.Ist halt so, wer zuerst kommt, malt zuerst.
Aber ich kann deine Haltung komplett nachvollziehen.
Ich hab mich über Jahre kaum noch für neue Hardware interessiert, war einfach langweilig. Das hat sich in erster Linie mit Ryzen geändert. Plötzlich war wieder Konkurrenz da und die Entwicklungssprünge wurden wieder deutlich größer. Ähnlich jetzt bei Ampere.
Da kam der alte Spieltrieb zurück. Und vor dem Launch konnte ich es auch nicht abwarten, sofort zur Veröffentlichung auf den Bestellbutton zu klicken. Aber wo der Bauch sagt "haben müssen, jetzt sofort", kommt halt der Kopf dazu. Und der sagt, dass es momentan ganz viele Argumente gegen einen voreiligen Kauf gibt.
Hardware? Reift beim Kunden. Erstmal abwarten, über was die Early Adopter jetzt so stolpern.
Kritik an Ampere muss ich nicht nochmal wiederholen, vor allem die Leistungsaufnahme und NVIDIA Veröffentlichungspolitik.
Der Ansturm der Early Adopter hat die Läden leergefegt. Das wird kurzfristig dafür sorgen, dass der Handel die Preise anzieht. Angebot und Nachfrage. Ähnlich sieht es anscheinend bei Netzteilen aus, insbesondere in den USA.
Da sagt der Kopf ganz einfach: hey, du bist mit einer 2080 noch eine Weile ganz gut aufgestellt und hast ganz rational überhaupt keinen Handlungsdruck. Sitz den Ansturm einfach aus und schau, was bis zum Ende des Jahres noch so alles passiert. Big Navi, weitere Ampere-Karten usw.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.281
- Renomée
- 1.961
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Man konnte ja schon in dem einen oder anderen Test sehen das eine übertaktete 2080Ti der 3080 auf die Pelle rückt.freue mich weiter auf die 3090..
Thunderbird 1400
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 17.972
- Renomée
- 315
- Prozessor
- Ryzen 5900X
- Mainboard
- MSI X570-A Pro
- Kühlung
- Corsair H115i Pro AiO Wakü
- Speicher
- 4x8GB Corsair DDR4-3200 CL16
- Grafikprozessor
- AMD RX6900XT
- Display
- 55" TV & Leinwand
- SSD
- 2TB Samsung 980 Pro (M.2), 2x 2TB Transcent (M.2), 1TB Crucial MX500 (SATA)
- HDD
- 2TB
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design North (white)
- Netzteil
- 850W be quiet! Pure Power 12M ATX3.0
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
Was erwartest du von Leuten, die geil auf ein neu gekauftes Stück Technik sind? Das gerade gekaufte oder favorisierte Stück Technik ist immer das Beste. Ist ja überall so. Egal ob's die Graka ist oder das Smartphone oder das Auto, oder, oder, oder... Das wird immer schön geredet.Durchaus richtig aber der Wendehals ist hier oftmals extrem.
[...]
Die Liste wäre da noch ein gutes Stück länger aber ich will es jetzt nicht zu sehr ausufern lassen.
Da rege ich mich nicht drüber auf, sollen die Leute doch kaufen, was sie wollen. Und wenn jemand plötzlich mehr Wert auf Performance legt statt auf Effizienz, obwohl es vor einem Jahr noch anders war... who cares? Meinungen ändern sich, Anforderungen ändern sich, Umstände ändern sich, Prioritäten ändern sich. Wenn ich heute noch die gleichen Prioritäten hätte wie vor 20 Jahren... hui
Ist er das? Gibt's denn schon irgendwo vernünftige Messungen zu realen Durchschnittsverbräuchen in Spielen im Vergleich zur durchschnittlichen Performance? Würde mich sehr interessieren. TDP und maximale Leistungsaufnahme sagen nunmal einfach mal garnichts aus (ok, vielleicht nicht garnichts, aber auch nicht besonders viel).Keine Frage, die Ampere Modelle sind leistungsfähig, haben einige interessante Ansätze und der Preis der 3080er ist auch durchaus annehmbar aber der Strombedarf ist unterirdisch
Ist halt 3DMark, sagt nicht viel aus. Ein 3700X limitiert eine 3080 vermutlich auch. Man sieht hier auch den krassen Unterschied beim CPU-Score. Davon abgesehen haben die Benchmarks von Tobi ohnehin keinerlei Aussagekraft für die Allgemeinheit, wenn er da eine bis zum Erbrechen übertaktete/ gemoddete Karte vergleichtMan konnte ja schon in dem einen oder anderen Test sehen das eine übertaktete 2080Ti der 3080 auf die Pelle rückt.
Doppelposting wurde automatisch zusammengeführt:
Gerade mal etwas gesucht:
Laut dieses Videos vom Igor (www.youtube.com/watch?v=IicO6d4JHvg&t=5s) verbraucht die 3080 in Spielen wohl im Schnitt 320W, gemittelt über 10 Spiele.
Zur 2080Ti finde ich Angaben von 266W (https://www.guru3d.com/articles-pages/geforce-rtx-2080-ti-founders-review,9.html) bis 279W (https://www.tomshardware.com/reviews/nvidia-geforce-rtx-2080-ti-founders-edition,5805-10.html).
Wobei natürlich fraglich ist, wie vergleichbar die Werte sind (welche Spiele, welche Auflösungen usw). Aber wenn wir mal grob von 320W vs. 270W ausgehen, dann wären das 18,5% höherer Stromverbrauch. Wieviel höhere Performance hat die 3080 im Durchschnitt in Spielen? Kann man noch nicht wirklich sagen, oder? Man findet da Angaben von 30-50%. In manchen Spielen und niedrigen Auflösungen ist der Unterschied deutlich niedriger, aber da wird auch der Stromverbrauch sich mehr angleichen. Man bräuchte wirklich einen Test, der das mal unter gleichen Bedingungen vergleicht.
Zuletzt bearbeitet:
valide argumente sollten valide argumente bleiben.Meinungen ändern sich
nvidia wurde immer als effizienz-weltmeister gefeiert. amd hat über jahre die karten immer bis an die kotzgrenze getrieben und wurde für den hohen stromverbrauch kritisiert. hat man dann exakt dein argument angeführt, nämlich dass der teillast- viel relevanter ist als der maximale verbrauch ist, wurde das gerne weggewischt. und amd hat den kunden viel früher als nvidia von haus aus passende tools an die hand gegeben, um z.b. mit undervolting die effizienz deutlich zu verbessern (ok, ist nicht jedermanns sache).
nun erlebt man bei ampere quasi das gegenteil.
ja, die leistung hat enorm zugelegt. die effizienz ist auch geringfügig besser geworden. aber der großteil des leistungszuwachses geht zu lasten der stromrechnung. rund 30% mehrleistung bei 20% mehrverbauch (3080 vs 2080 ti) haut mich nun nicht wirklich vom hocker. und wie schon gesagt ... es ist irgendwie nicht zeitgemäß.
vorbei sind die zeiten der echten effizienzsteigerung, wo man entsprechende mehrleistung bei gleichbleibender (oder gar geringerer) leistungsaufnahme bekommen hat.
der sprung von 780er kepler zu 980er maxwell?https://www.computerbase.de/2018-09/geforce-480-580-680-780-980-1080-vergleich/3/
Die verbesserte Energieeffizienz ist beeindruckend
Eigentlich noch viel beeindruckender als die Leistungssprünge sind die Verbesserungen der Energieeffizienz – und das ist auch Nvidias eigentliche Stärke gegenüber AMD. Pascal ist in etwa drei Mal so energieeffizient wie Kepler. Damit benötigt die GeForce GTX 1080 quasi dieselbe Energie wie die GeForce GTX 680 – bei der dreifachen Performance. Dadurch muss Nvidia das Design nie auch nur im Ansatz voll ausreizen und hat bezüglich Leistungsaufnahme, Lautstärke und Kühlungseigenschaften große Vorteile gegenüber der Konkurrenz.
über den daumen rund 25% mehrleistung bei rund 20% weniger leistungsaufnahme.
der sprung von 980er maxwell zu 1080er pascal?
über den daumen rund 60% mehrleistung bei rund 5% weniger leistungsaufnahme.
das waren effizienz-sprünge. ampere? nicht wirklich.
TobiWahnKenobi
Grand Admiral Special
- Mitglied seit
- 11.08.2004
- Beiträge
- 7.013
- Renomée
- 152
- Standort
- Hannover
- Mein Laptop
- Macbook Pro 13" Retina BTO /i7
- Prozessor
- Intel Core i9 14900K
- Mainboard
- Z790 (Asrock)
- Kühlung
- H2O
- Speicher
- 48GB DDR5 7000 (40-52-52-52-114)
- Grafikprozessor
- 24GiB NVidia Geforce RTX 4090 OC
- Display
- 55" LG OLED C9 | 140" Acer DLP-3D
- SSD
- 8TB NVMe RAID + 3TB NVMe + 4TB SATA SSD
- HDD
- 36TB
- Optisches Laufwerk
- Bluray RW
- Soundkarte
- HDMI (Dolby Atmos @Yamaha AVR 5.2.2) / ALC / Hercules DJ Instinct Mixer
- Gehäuse
- Thermal Take X71
- Netzteil
- 1200W Corsair
- Tastatur
- Corsair K68 und originale von Cherry
- Maus
- Logitech G502
- Betriebssystem
- Windows 11
- Webbrowser
- Firefox
- Verschiedenes
- DVB-C, x10 Remote, XBox-Elite-Pad, Grafiktablet, Hercules DJ Instinct, iP2500, Fritzbox, Drucker, Oculus Rift VR
Ist halt 3DMark, sagt nicht viel aus. Ein 3700X limitiert eine 3080 vermutlich auch. Man sieht hier auch den krassen Unterschied beim CPU-Score. Davon abgesehen haben die Benchmarks von Tobi ohnehin keinerlei Aussagekraft für die Allgemeinheit, wenn er da eine bis zum Erbrechen übertaktete/ gemoddete Karte vergleicht
Doppelposting wurde automatisch zusammengeführt:
Gerade mal etwas gesucht:
Laut dieses Videos vom Igor (www.youtube.com/watch?v=IicO6d4JHvg&t=5s) verbraucht die 3080 in Spielen wohl im Schnitt 320W, gemittelt über 10 Spiele.
Zur 2080Ti finde ich Angaben von 266W (https://www.guru3d.com/articles-pages/geforce-rtx-2080-ti-founders-review,9.html) bis 279W (https://www.tomshardware.com/reviews/nvidia-geforce-rtx-2080-ti-founders-edition,5805-10.html).
Wobei natürlich fraglich ist, wie vergleichbar die Werte sind (welche Spiele, welche Auflösungen usw). Aber wenn wir mal grob von 320W vs. 270W ausgehen, dann wären das 18,5% höherer Stromverbrauch. Wieviel höhere Performance hat die 3080 im Durchschnitt in Spielen? Kann man noch nicht wirklich sagen, oder? Man findet da Angaben von 30-50%. In manchen Spielen und niedrigen Auflösungen ist der Unterschied deutlich niedriger, aber da wird auch der Stromverbrauch sich mehr angleichen. Man bräuchte wirklich einen Test, der das mal unter gleichen Bedingungen vergleicht.
2080Ti modelle gibt es mit verschiedenen powerlimits.. meine karte darf bis zu 380W verwenden. und das tut sie. die 3080 darf bis zu 320W verwenden.. und auch die tut das.. gut, man tut nicht tut gebrauchen, aber das mit dem powerlimit ist jetzt wirklich nicht neu.
(..)
mfg
tobi
Thunderbird 1400
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 17.972
- Renomée
- 315
- Prozessor
- Ryzen 5900X
- Mainboard
- MSI X570-A Pro
- Kühlung
- Corsair H115i Pro AiO Wakü
- Speicher
- 4x8GB Corsair DDR4-3200 CL16
- Grafikprozessor
- AMD RX6900XT
- Display
- 55" TV & Leinwand
- SSD
- 2TB Samsung 980 Pro (M.2), 2x 2TB Transcent (M.2), 1TB Crucial MX500 (SATA)
- HDD
- 2TB
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design North (white)
- Netzteil
- 850W be quiet! Pure Power 12M ATX3.0
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
@cruger:
Na dann kann man ja gespannt zusehen, ob AMD da eine bessere Effizienz auf die Reihe bekommt.
Klar ist hohe Effizienz und geringer Stromverbrauch geil, das bezweifelt wohl auch niemand ernsthaft. Die Frage ist einfach, welche Alternativen man hat. Performance und Preis sind für die Meisten sicherlich die allerwichtigsten Argumente, das war schon immer so.
Bei Geizhals sind jetzt diverse RTX3080 Custom Karten gelistet. Natürlich nix mit 700€, sondern eher 800€ aufwärts und alle hässlich wie die Nacht. Die üblichen Klickibunti-LED Plastikbomber Und dann vermutlich alle auch noch höherer Stromverbrauch als die FE mit dem ganzen OC-Gedöns (was eh Unsinn ist bei der Performance und dem Stromverbrauch). Also zusammenfassend der komplette Abturner. Nee, für mich wäre nur die FE interessant, aber die kann man sich vermutlich eh erstmal wochenlang abschminken.
Na dann kann man ja gespannt zusehen, ob AMD da eine bessere Effizienz auf die Reihe bekommt.
Klar ist hohe Effizienz und geringer Stromverbrauch geil, das bezweifelt wohl auch niemand ernsthaft. Die Frage ist einfach, welche Alternativen man hat. Performance und Preis sind für die Meisten sicherlich die allerwichtigsten Argumente, das war schon immer so.
Doppelposting wurde automatisch zusammengeführt:
Bei Geizhals sind jetzt diverse RTX3080 Custom Karten gelistet. Natürlich nix mit 700€, sondern eher 800€ aufwärts und alle hässlich wie die Nacht. Die üblichen Klickibunti-LED Plastikbomber Und dann vermutlich alle auch noch höherer Stromverbrauch als die FE mit dem ganzen OC-Gedöns (was eh Unsinn ist bei der Performance und dem Stromverbrauch). Also zusammenfassend der komplette Abturner. Nee, für mich wäre nur die FE interessant, aber die kann man sich vermutlich eh erstmal wochenlang abschminken.
Grafikkarten PCIe mit NVIDIA GeForce: 16 0029768 - RTX 3080 Preisvergleich Geizhals Deutschland
Preisvergleich und Bewertungen für Grafikkarten PCIe mit NVIDIA GeForce: 16 0029768 - RTX 3080
geizhals.de
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.281
- Renomée
- 1.961
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Kein heuchlerisches Gesabbel sondern ein *haben will* frei raus.Was erwartest du von Leuten, die geil auf ein neu gekauftes Stück Technik sind?
Es steht ja jedem frei zu kaufen was er will aber dann bitte ohne sich und andere zu belügen.
Gerade erst neulich hatte ich mal wieder eine "dolle" Diskussion in den Kommentaren eines Artikels bei Computerbase gelesen wo mal wieder einer steif und fest behauptet hatte aie ach so neutral die Kaufentscheidungen doch wären. Der Server Zusammenbruch des einen oder anderen Shops der beim Verkaufsstart trotz des durchwachsenen Ergebnisses stattfand hatte mir eher das Gegenteil bewiesen.
Doppelposting wurde automatisch zusammengeführt:
Siehe auch der Effizienz Vergleich bei Computerbase:
Nvidia GeForce RTX 3080 FE im Test: Effizienz, PCIe 4.0 vs. 3.0, FE-Kühler, Fortnite RTX und Async DLSS
GeForce RTX 3080 FE im Test: Effizienz, PCIe 4.0 vs. 3.0, FE-Kühler, Fortnite RTX und Async DLSS / RTX 3080 vs. RTX 2080 Ti bei 270 Watt
www.computerbase.de
Mit dem Limit auf 270W hat sie im Durchschitt gerade einmal 4% verloren. Wieviel hätte sie verloren wenn man es wie bei der 2080 Super bei 250W belassen hätte? Vielleicht gute 5-6%? Dann wäre es wohl zweifellos ein rundes Produkt gewesen.
Doppelposting wurde automatisch zusammengeführt:
Ich sage mal wenn sie die Aussage mit den 50% mehr Leistung pro Watt halten können dann stehen die Chancen nicht schlecht.Na dann kann man ja gespannt zusehen, ob AMD da eine bessere Effizienz auf die Reihe bekommt.
Die Leistung der 3080 bei Standard Spielen sollte mit der 300W Klasse machbar sein denn die 2080Ti FE ist ca. 50% schneller als die 5700XT und bis zur 3080 FE fehlen nur noch weitere 30%. Die RT Leistung lasse ich mangels Anhaltspunkte außen vor.
Angesichts der Verbrauchsdifferenz von 210W zu 320W im Computerbase Test sehe ich da mehr als genug Spielraum.
Zuletzt bearbeitet:
ist mir egal, was amd macht. ich bin grundsätzlich der meinung, dass höhere performance nicht immer automatisch auch höheren verbrauch rechtfertigt. wo soll das noch hinführen? 500w? 700w? 1000w? alles egal?Na dann kann man ja gespannt zusehen, ob AMD da eine bessere Effizienz auf die Reihe bekommt.
Klar ist hohe Effizienz und geringer Stromverbrauch geil, das bezweifelt wohl auch niemand ernsthaft. Die Frage ist einfach, welche Alternativen man hat.
und als alter pentium-4-veteran hab ich nun auch spätestens seit dem p4 alle effizienz-diskussionen und deren hin und her mitgemacht.
und da ist es meiner meinung nach dann einfach bedenklich, wo man mittlerweile angekommen ist. 320w für EINE grafikkarte? soviel, wie früher mal komplette pc's verbraucht haben? da werden viele cpu-diskussionen der letzten 20 jahre ad absurdum geführt.
vor einigen jahren hat man noch über die sli-nische geschmunzelt. wozu braucht man netzteile mit 700w oder 800w? heute braucht man sicherheitshalber 750w für ein system mit nur einer grafikkarte. ne sorry, da setzt einfach irgendwann mal ein prozess des nachdenkens ein, ob die pc-branche - bei consumern gehts ja eigentlich nur ums gaming - da auf dem richtigen weg ist.
die 2080 ti hatte ein power-limit von 250w. in dieses budget hätte auch ampere gepasst. und hätte wohl trotzdem noch deutlich mehr performance geliefert als turing.
Peet007
Admiral Special
Die Lücke zwischen 3070 und 3080 wird noch gefüllt werden wo man die ganzen Chipverwertung unterbringt.
Jeder hat da seine eigenen Kriterien was für eine Grafikkarte passt. Ich konnte es auch nicht lassen und hab mir eine 5700xt geholt.
Zielsetzung war diesmal keine Teildefekte GPU mit höher Güte. Muss unter Linux ohne Probleme laufen und configurierbar sein. Bei der 970 musste ich damals das Bios modden. Keine Ahnung ob Nvidia da jetzt was hat.
Kann mich nicht beklagen, im gedrosseltem Setup 130 Watt keine Berechnungsfehler. Rechenzeiten mal besser oder schlechter als eine Vega56.
Big Navi würde für mich zu groß wenn man einen guten Chip haben will.
Jeder hat da seine eigenen Kriterien was für eine Grafikkarte passt. Ich konnte es auch nicht lassen und hab mir eine 5700xt geholt.
Zielsetzung war diesmal keine Teildefekte GPU mit höher Güte. Muss unter Linux ohne Probleme laufen und configurierbar sein. Bei der 970 musste ich damals das Bios modden. Keine Ahnung ob Nvidia da jetzt was hat.
Kann mich nicht beklagen, im gedrosseltem Setup 130 Watt keine Berechnungsfehler. Rechenzeiten mal besser oder schlechter als eine Vega56.
Big Navi würde für mich zu groß wenn man einen guten Chip haben will.
Cleric
Admiral Special
- Mitglied seit
- 08.01.2003
- Beiträge
- 1.087
- Renomée
- 110
Durch den hohen Verbrauch der Standard-Modelle gab es bei AMD-Boardpartnern früher immer mal wieder Karten, die entgegen dem Trend auf Effizienz getrimmt wurden.Mit dem Limit auf 270W hat sie im Durchschitt gerade einmal 4% verloren. Wieviel hätte sie verloren wenn man es wie bei der 2080 Super bei 250W belassen hätte? Vielleicht gute 5-6%? Dann wäre es wohl zweifellos ein rundes Produkt gewesen.
Bei NVIDIA gibt es sowas nicht, zumindest ist mir nichts bekannt. Da wird immer nur oben drauf gesattelt. Standard-Boardpower 320w? Da geht noch mehr. Ich vermute mal, dass es auch bei Ampere keinen Hersteller geben wird, der sich diesem Trend entzieht und die Boardpower bereits werkseitig reduziert. Warum nicht die besagten 270w? Dann mal Werbung mit Effizienz machen.
Aber leider wollen es die Kunden anscheinend so, also immer größere Stromfresser. Die PC-Nische wird immer kleiner und teurer. Und die Grafikkarten-Hersteller hauen entsprechende Karten raus.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.281
- Renomée
- 1.961
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@Cleric
Ehrlich gesagt ist mir kein einziges Radeon Modell bekannt das unter den Referenz Takt gegangen wäre.
Vom Verbrauch her geht bei der 3080 definitiv noch mehr aber die Taktfrequenz hatte nvidia schon nahezu ausgereizt. Da besteht kaum OC Spielraum. Eher haben sie den Takt so ausgereizt wie einst AMD den Takt des Fiji Chips bei der FuryX.
Ehrlich gesagt ist mir kein einziges Radeon Modell bekannt das unter den Referenz Takt gegangen wäre.
Vom Verbrauch her geht bei der 3080 definitiv noch mehr aber die Taktfrequenz hatte nvidia schon nahezu ausgereizt. Da besteht kaum OC Spielraum. Eher haben sie den Takt so ausgereizt wie einst AMD den Takt des Fiji Chips bei der FuryX.
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.752
- Renomée
- 2.777
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Erstaunlich das es so eine 3090 angeboten wird:
GIGABYTE Unveils RTX 3090 TURBO: For When You Absolutely Need Lateral Blowers for 350W GPUs (TechPowerUp)
GALAX GeForce RTX 3080 SG 10G review (guru3d)
NVIDIA RTX 3080 PCIe 3.0 vs. PCIe 4.0 x16 Benchmarks (& Intel vs. AMD for 3080 Discussion) (Gamer Nexus)
Asus GeForce RTX 3080 TUF Gaming OC Review: Traditional Design, Same Performance, Better Cooling (tom's Hardware)
GIGABYTE Unveils RTX 3090 TURBO: For When You Absolutely Need Lateral Blowers for 350W GPUs (TechPowerUp)
GALAX GeForce RTX 3080 SG 10G review (guru3d)
NVIDIA RTX 3080 PCIe 3.0 vs. PCIe 4.0 x16 Benchmarks (& Intel vs. AMD for 3080 Discussion) (Gamer Nexus)
Asus GeForce RTX 3080 TUF Gaming OC Review: Traditional Design, Same Performance, Better Cooling (tom's Hardware)
Zuletzt bearbeitet:
Cleric
Admiral Special
- Mitglied seit
- 08.01.2003
- Beiträge
- 1.087
- Renomée
- 110
War dann vielleicht etwas missverständlich.@Cleric
Ehrlich gesagt ist mir kein einziges Radeon Modell bekannt das unter den Referenz Takt gegangen wäre.
Vom Verbrauch her geht bei der 3080 definitiv noch mehr aber die Taktfrequenz hatte nvidia schon nahezu ausgereizt. Da besteht kaum OC Spielraum. Eher haben sie den Takt so ausgereizt wie einst AMD den Takt des Fiji Chips bei der FuryX.
Du hattest Fiji angesprochen. Und da hatte ich die Nano im Gedächtnis. Klar, ITX-Nische. Aber eben imho ein Beispiel für Kotzgrenze vs. Sweetspot.
Ungefähr 5% weniger Leistung gegenüber der Fury, dafür ~ 25% weniger Leistungsaufnahme.
Btw, lustige Netzteilberatungen. Bei einer 3090 + 400 Euro Netzteil legt der Threadersteller viel Wert auf "Wirtschaftlichkeit" Und er scheint von einer 2080 Ti zu kommen.
Die besten Netzteile mit 850W, 1000W und 1200W?
Servus, alle suchen gerade größere Netzteile. Vielerorts sind sie schon aufverkauft. In der Schweiz haben diverse Händler noch Bequiet und Co. mit 850W, 1000W etc. im Angebot. Ich würde mich gerne absichern bevor die 3080 und 3090 weit verfügbar sind und Netzteile weltweit ausverkauft. In...
www.computerbase.de
G
Gast29082023
Guest
Also: Ich hatte bei Amazon die Zotac Trinity bestellt, weil ich ein ganz cleveres Kerlchen bin, gleich zwei mal, da ich irgendwie schon davon ausgegangen bin, dass nicht unbedingt jede Bestellung auch geliefert wird.
Beide Bestellungen stehen seit zwei Tagen auf Lieferung Samstag.....beide jedoch bis heute morgen nicht versandt. Gerade bekam ich für die erste Bestellung die Nachricht, dass sie sich verzögert.... schätze mal die zweite geht heute Nachmittag auch auf "verzögert"....Mir ist das jetzt persönlich egal, da ich dann einen guten Grund für BigNavi habe.....
Was mich jetzt unglaublich freut, ist das diese ganzen Bratzen, die ihre von Amazon vorbestellten Trinitys in EKA für 900€ feilbieten jetzt Probleme bekommen
Beide Bestellungen stehen seit zwei Tagen auf Lieferung Samstag.....beide jedoch bis heute morgen nicht versandt. Gerade bekam ich für die erste Bestellung die Nachricht, dass sie sich verzögert.... schätze mal die zweite geht heute Nachmittag auch auf "verzögert"....Mir ist das jetzt persönlich egal, da ich dann einen guten Grund für BigNavi habe.....
Was mich jetzt unglaublich freut, ist das diese ganzen Bratzen, die ihre von Amazon vorbestellten Trinitys in EKA für 900€ feilbieten jetzt Probleme bekommen
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.281
- Renomée
- 1.961
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@Cleric
Die normale Fury ist für den Vergleich etwas ungünstig weil diese geringer taktete und einen beschnittenen Chip hatte. Da macht sich der Nano vs. FuryX Vergleich deutlich besser denn mit gut 100W weniger fiel man lediglich ca. 10% zurück.
Ähnlich weit ans Limit scheint auch Ampere getaktet zu sein.
Die normale Fury ist für den Vergleich etwas ungünstig weil diese geringer taktete und einen beschnittenen Chip hatte. Da macht sich der Nano vs. FuryX Vergleich deutlich besser denn mit gut 100W weniger fiel man lediglich ca. 10% zurück.
Ähnlich weit ans Limit scheint auch Ampere getaktet zu sein.
G
Gast29082023
Guest
So, auch die zweite Bestellung wurde ausgesetzt.....alles storniert.... ist mir zu blöd...
EselTreiber
Admiral Special
- Mitglied seit
- 13.10.2007
- Beiträge
- 1.407
- Renomée
- 249
- Standort
- Hirschberg, BaWü
- Aktuelle Projekte
- -
- Lieblingsprojekt
- Einstein@home
- Meine Systeme
- arxtr: 3960X+RX550+3080 arx03: 1920X+1030GT arx02: Xeon 2697 v3 full Turbo arx04: 3900X+RX580
- BOINC-Statistiken
- Mein Laptop
- HP ProBook 6460b
- Prozessor
- AMD 3960X - 200W
- Mainboard
- AsRock TRX40 Creator
- Kühlung
- Watercool HK IV TR
- Speicher
- 4 x 16 GB G.Skill 3800 15-15-8-12-30
- Grafikprozessor
- RTX 3080
- Display
- Benq BL2710T, 2560x1440
- SSD
- Samsung 251 512GB, Samsung 970 Evo plus 512GB, Samsung 830 256GB
- HDD
- Western Digital Green 1.5 TB
- Optisches Laufwerk
- -
- Soundkarte
- Onboardzeugs
- Gehäuse
- Fractal Define S
- Netzteil
- Fractal Design Ion+ 660W
- Betriebssystem
- Manjaro
- Verschiedenes
- S.M.S.L. Tripath Class-D Amp, Lautsprecherbau.de BluesBox PC 15
Ich hatte auch bei Amazon die Zotac drin. Ist jetzt auch storniert, weil ich zufällig zur richtige Zeit bei Mindfactory auf der Seite herumgelungert hatte. Die Palit 3080 gamePro ist vorhin angekommen. Falls es Fragen zur Karte gibt.... immer her damit.
Cleric
Admiral Special
- Mitglied seit
- 08.01.2003
- Beiträge
- 1.087
- Renomée
- 110
@sompe
Ok, Fury X ist vielleicht ein noch besseres Beispiel.
Mein leider komplett abwegiger Wunsch? Statt reihenweise OC-Karten einfach mal eine UC-Karte. Den Sweetspot von Ampere ausloten und dann eine massiv auf Effizienz getrimmte Version bringen. Wie würde wohl die Founders Edition performen - auch in Hinblick auf die Kühlung/Lautstärke - mit der Standard-TDP einer 2080 Ti von 250W und einer optimierten Spannungsabstimmung (also Undervolting). Oder wo auch immer der Sweetspot liegen mag.
Computerbase hat es mit dem 270W-Vergleich ja angedeutet. Leider haben sie die Auswirkungen auf die Kühlung dabei außen vor gelassen.
Nur ist das wohl komplett abwegig. Selektierte Chips ausschließlich für Effizienz-Optimierungen zu verschwenden, lohnt den Aufwand nicht. Zumal sich aktuell auch zeigt, dass die große Käuferschaft an sowas null Interesse hat.
Und es gibt anscheinend auch bei den Herstellern kein Interesse, und sei es nur mal als Versuchsballon.
Ok, Fury X ist vielleicht ein noch besseres Beispiel.
Mein leider komplett abwegiger Wunsch? Statt reihenweise OC-Karten einfach mal eine UC-Karte. Den Sweetspot von Ampere ausloten und dann eine massiv auf Effizienz getrimmte Version bringen. Wie würde wohl die Founders Edition performen - auch in Hinblick auf die Kühlung/Lautstärke - mit der Standard-TDP einer 2080 Ti von 250W und einer optimierten Spannungsabstimmung (also Undervolting). Oder wo auch immer der Sweetspot liegen mag.
Computerbase hat es mit dem 270W-Vergleich ja angedeutet. Leider haben sie die Auswirkungen auf die Kühlung dabei außen vor gelassen.
Nur ist das wohl komplett abwegig. Selektierte Chips ausschließlich für Effizienz-Optimierungen zu verschwenden, lohnt den Aufwand nicht. Zumal sich aktuell auch zeigt, dass die große Käuferschaft an sowas null Interesse hat.
Und es gibt anscheinend auch bei den Herstellern kein Interesse, und sei es nur mal als Versuchsballon.
Oi!Olli
Grand Admiral Special
- Mitglied seit
- 24.12.2006
- Beiträge
- 16.402
- Renomée
- 775
- Mein Laptop
- HP Elitebook 8760W
- Prozessor
- Ryzen R7 5800X3D
- Mainboard
- Asus B 550 Strix F Wifi
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x 32 GB Kingston FURY DIMM DDR4 3600
- Grafikprozessor
- XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
- Display
- Acer Predator XB253QGP
- SSD
- Samsung 980 Pro 2 TB, Samsung 970 Evo Plus 2 TB
- HDD
- Samsung TB, 2x2 TB 1x3 TB 1x8 TB
- Optisches Laufwerk
- GH-22NS50
- Soundkarte
- Soundblaster Recon 3d
- Gehäuse
- Raijintek Zofos Evo Silent
- Netzteil
- BeQuiet Straight Power 750 Platinum
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Opera 101 (der Browser aktualisiert sich natürlich immer)
- Verschiedenes
- X-Box One Gamepad, MS Sidewinder Joystick
Ich hab erst eltztens mein Prime 750 gegen ein Straight Power 550 ausgetauscht, also selbst wenn ich das Geld für eine 3080 hätte (hab ich sogar gerade), noch mal tausche ich das Netzteil nicht aus.
Ähnliche Themen
- Antworten
- 610
- Aufrufe
- 44K
- Antworten
- 1K
- Aufrufe
- 68K
- Antworten
- 225
- Aufrufe
- 23K
- Antworten
- 45
- Aufrufe
- 5K
- Antworten
- 50
- Aufrufe
- 6K