App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
nVidia Geforce RTX 3050/3060/3070/3080/3090 (Ti) (Ampere/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1
- Ersteller eratte
- Erstellt am
Geforce RTX 3080 deutlich schneller als 2080: Digital Foundry macht den Hands-on-Test
dass die 3080 keine > 1000 euro kostet (ok, kann für die 20gb-version noch kommen) haben wir imho intel, amd, sony und microsoft zu verdanken.
dass die 3080 keine > 1000 euro kostet (ok, kann für die 20gb-version noch kommen) haben wir imho intel, amd, sony und microsoft zu verdanken.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.490
- Renomée
- 2.030
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@enigmation
Was mich bei dem unteren Link gerade stutzig macht, Navi 21?
Bisher hatte der größte CHip der Serie immer eine 0 am Ende und bei Polaris waren Polaris 11 / 21 handelte es sich um den nächst kleineren Chip.
Wie hoch ist also die Chance das noch ein größerer Chip kommen wird? Das 384 bit Speicherinterface passt ja auch nicht zu den spekulierten 16 GB Grafikspeicher.
Was mich bei dem unteren Link gerade stutzig macht, Navi 21?
Bisher hatte der größte CHip der Serie immer eine 0 am Ende und bei Polaris waren Polaris 11 / 21 handelte es sich um den nächst kleineren Chip.
Wie hoch ist also die Chance das noch ein größerer Chip kommen wird? Das 384 bit Speicherinterface passt ja auch nicht zu den spekulierten 16 GB Grafikspeicher.
Cr@zed^
Grand Admiral Special
- Mitglied seit
- 19.03.2003
- Beiträge
- 3.152
- Renomée
- 224
- Standort
- Nußloch
- Mein Laptop
- Lenovo Ideapad 5 Ryzen 7 5700U
- Prozessor
- AMD Ryzen 9 7950X3D
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- ASUS ROG Ryujin II 360
- Speicher
- 64GiB G.Skill Trident Z5 Neo 6000
- Grafikprozessor
- ASUS ROG Strix RX 4090 OC
- Display
- ASUS ROG XG349C
- SSD
- WD Black SN850X 1TB | WD Black SN850X 2TB
- HDD
- NAS im Keller
- Optisches Laufwerk
- ext. ASUS BR Brenner
- Soundkarte
- Creative SoundBlasterX G6 @MMX300
- Gehäuse
- ASUS ROG Strix Helios
- Netzteil
- ASUS ROG Thor 1000W Platinum II
- Tastatur
- ASUS ROG Strix Flare II
- Maus
- ASUS ROG Gladius III
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Chrome
Bin irgendwie davon überzeugt, das NV mehr zu BN weiß als wir und deshalb von Anfang an Kampfpreise aufruft. Da heute meine Austauschkarte avisiert wurde und mir die 5700 XT immer noch locker reicht, kann ich ganz entspannt abwarten was der Black Friday (2021!) bringt.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.490
- Renomée
- 2.030
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@cruger
Sehe ich das richtig das bei dem Kurztest die 3080 mit den mehr als doppelt so vielen Shadern und 40% mehr Strombedarf ohne RT gerade einmal 70-85% schneller als die 2080 war?
Angesichts dessen das die 3090 auf dem Papier nicht sooo viel schneller ist und die 2080Ti ca. 30% schneller als die normale 2080 war könnte der Leistungszuwachs bei der großen für Ernüchterung sorgen.
Sehe ich das richtig das bei dem Kurztest die 3080 mit den mehr als doppelt so vielen Shadern und 40% mehr Strombedarf ohne RT gerade einmal 70-85% schneller als die 2080 war?
Angesichts dessen das die 3090 auf dem Papier nicht sooo viel schneller ist und die 2080Ti ca. 30% schneller als die normale 2080 war könnte der Leistungszuwachs bei der großen für Ernüchterung sorgen.
Thunderbird 1400
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 17.983
- Renomée
- 319
- Prozessor
- AMD Ryzen 7800X3D
- Mainboard
- Gigabyte X670E Aorus Pro X
- Kühlung
- Corsair H115i Pro AiO Wakü
- Speicher
- 32GB G.Skill Trident Z5 DDR5-7200 CL34
- Grafikprozessor
- RTX4080 Super (Gigabyte Aero OC)
- Display
- 55" TV & Leinwand
- SSD
- 2TB Samsung 980 Pro (M.2), 2x 2TB Transcent (M.2), 1TB Crucial MX500 (SATA)
- HDD
- 2TB
- Soundkarte
- Realtek Onboard
- Gehäuse
- Fractal Design North XL (white)
- Netzteil
- 850W be quiet! Pure Power 12M ATX3.0
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Verschiedenes
- Meta Quest 3
Gerade mal? Also ich fand das jetzt ziemlich beeindruckend, dass sie 70-85% schneller war.Sehe ich das richtig das bei dem Kurztest die 3080 mit den mehr als doppelt so vielen Shadern und 40% mehr Strombedarf ohne RT gerade einmal 70-85% schneller als die 2080 war?
enigmation
Admiral Special
Naja, noch ist das ja alles Spekulatius. 3DCenter sieht drei NAVI21, als kleinste Navi 21 XE — 12 GB @ 384-bitWas mich bei dem unteren Link gerade stutzig macht, Navi 21?(...)
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.490
- Renomée
- 2.030
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@Thunderbird 1400
Ja mit ca. 3x so vielen Shadern und der ca. 3 fachen Rechenleistung hält sich meine Begeisterung bei dem Ergebnis doch sehr in Grenzen.
@enigmation
Dann bin ich mal gespannt wie die geschichte noch weiter geht.
Ja mit ca. 3x so vielen Shadern und der ca. 3 fachen Rechenleistung hält sich meine Begeisterung bei dem Ergebnis doch sehr in Grenzen.
Doppelposting wurde automatisch zusammengeführt:
@enigmation
Dann bin ich mal gespannt wie die geschichte noch weiter geht.
Thunderbird 1400
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 17.983
- Renomée
- 319
- Prozessor
- AMD Ryzen 7800X3D
- Mainboard
- Gigabyte X670E Aorus Pro X
- Kühlung
- Corsair H115i Pro AiO Wakü
- Speicher
- 32GB G.Skill Trident Z5 DDR5-7200 CL34
- Grafikprozessor
- RTX4080 Super (Gigabyte Aero OC)
- Display
- 55" TV & Leinwand
- SSD
- 2TB Samsung 980 Pro (M.2), 2x 2TB Transcent (M.2), 1TB Crucial MX500 (SATA)
- HDD
- 2TB
- Soundkarte
- Realtek Onboard
- Gehäuse
- Fractal Design North XL (white)
- Netzteil
- 850W be quiet! Pure Power 12M ATX3.0
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Verschiedenes
- Meta Quest 3
Man kann es aber auch so sehen: Wenn sie tatsächlich 70-85% schneller ist, als eine RTX2080 (selbst ohne Raytracing wohlgemerkt), dann dürfte sie so schätzungsweise 50% schneller sein, als eine 2080Ti. Eine Grafikkarte, die im Moment noch über 1.000€ (aufwärts) kostet. 50% mehr Performance für mindestens 30% weniger Geld hört sich jetzt für mich ziemlich gut an. Das hätte auch ziemlich anders kommen können. Vor allem hätte ich vermutet, dass sie ohne Raytracing deutlich weniger Abstand zu Turing hat.
Einzig der Stromverbrauch könnte ein ziemlicher Abturner sein. Aber warten wir mal die ganzen Tests ab, wieviel sie wirklich schluckt.
Einzig der Stromverbrauch könnte ein ziemlicher Abturner sein. Aber warten wir mal die ganzen Tests ab, wieviel sie wirklich schluckt.
- Mitglied seit
- 16.10.2000
- Beiträge
- 24.373
- Renomée
- 9.707
- Standort
- East Fishkill, Minga, Xanten
- Aktuelle Projekte
- Je nach Gusto
- Meine Systeme
- Ryzen 9 5900X, Ryzen 7 3700X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Samsung P35 (16 Jahre alt ;) )
- Prozessor
- AMD Ryzen 9 5900X
- Mainboard
- ASRock B550
- Speicher
- 2x 16 GB DDR4 3200
- Grafikprozessor
- GeForce GTX 1650
- Display
- 27 Zoll Acer + 24 Zoll DELL
- SSD
- Samsung 980 Pro 256 GB
- HDD
- diverse
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design R5
- Netzteil
- be quiet! Straight Power 10 CM 500W
- Tastatur
- Logitech Cordless Desktop
- Maus
- Logitech G502
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox, Vivaldi
- Internetanbindung
- ▼250 MBit ▲40 MBit
Hm, TweakTown berichtet nun, dass die Verfügbarkeit bis zum Jahresende noch sehr schlecht sein soll.
Keine Ahnung, obs stimmt.
Keine Ahnung, obs stimmt.
Exclusive: GeForce RTX 30 series cards tight supply until end of year
If you want one, you better pre-order because my sources tell me GeForce RTX 3090, RTX 3080, and RTX 3070 stock will be LOW.
www.tweaktown.com
Cr@zed^
Grand Admiral Special
- Mitglied seit
- 19.03.2003
- Beiträge
- 3.152
- Renomée
- 224
- Standort
- Nußloch
- Mein Laptop
- Lenovo Ideapad 5 Ryzen 7 5700U
- Prozessor
- AMD Ryzen 9 7950X3D
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- ASUS ROG Ryujin II 360
- Speicher
- 64GiB G.Skill Trident Z5 Neo 6000
- Grafikprozessor
- ASUS ROG Strix RX 4090 OC
- Display
- ASUS ROG XG349C
- SSD
- WD Black SN850X 1TB | WD Black SN850X 2TB
- HDD
- NAS im Keller
- Optisches Laufwerk
- ext. ASUS BR Brenner
- Soundkarte
- Creative SoundBlasterX G6 @MMX300
- Gehäuse
- ASUS ROG Strix Helios
- Netzteil
- ASUS ROG Thor 1000W Platinum II
- Tastatur
- ASUS ROG Strix Flare II
- Maus
- ASUS ROG Gladius III
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Chrome
Na da lehne ich mich dann doch entspannt zurück. Gestern war ich wirklich noch total heiß auf die 3080, ist aber in den letzten 24h merklich abgekühlt (zum Glück)
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.490
- Renomée
- 2.030
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@Thunderbird 1400
Wenn ich mich nicht verrechnet habe dann hat die 3090 aber nur gute 20% mehr Shader als die 3080 und die Frage ist was am Ende davon ankommt. Damit könnte die 3090 vielleicht 60-80% schneller als die 2080Ti sein und der Speedup könnte deutlich geringer ausfallen als erwartet.
Irgendwie habe ich den Eindruck als würde beim Rendern nur einer der Doppelshader ankommen würde, kommt der zweite vielleicht nur bei RT wirklich zum Einsatz?
Wenn ich mich nicht verrechnet habe dann hat die 3090 aber nur gute 20% mehr Shader als die 3080 und die Frage ist was am Ende davon ankommt. Damit könnte die 3090 vielleicht 60-80% schneller als die 2080Ti sein und der Speedup könnte deutlich geringer ausfallen als erwartet.
Irgendwie habe ich den Eindruck als würde beim Rendern nur einer der Doppelshader ankommen würde, kommt der zweite vielleicht nur bei RT wirklich zum Einsatz?
TobiWahnKenobi
Grand Admiral Special
- Mitglied seit
- 11.08.2004
- Beiträge
- 7.016
- Renomée
- 153
- Standort
- Hannover
- Mein Laptop
- Macbook Pro 13" Retina BTO /i7
- Prozessor
- Intel Core i9 14900K
- Mainboard
- Z790 (Asrock)
- Kühlung
- H2O
- Speicher
- 48GB DDR5 7000 (40-52-52-52-114)
- Grafikprozessor
- 24GiB NVidia Geforce RTX 4090 OC
- Display
- 55" LG OLED C9 | 140" Acer DLP-3D
- SSD
- 8TB NVMe RAID + 3TB NVMe + 4TB SATA SSD
- HDD
- 36TB
- Optisches Laufwerk
- Bluray RW
- Soundkarte
- HDMI (Dolby Atmos @Yamaha AVR 5.2.2) / ALC / Hercules DJ Instinct Mixer
- Gehäuse
- Thermal Take X71
- Netzteil
- 1200W Corsair
- Tastatur
- Corsair K68 und originale von Cherry
- Maus
- Logitech G502
- Betriebssystem
- Windows 11
- Webbrowser
- Firefox
- Verschiedenes
- DVB-C, x10 Remote, XBox-Elite-Pad, Grafiktablet, Hercules DJ Instinct, iP2500, Fritzbox, Drucker, Oculus Rift VR
da wo es drauf ankommt, wird die 3090 knapp doppelt soviele frames schaffen wie die 2080ti; ich gehe von 60-90% aus.. die ampere-generation passt super zu UHD-120Hz-HDMI-2.1-gsync-OLEDs..
jetzt schickt mir doch endlich so ein ding!!
btw,
verglichen mit titan V und titan RTX ist das ding ein schnapper! allerdings lt. meiner glaskugel für weniger lange zeit als turing und volta. schon ein wechsel von samsungs 8nm auf TSMCs 7nm könnte ein 3090Ti modell auf der bildfläche erscheinen lassen, die nochmal etwas mehr takt aus dem 350W budget presst.
(..)
mfg
tobi
jetzt schickt mir doch endlich so ein ding!!
btw,
verglichen mit titan V und titan RTX ist das ding ein schnapper! allerdings lt. meiner glaskugel für weniger lange zeit als turing und volta. schon ein wechsel von samsungs 8nm auf TSMCs 7nm könnte ein 3090Ti modell auf der bildfläche erscheinen lassen, die nochmal etwas mehr takt aus dem 350W budget presst.
(..)
mfg
tobi
Oi!Olli
Grand Admiral Special
- Mitglied seit
- 24.12.2006
- Beiträge
- 16.423
- Renomée
- 789
- Mein Laptop
- HP Elitebook 8760W
- Prozessor
- Ryzen R7 5800X3D
- Mainboard
- Asus B 550 Strix F Wifi
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x 32 GB Kingston FURY DIMM DDR4 3600
- Grafikprozessor
- XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
- Display
- Acer Predator XB253QGP
- SSD
- Samsung 980 Pro 2 TB, Samsung 970 Evo Plus 2 TB
- HDD
- Samsung TB, 2x2 TB 1x3 TB 1x8 TB
- Optisches Laufwerk
- GH-22NS50
- Soundkarte
- Soundblaster Recon 3d
- Gehäuse
- Raijintek Zofos Evo Silent
- Netzteil
- BeQuiet Straight Power 750 Platinum
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Opera 101 (der Browser aktualisiert sich natürlich immer)
- Verschiedenes
- X-Box One Gamepad, MS Sidewinder Joystick
Wenn schon von früher geredet wird. Ja früher war auch ein Kühler, den man heute nicht mehr als Chipsatzlüfter nehmen würde, vergleichsweise teuer.
Früher wat auch eine im Vergleich zu heute nackte Plantine komplex und teuer. Technik entwickelt sich weiter.
Und nicht vergessen, heute werden externe Karten millionenfach verkauft. Wie hoch waren die Verkaufszahlen bei der Geforce 2 (alle Modelle inkl. MX)?
Nur zur Erinnerung. 3dfx hatte hohe Schulden und wurde geschluckt. Über solche Schulden würde sich heute kein Hersteller große Gedanken machen
Früher wat auch eine im Vergleich zu heute nackte Plantine komplex und teuer. Technik entwickelt sich weiter.
Und nicht vergessen, heute werden externe Karten millionenfach verkauft. Wie hoch waren die Verkaufszahlen bei der Geforce 2 (alle Modelle inkl. MX)?
Nur zur Erinnerung. 3dfx hatte hohe Schulden und wurde geschluckt. Über solche Schulden würde sich heute kein Hersteller große Gedanken machen
Maverick-F1
Grand Admiral Special
Naja - letztenendes kommt es doch auf die Leistung im Verhältnis zum Verbrauch und den Kosten an. Und dazu sind die Reviews - und RDNA 2 - noch abzuwarten.
Imho kann man erst dann sagen, ob die grünen Karten der Lederjacke zu teuer / zu ineffizient / zu langsam sind - oder eben nicht...
Ich halte es da wie Igor: Mit einem Kübel Popcorn zurücklehnen, die Show genießen und am Schluß das beste Angebot nehmen!
Imho kann man erst dann sagen, ob die grünen Karten der Lederjacke zu teuer / zu ineffizient / zu langsam sind - oder eben nicht...
Ich halte es da wie Igor: Mit einem Kübel Popcorn zurücklehnen, die Show genießen und am Schluß das beste Angebot nehmen!
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.944
- Renomée
- 2.836
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Nvidia GeForce RTX 3080 Hands-On-Review - Test sponsored by Nvidia? (TweakPC)
#heiseshow: GeForce RTX 3000 - kann Nvidia die Leistungsversprechen erfüllen? (heise)
Heute um 12 Uhr
Doppelposting wurde automatisch zusammengeführt:
#heiseshow: GeForce RTX 3000 - kann Nvidia die Leistungsversprechen erfüllen? (heise)
Heute um 12 Uhr
Zuletzt bearbeitet:
gut ist das so oder so nicht. aber den trend weg vom fachjournalismus hin zu influencern sehen wir nicht nur bei nvidia. genauso geblacklistete reviewer. zuletzt hatte steve burke von gamersnexus bei der vorstellung der ampere-karten durchblicken lassen, dass er zwar nicht direkt von nvidia, afaik aber bei einem der board-parnter (war wohl zotac?) auf einer blacklist steht.
auch wenn ich der art von steve nicht viel abgewinnen kann, ist er aber anscheinend mittlerweile unabhängig genug, dass er sich im zweifel die testmuster selbst kaufen kann. kleine webseiten wie seinerzeit ht4u oder jetzt eben auch tweakpc fallen dann einfach mal hinten runter.
aber es wird auf diese weise für verkaufsstart schon mal ordentlich stimmung gemacht, ohne dass es seriöse tests gibt. da laufen jetzt viele los und bestellen ampere-karten vor. gleichzeitig wird ebay mit "alten" turing-karten geflutet. herzlichen glückwünsch.
und dabei will ich noch gar nicht mal in zweifel ziehen, dass ampere tatsächlich so gut ist, wie es sich derzeit darstellt.
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.944
- Renomée
- 2.836
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
Vorbestellungen geht noch nicht, erst an den angekündigten Tagen wenn ich das richtig verstehe
Gamers Nexus und Hardware Unboxed wurden btw auch von AsRock auf blacklist gesetzt wegen "vernichtenden" Tests von Z490 Boards die nicht mal einen 10900K auf Standard ohne drosseln betreiben können.
Gamers Nexus und Hardware Unboxed wurden btw auch von AsRock auf blacklist gesetzt wegen "vernichtenden" Tests von Z490 Boards die nicht mal einen 10900K auf Standard ohne drosseln betreiben können.
Zuletzt bearbeitet:
bschicht86
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 14.12.2006
- Beiträge
- 4.250
- Renomée
- 228
- BOINC-Statistiken
- Prozessor
- 2950X
- Mainboard
- X399 Taichi
- Kühlung
- Heatkiller IV Pure Chopper
- Speicher
- 64GB 3466 CL16
- Grafikprozessor
- 2x Vega 64 @Heatkiller
- Display
- Asus VG248QE
- SSD
- PM981, SM951, ein paar MX500 (~5,3TB)
- HDD
- -
- Optisches Laufwerk
- 1x BH16NS55 mit UHD-BD-Mod
- Soundkarte
- Audigy X-Fi Titanium Fatal1ty Pro
- Gehäuse
- Chieftec
- Netzteil
- Antec HCP-850 Platinum
- Betriebssystem
- Win7 x64, Win10 x64
- Webbrowser
- Firefox
- Verschiedenes
- LS120 mit umgebastelten USB -> IDE (Format wie die gängigen SATA -> IDE)
Gamers Nexus und Hardware Unboxed wurden btw auch von AsRock auf blcklist gesetzt wegen "vernichtenden" Tests von Z490 Boards die nicht mal einen 10900K auf Standard ohne drosseln betreiben können.
Auch eine Möglichkeit, Kritik an den eigenen Produkten zu unterbinden. Aber leider lässt sich das Phänomen überall in unserer Gesellschaft erleben - unliebsames wird einfach ausgeklammert, auch wenns wahr sein mag.
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 21.944
- Renomée
- 2.836
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
E555user
Admiral Special
- Mitglied seit
- 05.10.2015
- Beiträge
- 1.560
- Renomée
- 606
Ich denke auch, dass das Video von DigitalFoundry mit sehr viel Skepsis betrachtet werden sollte.
Es sind ausschliesslich 4k Auflösungen ohne FPS-Angabe und etwas unklarer Konfiguration vorgestellt worden.
Man sollte bedenken, dass z.B. eine RTX2080 bei Control ohne DLSS mit allen RT-Effekten in 4k zwischen 15 und 35 FPS pendelt. Das wären dann gerade so akzeptable Frameraten mit einer RTX3080 in 4k auch ohne DLSS. Bei kleineren Modellen würde hierbei 4k wohl nur mit DLSS akzeptabel werden.
Dass man für Ampere nur von einer doppelten RT-Leistung ausgeht ist vielleicht noch nicht ganz der notwendige Durchbruch. Besseres DLSS blieb unbeantwortet.
Es kommt sehr darauf an wie schnell die Software für die Ampere-Architektur optimiert wird und welche Auflösung und Effekte man mit dem Upgrade nutzen möchte. Ich würde annehmen bei >700Euro tendenziell 4k ohne Kompromisse.
Natürlich ist die Preislage von dem Turing Niveau ausgehend eine viel bessere, dort war RT aber kaum relevant, d.h. ich würde eher auf die PL im Vergleich zu Pascal und Vega/RDNA schauen um Ampere einzuschätzen. Sicherlich wird die Beurteilung nach den Reviews in Full-HD und 1440p bzw. nach dem RDNA2-Start nochmal eine korrigierte sein.
Zumindest sollen die künftigem Konsolen-Titel inklusive Raytracing bei 4k gut spielbare Frameraten schaffen. Von daher müsste ein entsprechendes RDNA2 Angebot für entsprechende Multiplattformer und Portierungen absolut ausreichend sein. Auch wenn der Leistungsvergleich von RDNA2 zu Ampere im Einzelnen zurück liegen mag, der Preis oder die Energieaufnahme könnten dann eher entscheidend werden, wenn 4k 60Hz und Raytracing grundsätzlich stabil geht.
Es sind ausschliesslich 4k Auflösungen ohne FPS-Angabe und etwas unklarer Konfiguration vorgestellt worden.
Man sollte bedenken, dass z.B. eine RTX2080 bei Control ohne DLSS mit allen RT-Effekten in 4k zwischen 15 und 35 FPS pendelt. Das wären dann gerade so akzeptable Frameraten mit einer RTX3080 in 4k auch ohne DLSS. Bei kleineren Modellen würde hierbei 4k wohl nur mit DLSS akzeptabel werden.
Dass man für Ampere nur von einer doppelten RT-Leistung ausgeht ist vielleicht noch nicht ganz der notwendige Durchbruch. Besseres DLSS blieb unbeantwortet.
Es kommt sehr darauf an wie schnell die Software für die Ampere-Architektur optimiert wird und welche Auflösung und Effekte man mit dem Upgrade nutzen möchte. Ich würde annehmen bei >700Euro tendenziell 4k ohne Kompromisse.
Natürlich ist die Preislage von dem Turing Niveau ausgehend eine viel bessere, dort war RT aber kaum relevant, d.h. ich würde eher auf die PL im Vergleich zu Pascal und Vega/RDNA schauen um Ampere einzuschätzen. Sicherlich wird die Beurteilung nach den Reviews in Full-HD und 1440p bzw. nach dem RDNA2-Start nochmal eine korrigierte sein.
Zumindest sollen die künftigem Konsolen-Titel inklusive Raytracing bei 4k gut spielbare Frameraten schaffen. Von daher müsste ein entsprechendes RDNA2 Angebot für entsprechende Multiplattformer und Portierungen absolut ausreichend sein. Auch wenn der Leistungsvergleich von RDNA2 zu Ampere im Einzelnen zurück liegen mag, der Preis oder die Energieaufnahme könnten dann eher entscheidend werden, wenn 4k 60Hz und Raytracing grundsätzlich stabil geht.
Thunderbird 1400
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 17.983
- Renomée
- 319
- Prozessor
- AMD Ryzen 7800X3D
- Mainboard
- Gigabyte X670E Aorus Pro X
- Kühlung
- Corsair H115i Pro AiO Wakü
- Speicher
- 32GB G.Skill Trident Z5 DDR5-7200 CL34
- Grafikprozessor
- RTX4080 Super (Gigabyte Aero OC)
- Display
- 55" TV & Leinwand
- SSD
- 2TB Samsung 980 Pro (M.2), 2x 2TB Transcent (M.2), 1TB Crucial MX500 (SATA)
- HDD
- 2TB
- Soundkarte
- Realtek Onboard
- Gehäuse
- Fractal Design North XL (white)
- Netzteil
- 850W be quiet! Pure Power 12M ATX3.0
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Verschiedenes
- Meta Quest 3
Lol geil, sucht mal bei eBay Kleinanzeigen nach RTX2080Ti. Da entbrennt jetzt schon ordentlich der Preiskampf zwischen denen, die die Karte jetzt nur noch bei 300-400€ sehen wegen der RTX3070 (diverse Gesuche nach 2080Ti Karten in dem Preisbereich mit Hinweis, dass alles darüber jetzt unverschämt wäre) und denen, die meinen, ihre Karten jetzt kurz vor dem Preisrutsch noch für 700-900€ jemandem andrehen zu können. Vorhin war sogar ein "Angebot" von einem drin, der mit seinem Angebotsbild dazu aufrufen wollte, dass niemand seine Karte unter 550€ abgeben solle, weil die RTX3070 nur in Raytracing besser sei
Witzig, was nVidia da jetzt auf einmal ausgelöst hat. Wie ich sagte: Bald kann man eine 2080Ti gebraucht zum Schnäppchenpreis bekommen (natürlich erst, wenn die neuen Karten wirklich verfügbar sind). Natürlich sorgt das dann auch bei allen anderen Karten für einen Preisrutsch. Meine bis vor kurzem noch ganz odentliche und immer noch recht hoch gehandelte 1080Ti ist dann vermutlich keine 200€ mehr wert
Witzig, was nVidia da jetzt auf einmal ausgelöst hat. Wie ich sagte: Bald kann man eine 2080Ti gebraucht zum Schnäppchenpreis bekommen (natürlich erst, wenn die neuen Karten wirklich verfügbar sind). Natürlich sorgt das dann auch bei allen anderen Karten für einen Preisrutsch. Meine bis vor kurzem noch ganz odentliche und immer noch recht hoch gehandelte 1080Ti ist dann vermutlich keine 200€ mehr wert
Zuletzt bearbeitet:
bschicht86
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 14.12.2006
- Beiträge
- 4.250
- Renomée
- 228
- BOINC-Statistiken
- Prozessor
- 2950X
- Mainboard
- X399 Taichi
- Kühlung
- Heatkiller IV Pure Chopper
- Speicher
- 64GB 3466 CL16
- Grafikprozessor
- 2x Vega 64 @Heatkiller
- Display
- Asus VG248QE
- SSD
- PM981, SM951, ein paar MX500 (~5,3TB)
- HDD
- -
- Optisches Laufwerk
- 1x BH16NS55 mit UHD-BD-Mod
- Soundkarte
- Audigy X-Fi Titanium Fatal1ty Pro
- Gehäuse
- Chieftec
- Netzteil
- Antec HCP-850 Platinum
- Betriebssystem
- Win7 x64, Win10 x64
- Webbrowser
- Firefox
- Verschiedenes
- LS120 mit umgebastelten USB -> IDE (Format wie die gängigen SATA -> IDE)
nehme ich.. wenn etwas für 8k/60 angeteasert wird, sollte es für 4k/120 eigentlich reichen..
Du wirst wohl davon ausgehen dürfen, dass das nur mit DLSS auf höchster Stufe zu schaffen sein wird, natives 8k wird sie wohl nicht packen. Und 8k DLSS dürfte wohl nativ bei WQHD bis UD raus kommen.
Thunderbird 1400
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 17.983
- Renomée
- 319
- Prozessor
- AMD Ryzen 7800X3D
- Mainboard
- Gigabyte X670E Aorus Pro X
- Kühlung
- Corsair H115i Pro AiO Wakü
- Speicher
- 32GB G.Skill Trident Z5 DDR5-7200 CL34
- Grafikprozessor
- RTX4080 Super (Gigabyte Aero OC)
- Display
- 55" TV & Leinwand
- SSD
- 2TB Samsung 980 Pro (M.2), 2x 2TB Transcent (M.2), 1TB Crucial MX500 (SATA)
- HDD
- 2TB
- Soundkarte
- Realtek Onboard
- Gehäuse
- Fractal Design North XL (white)
- Netzteil
- 850W be quiet! Pure Power 12M ATX3.0
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Verschiedenes
- Meta Quest 3
Jup, in 8K erreicht die 3090 in den Spielen Control und Wolfenstein Youngblood laut nVidia gerade mal 8 bzw. 26fps. 8K kann man vergessen, aber solch eine Auflösung ist eh unnütz. DLSS ist aber wirklich eine sehr interessante Entwicklung.
bschicht86
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 14.12.2006
- Beiträge
- 4.250
- Renomée
- 228
- BOINC-Statistiken
- Prozessor
- 2950X
- Mainboard
- X399 Taichi
- Kühlung
- Heatkiller IV Pure Chopper
- Speicher
- 64GB 3466 CL16
- Grafikprozessor
- 2x Vega 64 @Heatkiller
- Display
- Asus VG248QE
- SSD
- PM981, SM951, ein paar MX500 (~5,3TB)
- HDD
- -
- Optisches Laufwerk
- 1x BH16NS55 mit UHD-BD-Mod
- Soundkarte
- Audigy X-Fi Titanium Fatal1ty Pro
- Gehäuse
- Chieftec
- Netzteil
- Antec HCP-850 Platinum
- Betriebssystem
- Win7 x64, Win10 x64
- Webbrowser
- Firefox
- Verschiedenes
- LS120 mit umgebastelten USB -> IDE (Format wie die gängigen SATA -> IDE)
Früher hat man sowas "Schummeln bei der Bildqualität" genannt. Wie sich die Zeiten doch ändern.
Thunderbird 1400
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 17.983
- Renomée
- 319
- Prozessor
- AMD Ryzen 7800X3D
- Mainboard
- Gigabyte X670E Aorus Pro X
- Kühlung
- Corsair H115i Pro AiO Wakü
- Speicher
- 32GB G.Skill Trident Z5 DDR5-7200 CL34
- Grafikprozessor
- RTX4080 Super (Gigabyte Aero OC)
- Display
- 55" TV & Leinwand
- SSD
- 2TB Samsung 980 Pro (M.2), 2x 2TB Transcent (M.2), 1TB Crucial MX500 (SATA)
- HDD
- 2TB
- Soundkarte
- Realtek Onboard
- Gehäuse
- Fractal Design North XL (white)
- Netzteil
- 850W be quiet! Pure Power 12M ATX3.0
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Verschiedenes
- Meta Quest 3
Naja, weil es kein Schummeln ist. Es ist der einzig logische und vorhersehbare Weg, nicht immer weiter die Auflösungen zu erhöhen (was viel zu rechenintensiv ist), sondern auf immer intelligentere Weise die Kanten und Treppchen zu glätten. Die Auflösung von 4K reicht absolut aus, um ein kristallklares Bild mit extrem scharfen Kanten darzustellen.
Unser Gehirn macht schließlich nichts anderes und rechnet geschätzte Details auf Grund von Erfahrungen hinzu. Da es nur um minimalste Details geht, die für das Spielgeschehen nicht relevant sind, ist das absolut der richtige Weg aus meiner Sicht. Die zukünftigen Möglichleiten mit dieser Technologie sind riesig. Im Grunde reicht FHD mit intelligenter KI-Verbesserung aus, man kann hier Unmengen von Rechenleistung und Bandbreite einsparen. Die große Keule der extrem hohen Auflösungen kann man wieder einstecken.
Unser Gehirn macht schließlich nichts anderes und rechnet geschätzte Details auf Grund von Erfahrungen hinzu. Da es nur um minimalste Details geht, die für das Spielgeschehen nicht relevant sind, ist das absolut der richtige Weg aus meiner Sicht. Die zukünftigen Möglichleiten mit dieser Technologie sind riesig. Im Grunde reicht FHD mit intelligenter KI-Verbesserung aus, man kann hier Unmengen von Rechenleistung und Bandbreite einsparen. Die große Keule der extrem hohen Auflösungen kann man wieder einstecken.
Ähnliche Themen
- Antworten
- 611
- Aufrufe
- 47K
- Antworten
- 1K
- Aufrufe
- 73K
- Antworten
- 228
- Aufrufe
- 24K
- Antworten
- 55
- Aufrufe
- 6K
- Antworten
- 51
- Aufrufe
- 7K