App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
GeForce 9600GT unterstützt kein DirectX 10.1
- Ersteller NOFX
- Erstellt am
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Wie die Kollegen der chilenischen Webseite ChileHardware erfahren haben, soll NVIDIAs kommende Mainstream-Grafikkarte noch kein DirectX 10.1 unterstützen.
Nach diesen Informationen wird die auf dem D9P basierende GeForce 9600GT nur DirectX 10 mit dem Shader Model 4.0 beherrschen. Sie ist bereits zu PCIe 2.0 kompatibel und soll bis zu 512MB GDDR3-Speicher (1000/2000MHz) besitzen. Nach früheren Informationen verfügt sie über 64 Stream-Prozessoren, die mit 1500MHz getaktet sind, und einen GPU-Takt von 650MHz.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=1295"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1295"></a>
<small>Bildquelle: <a href="http://www.chilehardware.com/foro/informacion-exclusiva-sobre-t133896.html?p=1638246#post1638246" target="_blank">ChileHardware</a></small></center>
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=1296"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1296"></a>
<small>Bildquelle: <a href="http://www.chilehardware.com/foro/informacion-exclusiva-sobre-t133896.html?p=1638246#post1638246" target="_blank">ChileHardware</a></small></center>
Weiterhin soll sie sich um bis zu 90% vor einer GeForce 8600GTS positionieren können, was auf Grund der doppelten Anzahl an Stream-Prozessoren und dem verdoppelten Speicherinterface auch realistisch erscheint.
<b>Quelle:</b> <a href="http://www.google.com/translate?u=http%3A%2F%2Fwww.chilehardware.com%2Fforo%2Finformacion-exclusiva-sobre-t133896.html%3Fp%3D1638246%23post1638246&langpair=es%7Cen&hl=en&ie=UTF8" target="_blank">Informacion exclusiva sobre 9600GT</a>
Nach diesen Informationen wird die auf dem D9P basierende GeForce 9600GT nur DirectX 10 mit dem Shader Model 4.0 beherrschen. Sie ist bereits zu PCIe 2.0 kompatibel und soll bis zu 512MB GDDR3-Speicher (1000/2000MHz) besitzen. Nach früheren Informationen verfügt sie über 64 Stream-Prozessoren, die mit 1500MHz getaktet sind, und einen GPU-Takt von 650MHz.
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=1295"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1295"></a>
<small>Bildquelle: <a href="http://www.chilehardware.com/foro/informacion-exclusiva-sobre-t133896.html?p=1638246#post1638246" target="_blank">ChileHardware</a></small></center>
<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=1296"><img src="http://www.planet3dnow.de/photoplog/file.php?n=1296"></a>
<small>Bildquelle: <a href="http://www.chilehardware.com/foro/informacion-exclusiva-sobre-t133896.html?p=1638246#post1638246" target="_blank">ChileHardware</a></small></center>
Weiterhin soll sie sich um bis zu 90% vor einer GeForce 8600GTS positionieren können, was auf Grund der doppelten Anzahl an Stream-Prozessoren und dem verdoppelten Speicherinterface auch realistisch erscheint.
<b>Quelle:</b> <a href="http://www.google.com/translate?u=http%3A%2F%2Fwww.chilehardware.com%2Fforo%2Finformacion-exclusiva-sobre-t133896.html%3Fp%3D1638246%23post1638246&langpair=es%7Cen&hl=en&ie=UTF8" target="_blank">Informacion exclusiva sobre 9600GT</a>
G
gast0972
Guest
Bezweifele ich, das das Modell ansonsten relativ sinnfrei wäre.
MastorDisastor
Grand Admiral Special
- Mitglied seit
- 18.06.2002
- Beiträge
- 4.139
- Renomée
- 37
- Standort
- Bayern
- Mein Laptop
- MSI Megabook G600
- Prozessor
- intel Core i5-750 @ 4,1GHz
- Mainboard
- ASUS P7P55D Deluxe
- Kühlung
- Scythe Mugen2
- Speicher
- G.Skill 4 GB DDR3 1600 8-8-8-24
- Grafikprozessor
- Club3D Radeon HD5870
- Display
- LG 23" LCD
- HDD
- 2x WD Caviar Black 640BG 7.200 U/min @ RAID0
- Optisches Laufwerk
- LG DVD+/-R Brenner (DL)
- Soundkarte
- Creative XFi XtremeMusic
- Gehäuse
- Xigmatek Asgard
- Netzteil
- CoolerMaster SilentPro 500W
- Betriebssystem
- Windows 7
- Webbrowser
- Firefox 3.5
- Verschiedenes
- Teufel Concept E Magnum
- Schau Dir das System auf sysprofile.de an
Ich halts auch nicht für sinnfrei, denn nvidia hat vor kurzem noch lautstark behauptet, dass DX10.1 unnütz wäre (sowas in der art?) und die daher auch erstmal nicht auf DX10.1 setzen werden, und Crytec hat auch was gesagt, dass kein DX10.1 Patch oder sowas kommen wird da es sich nciht wirklich lohnt.....
Ich schau ma ob ich die Quellen dazu noch finden kann.....
Ich schau ma ob ich die Quellen dazu noch finden kann.....
Kali
Vice Admiral Special
Weiterhin soll sie sich um bis zu 90% vor einer GeForce 8600GTS positionieren können,
Das ist dann wieviele Prozent vor/hinter einer 8800 Ultra/GTS512/GT?
Wer hat die Daten und Lust nachzurechnen?
Greez
Kali
hm, wenn das stimmt, das sie ca. 90% vor einer 8600gt liegen soll, würde sie der 3850 konkurrenz machen ABER nvidia hat doch in dem Segement schon was? Die 8800gt mit 256mb zb oder die 8800gs.
Wenn der Chip nicht IRGENDWAS neues bringt, versteh ich auch nicht wirklich, was das soll. Vielleicht Stromsparoptimierungen?
Wenn der Chip nicht IRGENDWAS neues bringt, versteh ich auch nicht wirklich, was das soll. Vielleicht Stromsparoptimierungen?
EiRoGGe
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.219
- Renomée
- 7
- Standort
- Leipzig
- Folding@Home-Statistiken
- Mein Laptop
- IBM Thinkpad T60
- Prozessor
- Intel Core i7-2600K @ 4x 4000MHz @ 1,144V
- Mainboard
- ASUS P8Z68-V, Sockel 1155
- Kühlung
- Thermalright HR-02 Macho (semi-passiv)
- Speicher
- 4x Kingston 4GB DDR3-1333 CL9
- Grafikprozessor
- Intel HD 3000
- Display
- ASUS PA246Q, 1920x1200
- HDD
- Crucial m4 128GB, 2x Hitachi Z5K320 320GB
- Optisches Laufwerk
- Pioneer DVR-212BK
- Soundkarte
- Realtek HD
- Gehäuse
- Fractal Define R3
- Netzteil
- HuntKey Jumper 300G @ Enermax T.B.Silence @ 5V
- Betriebssystem
- Windows 7 Professional x64
- Webbrowser
- Mozilla Firefox
Wenn der Chip nicht IRGENDWAS neues bringt, versteh ich auch nicht wirklich, was das soll. Vielleicht Stromsparoptimierungen?
Kleinere DIEs -> mehr DIEs auf einem Wafer -> bessere Ausbeute und weniger Kosten
Meine Mutmaßung
LordAndrax
Gesperrt
- Mitglied seit
- 11.06.2005
- Beiträge
- 4.618
- Renomée
- 41
Wenn Preis/Leistung und Stromverbrauch in Ordnung ist gehts doch.
Wenn ich mal eine DX10 Karte brauche, dann sind wir wohl schon bei DX12 oder so.
Sollte mal Vista auf einem Pc von mir erscheinen, wirds noch viele andere Grakas gegeben haben.
Für harte DX10 Games ist sie dann wohl eher eh ein bissel lam, da ist es doch nicht wirklich nötig welche DX10 Version untertützt wird, für eine "normal im gebrauch Karte" reichts doch aus.
Wenn ich mal eine DX10 Karte brauche, dann sind wir wohl schon bei DX12 oder so.
Sollte mal Vista auf einem Pc von mir erscheinen, wirds noch viele andere Grakas gegeben haben.
Für harte DX10 Games ist sie dann wohl eher eh ein bissel lam, da ist es doch nicht wirklich nötig welche DX10 Version untertützt wird, für eine "normal im gebrauch Karte" reichts doch aus.
Ich halts auch nicht für sinnfrei, denn nvidia hat vor kurzem noch lautstark behauptet, dass DX10.1 unnütz wäre (sowas in der art?) und die daher auch erstmal nicht auf DX10.1 setzen werden
Weil ATI es zuerst unterstützt...
, und Crytec hat auch was gesagt, dass kein DX10.1 Patch oder sowas kommen wird da es sich nciht wirklich lohnt....
Weil nvidia denen Crysis programmiert hat...
wie war das damals
Directx 8 1.4 braucht keiner.... (Nvidia...) Geforce 3 &4 vs. die ati karten 8500 9200 etc.
Wie äußerte sich das? In vielen Spielen fehlten die 1.4er shader effekte zb. Max Payne 2 Spieglungen etc. (mit Ati kein problem...)
Direct X9 Shader model 2 (Nvidia hatte keinen vollen support der FX reihe... starker einbruch gegen die alten modele von Ati 9500/9700, zudem keinen support für alle effekte (Half Life2)
Shader Model 3 braucht keiner (Ati...) hmm das gleiche spiel... diesmal hatte Nvidia diese effekte.
Wacht doch auf warum gibts denn den DirectX10.1? Ich bin mir Sicher das Alan Wake (hmm Remedy ist vielleicht noch ATi Partner...) nur mit DX10.1 mit vollen effekten läuft.
Directx 8 1.4 braucht keiner.... (Nvidia...) Geforce 3 &4 vs. die ati karten 8500 9200 etc.
Wie äußerte sich das? In vielen Spielen fehlten die 1.4er shader effekte zb. Max Payne 2 Spieglungen etc. (mit Ati kein problem...)
Direct X9 Shader model 2 (Nvidia hatte keinen vollen support der FX reihe... starker einbruch gegen die alten modele von Ati 9500/9700, zudem keinen support für alle effekte (Half Life2)
Shader Model 3 braucht keiner (Ati...) hmm das gleiche spiel... diesmal hatte Nvidia diese effekte.
Wacht doch auf warum gibts denn den DirectX10.1? Ich bin mir Sicher das Alan Wake (hmm Remedy ist vielleicht noch ATi Partner...) nur mit DX10.1 mit vollen effekten läuft.
SILen(e
Admiral Special
- Mitglied seit
- 25.10.2004
- Beiträge
- 1.331
- Renomée
- 48
- Standort
- Hamburg
- Prozessor
- Core 2 Duo E8400
- Mainboard
- Gigabyte P965 DS3 Rev 3.3
- Kühlung
- Alpenföhn Groß-Clock'ner
- Speicher
- MDT 4x1024MB DDR2-800
- Grafikprozessor
- Sapphire ATI Radeon 4870 512MB
- Display
- Samsung 245B/FSC 19zoll
- HDD
- WDC WD6400 AAKS
- Optisches Laufwerk
- LG GGC-H20L BluRay/HD DVD-Kombi
- Soundkarte
- Onboard
- Gehäuse
- Thermaltake Xaser
- Netzteil
- Enermax Modu+ 425 Watt
- Betriebssystem
- Windows 7 RC 32bit
- Webbrowser
- Firefox
Laut Gerüchteküche hat 3D Mark Vantage doch einen Test eigens für DX10.1, allein dieser Test, sofern er sich in höheren Punktzahlen der Ati-Modelle niederschlägt, sollte für nVidia ein Grund sein DX10.1 einzuführen, da 3D Mark zwar immer wieder belächelt, aber trotzdem auch immer wieder verwendet wird.
genervt
Admiral Special
- Mitglied seit
- 27.07.2006
- Beiträge
- 1.135
- Renomée
- 10
- Standort
- Berlin
- Aktuelle Projekte
- NumberFields
- BOINC-Statistiken
- Mein Laptop
- Leonvo E145
- Prozessor
- XEON 1230v2
- Mainboard
- H61M-K [Ersatz]
- Kühlung
- Brocken
- Speicher
- 16 GB Corsair
- Grafikprozessor
- RX480 8GB
- Display
- BenQ BL3200PT - 30 Zoll - 1440p
- SSD
- Crucial MX100, BX200
- HDD
- 1x 750GB 1x 3 TB
- Optisches Laufwerk
- LG BH10LS30
- Soundkarte
- Xonar DX
- Gehäuse
- Fractal
- Netzteil
- BeQuiet
- Betriebssystem
- Win7 64bit, Win10
- Webbrowser
- Firefox
- Verschiedenes
- im Umbau
Deswegen läufts auch so grottigWeil nvidia denen Crysis programmiert hat...
Ich sehe zwar in 2008 auch nicht viele Spiele mit DX10.1 aber es ist trotzdem schade, dass NVIDIA technisch hinterher hinkt. Irgendwann wird sich das rächen. Gut mit der großen kann man sich dank ATIs Hilfe Zeit lassen. Aber wie war das noch Microsoft hat DX10 umgebaut weil NVIDIA irgendwas nicht hinbekommen hat? Ein Schelm wer böses dabei denkt.
Pitt G.
Admiral Special
- Mitglied seit
- 17.07.2002
- Beiträge
- 1.630
- Renomée
- 11
- Prozessor
- FX-60
- Mainboard
- ASRock 939Dual-VSTA
- Kühlung
- Boxed
- Speicher
- 4*1GB Kingston DDR 400
- Grafikprozessor
- ASUS EN8600 GTS
- Display
- 19"Eizo S1901SH-BK 1280*1020
- HDD
- Intel X-25M 80GB
- Optisches Laufwerk
- LG GGW-H20L
- Soundkarte
- onboard CMedia CM6501
- Gehäuse
- Chieftec Dragon DX-01BD-U-OP
- Netzteil
- Enermax Liberty ELT620AWT
- Betriebssystem
- WinVista HomePremium 32 Bit
- Webbrowser
- IE
Seltsam die 26 A auf 12 Volt beim Netzteil, das war soweit mir bekannt der Stromverbrauch der alten 8800GTS320/640 und der 8800GTS512, nur die 8800GT lag leicht drunter.
Würde mich nicht wundern, wenn die G92 Karten ursprünglich 9600GT heissen sollten.
Ansonsten kann ich mir nicht erklären, wie eine Karte mit den Specs genauso viel Strom wie die genannten Karten verbraten sollte.
Würde mich nicht wundern, wenn die G92 Karten ursprünglich 9600GT heissen sollten.
Ansonsten kann ich mir nicht erklären, wie eine Karte mit den Specs genauso viel Strom wie die genannten Karten verbraten sollte.
G
gast0972
Guest
Die treiberseitige Virtualisierung des Grafikkartenspeichers... haben aber weder NVIDIA noch ATI gebacken bekommen.Aber wie war das noch Microsoft hat DX10 umgebaut weil NVIDIA irgendwas nicht hinbekommen hat?
Daher halte ich das GERÜCHT DX10 für eben Jenes. Ein Gerücht. Die 9600 macht nur Sinn, wenn sie auch DX 10.1 in Hardware unterstützt.
genervt
Admiral Special
- Mitglied seit
- 27.07.2006
- Beiträge
- 1.135
- Renomée
- 10
- Standort
- Berlin
- Aktuelle Projekte
- NumberFields
- BOINC-Statistiken
- Mein Laptop
- Leonvo E145
- Prozessor
- XEON 1230v2
- Mainboard
- H61M-K [Ersatz]
- Kühlung
- Brocken
- Speicher
- 16 GB Corsair
- Grafikprozessor
- RX480 8GB
- Display
- BenQ BL3200PT - 30 Zoll - 1440p
- SSD
- Crucial MX100, BX200
- HDD
- 1x 750GB 1x 3 TB
- Optisches Laufwerk
- LG BH10LS30
- Soundkarte
- Xonar DX
- Gehäuse
- Fractal
- Netzteil
- BeQuiet
- Betriebssystem
- Win7 64bit, Win10
- Webbrowser
- Firefox
- Verschiedenes
- im Umbau
thx ShiningDragon
hatte nur im Kopf, dass NVIDIA damit Probs hatte. Wir werdens ja sehn, ob die 9XXX-Serie DX10.1 unterstützt. NVIDIA hatte es bereits mit der 8800 geschafft im Vorfeld falsche Gerüchte zu streuen und damit ATI in Sicherheit gewogen. Ich hatte die NVIDIA-Aussage immer so interpretiert, dass man sich halt wegen DX10.1 keine ATI holen braucht. Die 88er sind eh schneller und tuns auch ohne DX10.1.
hatte nur im Kopf, dass NVIDIA damit Probs hatte. Wir werdens ja sehn, ob die 9XXX-Serie DX10.1 unterstützt. NVIDIA hatte es bereits mit der 8800 geschafft im Vorfeld falsche Gerüchte zu streuen und damit ATI in Sicherheit gewogen. Ich hatte die NVIDIA-Aussage immer so interpretiert, dass man sich halt wegen DX10.1 keine ATI holen braucht. Die 88er sind eh schneller und tuns auch ohne DX10.1.
oO_MUCK_Oo
Commander
- Mitglied seit
- 04.01.2007
- Beiträge
- 160
- Renomée
- 11
- Mein Laptop
- MEIN SYSTEM
- Prozessor
- intel Core2Duo E6400 @ 3,0 GHZ
- Mainboard
- Asus P5B
- Kühlung
- Zalman 9500 Intel Edition
- Speicher
- 2x 1 GB DDR2 800 TeamGroup Elite
- Grafikprozessor
- MSI 8800GT OC
- Display
- 22 Zoll Samsung SyncMaster 226BW
- HDD
- 160 GB SataII Samsung
- Optisches Laufwerk
- DVD Brenner Samsung
- Soundkarte
- OnBoard
- Gehäuse
- Thermaltake Tsunami Dream
- Netzteil
- Seasonic S12 420 Watt
- Betriebssystem
- Windows Vista Home Premium 32bit
- Webbrowser
- Firefox
Also da kann man doch gut zur 8800GT greifen
so ganz versteh ich nvidias produkt-aufstellung im moment auch nicht. gegen die 3850 hat man ja im prinzip die 8800gt mit 256mb positioniert. und mit der 8800gs bringt man in dem preissegment eine weitere alternative mit mehr speicher.
wenn dann die 9600er so viel besser sein soll als die derzeitige 8600er serie, dann spielt man doch wahrscheinlich in der gleichen liga wie die 8800gt-256 und die 8800gs. da fragt man sich offen gestanden, was das bringen soll!? mehr als evtl. vorteile bei den produktionskosten fallen mir da offen gestanden auch nicht. aber nvidia hat bereits im falle der 8800gt die boardpartner angehalten, günstigere modelle zu produzieren.
wenn dann die 9600er so viel besser sein soll als die derzeitige 8600er serie, dann spielt man doch wahrscheinlich in der gleichen liga wie die 8800gt-256 und die 8800gs. da fragt man sich offen gestanden, was das bringen soll!? mehr als evtl. vorteile bei den produktionskosten fallen mir da offen gestanden auch nicht. aber nvidia hat bereits im falle der 8800gt die boardpartner angehalten, günstigere modelle zu produzieren.
Pitt G.
Admiral Special
- Mitglied seit
- 17.07.2002
- Beiträge
- 1.630
- Renomée
- 11
- Prozessor
- FX-60
- Mainboard
- ASRock 939Dual-VSTA
- Kühlung
- Boxed
- Speicher
- 4*1GB Kingston DDR 400
- Grafikprozessor
- ASUS EN8600 GTS
- Display
- 19"Eizo S1901SH-BK 1280*1020
- HDD
- Intel X-25M 80GB
- Optisches Laufwerk
- LG GGW-H20L
- Soundkarte
- onboard CMedia CM6501
- Gehäuse
- Chieftec Dragon DX-01BD-U-OP
- Netzteil
- Enermax Liberty ELT620AWT
- Betriebssystem
- WinVista HomePremium 32 Bit
- Webbrowser
- IE
Der Link zur Quelle funktioniert nicht
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Das würde ich ja auch sagen. DX10.1 ist zwar technisch ziemlich unwichtig, genauso wie DX10 (eine Karte in der Geschwindigkeit einer 8800GT würde ich auch kaufen, wenn sie nur DX9 könnte), aber im Marketing ist das unverzichtbar.Die 9600 macht nur Sinn, wenn sie auch DX 10.1 in Hardware unterstützt.
Es soll ja angeblich auch sehr einfach einzubauen sein, also wäre Nvidia ja wirklich dumm, das nicht zu machen. Vor allem würde die Bezeichnung "9600GT" auch keinen Sinn machen ohne zusätzliche Features - wäre es wirklich nur ein halber G92, wäre "8700GT" o.ä. besser gewesen.
Im Produktportfolio wäre die 9600GT dann die erste Karte seit längerer Zeit, die tatsächlich Sinn machen würde. Mit einem teuren G92 (teildeaktiviert bleibt er genauso teuer in der Herstellung) gegen die HD 3850 256MB kämpfen zu wollen, die jetzt schon bei 130€ liegt und auch noch weiter runtergehen kann, ist wirtschaftlich gesehen Wahnsinn.
BrotlaibSchm@del
Grand Admiral Special
- Mitglied seit
- 18.04.2002
- Beiträge
- 3.631
- Renomée
- 24
- Standort
- Berlin(F´hain)
- Mein Laptop
- Toshiba A210 - 128
- Prozessor
- Ryzen 3600
- Mainboard
- MSI B450-A Pro
- Kühlung
- Scythe Mugen 5
- Speicher
- 16GB DDR4 3200
- Grafikprozessor
- Zotag GTX1080
- Display
- 27" Samsung
- SSD
- Crucial BX256
- HDD
- Diverse
- Optisches Laufwerk
- LG Brenner
- Soundkarte
- Onboard
- Gehäuse
- Cooltek Antiphone
- Netzteil
- BeQuiet Pure 530 W
- Betriebssystem
- Win 10 64Bit
- Webbrowser
- Firefox
also bei einer 8800GT halte ich DX10 schon nicht mehr nur für ein Marketing Spruch. Die karte ist schnell genug das darzustellen und es sieht besser aus(z.B. WIC) Also versteh ich deine Aussage nicht OBrian
larsbo
Grand Admiral Special
- Mitglied seit
- 20.06.2003
- Beiträge
- 5.864
- Renomée
- 62
- Prozessor
- Ryzen 5 3400G
- Mainboard
- Gigabyte B450I Aorus pro Wifi
- Kühlung
- Noctua NH-L9a
- Speicher
- 32 GB, 2x ADATA 16GB single rank PC4-3200 1,2V (Samsung 16Gbit 2666-Chips)
- Grafikprozessor
- APU
- SSD
- Samsung 970Pro 1TB NVMe PCIe3
- Optisches Laufwerk
- Pioneer BD-RE slim-line
- Soundkarte
- on-board
- Gehäuse
- SilverStone ML08-H
- Netzteil
- Corsair SF450 (80PlusGold)
- Betriebssystem
- Win10pro 64
Es soll ja angeblich auch sehr einfach einzubauen sein, also wäre Nvidia ja wirklich dumm, das nicht zu machen. Vor allem würde die Bezeichnung "9600GT" auch keinen Sinn machen ohne zusätzliche Features - wäre es wirklich nur ein halber G92, wäre "8700GT" o.ä. besser gewesen.
Über die Sinnhaftigkeit von Namen braucht man keine Worte zu verschwenden im Graka-Bereich. Die 38XX sind auch nicht viel was anderes als eine 2900 mit halbiertem Speicherinterface und besserer HD-Unterstützung. Dafür hätte es wahrlich auch keiner neuen "Generation" im Nummernschema gebraucht, was hier im Forum auch reichtlich angemerkt wurde, als die ersten Gerüchte über die Karten kamen. Aber so ist das nun mal.
Mich würde es eher wundern, wenn nV sonderlich viel Energie in die alte 8er Architektur reinsteckt und 10.1 ausgerechnet in eine low-mid-Karte reinbaut. Wenn so eine Karte kommt, dann wird das ein halber G92 und fertig. Für 10.1 und alle schönen Schnörkel kommt vermutlich die neue High-End Generation.
Es wird sicher eine Hand voll Games geben, die von Ati gesponsert sind und 10.1 für das letzte bisschen Eye-candy brauchen. Aber kein Game-Produzent wird ernsthaft so verrückt sein, bei der G80/G92-Marktanteillage ein Game verkaufen zu wollen, dass nicht auf solchen Karten läuft oder auf denen total bescheiden aussieht........
edit: hab grad nochmal die new richtig gelesen. Da wird ja behauptet, dass es auf D9P basieren würde. Dann würde mich allerdings kein 10.1 auch wundern.
Zuletzt bearbeitet:
The_crow
Grand Admiral Special
- Mitglied seit
- 04.06.2005
- Beiträge
- 2.674
- Renomée
- 80
- Prozessor
- RYZEN 9 7900X
- Mainboard
- ASUS TUF Gaming B650-PLUS -WIFI
- Kühlung
- NOCTUA NH-D15 chromax.black einige Lüfer von Cooler Master die beim Tower schon dabei waren.
- Speicher
- 2 x 16 GB Kingston 5600 mit EXPO
- Grafikprozessor
- AMD ASUS TUF Gaming OC RX7900 XTX 24 GB
- Display
- HP 27xq oder einen LG OLED48C1... an der Yamha Anlage die 5.1.2 kann und auch so genutzt wird.
- SSD
- Hab eine SATA 1 TB SSD Sandisk aber nicht als OS Platte im Moment. M.2 für OS Samsung SSD 980 PRO .
- HDD
- Sicher eine von denen die da sind aber welche?
- Optisches Laufwerk
- Optiarc
- Soundkarte
- Onboard Realtec leider nicht ganz so gut wie der alte. Nun per HDMI an den AVR.
- Gehäuse
- Cooler Master BigTower der bald mal weg muss.
- Netzteil
- be quiet! PURE POWER 12 M 1.000 Watt
- Tastatur
- Einfache Cherry USB
- Maus
- Logitech MX Master 3s
- Betriebssystem
- Win 11 + alle Updates
- Webbrowser
- größten Teils FireFox
Über die Sinnhaftigkeit von Namen braucht man keine Worte zu verschwenden im Graka-Bereich. Die 38XX sind auch nicht viel was anderes als eine 2900 mit halbiertem Speicherinterface und besserer HD-Unterstützung. Dafür hätte es wahrlich auch keiner neuen "Generation" im Nummernschema gebraucht, was hier im Forum auch reichtlich angemerkt wurde, als die ersten Gerüchte über die Karten kamen. Aber so ist das nun mal.
Mich würde es eher wundern, wenn nV sonderlich viel Energie in die alte 8er Architektur reinsteckt und 10.1 ausgerechnet in eine low-mid-Karte reinbaut. Wenn so eine Karte kommt, dann wird das ein halber G92 und fertig. Für 10.1 und alle schönen Schnörkel kommt vermutlich die neue High-End Generation.
Es wird sicher eine Hand voll Games geben, die von Ati gesponsert sind und 10.1 für das letzte bisschen Eye-candy brauchen. Aber kein Game-Produzent wird ernsthaft so verrückt sein, bei der G80/G92-Marktanteillage ein Game verkaufen zu wollen, dass nicht auf solchen Karten läuft oder auf denen total bescheiden aussieht........
edit: hab grad nochmal die news richtig gelesen. Da wird ja behauptet, dass es auf D9P basieren würde. Dann würde mich allerdings kein 10.1 auch wundern.
NV macht mal wieder viel Wind um nichts denke ich. Wir sollten da mal auf genauere Infos warten.
Bei ATI und 3800 Serie war das sicher so: HD 2900 hatte ein schlechtes Image und um das schnell wieder los zu bekommen hat man die neuen Karten einfach HD 3800 genannt. HD 2987 oder auch HD 2985 oder so hätte zu sehr sugeriet es ist eine 2900 Serien Karte und bei den Kunden wären die Alarmglocken geschellt die braucht zu viel Strom. Ob das stimmt oder nicht wäre egal. HD 3870 als Name finde ich OK, weil die ja Direct X 10.1 und Powerplay bekommen hat und auch sonst etwas überarbeitet wurde.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 22
- Aufrufe
- 4K
- Antworten
- 22
- Aufrufe
- 9K