App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Dringend: 6800GT oder X800-pro
- Ersteller felix03
- Erstellt am
Das_Wishnu
Admiral Special
Original geschrieben von James Ryan
Welchen man aber deaktivieren kann, bei ATi ist dies nicht so einfach per Treiber möglich.
MfG 8)
Damit meinte ich auch nur, dass man, wenn man mit den Default-Einstellungen bencht, vergleichbare Werte bekommt, Du Schlaumeier
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Original geschrieben von Das_Wishnu
Damit meinte ich auch nur, dass man, wenn man mit den Default-Einstellungen bencht, vergleichbare Werte bekommt, Du Schlaumeier
Wer macht sowas denn außer die GameStar?
MfG 8)
Das_Wishnu
Admiral Special
Hehe.
Bei mir fallen beide Karten eh' in die Kategorie 'schnell genug'.
Davon mal abgesehen finde ich Preis/Leistung bei beiden schlecht...deshalb habe ich mir auch lieber eine 9800Pro geleistet...
Bei mir fallen beide Karten eh' in die Kategorie 'schnell genug'.
Davon mal abgesehen finde ich Preis/Leistung bei beiden schlecht...deshalb habe ich mir auch lieber eine 9800Pro geleistet...
Nosyboy
Grand Admiral Special
- Mitglied seit
- 28.11.2001
- Beiträge
- 2.472
- Renomée
- 82
- Standort
- Switzerland
- Mein Laptop
- LENOVO Y520-15, Intel i7-7700HQ, W10-Home
- Prozessor
- Ryzen 7 5700X / 7nm / 65W
- Mainboard
- Gigabyte B550 Aorus Elite V2
- Kühlung
- Noctua NH-U12S Chromax Black
- Speicher
- Corsair Vengeance LPX (4x, 8GB, DDR4-3200)
- Grafikprozessor
- Sapphire Radeon RX5700 PULSE 8G
- Display
- Samsung C27FG70
- SSD
- Samsung SSD 860 PRO 256GB / CT1000MX500SSD1 1TB / NVMe Samsung SSD 970 EVO 1TB
- HDD
- 2TB Seagate Barracuda Green (ST2000DL003-9VT166)
- Optisches Laufwerk
- Pioneer BDR-209M
- Soundkarte
- on Board
- Gehäuse
- Chieftec Midi Tower
- Netzteil
- Corsair RM550x
- Tastatur
- Logitech G213
- Maus
- Logitech G403 / Logitech MX Vertical
- Betriebssystem
- WIN 10 Pro
- Webbrowser
- Opera / Edge
- Internetanbindung
- ▼100 MBit ▲20 MBit
Habe da noch einen interessanten Test bezüglich SM 3.0 gefunden. (http://www.hardware-mag.de/hardware.php?id=271)
Anscheinend ist das ganze doch nicht so unwichtig.
Fazit des Berichts :
Anscheinend ist das ganze doch nicht so unwichtig.
Fazit des Berichts :
Zwar ist Far Cry 1.2 aktuell die einzige 3D-Applikation die den Endanwender in den Genuss des dritten Shader Models bringt, doch sollte einer weiteren Verfügbarkeit nichts mehr im Wege stehen! Einzige Vorraussetzungen sind DirectX 9.0c bzw. Windows XP Service Pack 2 (RC1 oder RC2 genügt) und ein SM 3.0 tauglicher ForceWare Treiber (61.45). Dies ist zumindest die Checklist für den Anwender. Aber auch auf der Seite der Programmierer und Entwickler sollte man SM 3.0 künftig häufiger zu sehen bekommen, da es auch die Arbeit bei der Entwicklung deutlich vereinfacht!
Fassen wir also zusammen: Sollten in den nächsten Wochen und Monaten weitere SM 3.0 Patches für diverse Spiele und Anwendungen erscheinen, sollte sich ATi mit seiner SM 2.0 X800 Serie warm anziehen!
Melbourne, FL
Admiral Special
Original geschrieben von James Ryan
Die Optimierungen der X800 (welche man immer noch nicht abschalten kann, im Gegensatz zu denen bei NVIDIA) werden hier wohl vergessen.
Wie kommst Du darauf, dass man die nicht abschalten kann? Das geht sehr wohl...man muss zwar die Registry bemühen (d.h. es geht nicht so bequem wie bei Nvidia über den Treiber) aber gehen tut es.
@Topic: Wenn Du Dir zutraust das Bios der Karte zu flashen kannst Du ja eine ViVo nehmen und die zur X800XT machen. Falls das nicht möglich ist, ist die 6800GT wahrscheinlich die bessere Wahl...obwohl der Unterschied nicht riesig ist.
Alexander
auch wenn ich mit meiner 9800XT etwas zurück liege (und trotzdem 45000 Punkte bei Aquamark bekomme ohne OC) bin ich voll zufrieden.
Allerdings ist mir aufgefallen,das MSI als einziger GDDR 3 in seinen Grakas hat,was manche grakas angeblich nicht besitzen (wenn mer der Beschreibung glauben kann)
Und ich denke dieser Speicher schlägt sich auch zum Teil aufn Preis aus.
Welche Graka könnt ihr mir für ein Testsystem empfehlen??
Dachte an eine 9600 pro auf 9800XT flashen....
Ne GF 6 würde ich gerne nehmen,aber nur zum testen ist die zu schade und 500 Öcken heisst was...
Allerdings ist mir aufgefallen,das MSI als einziger GDDR 3 in seinen Grakas hat,was manche grakas angeblich nicht besitzen (wenn mer der Beschreibung glauben kann)
Und ich denke dieser Speicher schlägt sich auch zum Teil aufn Preis aus.
Welche Graka könnt ihr mir für ein Testsystem empfehlen??
Dachte an eine 9600 pro auf 9800XT flashen....
Ne GF 6 würde ich gerne nehmen,aber nur zum testen ist die zu schade und 500 Öcken heisst was...
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Daß man mit beiden Karten vernünftig zocken kann, ist ja klar. Aber da er die Karte in erster Linie braucht, um damit "in der Klasse protzen zu können", werden wohl beide nicht 100%ig geeignet sein, weil einige immer ankommen werden und sagen, "ja toll, aber die andere Karte ist ja in denundden Benchmarks besser". Von daher würde ich 2 Rechner empfehlen, jeweils mit AMD FX55 und Pentium 4 EE ausgerüstet, und dann 6800U und X800XT zum wechseln.
Bitte nicht als Troll-Post mißverstehen! Protzen kostet eben Geld und erfordert auch meist etwas unvernünftige Entscheidungen, aber wenn, dann richtig! Ich komm ja auch nicht beim Geländewagen-Protztreffen mit nem vernünftigen Mitsubishi Pajero an, da muß schon ein dicker Hummer her, oder? 8)
eine halbwegs vernünftige Karte, mit der man trotzdem Eindruck schinden kann, wäre eine x800pro vivo mit gemoddeten Pipes (12->16) und übertaktet.
Bitte nicht als Troll-Post mißverstehen! Protzen kostet eben Geld und erfordert auch meist etwas unvernünftige Entscheidungen, aber wenn, dann richtig! Ich komm ja auch nicht beim Geländewagen-Protztreffen mit nem vernünftigen Mitsubishi Pajero an, da muß schon ein dicker Hummer her, oder? 8)
eine halbwegs vernünftige Karte, mit der man trotzdem Eindruck schinden kann, wäre eine x800pro vivo mit gemoddeten Pipes (12->16) und übertaktet.
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Original geschrieben von Melbourne, FL
Wie kommst Du darauf, dass man die nicht abschalten kann? Das geht sehr wohl...man muss zwar die Registry bemühen (d.h. es geht nicht so bequem wie bei Nvidia über den Treiber) aber gehen tut es.
Diesen Aufwand betreiben sicherlich auch die Reviewer...
Warum bietet ATi keinen Schalter im Treiber an? Offiziell heißt es, man sehe den Unterschied eh nicht.
Die Leute da müssen blind sein (und die bauen Grafikkarten ).
MfG 8)
themk
Grand Admiral Special
- Mitglied seit
- 08.06.2002
- Beiträge
- 7.996
- Renomée
- 94
- Standort
- Salzburg || Karlsruhe
- Prozessor
- Ph2 X4 940
- Mainboard
- Asus M4A79 Deluxe (790FX)
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x2GB OCZ 1066 DDR2
- Grafikprozessor
- Sapphire 5770 Vapor-X
- Display
- 2709w, 2x CRTs
- HDD
- F3 1000GB; extern WD und Hitachi
- Optisches Laufwerk
- 1 DVD-LW ;-)
- Soundkarte
- OnBoard
- Gehäuse
- Cooler Master Centurion 590
- Netzteil
- Cooler Master Silent Pro M500
- Betriebssystem
- Win7 64
- Webbrowser
- weißer Duschkopf
- Verschiedenes
- Manchmal läuft es und manchmal läuft es besser vor mir davon.
Hast du den Unterschied eigendlich schon selbst feststellen können?
JOKER (AC)
Vice Admiral Special
- Mitglied seit
- 10.01.2002
- Beiträge
- 650
- Renomée
- 6
Original geschrieben von OBrian
Daß man mit beiden Karten vernünftig zocken kann, ist ja klar. Aber da er die Karte in erster Linie braucht, um damit "in der Klasse protzen zu können", werden wohl beide nicht 100%ig geeignet sein, weil einige immer ankommen werden und sagen, "ja toll, aber die andere Karte ist ja in denundden Benchmarks besser". Von daher würde ich 2 Rechner empfehlen, jeweils mit AMD FX55 und Pentium 4 EE ausgerüstet, und dann 6800U und X800XT zum wechseln.
Bitte nicht als Troll-Post mißverstehen! Protzen kostet eben Geld und erfordert auch meist etwas unvernünftige Entscheidungen, aber wenn, dann richtig! Ich komm ja auch nicht beim Geländewagen-Protztreffen mit nem vernünftigen Mitsubishi Pajero an, da muß schon ein dicker Hummer her, oder? 8)
eine halbwegs vernünftige Karte, mit der man trotzdem Eindruck schinden kann, wäre eine x800pro vivo mit gemoddeten Pipes (12->16) und übertaktet.
Interessant- zwischen den Zeilen: Jeder , der nen AMD FX, Intel EE ,X800 oder FX GT kauft,
will damit protzen.
Aber ne vernünftige Entscheidung ist aber ne X800Pro ViVo ?
(Wie jetzt?)
Aber ne Sig (mit 3 Rechnern )unter seinen Postings stehen zu haben , ist was?
....und dann die Forderung das alles NICHT als Troll-Post verstehen?
Zurück zum Topic........Kann mir einer mit X800 (egal ob Pro oder XT) was zur 2D Bildqualität sagen?
THX
Melbourne, FL
Admiral Special
Original geschrieben von James Ryan
Diesen Aufwand betreiben sicherlich auch die Reviewer...
Ich glaube das liegt weniger am Aufwand sondern mehr am Wissen. Wie kann es eigentlich sein, dass ein Grafikkartenreviewer nicht so viel weiss wie 50% der Community.
Original geschrieben von James Ryan
Warum bietet ATi keinen Schalter im Treiber an?
Ich hoffe ja, dass der noch kommt. Bis jetzt gab es ja erst einen neuen Treiber seitdem die Optimierungen entdeckt wurden. Und Nvidia vorne weg zieht (mit dem Schalter) und das diesmal hoffentlich auch in den Reviews gewürdigt wird, wird hoffentlich genug Druck auf ATI ausgeübt.
Original geschrieben von James Ryan
Offiziell heißt es, man sehe den Unterschied eh nicht.
Die Leute da müssen blind sein (und die bauen Grafikkarten ).
MfG 8)
Das stimmt...die Optmierungen sieht man teilweise deutlich.
@themk: Die brilineare Optimierung stört mich persönlich nicht...die habe ich angelassen. Aber die LOD-Spielereien beim AF führen zu deutlichem Texturflimmern...das hab ich sofort gesehen ohne speziell danach zu suchen. Die beiden Optimierungen sind bei mir deaktiviert.
Alexander
Melbourne, FL
Admiral Special
Original geschrieben von JOKER (AC)
Zurück zum Topic........Kann mir einer mit X800 (egal ob Pro oder XT) was zur 2D Bildqualität sagen?
THX
Ich bin sehr zufrieden...wie ich auch mit meiner BBA 9700Pro war.
Alexander
JOKER (AC)
Vice Admiral Special
- Mitglied seit
- 10.01.2002
- Beiträge
- 650
- Renomée
- 6
Original geschrieben von Melbourne, FL
Ich bin sehr zufrieden...wie ich auch mit meiner BBA 9700Pro war.
Alexander
THX - Ich frage nur, weil ich mit ner 9800XT bei 1280X1024 mit Texten (zB hier im P3D )Ärger hab (verwaschen)
Thunderbird 1400
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 17.983
- Renomée
- 318
- Prozessor
- AMD Ryzen 7800X3D
- Mainboard
- Gigabyte X670E Aorus Pro X
- Kühlung
- Corsair H115i Pro AiO Wakü
- Speicher
- 32GB G.Skill Trident Z5 DDR5-7200 CL34
- Grafikprozessor
- RTX4080 Super (Gigabyte Aero OC)
- Display
- 55" TV & Leinwand
- SSD
- 2TB Samsung 980 Pro (M.2), 2x 2TB Transcent (M.2), 1TB Crucial MX500 (SATA)
- HDD
- 2TB
- Soundkarte
- Realtek Onboard
- Gehäuse
- Fractal Design North XL (white)
- Netzteil
- 850W be quiet! Pure Power 12M ATX3.0
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Verschiedenes
- Meta Quest 3
Lol, wenn ich sowas schon lese. Ein Schüler braucht 'ne 400-500 € Gaka, um in der Klasse zu protzen
Ich tippe mal, der "Bekannte" wird wohl etwa im gleichen Alter sein, wie der Thread-Ersteller, also so um 15-16 rum. Wo bekommt man in dem Alter soviel Geld her, reiche Eltern oder was? Der soll das Geld mal lieber für 'nen Führerschein sparen, da hat man länger was von als 1 oder 2 Wochen der Held der Klasse zu sein
Ich tippe mal, der "Bekannte" wird wohl etwa im gleichen Alter sein, wie der Thread-Ersteller, also so um 15-16 rum. Wo bekommt man in dem Alter soviel Geld her, reiche Eltern oder was? Der soll das Geld mal lieber für 'nen Führerschein sparen, da hat man länger was von als 1 oder 2 Wochen der Held der Klasse zu sein
Kamui
Grand Admiral Special
- Mitglied seit
- 14.09.2003
- Beiträge
- 3.991
- Renomée
- 16
- Standort
- Hessen
- Mein Laptop
- Apple MacBook ... Pro!
- Prozessor
- Intel Core2Duo P8400 (2x2,26 GHz)
- Mainboard
- kA
- Kühlung
- Was leises
- Speicher
- 1 x 1024 MB, 1 x 2048 MB DDR-3 Standard-RAM
- Grafikprozessor
- NVIDIA 9400M
- Display
- Intern 13,3"-LED-1280x800, extern 1680x1050- 20" Viewsonic VX2025WM (P-MVA)
- HDD
- Samsung M7, 500 GB, 5400rpm, extern 1 TB Trekstor maxi g.u
- Optisches Laufwerk
- Superdrive
- Soundkarte
- Apple-Standard / Teufel Concept C
- Gehäuse
- Apple Aluminium-Unibody
- Netzteil
- Apple 65 W
- Betriebssystem
- Mac OS X 10.6, in VM Windows 7 Professional
- Webbrowser
- Chrome. (Safari mit Glims)
- Verschiedenes
- Eine hervorragende Ergänzung zu meinem Palm Pre.
Original geschrieben von James Ryan
Das gleiche sagte man von der Radeon 9700 auch:
"Wer braucht Shader 2.0? Bis die eingesetzt werden ist die Karte eh wieder zu lahm etc pp". Bis jetzt werden die 3.0 Shader nur in FarCry benutzt. Da aber noch nichtmal ein DX offiziell erhältlich ist welches Shader 3.0 Unterstützung hat wird man wohl etwas warten müssen bis die 3.0 Shader wirklich gebraucht werden.
Aber eine Frage: Wenn man doch schon Shader 3.0 Hardware kaufen kann, warum dann zur (praktisch gleichschnellen) "veralteten" Shader 2.0 Hardware der Konkurrenz greifen? Wenn man doch schon was aktuelleres kaufen kann, warum zum "alten Eisen" greifen?
MfG 8)
Jamibaby... nun aber... jetzt machst du dich aber mehr als lächerlich
Wärend shader 2.0 gegenüber den den alten shadern eine ENORMEN QUALITÄTS- und GESCHWINDIGKEITSBOOST darstellt... stellt der shader 3.0 KEINE QUALITÄTSVERBESSERUNG dar und die GESCHWINDIGKEITSVORTEILE sind MINIMAL.
Du vergelichst pferdeäpfel mit bananen.. also bitte.. bin ja viel von dir gewohnt.. aber so tiefes niveau...
Original geschrieben von RICHTHOFEN
Dann hast du Tomaten auf den Augen. Die Unterschiede sind klar ersichtlich vor allem in der Bewegung.
Aber das ist nicht der Punkt. Es geht darum, dass man bei ATI diese Optimierungen nicht abstellen kann. Ergo sind für faire Benchmarks unter gleichen Bedingungen diese Optimierungen bei den Nvidia Produkten ebenso anzuschalten. Es kann jedenfalls nicht sein, bei dem einen Hersteller der einem die Option bietet die Optimierungen abzustellen und beim anderen der sie nicht bietet, diese somit anzulassen.
Was sind das bitte für Vergleiche.
Ergo sind Ergebnisse mit den neuerlichen R420 Karten mit Vorsicht zu genießen. Da muss der erste Blick im Review sofort erstmal darauf gerichtet werden, ob unter gleichen Voraussetzungen getestet wurde.
Die X800 pro bricht gegenüber der GF6800GT so dermaßen ein, dass sich oft die Frage ob 56 fps oder 70 gar nicht stellt, weil die Pro schon in den niedrigen 30ern rumdümpelt. Die hat gegen die GT nicht den Hauch einer Chance.
Die Ultra ist kaum lauter als die X800XT. Bitte bei den Fakten bleiben und vor allem Präzise. Du kannst hier nicht einfach von X800 reden. Wenn du die Pro meinst, dann hast du diese gegen die GT zu vergleichen und nicht gegen die Ultra. Die Ultra ist eine völlig andere Performance Klasse.
Die GT ist kaum lauter als die Pro dafür aber deutlich schneller über die Bank weg und das fürs gleiche Geld.
Mehr Leistung, gute OC Eigenschaften ohne gross an irgendwelchen Pipes rumpfuschen zu müssen und zudem mit SM3.0 als Bonus ausgestattet.
Deswegen weiss ich auch gar nicht wie einige Spezies hier auf dem SM3.0 rumreiten, dass man es nicht braucht etc. Grundsätzlich bin ich mal der Meinung, dass neue Technik einem jedem Spieler irgendwann zu Gute kommt unabhängig davon ob es nun aktuell etwas bringt oder nicht. Deswegen muss ATI auch derbst dafür kritisiert werden, dass sie defakto seit dem R300 nichts aber auch gar nichts neues mehr bringen.
Trozdem stellt sich die Frage beim Vergleich GT vs pro gar nicht, da die GT auch ohne das SM3.0 das klar bessere Produkt in der gleichen Preisklasse ist ohne wenn und aber.
Das SM3.0 ist ein Bonus, den ich bei ATI nunmal nicht bekomme.
Die GT ist derzeit der klare Kauf so einfach ist das. Wenn ATI zu blöde ist den Markt bzw die Konkurenz richtig einzuschätzen und eine 12 Pipe kastrierte Version fürs gleiche Geld verkaufen will wie die Konkurenz ihre 16Pipe Gerät, dann muss man die nicht noch dafür loben.
Wer in der Preisklasse kaufen will sollte klar zur GT greifen. Da gibts fürs gleiche Geld schlicht und ergreifend deutlich mehr. Das hat nix mit ATI vs NV zu tun oder sonst irgendeinem Hersteller sondern schlichtweg mit mathematischer Betrachtung des P/L Verhältnisses. Und das ist bei der GF6800GT derzeit um längen das beste auch vergleichen mit den Top Produkten GF6800Ultra und X800XT.
Sehr geehrter herr richthofen,
es sollte ihnen bekannt sein, dass das verwenden von brillen eine deutlich höheres lesevergnügen verursacht und das gehirn dahingehend entlastet wird, dass das gelesene auch verstanden verden kann.
TEMPORÄRES AA SPIELT SEINE VORTEILE IN BEWEGUNG AUS... UNSTIMMIGKEITEN KÖNNEN ERST IM STILLSTAND GESEHEN WERDEN... die optimierungen, auf die du anspielst, sind NICHT DAS TEMPORÄRE AA... sondern haben etwas mit AF zu tuen... also bitte... tu dir und vielen hier im forum ein gefallen und ÜBERLEGE VOR DEIMEM POSTEN... danke.
PS. leider wird nicht das zitierte von richthofen mit angezeigt... ist aber nachzulesen
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Original geschrieben von Nazar
Wärend shader 2.0 gegenüber den den alten shadern eine ENORMEN QUALITÄTS- und GESCHWINDIGKEITSBOOST darstellt... stellt der shader 3.0 KEINE QUALITÄTSVERBESSERUNG dar und die GESCHWINDIGKEITSVORTEILE sind MINIMAL.
Ach, 3.0 Shader bringen minimale Perfomancevorteile? Dass die Gf 6800 mit dem 1.2er Patch in FarCry deutlich zulegen konnte hast du aber mitgekriegt oder?
Und ob 3.0 Shader keine Qualitätsverbesserungen bringen sollte man erstmal abwarten, oder kannst du in die Zukunft schauen?
MfG 8)
GSachse
Grand Admiral Special
- Mitglied seit
- 24.02.2002
- Beiträge
- 2.858
- Renomée
- 9
- Standort
- Halle
- Mein Laptop
- Dell Vostro 3560
- Prozessor
- Intel Core i5-2500K
- Mainboard
- Asus P8P67
- Kühlung
- Boxed
- Speicher
- 6 GB
- Grafikprozessor
- Gigabyte GeForce GTX 560 TI
- Display
- EIZO FlexScan EV2333W
- HDD
- von allem etwas
- Optisches Laufwerk
- Asus
- Soundkarte
- Onboard
- Gehäuse
- Coolermaster Stacker (STC-T01)
- Netzteil
- Antec TruePower 480 Watt
- Betriebssystem
- Windows 7 Pro 64 Bit
zum 2. reicht lesenOriginal geschrieben von James Ryan
Ach, 3.0 Shader bringen minimale Perfomancevorteile? Dass die Gf 6800 mit dem 1.2er Patch in FarCry deutlich zulegen konnte hast du aber mitgekriegt oder?
Und ob 3.0 Shader keine Qualitätsverbesserungen bringen sollte man erstmal abwarten, oder kannst du in die Zukunft schauen?
MfG 8)
einzig optimierungen sind möglich..
sicher man könnte da ein wenig komplexer werden ohne die hardware auszureizen aber sh2 sollte das auch schaffen
themk
Grand Admiral Special
- Mitglied seit
- 08.06.2002
- Beiträge
- 7.996
- Renomée
- 94
- Standort
- Salzburg || Karlsruhe
- Prozessor
- Ph2 X4 940
- Mainboard
- Asus M4A79 Deluxe (790FX)
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x2GB OCZ 1066 DDR2
- Grafikprozessor
- Sapphire 5770 Vapor-X
- Display
- 2709w, 2x CRTs
- HDD
- F3 1000GB; extern WD und Hitachi
- Optisches Laufwerk
- 1 DVD-LW ;-)
- Soundkarte
- OnBoard
- Gehäuse
- Cooler Master Centurion 590
- Netzteil
- Cooler Master Silent Pro M500
- Betriebssystem
- Win7 64
- Webbrowser
- weißer Duschkopf
- Verschiedenes
- Manchmal läuft es und manchmal läuft es besser vor mir davon.
Original geschrieben von James Ryan
Ach, 3.0 Shader bringen minimale Perfomancevorteile? Dass die Gf 6800 mit dem 1.2er Patch in FarCry deutlich zulegen konnte hast du aber mitgekriegt oder?
Und ob 3.0 Shader keine Qualitätsverbesserungen bringen sollte man erstmal abwarten, oder kannst du in die Zukunft schauen?
MfG 8)
Die Frage ist ja, ob dieser Performance Gewinn wirklich ausschließlich durch eine Optimierung auf 3.0 Shader geschehen ist.
Aber seien wir mal ehrlich: Genaugenommen können wir das kaum beurteilen, nur unsere Meinung darüber verteilen. Und ob die richtig ist darf jeder bei sich selbst bezweifeln.
Das_Wishnu
Admiral Special
Original geschrieben von themk
Die Frage ist ja, ob dieser Performance Gewinn wirklich ausschließlich durch eine Optimierung auf 3.0 Shader geschehen ist.
Ist er nicht, denn der R420 legt hier auch zu.
Inoffiziell ist ja eh' schon durchgesickert, dass die Veränderungen wohl theoretisch auch komplett mit SM2 realisierbar wären, die SM3-UNterstützung also nur eine Farce ist.
foenfrisur
Grand Admiral Special
- Mitglied seit
- 19.02.2002
- Beiträge
- 4.791
- Renomée
- 77
@wishnu
genau...
mfg
Faxe
Grand Admiral Special
wie kann man den sm2.0B nutzen?
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Ähnliche Themen
- Antworten
- 5
- Aufrufe
- 891
- Antworten
- 1
- Aufrufe
- 434