Dringend: 6800GT oder X800-pro

Original geschrieben von James Ryan
Welchen man aber deaktivieren kann, bei ATi ist dies nicht so einfach per Treiber möglich. :]

MfG 8)

Damit meinte ich auch nur, dass man, wenn man mit den Default-Einstellungen bencht, vergleichbare Werte bekommt, Du Schlaumeier ;)
 
Original geschrieben von Das_Wishnu
Damit meinte ich auch nur, dass man, wenn man mit den Default-Einstellungen bencht, vergleichbare Werte bekommt, Du Schlaumeier ;)

Wer macht sowas denn außer die GameStar? ;D

MfG 8)
 
Hehe. ;)

Bei mir fallen beide Karten eh' in die Kategorie 'schnell genug'.

Davon mal abgesehen finde ich Preis/Leistung bei beiden schlecht...deshalb habe ich mir auch lieber eine 9800Pro geleistet... ;)
 
Habe da noch einen interessanten Test bezüglich SM 3.0 gefunden. (http://www.hardware-mag.de/hardware.php?id=271)
Anscheinend ist das ganze doch nicht so unwichtig.
Fazit des Berichts :
Zwar ist Far Cry 1.2 aktuell die einzige 3D-Applikation die den Endanwender in den Genuss des dritten Shader Models bringt, doch sollte einer weiteren Verfügbarkeit nichts mehr im Wege stehen! Einzige Vorraussetzungen sind DirectX 9.0c bzw. Windows XP Service Pack 2 (RC1 oder RC2 genügt) und ein SM 3.0 tauglicher ForceWare Treiber (61.45). Dies ist zumindest die Checklist für den Anwender. Aber auch auf der Seite der Programmierer und Entwickler sollte man SM 3.0 künftig häufiger zu sehen bekommen, da es auch die Arbeit bei der Entwicklung deutlich vereinfacht!

Fassen wir also zusammen: Sollten in den nächsten Wochen und Monaten weitere SM 3.0 Patches für diverse Spiele und Anwendungen erscheinen, sollte sich ATi mit seiner SM 2.0 X800 Serie warm anziehen!
 
Original geschrieben von James Ryan
Die Optimierungen der X800 (welche man immer noch nicht abschalten kann, im Gegensatz zu denen bei NVIDIA) werden hier wohl vergessen.

Wie kommst Du darauf, dass man die nicht abschalten kann? Das geht sehr wohl...man muss zwar die Registry bemühen (d.h. es geht nicht so bequem wie bei Nvidia über den Treiber) aber gehen tut es.

@Topic: Wenn Du Dir zutraust das Bios der Karte zu flashen kannst Du ja eine ViVo nehmen und die zur X800XT machen. Falls das nicht möglich ist, ist die 6800GT wahrscheinlich die bessere Wahl...obwohl der Unterschied nicht riesig ist.

Alexander
 
auch wenn ich mit meiner 9800XT etwas zurück liege (und trotzdem 45000 Punkte bei Aquamark bekomme ohne OC) bin ich voll zufrieden.

Allerdings ist mir aufgefallen,das MSI als einziger GDDR 3 in seinen Grakas hat,was manche grakas angeblich nicht besitzen (wenn mer der Beschreibung glauben kann)
Und ich denke dieser Speicher schlägt sich auch zum Teil aufn Preis aus.

Welche Graka könnt ihr mir für ein Testsystem empfehlen??
Dachte an eine 9600 pro auf 9800XT flashen....
Ne GF 6 würde ich gerne nehmen,aber nur zum testen ist die zu schade und 500 Öcken heisst was...
 
Daß man mit beiden Karten vernünftig zocken kann, ist ja klar. Aber da er die Karte in erster Linie braucht, um damit "in der Klasse protzen zu können", werden wohl beide nicht 100%ig geeignet sein, weil einige immer ankommen werden und sagen, "ja toll, aber die andere Karte ist ja in denundden Benchmarks besser". Von daher würde ich 2 Rechner empfehlen, jeweils mit AMD FX55 und Pentium 4 EE ausgerüstet, und dann 6800U und X800XT zum wechseln. :]

Bitte nicht als Troll-Post mißverstehen! Protzen kostet eben Geld und erfordert auch meist etwas unvernünftige Entscheidungen, aber wenn, dann richtig! Ich komm ja auch nicht beim Geländewagen-Protztreffen mit nem vernünftigen Mitsubishi Pajero an, da muß schon ein dicker Hummer her, oder? ;D 8)

eine halbwegs vernünftige Karte, mit der man trotzdem Eindruck schinden kann, wäre eine x800pro vivo mit gemoddeten Pipes (12->16) und übertaktet.
 
Original geschrieben von Melbourne, FL
Wie kommst Du darauf, dass man die nicht abschalten kann? Das geht sehr wohl...man muss zwar die Registry bemühen (d.h. es geht nicht so bequem wie bei Nvidia über den Treiber) aber gehen tut es.

Diesen Aufwand betreiben sicherlich auch die Reviewer... :]
Warum bietet ATi keinen Schalter im Treiber an? Offiziell heißt es, man sehe den Unterschied eh nicht.
Die Leute da müssen blind sein (und die bauen Grafikkarten *buck* ).

MfG 8)
 
Hast du den Unterschied eigendlich schon selbst feststellen können?
 
Original geschrieben von OBrian
Daß man mit beiden Karten vernünftig zocken kann, ist ja klar. Aber da er die Karte in erster Linie braucht, um damit "in der Klasse protzen zu können", werden wohl beide nicht 100%ig geeignet sein, weil einige immer ankommen werden und sagen, "ja toll, aber die andere Karte ist ja in denundden Benchmarks besser". Von daher würde ich 2 Rechner empfehlen, jeweils mit AMD FX55 und Pentium 4 EE ausgerüstet, und dann 6800U und X800XT zum wechseln. :]

Bitte nicht als Troll-Post mißverstehen! Protzen kostet eben Geld und erfordert auch meist etwas unvernünftige Entscheidungen, aber wenn, dann richtig! Ich komm ja auch nicht beim Geländewagen-Protztreffen mit nem vernünftigen Mitsubishi Pajero an, da muß schon ein dicker Hummer her, oder? ;D 8)

eine halbwegs vernünftige Karte, mit der man trotzdem Eindruck schinden kann, wäre eine x800pro vivo mit gemoddeten Pipes (12->16) und übertaktet.




Interessant- zwischen den Zeilen: Jeder , der nen AMD FX, Intel EE ,X800 oder FX GT kauft,
will damit protzen.
Aber ne vernünftige Entscheidung ist aber ne X800Pro ViVo ?
(Wie jetzt?)

Aber ne Sig (mit 3 Rechnern *lol* )unter seinen Postings stehen zu haben , ist was? ;)

....und dann die Forderung das alles NICHT als Troll-Post verstehen?

Zurück zum Topic........Kann mir einer mit X800 (egal ob Pro oder XT) was zur 2D Bildqualität sagen?
THX
 
Original geschrieben von James Ryan
Diesen Aufwand betreiben sicherlich auch die Reviewer... :]

Ich glaube das liegt weniger am Aufwand sondern mehr am Wissen. Wie kann es eigentlich sein, dass ein Grafikkartenreviewer nicht so viel weiss wie 50% der Community. :]

Original geschrieben von James Ryan
Warum bietet ATi keinen Schalter im Treiber an?

Ich hoffe ja, dass der noch kommt. Bis jetzt gab es ja erst einen neuen Treiber seitdem die Optimierungen entdeckt wurden. Und Nvidia vorne weg zieht (mit dem Schalter) und das diesmal hoffentlich auch in den Reviews gewürdigt wird, wird hoffentlich genug Druck auf ATI ausgeübt.

Original geschrieben von James Ryan
Offiziell heißt es, man sehe den Unterschied eh nicht.
Die Leute da müssen blind sein (und die bauen Grafikkarten *buck* ).

MfG 8)

Das stimmt...die Optmierungen sieht man teilweise deutlich.

@themk: Die brilineare Optimierung stört mich persönlich nicht...die habe ich angelassen. Aber die LOD-Spielereien beim AF führen zu deutlichem Texturflimmern...das hab ich sofort gesehen ohne speziell danach zu suchen. Die beiden Optimierungen sind bei mir deaktiviert.

Alexander
 
Original geschrieben von Melbourne, FL
Ich bin sehr zufrieden...wie ich auch mit meiner BBA 9700Pro war.

Alexander



THX - Ich frage nur, weil ich mit ner 9800XT bei 1280X1024 mit Texten (zB hier im P3D )Ärger hab (verwaschen)
 
Lol, wenn ich sowas schon lese. Ein Schüler braucht 'ne 400-500 € Gaka, um in der Klasse zu protzen :]
Ich tippe mal, der "Bekannte" wird wohl etwa im gleichen Alter sein, wie der Thread-Ersteller, also so um 15-16 rum. Wo bekommt man in dem Alter soviel Geld her, reiche Eltern oder was? Der soll das Geld mal lieber für 'nen Führerschein sparen, da hat man länger was von als 1 oder 2 Wochen der Held der Klasse zu sein :]
 
Thunderbird: Klick :)

Ich denke, da wird sich noch was tun, wenn Treiber nich akzeptiert werden, dann sollten sie geändert werden- und ich hoffe, dass da nachgebessert wird.
 
Original geschrieben von James Ryan
Das gleiche sagte man von der Radeon 9700 auch:
"Wer braucht Shader 2.0? Bis die eingesetzt werden ist die Karte eh wieder zu lahm etc pp". Bis jetzt werden die 3.0 Shader nur in FarCry benutzt. Da aber noch nichtmal ein DX offiziell erhältlich ist welches Shader 3.0 Unterstützung hat wird man wohl etwas warten müssen bis die 3.0 Shader wirklich gebraucht werden.
Aber eine Frage: Wenn man doch schon Shader 3.0 Hardware kaufen kann, warum dann zur (praktisch gleichschnellen) "veralteten" Shader 2.0 Hardware der Konkurrenz greifen? *noahnung* Wenn man doch schon was aktuelleres kaufen kann, warum zum "alten Eisen" greifen?

MfG 8)

Jamibaby... nun aber... jetzt machst du dich aber mehr als lächerlich :-/

Wärend shader 2.0 gegenüber den den alten shadern eine ENORMEN QUALITÄTS- und GESCHWINDIGKEITSBOOST darstellt... stellt der shader 3.0 KEINE QUALITÄTSVERBESSERUNG dar und die GESCHWINDIGKEITSVORTEILE sind MINIMAL.

Du vergelichst pferdeäpfel mit bananen.. also bitte.. bin ja viel von dir gewohnt.. aber so tiefes niveau... :-/
 
Original geschrieben von RICHTHOFEN
Dann hast du Tomaten auf den Augen. Die Unterschiede sind klar ersichtlich vor allem in der Bewegung.
Aber das ist nicht der Punkt. Es geht darum, dass man bei ATI diese Optimierungen nicht abstellen kann. Ergo sind für faire Benchmarks unter gleichen Bedingungen diese Optimierungen bei den Nvidia Produkten ebenso anzuschalten. Es kann jedenfalls nicht sein, bei dem einen Hersteller der einem die Option bietet die Optimierungen abzustellen und beim anderen der sie nicht bietet, diese somit anzulassen.
Was sind das bitte für Vergleiche.
Ergo sind Ergebnisse mit den neuerlichen R420 Karten mit Vorsicht zu genießen. Da muss der erste Blick im Review sofort erstmal darauf gerichtet werden, ob unter gleichen Voraussetzungen getestet wurde.


Die X800 pro bricht gegenüber der GF6800GT so dermaßen ein, dass sich oft die Frage ob 56 fps oder 70 gar nicht stellt, weil die Pro schon in den niedrigen 30ern rumdümpelt. Die hat gegen die GT nicht den Hauch einer Chance.



Die Ultra ist kaum lauter als die X800XT. Bitte bei den Fakten bleiben und vor allem Präzise. Du kannst hier nicht einfach von X800 reden. Wenn du die Pro meinst, dann hast du diese gegen die GT zu vergleichen und nicht gegen die Ultra. Die Ultra ist eine völlig andere Performance Klasse.
Die GT ist kaum lauter als die Pro dafür aber deutlich schneller über die Bank weg und das fürs gleiche Geld.
Mehr Leistung, gute OC Eigenschaften ohne gross an irgendwelchen Pipes rumpfuschen zu müssen und zudem mit SM3.0 als Bonus ausgestattet.

Deswegen weiss ich auch gar nicht wie einige Spezies hier auf dem SM3.0 rumreiten, dass man es nicht braucht etc. Grundsätzlich bin ich mal der Meinung, dass neue Technik einem jedem Spieler irgendwann zu Gute kommt unabhängig davon ob es nun aktuell etwas bringt oder nicht. Deswegen muss ATI auch derbst dafür kritisiert werden, dass sie defakto seit dem R300 nichts aber auch gar nichts neues mehr bringen.
Trozdem stellt sich die Frage beim Vergleich GT vs pro gar nicht, da die GT auch ohne das SM3.0 das klar bessere Produkt in der gleichen Preisklasse ist ohne wenn und aber.
Das SM3.0 ist ein Bonus, den ich bei ATI nunmal nicht bekomme.
Die GT ist derzeit der klare Kauf so einfach ist das. Wenn ATI zu blöde ist den Markt bzw die Konkurenz richtig einzuschätzen und eine 12 Pipe kastrierte Version fürs gleiche Geld verkaufen will wie die Konkurenz ihre 16Pipe Gerät, dann muss man die nicht noch dafür loben.
Wer in der Preisklasse kaufen will sollte klar zur GT greifen. Da gibts fürs gleiche Geld schlicht und ergreifend deutlich mehr. Das hat nix mit ATI vs NV zu tun oder sonst irgendeinem Hersteller sondern schlichtweg mit mathematischer Betrachtung des P/L Verhältnisses. Und das ist bei der GF6800GT derzeit um längen das beste auch vergleichen mit den Top Produkten GF6800Ultra und X800XT.


Sehr geehrter herr richthofen,

es sollte ihnen bekannt sein, dass das verwenden von brillen eine deutlich höheres lesevergnügen verursacht und das gehirn dahingehend entlastet wird, dass das gelesene auch verstanden verden kann.

TEMPORÄRES AA SPIELT SEINE VORTEILE IN BEWEGUNG AUS... UNSTIMMIGKEITEN KÖNNEN ERST IM STILLSTAND GESEHEN WERDEN... die optimierungen, auf die du anspielst, sind NICHT DAS TEMPORÄRE AA... sondern haben etwas mit AF zu tuen... also bitte... tu dir und vielen hier im forum ein gefallen und ÜBERLEGE VOR DEIMEM POSTEN... danke. :]

PS. leider wird nicht das zitierte von richthofen mit angezeigt... ist aber nachzulesen :)
 
Original geschrieben von Nazar
Wärend shader 2.0 gegenüber den den alten shadern eine ENORMEN QUALITÄTS- und GESCHWINDIGKEITSBOOST darstellt... stellt der shader 3.0 KEINE QUALITÄTSVERBESSERUNG dar und die GESCHWINDIGKEITSVORTEILE sind MINIMAL.

Ach, 3.0 Shader bringen minimale Perfomancevorteile? Dass die Gf 6800 mit dem 1.2er Patch in FarCry deutlich zulegen konnte hast du aber mitgekriegt oder?
Und ob 3.0 Shader keine Qualitätsverbesserungen bringen sollte man erstmal abwarten, oder kannst du in die Zukunft schauen? ;) :]

MfG 8)
 
Original geschrieben von James Ryan
Ach, 3.0 Shader bringen minimale Perfomancevorteile? Dass die Gf 6800 mit dem 1.2er Patch in FarCry deutlich zulegen konnte hast du aber mitgekriegt oder?
Und ob 3.0 Shader keine Qualitätsverbesserungen bringen sollte man erstmal abwarten, oder kannst du in die Zukunft schauen? ;) :]

MfG 8)
zum 2. reicht lesen ;)

einzig optimierungen sind möglich..
sicher man könnte da ein wenig komplexer werden ohne die hardware auszureizen aber sh2 sollte das auch schaffen ;)
 
Original geschrieben von James Ryan
Ach, 3.0 Shader bringen minimale Perfomancevorteile? Dass die Gf 6800 mit dem 1.2er Patch in FarCry deutlich zulegen konnte hast du aber mitgekriegt oder?
Und ob 3.0 Shader keine Qualitätsverbesserungen bringen sollte man erstmal abwarten, oder kannst du in die Zukunft schauen? ;) :]

MfG 8)

Die Frage ist ja, ob dieser Performance Gewinn wirklich ausschließlich durch eine Optimierung auf 3.0 Shader geschehen ist.

Aber seien wir mal ehrlich: Genaugenommen können wir das kaum beurteilen, nur unsere Meinung darüber verteilen. Und ob die richtig ist darf jeder bei sich selbst bezweifeln.
 
Original geschrieben von themk
Die Frage ist ja, ob dieser Performance Gewinn wirklich ausschließlich durch eine Optimierung auf 3.0 Shader geschehen ist.

Ist er nicht, denn der R420 legt hier auch zu.
Inoffiziell ist ja eh' schon durchgesickert, dass die Veränderungen wohl theoretisch auch komplett mit SM2 realisierbar wären, die SM3-UNterstützung also nur eine Farce ist.
 
rs1024.gif


@wishnu
genau...

mfg
 
wie kann man den sm2.0B nutzen?
 
Zurück
Oben Unten