ATI's neueste Schummeleien

Original geschrieben von Low Rider
Du machst hier den Fehler, daß du deine Erfahrungen verallgemeinerst und der Meinung bist, daß alle Karten so laufen würden. Ich jedenfalls konnte NWN auf ner ATI Karte super spielen.


Ich wollts ja auch schreiben, aber einige hier im Forum sind echt ein wenig verbohrt.
 
@Gabe: Der R100 (R7000-7500) war auch noch nach den ersten Catalysts noch nicht ganz problemlos. (aber dafür schneller ;D)

Wie´s jetzt aussieht weiß ich nicht, würd´ mich aber mal interssieren :)


Das der R300 viele Probleme macht kann wohl nur daran liegen das ihn so viele Leute haben! ;D
 
Ihr seid ja inzwischen meilenweit vom Thema weg. Aber was soll's :)

Was die Treiberqualität und Probleme in Spielen angeht, muss ich sagen, da hat ATI wirklich viel getan. War aber auch nötig.
Habe noch kein aktuelles Spiel gezockt, was auf meiner Radeon 9600 Pro Probleme macht.

Bei der ersten Radeon-Generation war das aber wirklich noch ganz anders. Ich war einer der ersten hier, der damals die Radeon SDR geholt hat und damals war die Spielekompatibilität wirklich grauenhaft. Ungefähr die Hälfte aller Spiele haben auf der Karte arge Probleme gemacht. :(
 
Original geschrieben von themk



Das der R300 viele Probleme macht kann wohl nur daran liegen das ihn so viele Leute haben! ;D

ATI führte zwar zuletzt im High-End-Segment deutlich vor NVidia, aber insgesamt sind NVidia-Karten immer noch weiter verbreitet, da nicht jeder das Geld hat um eine 400-500 € teure Karte zu kaufen. Sehr viele in meinem Bekanntenkreis haben noch GF 3 und GF 4.

Aber ich bin auch der Meinung, das wir uns wieder auf das urspüngliche Thema konzentrieren sollten, da doch jeder seine eigene Meinung und Erfahrung hat.
 
Original geschrieben von Gabe
ATI führte zwar zuletzt im High-End-Segment deutlich vor NVidia, aber insgesamt sind NVidia-Karten immer noch weiter verbreitet, da nicht jeder das Geld hat um eine 400-500 € teure Karte zu kaufen. Sehr viele in meinem Bekanntenkreis haben noch GF 3 und GF 4.
...


Lediglich die allerneuste Grafikkartengeneration kostet über 400 Euro. Sehr viele 5950 Ultra´s (is das die derzeit erhältliche Spitzenkarte von NVidia?!? *noahnung* ) sowie die meisten 9800 XT´s kosten unter 400 Euro. Ne 9800 Pro bekommt man für unter 200 Euro.

Ich habe meine Sapphire Radeon 9700 Non-Pro jetzt seit eineinhalb Jahren und ich habe damals glatte 299 Euro bezahlt. ;) Man muss keine 400 Euro ausgeben....
 
Es gibt nur eine Sache die mich stört, versucht man mit den eingefärbten MipMaps die Filterstufen zu finden, dann wird das Brilinar abgeschaltet und NUR dann. Das ist nicht richtig von ATI. Das man den Unterschied nicht sieht ist für mich in Ordnung, dann sollen sie aber dazu stehen, dass es mehr Geschwindigkeit bringt und kaum bemerkbar ist. Hat Nvidia ja auch gemacht und da hat es einen Aufstand gegeben, aber man konnte es ja abstellen. ATI kann es ja auch korrekt, sieht man ja bei den Färbungen. Geschwindigkeit im Tausch gegen Bildquali, die man nicht braucht beim Spielen, ist schon in Ordnung, falls man es selbst wieder ändern kann im Treiber.

MFG Seb

PS: Falls das schonmal in den vorderen Beiträgen steht tut es mir leid, aber ich wollte es auch mal los werden. ;D
 
Original geschrieben von Sebastiano
Es gibt nur eine Sache die mich stört, versucht man mit den eingefärbten MipMaps die Filterstufen zu finden, dann wird das Brilinar abgeschaltet und NUR dann. Das ist nicht richtig von ATI. Das man den Unterschied nicht sieht ist für mich in Ordnung, dann sollen sie aber dazu stehen...

Naja, genau das ist ja IMO der Grund der ganzen Aufregung - dass die Leute von CB behaupten, ATI würde die brilineare Filterung per Treibercheat genau dann auf trilinear umschalten, wenn ein Tool läuft, das die Filterqualität testet. Das wäre dann bewusste Täuschung. Nur aus dem Grund, dass der Treiber brilinear filtert, würde sich kein Mensch aufregen - wenn ATI nicht behauptet hätte, er würde trilinear filtern.

Es steht natürlich immer noch die Frage im Raum, ob das eine bewusste Irreführung seitens ATI war, also ob der treiber wirklich darauf programmiert wurde, bei colored mipmaps auf trilinear hochzuschalten oder ob es einfach nur eine Nebenerscheinung des dynamischen Filteralgorithmus ist, die ATI nicht beabsichtigt hat.
Ich tippe mal auf ersteres, da ATI bisher nicht in der Lage war, einen Gegenbeweis zu erbringen, aber geklärt ist das IMHO derzeit noch nicht. ;D

Dass man den Unterschied nicht sieht, ist übrigens auch nur eine in den Raum gestellte Behauptung. Die Leute, die's getestet haben, behaupten ja, man sieht ihn sehr wohl (glaub ich aber auch nicht richtig dran).
Ich denke mal, ATI hat sich das etwa so gedacht, dass die Unterschiede durch den dynamischen Filteralgorithmus so gering gehalten werden, dass man die Filterung durchaus mit gutem Recht noch als trilinear bezeichnen kann. *buck*
 
hat das schon jemand gelesen? was soll diese passage bedeuten:
3DCenter: Die GeForce 6800-Reihe zeigt bei anisotroper Filterung ein Muster, dass dem eines anderen bekannten Herstellers ähnlich sieht. Früher bot Nvidia deutlich bessere Qualität (was dann natürlich auch mehr Leistung kostete). Ist das neue Muster durch die Hardware unveränderlich, oder können wir eine Option für volle, anisotrope Filterung "der alten Schule" in zukünftigen Treiberversionen erwarten?

Luciano Alibrandi: Die GeForce 6800 hat verglichen mit der GeForce FX eine vereinfachte Hardware, um die LOD-Berechnungen für anisotrope Filterung auszuführen. Die Berechnung entspricht aber noch immer voll der Microsoft DirectX Spezifikation und WHQL-Bestimmungen, ebenfalls werden die Anforderungen von OpenGL erfüllt. Diese Optimierung spart Kosten und steigert die Performance, der Chip läuft mit anisotroper Filterung also schneller und ist für den Endkunden preiswerter. Daher könnte es sein, dass es unmöglich ist, den GeForce FX-Algorithmus in dieser Hardwaregeneration freizuschalten. Wir schauen uns das noch an.

Auf eines möchte ich aber hinweisen: Als unsere anisotrope Qualität DEUTLICH besser als beim Konkurrenzprodukt war, gab es keinen Reviewer in der Internet-Community, der uns für die Filterqualität gelobt hat – es gab nur Beschwerden bezüglich der Performance. Für die Zukunft planen wir, eine große Auswahlmöglichkeit von maximaler Qualität (so perfekt, wie wir es hinkriegen können) bis hin zur höchstoptimierten Leistung. Wenn man auch die LOD-Winkelabhängigkeit mit Testprogrammen zeigen kann, lassen sich in echten Spielen interessanterweise nur extrem schwierig Situationen finden, wo man Unterschiede sieht. Ich halte das für eine gute Optimierung, die dem Endkunden nützt.

*noahnung*

dass hardwareseitig keine bessere filterung unterstützt wird? :[
 
Original geschrieben von Seraphim
hat das schon jemand gelesen? was soll diese passage bedeuten:


*noahnung*

dass hardwareseitig keine bessere filterung unterstützt wird? :[

NVIDIA hat sich nur ATi angepasst, weil es anscheinend keinen stört wenn das AF stark winkelabhängig ist.
Der Schritt ist absolut verständlich auch wenn er ärgerlich ist!

MfG 8)
 
und da isses wieder ok? komische logik.
 
Original geschrieben von Seraphim
und da isses wieder ok? komische logik.

Hast Recht, komische Logik dass es bei ATi keinen gestört hat...

MfG 8)
 
Original geschrieben von MusicIsMyLife
Lediglich die allerneuste Grafikkartengeneration kostet über 400 Euro. Sehr viele 5950 Ultra´s (is das die derzeit erhältliche Spitzenkarte von NVidia?!? *noahnung* ) sowie die meisten 9800 XT´s kosten unter 400 Euro. Ne 9800 Pro bekommt man für unter 200 Euro.

Ich habe meine Sapphire Radeon 9700 Non-Pro jetzt seit eineinhalb Jahren und ich habe damals glatte 299 Euro bezahlt. ;) Man muss keine 400 Euro ausgeben....

Als die 9700 Pro von Hercules kam, hat ein Kollege dafür 489 € bezahlt ;)

Auch die 9800 Pro/XT waren preislich über 400€, als sie auf den Markt kamen.

Trotz meiner eher weniger guten Erfahrungen finde ich, das eine 9800 Pro unter 200€ eine gute Karte fürs Geld ist

Die 5950 Ultra kostet derzeit ab ca. 350 €, die 9800 xt kostet auch so 350€

Aber für mich ist meistens nur die Preisklasse bis max. 200€ interessant; außer es will einer meiner Bekannten wirklich mehr Geld ausgeben
 
da möchte man doch fast wieder die alte gf3 aus dem schrank holen...
 
Könnte ja meine alte Voodoo 5 wieder einbauen... ;)
Das FSAA von der Karte ist Qualitätsmäßig unschlagbar. ;D
 
na ich hatte schon nvidia karten bis 4600 und hatte ati karten aktuell 9800pro, und hatte niemals probleme mit irgendein game....

Gruss ilu
 
Original geschrieben von eden
Könnte ja meine alte Voodoo 5 wieder einbauen... ;)
Das FSAA von der Karte ist Qualitätsmäßig unschlagbar. ;D

Sorry for OT, Voodoo rules^^ , damals war alles besser ;);D
 
Original geschrieben von Musicman
Sorry for OT, Voodoo rules^^ , damals war alles besser ;);D

Na, ob alles besser war, weiß ich net, aber als die Voodoo 1 kam, war das der größte Fortschritt in der PC-Grafik; zumindest mit den Games, die von der Voodoo voll unterstützt wurden
 
Original geschrieben von Gabe
Na, ob alles besser war, weiß ich net, aber als die Voodoo 1 kam, war das der größte Fortschritt in der PC-Grafik; zumindest mit den Games, die von der Voodoo voll unterstützt wurden

ooh ja über den voodoo 1 hab ich mich seit ich nen PC hab am meisten gefreut... ich weiss noch als ich das Ding eingebaut hatte und mein Vatter kam vonner arbeit... ich bin freudestürmend rausgerannt und hab gesagt "man das is ja Wahnsinn die Grafik...." ;D

deswegen hab ich schon seit einiger zeit die voodoos gesammelt... mir fehlt quasi nur noch die 6000er
 
Original geschrieben von Gabe
Na, ob alles besser war, weiß ich net, aber als die Voodoo 1 kam, war das der größte Fortschritt in der PC-Grafik; zumindest mit den Games, die von der Voodoo voll unterstützt wurden

Jo, das war cool. Ich hatte auch damals ne 4 MB ATI Karte in meinem 200@233 Pentium I. Dann hatte ich mir ne 4 MB Vodoo Karte zusätzlich reingehangen - und ich war Sprachlos. Tombraider, Formula One & Halflife hatten echt ne geile Grafik - Selbst die PS One war nicht so gut von der Grafik ;D
 
Original geschrieben von TM30
ooh ja über den voodoo 1 hab ich mich seit ich nen PC hab am meisten gefreut... ich weiss noch als ich das Ding eingebaut hatte und mein Vatter kam vonner arbeit... ich bin freudestürmend rausgerannt und hab gesagt "man das is ja Wahnsinn die Grafik...." ;D

deswegen hab ich schon seit einiger zeit die voodoos gesammelt... mir fehlt quasi nur noch die 6000er

Jo, stimmt, der Sprung der Grafikqualität war echt umwerfend :)
 
Also mir persönlich isset echt Wurst ob ATI/nVidia in den Benches schummeln und mogeln. Ich hol mir die Karte die in Spielen eine bessere Darstellungsqualität zum besseren Preis hat! Fertig aus.... solln die doch rumcheaten :D ;D


bye Hübie
 
:]

Es geht ja eben nicht darum, dass sie in den Benches schummeln (was sie natürlich auch tun). Es geht darum, das sie heimlich, still und leise die Darstellungsqualität reduzieren - und zwar beide. Immer schön im Wettbewerb. Das ist doch genau das, was du nicht willst, wenn ich dich richtig verstanden habe?
Wenn der Kunde es nicht merkt, oder es durchgehen lässt, wer weiss, dann wird vielleicht in 5 Jahren wieder in 16bit gerechnet. Das würde dich schon stören. oder? ??? ;D
 
Zurück
Oben Unten