nVida... die ganze Wahrheit!

Original geschrieben von TM30
das meint ich mit diskutieren. was riptor macht. warum nich ? deswegen versth ich themk nich

gut, fand nur den Spam unerträglich ;)

Werd mein Posting wieder löschen
 
Zuletzt bearbeitet:
Lö,

der

<- "OberFanFlamer" *lol*

hat sich auch überlegt, was zu schreiben.

Ich hab meine Meinung zu dem Thema ja schon öfters abgegeben, und bin
deswegen auch schon mit einigen Leuten hier zusammengeraten. Aber es ist
und wird wohl auch so bleiben, das auf beiden Seiten sehr viel aus dem
Bauch heraus über die andere Seite gedacht wird. Zwischen den Herstellern
hat sich die "nette" Umschreibung "The green company" & "The red company" etabliert.

Ein immer wieder aufkommendes, falsches Gerücht ist, das ATI eine überragende
Bildqualität gegenüber NVIDIA hat. Kommen tut das davon, das ATI ein bessers
AntiAliasing hat.

Viele Leute schnappen aber nur auf : "ATI hat besseres xxxx als NVIDIA",
können mit der Bedeutung (scheinbar?) nichts Anfangen und legen es unter
"Bildqualität" ab. Zum Beispiel Inka (bitte nicht pers. angegriffen fühlen)
sagt, das sie(er?) ihren/seinen Augen eine ATI gegönnt hat. Zwar verbessert
AA den Eindruck des Bildes, macht es 'hübscher', aber mit dem eigendlichen Aspekt
Bildqualität (Schärfe, Kontrast, Farbruhe, Signalreinheit etc.) hat das alles nichts
zu tun. Bei ATI sind halt die Pixel nicht so deutlich zu sehen wie bei NVIDIA.
Das ist ganz klar ein Plus für ATI, aber von diesem einen Feature gleich eine
allgemein bessere "Bildqualität" ATI's abzuleiten ist imho völliger Müll. Die
Augen schont das nicht und dem Monitor ist das auch piep-egal.

Das was ich unter Bildqualität verstehe, ist bei so ziemlich allen heutigen
Grakas auf einem sehr hohen Niveau. Ausnahmen bilden da eigendlich nur billigst-
Produkte von NoName-Anbietern. Aber das ist dann auch nicht abhängig vom verwendeten
Grafik-Chip, sondern von Verarbeitung und Qualität der Platine und anderer Bauteile.

Dann wären da noch die Filter. Auch eine lange Story. Bis zum 45.33(inklusive)
bot NVIDIA besseres tril/ani Filtern als ATI. Das Filtern war bei beiden gleich,
ATI filtert jedoch hardwarebedingt nicht alle Flächen tril. (Winkel..)
Mit dem 52.16 hat NVIDIA nun leider "nachgezogen". Zwar werden immer noch alle
Flächen gefiltert, allerdings mit abgespeckter Filterquali. Mal abgesehen davon,
das beides nicht sehr stark auffällt (imho ATI's aber etwas mehr), ist dies wohl
ein Pat.

tjo .. my 2 cent ..

[ApoC]
 
Jo... *gähn* Irgendwie kommen wir immer zum gleichen Ergebnis. :) Wird Zeit für ne neue GraKa-Generation...
naughty.gif
 
@ ApoC:

Jo du hast Recht, ich finde es auch blöd, das man immer AA und AF unter "Bildqualität" zusammenfast. :] Für mich bedeutet Bildqualität Signalqualität, Texturschärfe, Farbdarstellung usw...
Allerdings ist genau das wieder ein Punkt der wohl eher für ATI spricht, bis zur GF4 sah es oft eher durchwachsen aus. Ich klammere bewußt die GF FX aus, da ich darüber nichts weiß...
Jedenfalls hatte ich mal groß angelegte Tests gelesen, in welchen z.B. die Signalstärke/-qualität von Grafikkarten getestet wurde. Und bis zur GF4 sahen die nVidia Karte eher schlecht aus, während ATIs 7500,8500 und 9x00 sehr gut waren (ausgeschlossen 9000 & 9200... die sind eher mies). Top war übrigens Matrox G450 & 550 ;) nVidia war eher mittelmäßig und SiS Xabre war schlecht...
Wär mal gut wenn jemand so einen Test zu aktuellen Karten wüßte... bei der ct wird soviel ich weiß immer nur nebenbei die Signalqualität bewertet (mit + und - oder so).

Und mit der richtigen Karte kann man seinen Augen wirklich was gutes tun :)
Ich hatte mal Ti4200 von MSI, deren Bild war recht scharf und hatte gute Farben, kam jedoch nicht an die super Texturdarstellung und Bildschärfe meiner alten Radeon 8500 heran. Ganz krass war da mal ne Ti4600 von Albatron - das Bild war matschig, Schrift total unscharf und Texturen sahen aus wie ein Brei aus wild zusammengewürfelten Pixeln... einfach nur grottenschlecht, die Karte habe ich sofort reklamiert. Das war damals (vor fast einem Jahr) einer der Hauptgründe für mich zu ATI zu wechseln (die 8500 war mir zu lahm). Wie gesagt - wie es mit den FX Karten jetzt aussieht weiß ich nicht, aber manch alte GeFurze waren schon sehr abschreckend (nicht nur meine Ti4600).
 
Hi LowRider.

Das was du da beschreibst, meinte ich mit Herstellerabhängig
und Billiganbietern. Auch ich hab damals den Griff zur
4600 von Albatron gemacht, weil die eben !70! €uro billiger
war, alls ALLE vergleichbar ausgestatteten GF4 TI 4600 zu der Zeit.

Die ersten par Monate war mir auch nichts aufgefallen, da ich sie
per DVI-Kabel am TFT betrieben habe. Dann bin ich jedoch wieder
auf mein 17"-CRT zurück und musste mir bei 1280 @ 85 Hz erstmal
die Augen reiben! Völlig unscharf, farbarm und sogar mit
Geisterbild/Schlieren bei starken Kontrasten (z.B. schwarz auf weiß Text).

Dachte erst, mein Monitor hätte das halbe Jahr rumstehen übel genommen oder
Kabel kaputt etc.

Dann die Karte bei nem Freund getestet. Der hatte nen 19"-Monitor, selbes Phenomen.
Mit zunehmender Auflösung&Herzahl wurde das Bild immer übler. Seine Creative
GF4TI4600 lieferte selbst bei 1600*1200 mit 100Hz ein super scharfes Bild.
Bei mir seine eingebaut : 1280 @ 85Hz sieht perfekt aus.

Fazit : Albatron => billiger Taiwanschrott !

Meine FX hat eine astreine Qualität, Leadtek schein also auch auf die
Auswahl vernünftiger Bauteile zu achten.

Das "Problem" der alten GF-Karten war, das NVIDIA schon immer die Karten
von Fremdherstellern produzieren ließ. Da gibts Spreu und Weizen.

Meine GF256 DDR war damals von Elsa. Astreines Bild. Habe deshalb nie
verstanden, warum viele meinten, NV hätte nicht so gute Bildqualität.
Bis sich ein Kumpel eine billige geholt hat. Powercolor oder so ..
Sah echt grottig aus. ATI hat zu der Zeit (glaub ich?) noch alle Karten selber
Produziert. Dadurch hatten sie natürlich die Qualität selber unter Kontrolle.

Mitlerweile sieht das auch anders auch. Die Bildqualität der verschiedenen
Radeon-Anbieter ist teilweise recht unterschiedlich.

Die RAMDACs sind zwar heute alle in den Chips integriert, so das der Kartenhersteller
da nichts mehr versauen kann, das Bildsignal muss aber noch über die Platine
(idealerweise kurze und syncrone Signalwege) und durch einen Verstäker laufen.
Da kann ein schlechtes Platinenlayout (nicht alle nehmen das Referenzdesign)
und ein billiger Signalverstärker immer noch dazwischen funken...

[ApoC]

Edit: uiuiui .. mal wieder extrem OT abgeschweift ... ;D
 
Ist doch nicht OT... es geht ja um die Wahrheit bei nVidia ;D

Also... die Albatron war schon in der Tat eine böse Ausnahme. Ich habe sie selben Probleme gehabt wie du beschrieben hast. Dafür hat sie damals spektakuläre 280¤ gekostet...
Trotzdem waren die GF Karten damals doch spürbar schlechter als die Radeons. Aber nVidia selbst hatte dieses Problem zugegeben (!) und die FX Reihe soll da ja besser sein.

Hab mal nen alten Artikel zu dem Thema gefunden:
http://www.tecchannel.de/hardware/583/
Und hier die aktualisierte Tabelle:
http://www.tecchannel.de/tecdaten/show.php3?catid=148&pageid=989&sort=wertung&sortorder=desc
Leider wurden nur wenige aktuelle Radeons getestet, so daß man nen schlechten Vergleich hat.
 
also meine 3er TI hat nen geiles Bild im Gegensatz zu der 4er... ich finde es eigentlich schlicht und ergreifend beschissen was die 4er mir gibt... aber nagut, zu weihnachten gibts ne radeon 9x00 ^^
 
Original geschrieben von Nazar
Ich hab mal einen netten link gefunden, wo man mal nachlesen kann, weshalb bei "richtigen" DX9 spielen die aktuelle nVidia FX-serie nie die leistung einer ATI erreichen KANN.

Dieses soll kein flameware werden... sondern lediglich der information dienen und die teilweise haltlosen spekulationen unterbinden... bitte lest euch den artikel mal aufmersam durch.... ist sehr informativ und beendet hoffentlich die unsäglichen flamewars.

http://www.penstarsys.com/editor/tech/graphics/nv_ati_dx9/index.html

PS. bitte alles lesen!

Naja, ich sehe es nicht unbedingt so wie der Author dieses Artikels.

Er schreibt z.B. daß DX9 an ATi-GraKas angepasst ist. Das halte ich für Quatsch denn erstens kann man ein API wie DX nur schlecht an einen Hersteller anpassen und zweitens, wäre DX9 an ATis Hardware angepasst dann würden DX9-Programme nicht auf der Hardware von Nvidia laufen da ATis R300 einige Features hat, die ein NV3x nicht hat. :) Natürlich verhält sich das auch umgekehrt. Fakt ist, daß der Shader-Compiler im ersten DX9-SDK einen Shadercode erzeugt hat, der mit der R(V)3x0-Serie sehr gut harmoniert, mit der NV3x-Serie hingegen nicht. Das hat MS mit dem aktuellen Summer-SDK nachgebessert. Jetzt kann man neben dem PS2-Shaderprofil auch ein PS2_A-Shaderprofil nutzen, welches für die FXen gedacht ist. Ein PS2_B-Profil soll in der Mache sein... wahrscheinlich für die Volari-Architektur.

Aber selbst mit optimalen Shadercode kommt eine GFFX5900U nicht annähernd an eine R9800Pro ran im Bereich von PS2.0. Ein Grund ist, daß ATi 8 FP-Shaderunits hat, die GFFX nur deren 4. Ein weiterer Grund ist, daß die Leistung der Shaderunits der GFFX bei einigen, relativ häufig verwendeten Operationen extrem in den Keller geht. Da wären die Verwendung von FP-Berechnungen und Temp-Variablen. Diese Operationen schluckt die R300-Archtektur ohne Probleme weg. Die Wahrscheinlichkeit, einen für die FXen optimalen Shadercode zu erzeugen ist viel geringer als bei der R300-Architektur. Man kann jetzt hingehen und FP-Berechnungen + die Verwendung von Temp-Variablen zu minimieren aber es ist nur bis zu einem begrenzten Grad möglich. Und das hat Nvidia auch selbst eingeräumt. Sie haben zugegeben, daß die GFFX-Archtektur ziemlich schwer zu programmieren ist. Und deswegen teile ich die Meinung nicht, daß MS schuld an dem Debakel sein soll.
 
Original geschrieben von Exxtreme
Ein weiterer Grund ist, daß die Leistung der Shaderunits der GFFX bei einigen, relativ häufig verwendeten Operationen extrem in den Keller geht. Da wären die Verwendung von FP-Berechnungen und Temp-Variablen. Diese Operationen schluckt die R300-Archtektur ohne Probleme weg.

Liegt dies an der Tatsache, dass die Tempregister der GFFX zu lahm/klein sind, oder warum ist das so? Hat dies mit den "Quads" zu tun (2x2 Pixel, von nVidia so getauft), da diese nicht so groß sein dürfen, da sonst die CineFX-Architektur die Puste ausgeht?

Und das hat Nvidia auch selbst eingeräumt. Sie haben zugegeben, daß die GFFX-Archtektur ziemlich schwer zu programmieren ist. Und deswegen teile ich die Meinung nicht, daß MS schuld an dem Debakel sein soll.

IMO ist das Problem sowieso das, dass ATI eben mit eigener DX9-Hardware schon im Herbst 2002 aufwarten konnte, nVidia jedoch erst im Frühjahr 2003. Da war die allgemeine Shader-Performance noch nicht wirklich ersichtlich (es hieß nur, bei DX9-Anwendungen könne die FX mehr "Effekte" darstellen und sei schneller... So jedenfalls die anfängliche Meinung über CineFX), nur 3D Mark 03 hat schon eine Tendenz aufgezeigt, was das Problem der FX-Shader nun ist. Zudem wurde alles recht gut mit den Doom III Benchmarks kaschiert, erst die HL² Story hat dann das Bild der "besseren Shader" komplett gewandelt, Demirugs CineFX-Beitrag auf 3dcenter.de tat sein übbriges hinzu. Alles auf MS zu schieben ist deshalb etwas zu einfach. ;)
 
Zurück
Oben Unten