Sie ist da die 7900 GT schon erhältlich

absolut nicht. was meinst du wohl mit welchem AA grad pixar arbeitet und zu was z.b. ein quad-sli aus vier günstigen GF79GT in-der-lage ist.

Quad-SLI ist im Moment nur mit Gf 7900 GX2 Karten möglich, die sind alles andere als günstig. :]

MfG 8)
 
Richtig was los hier ... aber ich muss euch mal kurz unterbrechen ...

Wenn ich mir ne OC 79er GT kauf ist die ja leicht übertaktet. Kann ich mir die ca. 20 € auch sparen und dafür eine normale 79er GT kaufen und die selber übertakten?!
Komm ich dann genauso weit oder sind die OC-Karten besonders herausgefiltert?
 
Richtig was los hier ... aber ich muss euch mal kurz unterbrechen ...

Wenn ich mir ne OC 79er GT kauf ist die ja leicht übertaktet. Kann ich mir die ca. 20 € auch sparen und dafür eine normale 79er GT kaufen und die selber übertakten?!
Komm ich dann genauso weit oder sind die OC-Karten besonders herausgefiltert?

Naja, der Vorteil der 20 Euro teureren Karten ist die Garantie! Der Takt wird Dir garantiert und wenn sie bei diesem hopps geht, greift die gesetzliche Gewährleistung.

Wenn Du die non OC kaufst, gehst Du ein Risiko ein: Übertaktungsschaden? -> Pech gehabt.

An eine besondere Auslese glaube ich nicht.
 
@JR
ja - heute. erstmal geht die geschichte schneller, als es vielen lieb ist (warst du auf der cebit?) und desweiteren nimmt man mit der G71 schon rücksicht auf den preis. klar, dass nicht jedermanns sache ist, aber innovation in der technik nimmt selten rücksicht auf den preis. who cares? ist doch bei blue-ray und HDTV nicht anders.

@dragon
wenn das mit der mit der "designschwäche" ironie od. ein witz gewesen sein sollte, OK. ansonsten: nachsitzen.

@ango
ich denke da wie du. ich würde davon ausgehen, dass die chips selektiert werden.


(..)

mfg
tobi
 
@dragon
wenn das mit der mit der "designschwäche" ironie od. ein witz gewesen sein sollte, OK. ansonsten: nachsitzen.

Sorry, aber wenn der G70, G71 nur mit drastischen Einbußen der Grafikqualität Leistung erbringen, so ist das eine klare Designschwäche. Es ist kein Treiberproblem, wie immer gemutmaßt wird. Neuere Treiber versuchen es nur zu umgehen, zu kaschieren. Aber bei neueren Spieletiteln fallen die Schwächen gleich wieder auf.

Wie würdest Du es nennen? Etwa ein "Feature"?



@ango
ich denke da wie du. ich würde davon ausgehen, dass die chips selektiert werden.

Ich verwette meinen Hintern, das nahezu jede 7900 GT eines Herstellers auf den Taktraten der geringfügig teureren Modelle laufen. Nix mit Selektion.
 
@dragon

du tust, als wäre ein anisotroper filter der nabel der welt und als hätte eine grafikkarte nicht noch ganz andere funktionen, wo der andere IHV defizite hat.

@ango

ja.


(..)

mfg
tobi
 
@dragon

du tust, als wäre ein anisotroper filter der nabel der welt und als hätte eine grafikkarte nicht noch ganz andere funktionen, wo der andere IHV defizite hat.

@ango

ja.


(..)

mfg
tobi

AF-Schwäche hin oder her..., es handelt sich ja nun nicht unbedingt um Low Cost Karten. Jemand, der sich nun ein 500 Euro Modell holt geht gerechterweise auch davon aus sein(e) Spiel(e) in entsprechender Quali zu genießen.

Ich denke mal, das NVIDIA ruhig auf 100 3DMurks Punkte verzichten könnte, dafür jedoch mal die Qualität der Grafiken steigert.
 
Hi..

@James Ryan,

dann mal meine Erfahrungen, über die analoge Kommunikation zwischen einer Matrox G550AGP, ATI-9800Pro, NV 5900XT, 6800GT*

an einem Eizo F931 Bildschirm per BNC.


Fazit ->

1. Matrox liefert in 2D das beste und schäfste Bild - keine Moire.

2. ATI liefert zwar ein besseres Bild, als NV weniger *verschwaschen* aber heftigste Moire als Zugabe ! - daher ein mangelhaft für diese Karte mit dem Bildschirm, an VGA angeschlossen das Todesurteil für ATI.

3. NV, Bild schlechter, aber ebenfalls keine Moire.

womit es ab Eizo nicht liegt, habe auch andere Kabel getestet.

Interessant dabei ist, das sie mit höherer Frequenz 85-100Hz getestet, für ATI dieser Effekt verschlimmerte.

Mag ja sein, das durch DVI die Quali besser ist, dank fehlender A/D D/A Wandlung....

Habe aber nur 2D getestet, da ich das am meisten nutze und nur ab und zu mal zocke, wobei hier der Treiber bei NV auf hoher Qualität gestellt ist, und je nach bedarf die AA/AF Werte auf geringen Wert gestellt sind, den höchsten nutze ich nicht, wobei man ja meist bei gewissen Games ja eh auf die Gegner achtet als auch die Landschaft *g*

Daher verbleibt die Frage was die optimalsten AA/AF Werte sind, müssen es immer die höchsten sein, wie groß sind die Unterschiede, unterschiedliche Kombinationen u.s.w
V-Synch ist bei manchen Games auch Plicht, wenn man so schnell fährt das in weiter ferne die Landschaft noch aufgebaut wird, wenn man dann doch mal hinguckt. Das testet aber leider auch nicht jede Seite mit, da dies die Graka-Performance zusätzlich in den Keller ziehen kann.

----------------------------------------------------------------
Treiber :

In einigen Games hatte ich mit ATI ohne OC Grafikfehler ! - die ich mit NV vorher nicht hatte, okay anderer Treiber behob das Problem.

In meinem Notebooks ist ne ATI-M6 drin, mit dem alten Org Treiber hatte ich Probleme den TV-Out zu aktivieren, bei NV nicht. Mit einem modernen Patch und einem aktuellen Desktop-Treiber geht es jetzt !

Zu guter letzt hat das NB einen 2 Graka Port, woher kommt das wenn ich beide aktiviere nur die Auflösungen und Frequenzen unterschiedlich sein können, wenn ich das WindowsBild auf den 2 Schirm erweitere. Ohne diese Option kann ich mit dem 2 nichts ändern, mag aber sein das es am M6 liegt, und nicht am Treiber.

Werde es mal die Tage an einer Geforce 6800GT nachtesten, mit einem Eizo L-365 und einem VP-191s

und die G550 könnte ich auch mal dazunehmen.
@Shining Dragon,

wie kann ich das *Flimmern* am stärksten provozieren ! - ist es dabei egal ob man per DVI o. Analog betreibt bzw. TFT oder Röhre ?

Ich konnte mir selber davon mangels Karte bisher kein Bild davon schaffen, wenn es mich stört verbleibt für mich wohl nur auf den G80-Chip zu warten. Karten könnten dann wohl Geforce 8800GT/GTX.

Zu den Chips der G-7900er Serie, die GTX mit 512MB Ram kosten ja min. 150-200 Euro als die 7900GT mit 256MB. Kann es nicht sein das hier doch selektiert wurde, den z.b eine Core von 450Mhz bei GT zu nur ! 650MHz GTX lassen vermuten das mal eben 200Mhz mehr nicht jeder Chip einer GT zur GTX packt. Da die Karten sonst gleich sind.

Eine z.b 6800GT zur 6800U zu machen, bedarf es nur 50Mhz mehr am Core-Takt.

Und selbst ne "Superclock" hat auch nur 550Mhz Core, fehlen also immer noch 100Mhz zur GTX ! - aber mag sein das es dennoch geht, ohne gleich mit Wasser zu kühlen.
 
Zuletzt bearbeitet:
Shining Dragon,

wie kann ich das *Flimmern* am stärksten provozieren ! - ist es dabei egal ob man per DVI o. Analog betreibt bzw. TFT oder Röhre ?

Ich konnte mir selber davon mangels Karte bisher kein Bild davon schaffen, wenn es mich stört verbleibt für mich wohl nur auf den G80-Chip zu warten. Karten könnten dann wohl Geforce 8800GT/GTX.

Ich habe nur Röhre, kann es Dir also nicht sagen. Vermutlich dürfte das Flimmern sowohl bei Röhre, als auch bei TFT auftreten. Theoretisch müsste es bei der digitalen Darstellung leicht besser sein, da die Bildschirme träger reagieren.

Hier mal zum anschauen: G70 @ Quality & G70 @ High Quality



Zu den Chips der G-7900er Serie, die GTX mit 512MB Ram kosten ja min. 150-200 Euro als die 7900GT mit 256MB. Kann es nicht sein das hier doch selektiert wurde, den z.b eine Core von 450Mhz bei GT zu nur ! 650MHz GTX lassen vermuten das mal eben 200Mhz mehr nicht jeder Chip einer GT zur GTX packt. Da die Karten sonst gleich sind.

Ich schrieb nicht von GT auf GTX. Es gibt doch diese "selektierten" (LOL) G71 GT Karten, die leicht übertaktet sind. Und auf DEREN Niveau bekommt man JEDE G71 GT.
 
Ich habe nur Röhre, kann es Dir also nicht sagen. Vermutlich dürfte das Flimmern sowohl bei Röhre, als auch bei TFT auftreten. Theoretisch müsste es bei der digitalen Darstellung leicht besser sein, da die Bildschirme träger reagieren.

Hier mal zum anschauen: G70 @ Quality & G70 @ High Quality


Ich schrieb nicht von GT auf GTX. Es gibt doch diese "selektierten" (LOL) G71 GT Karten, die leicht übertaktet sind. Und auf DEREN Niveau bekommt man JEDE G71 GT.

axo....:)

Wie ich das auf neue hasse, wenn man sich Videodateien nicht angucken kann - und rausfinden muß welchen Codec es braucht. Da ich es weder mit Nero, WindowsMediaPlayer und DivX abspielen kann. Jemand ein Vorschlag womit es noch gehen könnte.............
 
Zuletzt bearbeitet:
axo....:)

Wie ich das auf neue hasse, wenn man sich Videodateien nicht angucken kann - und rausfinden muß welchen Codec es braucht. Da ich es weder mit Nero, WindowsMediaPlayer und DivX abspielen kann. Jemand ein Vorschlag womit es noch gehen könnte.............

Du mußt FRAPS installieren. Zusätzlich wird ein CoDec installiert, den Du zum Betrachten der VIDS benötigst.
 
wie kann ich das *Flimmern* am stärksten provozieren ! - ist es dabei egal ob man per DVI o. Analog betreibt bzw. TFT oder Röhre ?

Man sieht das Flimmern ganz gut in HL2 und CS:Source.

Zu den Chips der G-7900er Serie, die GTX mit 512MB Ram kosten ja min. 150-200 Euro als die 7900GT mit 256MB. Kann es nicht sein das hier doch selektiert wurde, den z.b eine Core von 450Mhz bei GT zu nur ! 650MHz GTX lassen vermuten das mal eben 200Mhz mehr nicht jeder Chip einer GT zur GTX packt. Da die Karten sonst gleich sind.

GT und GTX sind alles andere als gleich, die Spannungsversorgung der GTX ist deutlich besser (längere Platine, mehr Spannungswandler), daher sind auch viel höhere Taktfrequenzen möglich.

MfG 8)
 
Man sieht das Flimmern ganz gut in HL2 und CS:Source.



GT und GTX sind alles andere als gleich, die Spannungsversorgung der GTX ist deutlich besser (längere Platine, mehr Spannungswandler), daher sind auch viel höhere Taktfrequenzen möglich.

MfG 8)

Das bezog ist jetzt nicht mit ein, aber auch hier sollte es kein Problem sein eine Karte zu finden, die das GTX Layout hat.

Stichwort : Asus, 6800 GT @ Ultra Layout @ lediglich per Bios auf GT-Takt angepaßt.
War angeblich sogar schneller als eine echte Ultra, weil die GT wohl den
schnelleren Ram verbaut hat.


Weiter oben habe ich dir nochmal geantwortet in *blau* Schrift, könntest ja mal darauf auch eingehen, falls übersehen. :)
 
ATI senkt die Preise
Erstmal abwarten wie lange die X1800XT 512 MB noch 350€ kosten wird, ich denke nicht lange.
Außerdem steht mit der X1900 XL 512 MB auch schon die Ablöse direkt vor der Tür. Wäre natürlich klasse wenn einige Hersteller die Gf 7900 GT ebenfalls mit 512 MB Ram ausstatten würden (wie Gainward bei der Gf 7800 GT), dann wäre sie ein gutes Angebot!

MfG 8)

sehe ich auch so. Im übrigen kommt es nicht nur auf die Quantität (Speichermenge) sondern auch auf dessen Qualität an. Ich schätze mal, daß nvidia Samsung Speicher verbaut, aber ist auf GT bzw. GTX der gleiche drauf? wenn der 256er speicher auch noch langsamer wäre, dann würde ich der X1800xt den Vorzug geben. Und dann noch schwächere Spannungswandler. Weiß jemand, wie weit man die 7900gt übertakten kann und was dabei raus kommt?
 
Zuletzt bearbeitet:
hey.
ich bin neu hier und da ich im besitz einer EVGA 7800GT bin, wollte ich mal von euch wissen wer schon erfahrungen mit dem Hersteller StepUp-programm gemacht hat.
Wie geht's genau, wie läufts ab, wie berechnet sich ungefähr der Preis bei Upgrade, wohin schicken, wielange dauerts usw.

vielen dank an alle
 
gibt es irgendwo schon ausführlich tests zu diesen Karten?
würde mir auch eine zulegen und meine alte 6800 GT verkloppen.
würde aber gerne vorher nen ausführlichen Test lesen.
 
hey.
ich bin neu hier und da ich im besitz einer EVGA 7800GT bin, wollte ich mal von euch wissen wer schon erfahrungen mit dem Hersteller StepUp-programm gemacht hat.
Wie geht's genau, wie läufts ab, wie berechnet sich ungefähr der Preis bei Upgrade, wohin schicken, wielange dauerts usw.

vielen dank an alle

naja lohnen tuts nicht wirklich



@all

leute spätestens nach dem computerbase review der neuen 7xxxer karten muss jeder gemerkt haben das die 7900 gt der x1800xt nicht im geringsten (ok nur bei riddick ;D ) der x1800xt bei 1280er auflösung AA+AF das wasser reichen kann

und computerbase testet wirklich "fair" mit gleichwertigen settings

ich bin echt froh mich doch für die ati entschieden zu haben zumal die auch noch diesen flimmerbug wie bei der geforce nicht hat sowie auch bessere BQ liefert

hier der Test:

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/
 
266 Watt bei Last für die ATi Radeon X1900 XTX ist aber schon verrückt.... :o
 
und computerbase testet wirklich "fair" mit gleichwertigen settings
Nicht wirklich, sonst hätten sie nicht nur bei Nvidia die Optimierungen deaktiviert, sondern auch bei ATI (Catalyst A.I.: Standard).*noahnung*
 
Zurück
Oben Unten