[F] An alle GeForce 8800 GTS Besitzer

Also eines ist klar, wenn ich diesen Speicherbug bemerken sollte und dieser mich wirklich stört dann werde ich mich von der Karte trennen )((
Glücklicherweise habe ich ja eh schon die kommende Grafikkarten-Generation von NVIDIA im Auge ;)
 
Glücklicherweise habe ich ja eh schon die kommende Grafikkarten-Generation von NVIDIA im Auge ;)
Hoffentlich habe ich diesmal soviel Grips "Nein Danke" zu sagen, wie ich es mit VIA seit der 686B gehandhabt habe.
Nur ATI ist atm auch keine Alternative... wo sind die Alternativen? Wäre schön, wenn sich im Grafikkartenmarkt wieder mehr tun würde.
 
Hoffentlich habe ich diesmal soviel Grips "Nein Danke" zu sagen, wie ich es mit VIA seit der 686B gehandhabt habe.

Aber irgend jemand muss doch die neuen Karten kaufen ;) Wer wagt, gewinnt (und sei es nur an Erfahrung) *buck*
 
So einfach ist es leider nie. Benchmarkmärchen sind echt was übles. Bei der G80 hat es mMn Monate gedauert, bis dass was ich mir theoretisch über die so gedacht habe endlich durch andere Benches letztendlich bestätigt wurde und es tatsächlich so ist. Aber es gab mal sogar ne News in der Nvidia zugegeben hatte dass die ersten DX10 Karten eigentlich nur optimal für DX9 Games sind. Gleiches halt wie bei der GF3 oder der GF FX. Mit der ersten Kartengeneration wirst Du eigentlich immer beschissen.
Denke fast die 320er war ursprünglich gar nicht so vorgesehen, aber um etwas in der Preisklasse im Portfolio zu haben hat NV den Chip so abgespeckt. Solange kaum Games auf dem Markt waren die Sie ausreizen konnten und die wahre "Performance" ans Tageslicht bringen, reichte Sie ja locker, und das alles nur weil mann mal 50 EUR für ne achso gleichwertige Karte einsparen möchte, wobei es gereicht hätte an der CPU zu sparen, oder sich das Sysupgrade zu verkneifen und stattdessen in eine ordentliche Graka zu investieren.
 
Aber irgend jemand muss doch die neuen Karten kaufen ;) Wer wagt, gewinnt (und sei es nur an Erfahrung) *buck*
• TNT 1 -> Müll
• TNT 2 M64 -> Kastrat
• GeForce 2 Ti -> TOP!
• GeForce 3 -> lahm
• GeForce 4 Ti -> TOP! (gilt als GF3 Refresh)
• GeForce FX -> Shaderschwach
• GeForce 6600 GT AGP -> 08/15, ganz okay.
• GeForce 6800 GT AGP -> defekter Videoprozessor
• GeForce 7600 GT PCIe -> TOP!
• GeForce 7900 GT PCIe -> Hat mich nicht überzeugt. Unterschied 7600 GT <-> 7900 GT kaum spürbar, dafür war sie nach ~6 Monaten ohne oc'ing tot (SpaWa-Schrott)
• GeForce 8800 GTS -> meine Begeisterung kann man ja hier lesen
• nForce 2 -> Speicherzicke, instabil, ACPI unglücklich, mieses Ressourcenmanagement
• nForce 4 -> FAST TOP! -> ActiveArmor überflüssig, da nicht funzend

...ich war also bei den oben genannten Produkten nur mit Vieren zufrieden. Schlechtes Verhältnis würde ich sagen.
 
Zuletzt bearbeitet:
Und ihr kaufts immer wieder, weil die Performanc wenns denn mal läuft super ist.
Und ich darf ALi/ULi hinterhertrauern, Naja mit dem KnowHow kanns bei NVidia nur besser werden, die kauften ja schon immer was gut ist(3DFX)
Aber wenn ich an die Temps und den Stormverbaruch von ATI denke, OMG.
Bin ja mal gespannt ob die tatsächlich schon DX10.1 können und es denen dann doch nen Vortail bringt.
Ich hab das Gefühl dass Nvidia fast immer zu schnell mit Ihren Produkten auf dem Markt ist.
 
Zuletzt bearbeitet:
Ich hab das Gefühl dass Nvidia fast immer zu schnell mit Ihren Produkten auf dem Markt ist.
Wobei mich das dann doch überrascht. Zumal es kein Geheimnis war, das bereits am G80 gewerkelt wurde, als man die G70 rausbrachte.
Naja, man läßt sich halt jeden Zwischenschritt vergolden...

1xCD, 2xCD, 3xCD, 4xCD, 6xCD, 8xCD... usw. ;-)
.
EDIT :
.

Und ihr kaufts immer wieder, weil die Performanc wenns denn mal läuft super ist.
Die Performance ist mir in gewissem Sinne gar nicht einmal wichtig, sonst wäre es eine 8800 GTX geworden.
Wichtig sind Preis/Leistung und eben das Erfüllen meiner Anforderungen. DualView ist mir wichtig, sowie stabile Treiber. Videobeschleunigung in Hardware, um die CPU so gut es geht zu entlasten (die wird für Anderes gebraucht). Meine bevorzugten Spiele sind dann doch schon ein wenig betagt.
 
Also sind ja ganz schöne Horrorgeschichten hier über die 320er GTS.

Hab selber ja noch nix davon gemerkt.
(Hatte vorher ne 6800GT AGP, die hatte ja auch Fehler, die haben mich aber auch nie gestört)

Ich denk mal so schlimm der Fehler auch sein mag.
NVidia wird es über die Treiber richten.
Notfalls mit nem Firmware Update.

Tauschen der Karte ist ja auch nicht jedem so ohne weiteres möglich.
Die 640er Karte kostet mal gut 70 € mehr im Neupreis.
Vom gesunkenen Verkaufswert der gebrauchten 320 mal abgesehen.

@ ShiningDragon
Haste eigentlich mal ne Mail an Nvidia geschrieben ?
Mit Verweis auf die Ergebnisse deiner Recherche.
Vieleicht haben die ja Infos, Tipps, Patches oder was weiß ich. *noahnung*

Hab gerade im Forum den Thread hier gesehen.
http://www.planet3dnow.de/vbulletin/showthread.php?t=320283

Ist ein MS Patch für Vista wegen Problemen mit dem Nvidia Treiber.
Hängt das auch mit dem Problem hier zusammen ?
 
Zuletzt bearbeitet:
Ein Zitat noch von CB zum Bioshock Bench, das mich doch etwas verwundert.

"Unter der Direct3D-10-API funktioniert bisher kein Anti-Aliasing, weil dieses nicht von der Applikation angefordert wird (technisch aber zumindest theoretisch möglich sein sollte). Deswegen verzichten wir auf die Kantenglättung in den Qualitätseinstellungen."

Bei den anderen DX10 Tests wurde seltsamerweise dann doch AA aktiviert.

Ich kann unter Vista auf alle Fälle AA im Treiber aktivieren. In Bioshock selbst hab ich keine Option gefunden dies zu tun, allerdings wird solches ja manchmal im Hintergrund durchgeführt wenn ich die Grafikdetails hochschraube.

Ein nicht verwendetes AA dürfte mit ein Grund sein warum dort die 8800GTS320 in dem Benchmark in einem zu guten Licht dasteht. Denn ich denke mal genau dort kommtes auf genügend Speicher an.
 
XFX 8800 GTS 320MB
Bios: 60.80.18.00.90
Forceware: 163.71

Per DVI gehts an einen 22" TFT
WIN XP Prof SP2

Habe die Karte erst 2 Tage im Einsatz (vorher X1950 Pro) und bin mächtig begeistert...
 
*lol* Is ja voll zum "ich-schmolle-mit-meiner-Hardware-Thread" geworden hier *lol* Ich glaub, ich fang da lieber erst garned an damit... ;)
 
Noch, bis der V-RAM Bug zuschlägt ^^

...oder ein 2. Bildschirm per DVI-VGA Adapter rankommt :-/

Muss ich beide Schirme per VGA dranhängen damit der Fehler auftritt ?
Den Sekundären meiner beiden Schirme könnt ich ohne weiteres in wenigen Sekunden auf VGA umstellen, das Kabel liegt schon.
Nur beide wird aufwändig (auch wenn ich alles da hab was ich brauch, genug Adapter und Kabel)

Mach ich aber nur wenn dir das irgendwie hilft ;)
 
*lol* Is ja voll zum "ich-schmolle-mit-meiner-Hardware-Thread" geworden hier *lol* Ich glaub, ich fang da lieber erst garned an damit... ;)
Ich weiß, immer schön "Ja und Amen" sagen, wenn die Hersteller wieder was verbocken. Schau mal in die nZone Community und lies Dich mal durch die unzähligen V-RAM Bug "Anhänger".
Natürlich schweigt NVIDIA selber mal wieder. Denn NVIDIA macht keine Fehler™
.
EDIT :
.

Mach ich aber nur wenn dir das irgendwie hilft ;)
Das wäre auf jeden Fall einen Versuch wert.
 
Nein - nicht "Ja und Amen" sagen, aber genauso wenig nur rumjammern *nono*
--> Der Kunde ist König - solang er sich nich von der Werbung und seiner eigenen Gier nach möglichst immer dem Neuesten entmachten lässt :D Ergo - mit dem Geldbeutel abstimmen (aber nich nach dem Motto "Geiz ist geil", sondern durch wohlüberlegte Kaufaktivität), bei neuen Sachen (hier D3D 10-Grakas) warten auf ne "gewisse Reife" ;) Und ich nix gefallen lassen von Händlern und Herstellern - lieber einmal zuviel als einmal zu wenig den Verbraucherschutz kontaktieren, denn die schwarzen Schafe bringen die ganze Branche in Verruf )((
 
bei neuen Sachen (hier D3D 10-Grakas)
D3D10 stand für mich überhaupt nicht zur Diskussion, wird mir mit hoher Wahrscheinlichkeit unter XP nichts bringen.
Für mich Ausschlaggebend waren die Kriterien:
• Bildqualität unter 3D
• Unified Shader*

* Unified Shader aus folgendem Grunde: Sollte der Videoprozessor bestimmte Videoinhalte nicht beschleunigen können/wollen, so kann man die Vertexshader einer Grafikkarte schuften lassen. Bei den herkömmlichen Modellen lagen dabei natürlich die Pixelshader brach; bei den Unified Shadern SOLLTE es dieses nicht mehr geben.

Ferner: Auf dem gesamten Karton der 8800 GTS konnte ich NIRGENDS lesen, das:
• Dualviewbetrieb mit 2 per Adapter angeschlossenen Bildschirmen zu flackern führt
• Das Grafikkarten der G8X Serie, mit weniger als 1536 MB RAM vom sogenannten VRAM Bug betroffen sind.

So wie es ausschaut, haben sie bei den "preiswerteren" Modellen einen eiskalten "Schnitt" vorgenommen, ohne die Logik des Speicherzugriffes zu testen. Finde ich armselig.
Ach ja @ Sega Rally -> DualView aus, 2. Monitor deaktiviert -> höchste Einstellungen ruckelfrei. Ich kenne diesen ganzen Murks aus früheren NVIDIA Generationen in einer derart penetranten Art nicht.

Mit jammern hat es nichts zu tun. Wenn ein Produkt auf den Markt tritt, werde ich wohl erwarten dürfen, das die preALPHA Testphase durch ist.
 
Pre-alpha nimmer ganz - mind. auf einem Monitor hast ja n Bild ;D
Beim Release sind die meisten Sachen schon alpha, nach n paar Monaten dann beta... :]
--> Und rat mal, wer oder was zumindest zu über 50% schuld is? )((

BTW: Auch wenns kein Trost is - guck mal, wies z.B. bei Autos is :o Hardware-Murks gefährdet wenigstens kein Leben... :D
 
Zuletzt bearbeitet:
Auch wenns kein Trost is - guck mal, wies z.B. bei Autos is :o Hardware-Murks gefährdet wenigstens kein Leben... :D
Mangels Auto kann ich dazu nicht viel sagen, aber es wäre mir schwer vorzustellen das Transportmittel für Lebewesen lebensgefährlich seien(*). Oder gibt es da konkrete Beispiele?
NVIDIA ist doch nicht neu auf dem Markt... an der G80 schrauben sie schon, seit die erste 7800 GTX auf dem Markt ist (so schon damals die Infos über einen "mächtigen Nachfolger" mit viel Bumms), wie können einem da solche PATZER unterlaufen? Es ist ja nicht so, das da ein schwer versteckter, hochkomplizierter Mechanismus den Fehler auslösen würde.
DualView findet bei NVIDIA schon ewig Anwendung... -.- Und den Speicherbug... naja, es sieht aus, das eine auf 1.536 MB optimierte Architektur einfach mal eben um Menge X beraubt worden ist und die notwendige Anpassung der Adressierung versäumt wurde. Mich wundert, das die kastrierten Modelle nicht einen BSOD nach dem Anderen werfen, wenn der RAM voll ist.

(*) Es dürfte klar sein, wie ich das meine, oder? Ausser Frage besteht bei JEDEM Transportmittel ein gewisses Restrisiko.
 
Die Performance ist mir in gewissem Sinne gar nicht einmal wichtig, sonst wäre es eine 8800 GTX geworden.
Wichtig sind Preis/Leistung und eben das Erfüllen meiner Anforderungen. DualView ist mir wichtig, sowie stabile Treiber. Videobeschleunigung in Hardware, um die CPU so gut es geht zu entlasten (die wird für Anderes gebraucht). Meine bevorzugten Spiele sind dann doch schon ein wenig betagt.

mit der videobeschleunigung unter powerDVD (hier mit einem 1080p-film unter vista sp1) gibt es keine sorgen. alles andere sollte unwichtig sein, denn SD-material stellt eh null anspruch an die hardware.


Quelle: HD DVD 1080p VC1 auf GF8800GTX (FW.163.69), Intel C2D E6600, 4GByte RAM

btw,
dass G80 für 1,5GByte designt wurde, ist ein gerücht, dessen theorie ich nicht teile. obwohl ich der meinung bin, dass man die karte nicht auf 320MByte hätte kastrieren dürfen.
einen chip, der für den umgang mit acht samples beim multisampling entworfen wurde, mit nur 320MByte auszustatten, ist völlig absurd. was könnte man denn außer AF (was übrigens beim G80 kaum leistung kostet) auf dem kleinsten modell an eyecandy nutzen? scheinbar nichts, denn schon die reinen texturdaten können das bisschen vram überlaufen lassen.

ein paar der letzten treiber zeigten ja durchaus tendenzen der linderung. NV wird für kritische spiele bestimmt auch weiterhin ausweich-texturkompressions-algos in die treiber einbauen.
hier gibts den offiziellen XP-treiber: http://www.nvidia.de/object/winxp_163.71_de.html, der schon einiges an besserung für vram-geplagte bringen soll.

release notes schrieb:
Improved performance of the graphics memory manager on GeForce 8
series GPUs running DirectX 9 applications in single-GPU and NVIDIA SLI
configurations.
These improvements solve cases of reported performance slowdowns in some 3D applications
with high graphics settings and resolutions.

auf meiner GTX ist mir noch nie etwas untergekommen, was man als VRAM-bug bezeichnen würde. nicht mit oblivion+texturpacks und nicht im betrieb mit 8xFSAA.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
So, bin jetzt dazu gekommen die sekundären TFT mal per VGA dran zu machen.

Konnte keine Probleme deiner Art feststellen.

Nur einige Umständlichkeiten.
Der VGA TFT war anfangs nur Schwarz/Weiß. Musste das komplette Dual View neu starten. Dann gings. (Hatte den Wechsel Hot-Plug mäßig gemacht ;))

Außerdem ist es bei VGA und DVI kombination nicht mehr möglich ein Video von Screen 1 auf Screen 2 zu schieben.
Man muss es auf Screen 2 neu Starten damits geht.
Bei 2xDVI kann ich schieben wie ich will.

Aber geflackert hat da nix *noahnung*
Adrianne Demo lief auch.
 
So, bin jetzt dazu gekommen die sekundären TFT mal per VGA dran zu machen.

Konnte keine Probleme deiner Art feststellen.

Nur einige Umständlichkeiten.
Der VGA TFT war anfangs nur Schwarz/Weiß. Musste das komplette Dual View neu starten. Dann gings. (Hatte den Wechsel Hot-Plug mäßig gemacht ;))

Außerdem ist es bei VGA und DVI kombination nicht mehr möglich ein Video von Screen 1 auf Screen 2 zu schieben.
Man muss es auf Screen 2 neu Starten damits geht.
Bei 2xDVI kann ich schieben wie ich will.

Aber geflackert hat da nix *noahnung*
Adrianne Demo lief auch.

das kommt drauf an, in welchem modus der player bzw. der codec arbeitet. bei overlay-betrieb gehts nicht - bei betrieb im VRM7 oder VRM9 -modus sollte es problemlos funktionieren. ich gucke mir gleich mal an, wie sich nview unter xp verhält - unter vista ist ja alles grundlegend anders.

edit:
unter XP funktioniert digital eigentlich alles. nur die "größe des hd desktops ändern" -funktion arbeitet hier nicht, was mich daran erinnert schnellstmöglich wieder vista zu booten. videos lassen sich jedenfalls beliebig in dual-view-modus verschieben. ich habe unter XP auch nicht die sorgen, dass das sek. display im klonmodus unbeschleunigt wirkt, was ich ja weiter vor bemängelt habe. dafür ist XP nicht so schön flexibel, was die auflösungen im klonbetrieb angeht. es werden nur gemeinsame nenner angeboten; vista bietet alles erdenkbare und skaliert es auch.

also euer geflacker liegt entweder am analogbetrieb am analogbetrieb ;) das mit den videos kann ich nicht nachvollziehen.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
hallo,

falls du noch bios files brauchst, ist hier die beste Anlaufstelle...

mvktech.net/component/option,com_remository/Itemid,26/func,selectfolder/cat,4/

hoffe es hilft...

besitze die asus en8800gts 320

NVIDIA Systeminformationen-Bericht erstellt am: xx/xx/2007 xx:xx:xx
Name des Systems: xxxxxxx :)

[Anzeige]
Prozessor: Genuine Intel(R) CPU 2160 @ 1.80GHz (3000 MHz)
Betriebssystem: Microsoft Windows XP (Service Pack 2)
DirectX-Version: 9.0c
&GPU-Prozessor: GeForce 8800 GTS
ForceWare-Version: 163.71
Speicher: 320 MB
Video-BIOS-Version: 60.80.0d.00.01
IRQ: 16
Bus: PCI Express x16

mir ist aufgefallen, das ich beim dvb-t schauen mit einer Twinhan PCI Karte extrem lange Pausen beim zappen habe... mit der 7600gt hatte ich dieses Phänomen nicht... ?!?
kann auch am neuen Board liegen (P5K) *noahnung* .

mfg soussey
 
Zurück
Oben Unten