NVIDIA mit früherem Start des G92/ D8M?

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.384
Renomée
9.729
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Auch bei NVIDIA plant man die Einführung eines neuen Grafikchips im Mainstreambereich und anscheinend will man AMDs RV670 zuvorkommen und den unter dem Namen G92 oder D8M bekannten Chip bereits Ende Oktober als GeForce 8800 GT vorstellen.

Die Performance soll unter der einer GeForce 8800 GTS liegen, allerdings wird der Chip durch Fertigung in 65nm-Technik bessere thermische Eigenschaften und eine geringere Leistungsaufnahme aufweisen.

Aufgrund der Leistung werden GeForce 8800 GT wohl preislich attraktiver angeboten werden, im Gespräch sind momentan 199 bis 249 US-Dollar (etwa 149 bis 189 Euro).

<b>Quelle:</b> <a href="http://www.fudzilla.com/index.php?option=com_content&amp;task=view&amp;id=3403&amp;Itemid=1" target="b">G92/ D8M launches on the 29th</a>
 
Gut so, endlich kommt Bewegung in den Markt und man muß den Crysis-geilen Leuten nicht entweder eine "olle" (da nicht DX10) X1950pro oder eine zu lahme 8600 bzw. 2600 empfehlen, was alles suboptimal ist.
 
Die Karte wäre ein Kaufgrund, nachdem die 8600GTS so ablooste ;) Und hoffentlich auch ein würdiger Nachfolger meiner 7600 GT :)
 
Sehe ich genau so !
Bis dato sehe ich keinen Grund meine 7950GT in Ruhestand zu schicken. Ich zocke aktuell alles was am Markt ist in High oder Very High Settings in Combi mit dem C2D (3Ghz).
Nicht eine am Markt befindliche Karte lockt mich aus der Reserve.

Ich nutze XP, daher ist auch DX10 im moment kein Thema. Naja mal sehen was kommt, kann ja eigentlich nur besser werden.

lg Beta
 
klingt wie der "echte" nachfolger der 6600gt, könnte genauso ein renner werden
wenn sie jetzt auch noch den direkten konkurrenten (RV670) in punkto leistungsaufnahme und preis schlägt werd ich sie mir holen
 
Ich denke die frühere Einführung hat "weniger" mit AMD/ATIs RV670 zu tun, als mehr wegen der Tatsache @ Speicherbug.
Die 8800 GTS 320 soll so schnell wie möglich ausrangiert werden, damit die "Negativ-Propaganda" so schnell wie möglich von der Bildfläche verschwindet.

Allerdings ist daran dann auch zu erkennen, das NV nicht in der Lage ist den "Bug" zu beseitigen.
 
Ich denke die frühere Einführung hat "weniger" mit AMD/ATIs RV670 zu tun, als mehr wegen der Tatsache @ Speicherbug.
Die 8800 GTS 320 soll so schnell wie möglich ausrangiert werden, damit die "Negativ-Propaganda" so schnell wie möglich von der Bildfläche verschwindet.

Allerdings ist daran dann auch zu erkennen, das NV nicht in der Lage ist den "Bug" zu beseitigen.


falsch.... ati hat den shrink beiweitem besser gelöst als nvidia...

die 2950pro mit 55nm wird schneller als ne 2900xt...

die 8800GT mit 65 nm wird langsamer als ne 8800GTS....

nvidia will schnell auf den markt, weil die geshrinkten chips keine chance gegen ati haben...
 
falsch.... ati hat den shrink beiweitem besser gelöst als nvidia...

die 2950pro mit 55nm wird schneller als ne 2900xt...

die 8800GT mit 65 nm wird langsamer als ne 8800GTS....

nvidia will schnell auf den markt, weil die geshrinkten chips keine chance gegen ati haben...
Häää? Irgendwie verstehe ich Deine Antwort auf meinen Beitrag nicht. Aber: Ich konnte nun ein zweifelndes P3D Mitglied davon überzeugen, das der Bug @ NVIDIA keine Einbildung ist (auch nicht beim G86).
Eigentlich ein Fall um in einer Zeitschrift darüber zu berichten.

http://www.planet3dnow.de/vbulletin/showpost.php?p=3344524&postcount=53

Und da ich nicht als NV Basher dastehen möchte, verzichte ich darauf auf meine G80 Thread zu verlinken (wer will, kann suchen). Außerdem kaufe ich seit der TNT2 M64 nur NV Grafikkarten, also fällt das bashen schonmal flach *g*

Bin aber mal gespannt, ob NV den Speicherbug, wie alle anderen Macken auch, mal wieder unter den Tisch fallen läßt (übrigens gibt es einen weiteren Bug der G8xer: DualView, 2 Geräte per DVI->VGA Adapter = Ruckeln und flimmern).
 
Zuletzt bearbeitet:
Zurück
Oben Unten