NVIDIA bringt kein NV48!

James Ryan

Grand Admiral Special
Mitglied seit
11.11.2001
Beiträge
11.145
Renomée
17
Standort
Lünen
Hallo Forum!
Laut THE INQUIRER hat NVIDIA den Refreshchip vom NV40 verworfen.
Die Begründung ist, dass man sich lieber auf die Verfügbarkeit der NV40/45 Reihe konzentrieren möchte und 20 MHz mehr sich einfach nicht lohnen.
Eigentlich ein guter Schritt von NVIDIA, nur wird es jetzt schwer bis zum NV50 mit der aktuellen Gf 6800 Reihe durchzuhalten.
Was sagt ihr dazu?

MfG 8)
 
Zuletzt bearbeitet:
vieleicht ist dies wieder ein schritt zu besserer quallität bei den treibern/grakas (verlustleistung vorallem) :)

denn die quallität muss unter der schnellen veralterung der chips ja leiden

ps. damit meine ich nicht nur nvidia!

mfg eric
 
Original geschrieben von James Ryan
Hallo Forum!
Laut THE INQUIRER hat NVIDIA den Refreshchip vom NV40 verworfen.
Die Begründung ist, dass man sich lieber auf die Verfügbarkeit der NV40/45 Reihe konzentrieren möchte und 20 MHz mehr sich einfach nicht lohnen.
Eigentlich ein guter Schritt von NVIDIA, nur wird es jetzt schwer bis zum NV50 mit der aktuellen Gf 6800 Reihe durchzuhalten.
Was sagt ihr dazu?

MfG 8)

ein Mitgrund dafür war sicherlich SLI!

ich meine, damit haben sie sich genau für solche fälle ein zeitpuffer angeeignet, den ATI ja eigentlich einzuholen hat...wenn jetzt auch noch nen NV48 kommen würde (nehmen wir ma an, mit "ausreichender" verfügbarkeit) würde ATI ja die nächsten Monate bis zum R520/NV50 garkein Land mehr sehen
 
Original geschrieben von p4z1f1st
ein Mitgrund dafür war sicherlich SLI!

ich meine, damit haben sie sich genau für solche fälle ein zeitpuffer angeeignet, den ATI ja eigentlich einzuholen hat...wenn jetzt auch noch nen NV48 kommen würde (nehmen wir ma an, mit "ausreichender" verfügbarkeit) würde ATI ja die nächsten Monate bis zum R520/NV50 garkein Land mehr sehen

Naja, ATi hat aber auch bald SLI, also kann NVIDIA sich darauf nicht ausruhen. ;)
btw, schade dass es kein Refresh werden wird, jetzt werden wir nie wissen ob die Karte Gf 6860 oder Gf 6900 geheißen hätte! ;D

MfG 8)
 
lol, ja, das mitm namen stimmt:

aber naja AL? (kA, wie es heißt *chatt*) kommt ja net sofort ;)

der NV50 "soll" ja aber (wie immer) in 4-5Monaten kommen....
 
Selbst wenn der NV50 in 4 Monaten vorgestellt wird, kann der jenige der ihn braucht, beruhigt bis August September drauf sparen.
Ich glaube nicht das sich an der Verfügbarkeit bald was ändert.
 
Original geschrieben von Ironhawk
Selbst wenn der NV50 in 4 Monaten vorgestellt wird, kann der jenige der ihn braucht, beruhigt bis August September drauf sparen.
Ich glaube nicht das sich an der Verfügbarkeit bald was ändert.

das der NV40 net verfügbar ist, muss net heißen, dass der NV50 auch net verfügbar sein wird - liegt ja alles an IBM und deren problem, dass Layout von NVidias vorgaben für die GPU zu produzieren....vllt. hat sich NV in der hinsicht was einfallen lassen und IBM wird weniger Probleme mit haben....
 
Na ja, ATI ist mit dem 850er auch "nur" hergegangen und hat die Taktfrequenz leicht erhöht. 1. Ziel war aber einen GPU zu erzeugen, der dann in höhren Stückzahlen verfügbar sein wird. ATI hatte mit dem X800 massive Fertigungsprobleme.

Ich vermute, dass nVidia mit den selben Problemen zu kämpfen hat, da Ultra und GT Karten auch nicht besondere Massenware sind.

Nach 2 Monaten warten, habe ich jetzt endlich eine X800 Pro Toxic ergattert. Damit lasse ich die 'glorreiche' AGP-Ära auslaufen, um dann in ca. 2 Jahren mit neuem Mobo, Prozessor und Graka auf PCIe umzusteigen. Eventuell gibt's dann auch schon BTX, USB 3.0, usw....

Synthie
 
Original geschrieben von Ironhawk
Ich glaube nicht das sich an der Verfügbarkeit bald was ändert.

Der NV48 wurde doch extra abgeblasen damit die Karten mal verfügbar werden! :]

MfG 8)
 
Der NV48 wurde doch extra abgeblasen damit die Karten mal verfügbar werden

Der X850 ist ja auch nichts anderes als ein X800, der besser gefertigt wird.
Ich mach mal einfach so die These und sage, dass ATI einen neuen Namen brauchte, um das Produkt wieder als innovativ zu bewerben. Man ändert die Fertigungstechnik, schraubt den Takt a bisserl in die Höh' und hat a neues Produkt, dass man in grösseren Stückzahlen mit einem Preis über EUR 500 verkaufen kann.

Man kann es auch positiv sehen. Bestehende Techniken werden jetzt verbessert - optimiert, anstelle immer wieder was Neues zu erfinden.

Synthie
 
Die Begründung ist, dass man sich lieber auf die Verfügbarkeit der NV40/45 Reihe konzentrieren möchte und 20 MHz mehr sich einfach nicht lohnen

tja ich würde es mal gut finden wenn jetzt im laufe des dezembers ein paar 6800gt oder ultras als pcie vorgestellt, bzw in shops verfügbar werden.
 
ich finde die sollten einfach mal versuchen 10% von dem geld was für die entwicklung eines neuen chips draufgeht in die optimierung der treiber zu stecken. dann müsste man sich keine neue graka mehr kaufen, sondern einfach nur nen neuen treiber installieren.
denn was aus der inzwischen doch recht fetten hardware gehohlt wird ( vor 5 jahren hat der ganze pc weniger strom gebraucht als heut ne graka!!) ist eigentlich lächerlich wenn man sich mal die daten der gaecube oder ps2 graka anschaut.
 
Original geschrieben von hilman2
ist eigentlich lächerlich wenn man sich mal die daten der gaecube oder ps2 graka anschaut.


vergleichst du die grafik des PCs mit der der PS2??

wenn ja ..stell auflösung auf 720x576 (??)

und dann vergleiche bitte
das ist die standartauflösung der games...
weil die meisten fernseher eh kaum mehr darstellen bzw zoomen

und dann reicht locker die gafikkarte von vor 3jahren
 
Original geschrieben von hilman2
ich finde die sollten einfach mal versuchen 10% von dem geld was für die entwicklung eines neuen chips draufgeht in die optimierung der treiber zu stecken. dann müsste man sich keine neue graka mehr kaufen, sondern einfach nur nen neuen treiber installieren.
denn was aus der inzwischen doch recht fetten hardware gehohlt wird ( vor 5 jahren hat der ganze pc weniger strom gebraucht als heut ne graka!!) ist eigentlich lächerlich wenn man sich mal die daten der gaecube oder ps2 graka anschaut.

optimierung der treiber? ???

damit bekommt man niemals so einen performance-sprung wie mit einem neuen chip :]

also, GameCube ist noch leicht vertretbar (die kann wirklich gute sachen darstellen) aber die PS2 ist ja wohl ganz hinten was Grafik angeht :]
 
Original geschrieben von p4z1f1st
der NV50 "soll" ja aber (wie immer) in 4-5Monaten kommen....

Sicher? Siehe hier...

(Sorry - den seperaten Thread dazu habe ich übersehen.)
 
Die Gerüchteküche brodelt wieder:
"Still, NVIDIA reportedly has a weapon to fight its arch-rival ATI Technologies: the company’s code-named NV47 that presumably contains 24 pixel pipelines is on-track to be released in the first half of the year 2005."
QUELLE
Es wird spannend wie sich das noch entwickelt...

MfG 8)
 
lol, genau *chatt*

wir canceln einfach ma die Namen NV48 und NV50 und machen aus der neuen Waffe ein NV47 *chatt*

aber wieso net ;D
 
Original geschrieben von p4z1f1st
lol, genau *chatt*

wir canceln einfach ma die Namen NV48 und NV50 und machen aus der neuen Waffe ein NV47 *chatt*

aber wieso net ;D

Naja, warum auch nicht?
Der NV48 wäre nur ein etwas hochgetakteter NV40/45 gewesen.
Der NV50 ein völlig neues Design, welches NVIDIA derzeit nicht braucht. DX 10 und 4.0 Shader wird es nicht mehr geben, die Zukunft heißt WGF! Und das kommt erst mit Longhorn ergo 2006! Technisch gesehen reicht die NV40 Technik noch länger aus. NVIDIA braucht aber was gegen ATi's R520 Chip, welcher endlich 3.0 Shader unterstützen wird und NVIDIAs derzeit einzigen Vorteil zunichte machen wird.
Bringt NVIDIA aber einen NV47 mit 24 Pipes (der R520 soll weiterhin "nur" 16 haben) könnte das reichen um den R520 in Schach zu halten.
Das Problem des NV47 wird die Fertigung sein: In 0,13µ sind 24 Pipes schlicht unmöglich, NVIDIA müsste auf 0,09µ setzen. Dieser Prozess ist aber noch lange nicht ausgereift um einen ~300 Mio. Transistorenchip ala NV47 produzieren zu lassen.
Bin gespannt wie NVIDIA das lösen wird.

MfG 8)
 
110nm vllt? ;)

den hat IBM auch im Peto :)

aber du hast schonr echt: hab gestern ma meine GraKa neben meinem WInnie gehabt (sind ja beide "offen" - also, man sieht die DIEs....und der Winnie-Core hätte etwa 6x in den Ultra-Core reingepasst - war richtig geschockt *chatt*

wollt nen foto machen, aber hab mir gedacht "für was brauchste sowas?".....LOL, ja, jetzt bräuchte ich es ma *chatt*
 
Original geschrieben von p4z1f1st
110nm vllt? ;)

Das würde nicht reichen, 0,09µ sind Pflicht, wie auch beim R520.
btw, mein Clawhammer Core ist glaube ich größer als mein NV40 Core! ;D

MfG 8)
 
@James Ryan: Was ist WGF?

Vlt ein paar Links?
 
Original geschrieben von themk
@James Ryan: Was ist WGF?

Vlt ein paar Links?

Das 3DCenter-Forum ist gerade leider down, sonst könnte ich dir 'n paar Links bezüglich WGF geben. ;)
Groß gesagt kann man sagen dass WGF der Nachfolger von DirectX ist und mit Longhorn eingeführt wird. Als Neuerung steht z.B. die Verschmelzung von Pixel- und Vertexshader an!

MfG 8)
 
ich denke noch immer, dass der R520 > Nvidia in den boden stampfen wird. wenn ati mit X900 und X1000 um die ecke fegen könnt ihr schon mal eure 6800 in rente schicken.
 
das Kind hat gesprochen! :]
 
Original geschrieben von EKT-Venom
ich denke noch immer, dass der R520 > Nvidia in den boden stampfen wird. wenn ati mit X900 und X1000 um die ecke fegen könnt ihr schon mal eure 6800 in rente schicken.

also ich spiele mit meiner 6800GT lieber statt diese in Rente zu schicken und momentan spiele ich mit der für weniger Geld besser als die armen Seelen, die die X800pro für zu viel Geld gekauft haben und feststellen müssen, dass die 6800GT einfach besser ist fürs gleiche Geld.
 
Zurück
Oben Unten