nVidia G70 mit 32 Pixel-Pipes ?

Also das "GTX" bedeutet natürlich, daß NV sich die Option auf eine Ultra offenhält, denn sie wissen ja noch nciht genau, wo sich Ati einordnen wird. Und ich denke, erst DANN werden sie entscheiden, ob sie lieber eine 32-pipe-Version bringen (teurer) oder eine höhergetaktete 24er (schwieriger) oder sogar beides, falls notwendig.

Auf jeden Fall hat das jetzige Gerücht der deaktivierten Pipes erst vernünftigen "Nährwert" für uns, wenn irgendwelche genialen Tweaker nen Weg finden, die auch freizuschalten - vorausgesetzt, das Gerücht bewahrheitet sich überhaupt erstmal...
 
hmm...ich denke ati wird das spätestens nach diesen gerüchten prüfen...
und zwar so, wie es nvidia mit der "nativen" pci-express unterstützung bei ati getestet hat...

man nehme den chip und röntge ihn...refactoring wenns sein muss...
ich denk ati wirds jetzt schon wissen, ob da noch was im argen liegt...


aber mal sehen wie sich das entwickelt
 
OBrian schrieb:
aus diesem Posting

Also das "GTX" bedeutet natürlich, daß NV sich die Option auf eine Ultra offenhält, denn sie wissen ja noch nciht genau, wo sich Ati einordnen wird. Und ich denke, erst DANN werden sie entscheiden, ob sie lieber eine 32-pipe-Version bringen (teurer) oder eine höhergetaktete 24er (schwieriger) oder sogar beides, falls notwendig.

Auf jeden Fall hat das jetzige Gerücht der deaktivierten Pipes erst vernünftigen "Nährwert" für uns, wenn irgendwelche genialen Tweaker nen Weg finden, die auch freizuschalten - vorausgesetzt, das Gerücht bewahrheitet sich überhaupt erstmal...

Die Russen sind doch bei sowas immer die ersten... Kann hier jemand Russisch ? *g*
 
Deracus schrieb:
aus diesem Posting

hmm...ich denke ati wird das spätestens nach diesen gerüchten prüfen...
und zwar so, wie es nvidia mit der "nativen" pci-express unterstützung bei ati getestet hat...

man nehme den chip und röntge ihn...refactoring wenns sein muss...
ich denk ati wirds jetzt schon wissen, ob da noch was im argen liegt...


aber mal sehen wie sich das entwickelt

selbst wenn ati weiß ob noch was kommt oder nicht: außer an der taktschraube drehn kann ati nicht mehr. das design muss schon längst fertig sein wenn die karten im herbst rauskommen sollen.
 
ich halte diese 32'er wahn-möchte-gern-haben-annahme für eben eine solche! ;D

Mal im Ernst .. ohne deutlich schnelleren Speicher wären die zusätzlichen 8 Pipes zu den existenten derzeitigen 24 auch nur brachliegend. ... die 24 sind doch jetzt annähernd nicht ma richtig ausgereitzt.

Und der Transistorcount ist für 32 wohl doch ein wenig klein.

Ich gehe mal auch davon aus. das wenn überhaupt so 1 bis 3 zusähtliche Pipes zur Fehlerredundanz eingebaut sind und bei der chipkontrolle fehlerhafte deaktiviert und eine dieser "ersatzpipes" aktiviert werden.

Dieses Prinziep ist ja abei ram-Bausteinen und auch Cache-einheiten bei CPU's schon lange gang und gebe. Bei solchen Transistormonstern wie es der G70 nun ma ist machts aus wirtschaftlichem Blickwinkel durchaus sinn ggf. in einem Chip 3 sinnlos schlummernde Pipes zu haben, wenn dadurch auch nur einer von 3 anderen zu retten ist:


Für die die es nicht ganz kappiert haben:

nehmen wir mal optimistisch (reine Milchmädchenrechnung zum veranschaulischen ohne reelle Zahlenfakten) an:
1.) es sind 26 pipelines ...
2.) 10% der gesamt produzierten G70 sind fehlerfrei (26 funzende pipes)
3.) 10% haben eine fehlerhafte pipe
4.) 20% haben 2 fehlerhafte pipes
5.) 60% haben mehr als 2 fehlerhafte pipes

wenn nun ein G70 26 pipes hätte, hätte man nach dieser Annahme eine Ausbeute von 40%.
Wenn der G70 nur 24 Pipes hätte, wäre die Ausbeute gerade mal 10%
Wenn er nun wie angenommen 26 hat, hat man natürlich pro chip 2 pipes sprich 1/12tel mehr transistoren.

Ohne es genau auszurechnen sollte damit wohl jedem klar sein, das die 1/12tel mehr transistoren eine Ausbeutenerhöhung von 300% zur Folge haben ... Nun darf jeder mal selber überlegen, ob der G70 nur 24 oder doch 32 oder was dazwischen an pipes hat.

Meine Vermutung: Er hat ein paar Mehr als 24, und das genau so viele mehr, das das Verhältnis von mehr-Transistoren pro Chip und Ausbeutenerhöhung maximal wird (mit den vom Chiphersteller in diesem Fertigungsprozess prognostizierten Ausbeuten ... bzw. kann man das vorher mit den bekannten größen von Fehlern/Transistoren auch schon abschätzen!!! )
 
schwachfug


er hat 24 und nicht eine pipe mehr (das kostet GELD)
alternate hatte 100 karten
uu werden vielleicht 2000 karten weltweit verkauft (beim launch)
da kann nvidia ruhig aussortieren
die versionen mit 16 und 20 pipes werden bald kommen
da werden dann die schlechten chips verbaut

es ist schon lustig was sich manche hier zusammenreimen
nachgedfacht wird erst garnicht
 
Aber du weisst natürlich ganz genau was im Chip drin ist?

Die Theorie von ncp_EasyChiller klingt am realistischsten, es ist ja wirklich so das in jeder CPU mehr Cache drinsteckt um defekte Abschnitte aufzufangen.
Warum sollte man das nicht bei GraKas auch machen?
 
Peilo schrieb:
aus diesem Posting

naja das glaub ich ja eher weniger

die haben bisher(außer bei der FX)die beste Karte als erstes veorgestellt und danach die mainstreamversionen nachgelegt.
Höher getaktete Chips haben sie aber schon nachträglich herausgebracht, wenn dies notwendig war (GF2 Pro ->GF2 Ultra und GF3 -> GF3 Ti 500). Ich denke, es ist nicht unwahrscheinlich, eine höher getaktete Variante der 7800GTX zu sehen, falls es die Konkurrenz notwenig macht.
 
Ich spekuliere auch mal mit ;)

NV40 16PP/6VP ~222 Mio T
NV41 12PP/6VP ~190 Mio T

sind 32 Mio/4PP => ~8 Mio/PP

NV43 8PP/3VP 143 Mio T

sind 222Mio - 143Mio - (2*32Mio) = 15 Mio/3VP =>~5 Mio /VP

G70 24PP/8VP

222 Mio + 8*8 Mio + 2*5 Mio = ~296 Mio

sind also mit nvidia Angaben rund 6 Mio Transistoren Platz für Erweiterung der Chipfunktionen.

G70 32PP/8VP ?

NV40: 222 Mio Transistoren Fläche 287mm² @ 130nm
>geschrinkt auf 110nm (0,11/0,13)*(0,11/0,13)*287mm² = ~205mm²

G70 Fläche 334 mm² würde bedeuten ~ 360 Mio Transistoren <> Nvidia 302 Mio Transistoren *suspect*

Edit: Mit Vergleich 130nm->110nm von ATI sind 220 Mio @110mn wohl eher im Bereich 240mm² und somit bei 334 mm² tatsächlich um ~302 Mio.

222 Mio + 16*8 Mio + 2*5 Mio = ~360 Mio

Langt also bei weitem nicht. Rechnet man die paar Optimierungen rein bei denen die 6 Mio durchaus komplett genutzt werden könnten reichts nichtmal für eine weitere Pixelpipeline.
So schnell zerplatzen Träume. :]

(Angaben von www.beyond3d.com, vieleicht hat ja jemand verlässliche Herstellerangaben)
 
Zuletzt bearbeitet:
ich habe nie gesagt, dass ati da was drehen könnte außer am takt oder däumchen (je nachdem wie gut Fudo wird)...aber ich sagte sehr wohl, dass sie jetzt bestimmt schon wissen, was da im argen liegt oder eben nicht...

auch ich bin anhänger der theorie der redundanten pipes...ist auch sinnvoll...
somit kann nv die ausbeute weiter erhöhen...denke schon, dass die knappheit der 6800u ein schuß vor den bug war...immerhin sieht man, dass sie aus fehlern lernen...

aber nochmal @floi

solang du nich nachweißlich bei nv arbeitest oder selbst mit dem chip refaktoring betrieben hast....
wenn man keine ahnung hat...einfach mal die....
*great*

solche kommentare bringen keinen weiter...
und die kosten der zusätzlichen pipes würde man LOCKER durch die vergleichbar höhere ausbeute wieder auffangen...
 
masel schrieb:
NV40: 222 Mio Transistoren Fläche 287mm² @ 130nm
>geschrinkt auf 110nm (0,11/0,13)*(0,11/0,13)*287mm² = ~205mm²

G70 Fläche 334 mm² würde bedeuten ~ 360 Mio Transistoren <> Nvidia 302 Mio Transistoren *suspect*
Die erste Rechnung mit den Anzahl der Transistoren pro Pipe kann man ja noch Pi mal Daumen durchgehen lassen.
Aber diese Rechnung geht allein schon deswegen schief, weil der 110nm Prozess komplett anders als der 130nm Prozess ist. Allein um einen solchen Chip mit einem Mainstreamprozess (nur 130 und 90nm sind bei TSMC High-End mit Low-K) zu erzielen muss man sich schon etwas mehr Spielraum lassen.

fehlen die Erweiterungen der Chipfunktionen (Intellisample 3.0->4.0 transparentes AA => wieviel mehr Aufwand? per Treiber machbar?,
Man braucht dafür einen erweiterten Rasterizer in Hardware.
CineFX 3.0->4.0 Überarbeitung/Optimierung der Shadereinheiten > mehr oder weniger Aufwand?,
Die Shadereinheiten können einiges mehr als vorher.
Da sie aber schon relativ kleine und simple ALU´s darstellen gabs da in der Größe nichts mehr zu reduzieren.
Dazu kommen höchstwahrscheinlich noch grössere Texturecaches usw..

mehr gabs so gut wie nix erwähnenswertes neues) aber ansonsten würden 360 Mio knapp reichen. :)
Damit wohl eher nicht.


Nvidia wird natürlich einige Einheiten (unterhalb der Grösse einer kompletten Quad) doppelt haben. Es ist viel effektiver einzelne kleine Einheiten umschalten zu können, als komplette Quads zu verbauen, die durch einen Fehler in Teilbereichen wieder komplett unbrauchbar werden.
 
um nochmal auf das Thema Lautstärke zurück zukommen:

Ob sich der Zalman VF700 auf auf der 7800 GTX verbauen läßt???
Wenn die Temps niedriger als bei der 6600GT/6800er Reihe sein sollen, dann sollte ja nichts gegen die Benutzung eines VF700 sprechen. Außer die Löcher stimmen nicht mehr überein.

Auch wenn der original Kühler relativ leise sein soll, so ist der Zalman VF700 immer noch leiser.
 
RLZ schrieb:
Die erste Rechnung mit den Anzahl der Transistoren pro Pipe kann man ja noch Pi mal Daumen durchgehen lassen.
Aber diese Rechnung geht allein schon deswegen schief, weil der 110nm Prozess komplett anders als der 130nm Prozess ist. Allein um einen solchen Chip mit einem Mainstreamprozess (nur 130 und 90nm sind bei TSMC High-End mit Low-K) zu erzielen muss man sich schon etwas mehr Spielraum lassen.

So genau kenn ich mich da auch nicht aus, wollte auch keine Abhandlung drüber schreiben.
Ziehen wir mal ATI Daten des R430 (160 Mio @ 110nm = 240mm² ) (und R420 (auch 160 Mio @ 130nm =289 mm²)) heran. Werden ja anscheinend wie die NVidia Chips auch bei TSMC gefertigt, sollte also etwas besser vergleichbar sein. (Quelle www.beyond3d.com)

G70 334 mm² @ 110nm -> 334mm²/240mm² x 160 Mio = 222 Mio wie denn das ?!
oder
240mm²/289mm² (ATI Schrink 130nm->110nm) macht für (NV40 222 Mio @ 130nm) 287 mm² = ~238 mm² @110 nm und somit für 334 mm² = ~311 Mio kommt also der Nvidia Angabe mit 302 Mio sehr nahe. Somit dürfte 302 Mio schon passen, glaube Nvidia flunkert kaum um nen "paar Millionen" Transistoren.
[/QUOTE]

Hab das gleich oben mal geändert, sonst glaubt die Milchmädchenrechnung noch jemand. ;)

RLZ schrieb:
Die Shadereinheiten können einiges mehr als vorher.

Ja, was denn? Außer dem transparenten AA Modi und das sie schneller geworden sind.
 
Zuletzt bearbeitet:
masel schrieb:
Ja, was denn? Außer dem transparenten AA Modi und das sie schneller geworden sind.
Die AA Modi sind Sache der ROPs und haben nichts mit den Shadern zu tun. ;)
Bei der Pixelshaderunit (eine pro Pipe) können nun beide ALUs ein MADD und ein MULL und die 2 zusätzlichen Mini-Alus sind noch aufgebohrt worden .
Die Vertexshader können nun single-cycle MADD und sind insgesamt noch verbessert worden.
Dazu wurden dann noch das Branching der einzelnen Quad voneinander entkoppelt, was eine effizientere Nutzung bietet.
Die Texturecacheanbindung wurde auch wesentlich verbessert um den Leistungsabfall bei HDR-Rendering abzuschwächen.

Hier mal noch ein Bild, damit man sich vorstellen kann wie die Pixelshaderunit aussieht:
pss.gif
 
Na hoffentlich und zwar aktiviert. Die wollen doch nich den gleichen Fehler machen, wie bei Geforce 5 (FX) Serie, wo sie gerade an den 4 Pipelines gesparrt haben. Ich meine, dass ATI R-520 Generation standartmaessig am Ende Juli mit 32 und mehr angeboten wird und da werden sich aber einige genauer ueberlegen
 
FLOI schrieb:
schwachfug


er hat 24 und nicht eine pipe mehr (das kostet GELD)
alternate hatte 100 karten
uu werden vielleicht 2000 karten weltweit verkauft (beim launch)
da kann nvidia ruhig aussortieren
die versionen mit 16 und 20 pipes werden bald kommen
da werden dann die schlechten chips verbaut

es ist schon lustig was sich manche hier zusammenreimen
nachgedfacht wird erst garnicht

kein schwachfug, mehr sage ich jetzt mal nicht :-X
 
mr.wolf schrieb:
aus diesem Posting

Na hoffentlich und zwar aktiviert. Die wollen doch nich den gleichen Fehler machen, wie bei Geforce 5 (FX) Serie, wo sie gerade an den 4 Pipelines gesparrt haben. Ich meine, dass ATI R-520 Generation standartmaessig am Ende Juli mit 32 und mehr angeboten wird und da werden sich aber einige genauer ueberlegen

32 und mehr was? Pixelpipelines? Müsten sie am Tackt aber auch noch n Stück drehen um an ne G70 ranzukommen. Die verbesserte Rechenleistung ner G70 Pixelpipeline ist schon nicht schlecht und deklassiert die von Ati schon etwas.
 
mr.wolf schrieb:
aus diesem Posting

Na hoffentlich und zwar aktiviert. Die wollen doch nich den gleichen Fehler machen, wie bei Geforce 5 (FX) Serie, wo sie gerade an den 4 Pipelines gesparrt haben. Ich meine, dass ATI R-520 Generation standartmaessig am Ende Juli mit 32 und mehr angeboten wird und da werden sich aber einige genauer ueberlegen


du glaubst nich wirklich, dass ati mehr alsd 32 pipes verbaut...wobei selbst 32 noch nicht ganz sicher sind...oder?
und falls ati 32 verbaut werden wir sehen, wie gut die verbesserungen von nv wirklich sind. ich halt da ziemlich viel von...aber was da nun genau bei rauskommt muss die zukunft zeigen...
und wann fudo endlich kommt werden wir ja sehen...
 
Zero2Cool schrieb:
aus diesem Posting

um nochmal auf das Thema Lautstärke zurück zukommen:

Ob sich der Zalman VF700 auf auf der 7800 GTX verbauen läßt???
Wenn die Temps niedriger als bei der 6600GT/6800er Reihe sein sollen, dann sollte ja nichts gegen die Benutzung eines VF700 sprechen. Außer die Löcher stimmen nicht mehr überein.

Auch wenn der original Kühler relativ leise sein soll, so ist der Zalman VF700 immer noch leiser.


Der Zalman wird leiser sein, aber ich fürchte er passt nich druf! Wenn man mal den Chip der 6800 mit dem der 7800 vergleicht :]
Die Abstände der Schrauben werden großer sein. Kannst ihn natürlich auch auffem Chip festkleben ;D
 
masel schrieb:
Ja, was denn? Außer dem transparenten AA Modi und das sie schneller geworden sind.

Guggstu mal im 3DCenter G70-Technik Artikel ;)

http://www.3dcenter.de/artikel/2005/06-26_a.php

8)

@R520 im Juli - Paperlaunch vielleicht schon.... ;D
ATI selbst hat eine Verschiebung bis September angekündigt, wie rotsichtig muss man sein, um immer noch Juli zu glauben? lol....
 
Zurück
Oben Unten