App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
nVidia G70 mit 32 Pixel-Pipes ?
- Ersteller KairoCowboy
- Erstellt am
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Also das "GTX" bedeutet natürlich, daß NV sich die Option auf eine Ultra offenhält, denn sie wissen ja noch nciht genau, wo sich Ati einordnen wird. Und ich denke, erst DANN werden sie entscheiden, ob sie lieber eine 32-pipe-Version bringen (teurer) oder eine höhergetaktete 24er (schwieriger) oder sogar beides, falls notwendig.
Auf jeden Fall hat das jetzige Gerücht der deaktivierten Pipes erst vernünftigen "Nährwert" für uns, wenn irgendwelche genialen Tweaker nen Weg finden, die auch freizuschalten - vorausgesetzt, das Gerücht bewahrheitet sich überhaupt erstmal...
Auf jeden Fall hat das jetzige Gerücht der deaktivierten Pipes erst vernünftigen "Nährwert" für uns, wenn irgendwelche genialen Tweaker nen Weg finden, die auch freizuschalten - vorausgesetzt, das Gerücht bewahrheitet sich überhaupt erstmal...
hmm...ich denke ati wird das spätestens nach diesen gerüchten prüfen...
und zwar so, wie es nvidia mit der "nativen" pci-express unterstützung bei ati getestet hat...
man nehme den chip und röntge ihn...refactoring wenns sein muss...
ich denk ati wirds jetzt schon wissen, ob da noch was im argen liegt...
aber mal sehen wie sich das entwickelt
und zwar so, wie es nvidia mit der "nativen" pci-express unterstützung bei ati getestet hat...
man nehme den chip und röntge ihn...refactoring wenns sein muss...
ich denk ati wirds jetzt schon wissen, ob da noch was im argen liegt...
aber mal sehen wie sich das entwickelt
KairoCowboy
Vice Admiral Special
OBrian schrieb:aus diesem Posting
Also das "GTX" bedeutet natürlich, daß NV sich die Option auf eine Ultra offenhält, denn sie wissen ja noch nciht genau, wo sich Ati einordnen wird. Und ich denke, erst DANN werden sie entscheiden, ob sie lieber eine 32-pipe-Version bringen (teurer) oder eine höhergetaktete 24er (schwieriger) oder sogar beides, falls notwendig.
Auf jeden Fall hat das jetzige Gerücht der deaktivierten Pipes erst vernünftigen "Nährwert" für uns, wenn irgendwelche genialen Tweaker nen Weg finden, die auch freizuschalten - vorausgesetzt, das Gerücht bewahrheitet sich überhaupt erstmal...
Die Russen sind doch bei sowas immer die ersten... Kann hier jemand Russisch ? *g*
Deracus schrieb:aus diesem Posting
hmm...ich denke ati wird das spätestens nach diesen gerüchten prüfen...
und zwar so, wie es nvidia mit der "nativen" pci-express unterstützung bei ati getestet hat...
man nehme den chip und röntge ihn...refactoring wenns sein muss...
ich denk ati wirds jetzt schon wissen, ob da noch was im argen liegt...
aber mal sehen wie sich das entwickelt
selbst wenn ati weiß ob noch was kommt oder nicht: außer an der taktschraube drehn kann ati nicht mehr. das design muss schon längst fertig sein wenn die karten im herbst rauskommen sollen.
ncp_EasyChiller
Vice Admiral Special
ich halte diese 32'er wahn-möchte-gern-haben-annahme für eben eine solche!
Mal im Ernst .. ohne deutlich schnelleren Speicher wären die zusätzlichen 8 Pipes zu den existenten derzeitigen 24 auch nur brachliegend. ... die 24 sind doch jetzt annähernd nicht ma richtig ausgereitzt.
Und der Transistorcount ist für 32 wohl doch ein wenig klein.
Ich gehe mal auch davon aus. das wenn überhaupt so 1 bis 3 zusähtliche Pipes zur Fehlerredundanz eingebaut sind und bei der chipkontrolle fehlerhafte deaktiviert und eine dieser "ersatzpipes" aktiviert werden.
Dieses Prinziep ist ja abei ram-Bausteinen und auch Cache-einheiten bei CPU's schon lange gang und gebe. Bei solchen Transistormonstern wie es der G70 nun ma ist machts aus wirtschaftlichem Blickwinkel durchaus sinn ggf. in einem Chip 3 sinnlos schlummernde Pipes zu haben, wenn dadurch auch nur einer von 3 anderen zu retten ist:
Für die die es nicht ganz kappiert haben:
nehmen wir mal optimistisch (reine Milchmädchenrechnung zum veranschaulischen ohne reelle Zahlenfakten) an:
1.) es sind 26 pipelines ...
2.) 10% der gesamt produzierten G70 sind fehlerfrei (26 funzende pipes)
3.) 10% haben eine fehlerhafte pipe
4.) 20% haben 2 fehlerhafte pipes
5.) 60% haben mehr als 2 fehlerhafte pipes
wenn nun ein G70 26 pipes hätte, hätte man nach dieser Annahme eine Ausbeute von 40%.
Wenn der G70 nur 24 Pipes hätte, wäre die Ausbeute gerade mal 10%
Wenn er nun wie angenommen 26 hat, hat man natürlich pro chip 2 pipes sprich 1/12tel mehr transistoren.
Ohne es genau auszurechnen sollte damit wohl jedem klar sein, das die 1/12tel mehr transistoren eine Ausbeutenerhöhung von 300% zur Folge haben ... Nun darf jeder mal selber überlegen, ob der G70 nur 24 oder doch 32 oder was dazwischen an pipes hat.
Meine Vermutung: Er hat ein paar Mehr als 24, und das genau so viele mehr, das das Verhältnis von mehr-Transistoren pro Chip und Ausbeutenerhöhung maximal wird (mit den vom Chiphersteller in diesem Fertigungsprozess prognostizierten Ausbeuten ... bzw. kann man das vorher mit den bekannten größen von Fehlern/Transistoren auch schon abschätzen!!! )
Mal im Ernst .. ohne deutlich schnelleren Speicher wären die zusätzlichen 8 Pipes zu den existenten derzeitigen 24 auch nur brachliegend. ... die 24 sind doch jetzt annähernd nicht ma richtig ausgereitzt.
Und der Transistorcount ist für 32 wohl doch ein wenig klein.
Ich gehe mal auch davon aus. das wenn überhaupt so 1 bis 3 zusähtliche Pipes zur Fehlerredundanz eingebaut sind und bei der chipkontrolle fehlerhafte deaktiviert und eine dieser "ersatzpipes" aktiviert werden.
Dieses Prinziep ist ja abei ram-Bausteinen und auch Cache-einheiten bei CPU's schon lange gang und gebe. Bei solchen Transistormonstern wie es der G70 nun ma ist machts aus wirtschaftlichem Blickwinkel durchaus sinn ggf. in einem Chip 3 sinnlos schlummernde Pipes zu haben, wenn dadurch auch nur einer von 3 anderen zu retten ist:
Für die die es nicht ganz kappiert haben:
nehmen wir mal optimistisch (reine Milchmädchenrechnung zum veranschaulischen ohne reelle Zahlenfakten) an:
1.) es sind 26 pipelines ...
2.) 10% der gesamt produzierten G70 sind fehlerfrei (26 funzende pipes)
3.) 10% haben eine fehlerhafte pipe
4.) 20% haben 2 fehlerhafte pipes
5.) 60% haben mehr als 2 fehlerhafte pipes
wenn nun ein G70 26 pipes hätte, hätte man nach dieser Annahme eine Ausbeute von 40%.
Wenn der G70 nur 24 Pipes hätte, wäre die Ausbeute gerade mal 10%
Wenn er nun wie angenommen 26 hat, hat man natürlich pro chip 2 pipes sprich 1/12tel mehr transistoren.
Ohne es genau auszurechnen sollte damit wohl jedem klar sein, das die 1/12tel mehr transistoren eine Ausbeutenerhöhung von 300% zur Folge haben ... Nun darf jeder mal selber überlegen, ob der G70 nur 24 oder doch 32 oder was dazwischen an pipes hat.
Meine Vermutung: Er hat ein paar Mehr als 24, und das genau so viele mehr, das das Verhältnis von mehr-Transistoren pro Chip und Ausbeutenerhöhung maximal wird (mit den vom Chiphersteller in diesem Fertigungsprozess prognostizierten Ausbeuten ... bzw. kann man das vorher mit den bekannten größen von Fehlern/Transistoren auch schon abschätzen!!! )
schwachfug
er hat 24 und nicht eine pipe mehr (das kostet GELD)
alternate hatte 100 karten
uu werden vielleicht 2000 karten weltweit verkauft (beim launch)
da kann nvidia ruhig aussortieren
die versionen mit 16 und 20 pipes werden bald kommen
da werden dann die schlechten chips verbaut
es ist schon lustig was sich manche hier zusammenreimen
nachgedfacht wird erst garnicht
er hat 24 und nicht eine pipe mehr (das kostet GELD)
alternate hatte 100 karten
uu werden vielleicht 2000 karten weltweit verkauft (beim launch)
da kann nvidia ruhig aussortieren
die versionen mit 16 und 20 pipes werden bald kommen
da werden dann die schlechten chips verbaut
es ist schon lustig was sich manche hier zusammenreimen
nachgedfacht wird erst garnicht
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.611
- Renomée
- 428
- Standort
- Bayern, am Rande des Wahnsinns
- Aktuelle Projekte
- Dieses und jenes
- BOINC-Statistiken
- Mein Laptop
- HP EliteBook 840 G2, Elitebook 850 G3
- Prozessor
- Ryzen7 5800X3D
- Mainboard
- Asus TUF B550 Plus
- Kühlung
- BeQuiet DarkRock4
- Speicher
- 4x16GB DDR4-3200 Crucial
- Grafikprozessor
- XFX RX6700XT 12GB
- Display
- 2x HP X27i
- SSD
- NVMe: 970EVO 1TB, SATA: WD Blue 1TB, 870QVO 4TB, Acer RE100 4TB, 870QVO 8TB
- Optisches Laufwerk
- LG BluRay-Brenner
- Soundkarte
- Realtek ALC1200
- Gehäuse
- Fractal Define R5
- Netzteil
- Seasonic Focus 650W
- Tastatur
- Keychron K4
- Maus
- Logitech MX518
- Betriebssystem
- Win10 Pro/64, Linux 64bit (wechselnd)
- Webbrowser
- Primär: Firefox, sekundär: Wechselnd
- Internetanbindung
- ▼100 MBit ▲32 MBit
Aber du weisst natürlich ganz genau was im Chip drin ist?
Die Theorie von ncp_EasyChiller klingt am realistischsten, es ist ja wirklich so das in jeder CPU mehr Cache drinsteckt um defekte Abschnitte aufzufangen.
Warum sollte man das nicht bei GraKas auch machen?
Die Theorie von ncp_EasyChiller klingt am realistischsten, es ist ja wirklich so das in jeder CPU mehr Cache drinsteckt um defekte Abschnitte aufzufangen.
Warum sollte man das nicht bei GraKas auch machen?
Höher getaktete Chips haben sie aber schon nachträglich herausgebracht, wenn dies notwendig war (GF2 Pro ->GF2 Ultra und GF3 -> GF3 Ti 500). Ich denke, es ist nicht unwahrscheinlich, eine höher getaktete Variante der 7800GTX zu sehen, falls es die Konkurrenz notwenig macht.Peilo schrieb:aus diesem Posting
naja das glaub ich ja eher weniger
die haben bisher(außer bei der FX)die beste Karte als erstes veorgestellt und danach die mainstreamversionen nachgelegt.
Ich spekuliere auch mal mit
NV40 16PP/6VP ~222 Mio T
NV41 12PP/6VP ~190 Mio T
sind 32 Mio/4PP => ~8 Mio/PP
NV43 8PP/3VP 143 Mio T
sind 222Mio - 143Mio - (2*32Mio) = 15 Mio/3VP =>~5 Mio /VP
G70 24PP/8VP
222 Mio + 8*8 Mio + 2*5 Mio = ~296 Mio
sind also mit nvidia Angaben rund 6 Mio Transistoren Platz für Erweiterung der Chipfunktionen.
G70 32PP/8VP ?
NV40: 222 Mio Transistoren Fläche 287mm² @ 130nm
>geschrinkt auf 110nm (0,11/0,13)*(0,11/0,13)*287mm² = ~205mm²
G70 Fläche 334 mm² würde bedeuten ~ 360 Mio Transistoren <> Nvidia 302 Mio Transistoren
Edit: Mit Vergleich 130nm->110nm von ATI sind 220 Mio @110mn wohl eher im Bereich 240mm² und somit bei 334 mm² tatsächlich um ~302 Mio.
222 Mio + 16*8 Mio + 2*5 Mio = ~360 Mio
Langt also bei weitem nicht. Rechnet man die paar Optimierungen rein bei denen die 6 Mio durchaus komplett genutzt werden könnten reichts nichtmal für eine weitere Pixelpipeline.
So schnell zerplatzen Träume.
(Angaben von www.beyond3d.com, vieleicht hat ja jemand verlässliche Herstellerangaben)
NV40 16PP/6VP ~222 Mio T
NV41 12PP/6VP ~190 Mio T
sind 32 Mio/4PP => ~8 Mio/PP
NV43 8PP/3VP 143 Mio T
sind 222Mio - 143Mio - (2*32Mio) = 15 Mio/3VP =>~5 Mio /VP
G70 24PP/8VP
222 Mio + 8*8 Mio + 2*5 Mio = ~296 Mio
sind also mit nvidia Angaben rund 6 Mio Transistoren Platz für Erweiterung der Chipfunktionen.
G70 32PP/8VP ?
NV40: 222 Mio Transistoren Fläche 287mm² @ 130nm
>geschrinkt auf 110nm (0,11/0,13)*(0,11/0,13)*287mm² = ~205mm²
G70 Fläche 334 mm² würde bedeuten ~ 360 Mio Transistoren <> Nvidia 302 Mio Transistoren
Edit: Mit Vergleich 130nm->110nm von ATI sind 220 Mio @110mn wohl eher im Bereich 240mm² und somit bei 334 mm² tatsächlich um ~302 Mio.
222 Mio + 16*8 Mio + 2*5 Mio = ~360 Mio
Langt also bei weitem nicht. Rechnet man die paar Optimierungen rein bei denen die 6 Mio durchaus komplett genutzt werden könnten reichts nichtmal für eine weitere Pixelpipeline.
So schnell zerplatzen Träume.
(Angaben von www.beyond3d.com, vieleicht hat ja jemand verlässliche Herstellerangaben)
Zuletzt bearbeitet:
ich habe nie gesagt, dass ati da was drehen könnte außer am takt oder däumchen (je nachdem wie gut Fudo wird)...aber ich sagte sehr wohl, dass sie jetzt bestimmt schon wissen, was da im argen liegt oder eben nicht...
auch ich bin anhänger der theorie der redundanten pipes...ist auch sinnvoll...
somit kann nv die ausbeute weiter erhöhen...denke schon, dass die knappheit der 6800u ein schuß vor den bug war...immerhin sieht man, dass sie aus fehlern lernen...
aber nochmal @floi
solang du nich nachweißlich bei nv arbeitest oder selbst mit dem chip refaktoring betrieben hast....
wenn man keine ahnung hat...einfach mal die....
solche kommentare bringen keinen weiter...
und die kosten der zusätzlichen pipes würde man LOCKER durch die vergleichbar höhere ausbeute wieder auffangen...
auch ich bin anhänger der theorie der redundanten pipes...ist auch sinnvoll...
somit kann nv die ausbeute weiter erhöhen...denke schon, dass die knappheit der 6800u ein schuß vor den bug war...immerhin sieht man, dass sie aus fehlern lernen...
aber nochmal @floi
solang du nich nachweißlich bei nv arbeitest oder selbst mit dem chip refaktoring betrieben hast....
wenn man keine ahnung hat...einfach mal die....
solche kommentare bringen keinen weiter...
und die kosten der zusätzlichen pipes würde man LOCKER durch die vergleichbar höhere ausbeute wieder auffangen...
RLZ
Captain Special
Die erste Rechnung mit den Anzahl der Transistoren pro Pipe kann man ja noch Pi mal Daumen durchgehen lassen.masel schrieb:NV40: 222 Mio Transistoren Fläche 287mm² @ 130nm
>geschrinkt auf 110nm (0,11/0,13)*(0,11/0,13)*287mm² = ~205mm²
G70 Fläche 334 mm² würde bedeuten ~ 360 Mio Transistoren <> Nvidia 302 Mio Transistoren
Aber diese Rechnung geht allein schon deswegen schief, weil der 110nm Prozess komplett anders als der 130nm Prozess ist. Allein um einen solchen Chip mit einem Mainstreamprozess (nur 130 und 90nm sind bei TSMC High-End mit Low-K) zu erzielen muss man sich schon etwas mehr Spielraum lassen.
Man braucht dafür einen erweiterten Rasterizer in Hardware.fehlen die Erweiterungen der Chipfunktionen (Intellisample 3.0->4.0 transparentes AA => wieviel mehr Aufwand? per Treiber machbar?,
Die Shadereinheiten können einiges mehr als vorher.CineFX 3.0->4.0 Überarbeitung/Optimierung der Shadereinheiten > mehr oder weniger Aufwand?,
Da sie aber schon relativ kleine und simple ALU´s darstellen gabs da in der Größe nichts mehr zu reduzieren.
Dazu kommen höchstwahrscheinlich noch grössere Texturecaches usw..
Damit wohl eher nicht.mehr gabs so gut wie nix erwähnenswertes neues) aber ansonsten würden 360 Mio knapp reichen.
Nvidia wird natürlich einige Einheiten (unterhalb der Grösse einer kompletten Quad) doppelt haben. Es ist viel effektiver einzelne kleine Einheiten umschalten zu können, als komplette Quads zu verbauen, die durch einen Fehler in Teilbereichen wieder komplett unbrauchbar werden.
Zero2Cool
Vice Admiral Special
- Mitglied seit
- 03.07.2002
- Beiträge
- 777
- Renomée
- 1
- Aktuelle Projekte
- Seti, yoyo
- Meine Systeme
- Intel Q6600 @ 3500MHz, mehrere AMD X2's und Intel P4's
- BOINC-Statistiken
- Prozessor
- Intel Q9550 @ 3500 MHz @1.2v
- Mainboard
- Gigabyte GA-X38-DQ6
- Kühlung
- Aqua Computer Cuplex XT di + Triple-Radi
- Speicher
- 2x2GB G.Skill DDR2-1000 @ 1037MHz CL5 5-5-15
- Grafikprozessor
- MSI 8800GTS übertaktet
- Display
- 24" TFT Dell 2407WFP
- HDD
- intern 2 TB, extern Synology DS409+ mit 4x1TB
- Optisches Laufwerk
- Plextor PX-760A und LG GSA-H42L
- Soundkarte
- Creative Audigy2 ZS
- Gehäuse
- Coolermaster Stacker
- Netzteil
- be quiet Straight Power 500W
- Betriebssystem
- Windows 7 Ultimate 64bit
- Webbrowser
- Firefox
um nochmal auf das Thema Lautstärke zurück zukommen:
Ob sich der Zalman VF700 auf auf der 7800 GTX verbauen läßt
Wenn die Temps niedriger als bei der 6600GT/6800er Reihe sein sollen, dann sollte ja nichts gegen die Benutzung eines VF700 sprechen. Außer die Löcher stimmen nicht mehr überein.
Auch wenn der original Kühler relativ leise sein soll, so ist der Zalman VF700 immer noch leiser.
Ob sich der Zalman VF700 auf auf der 7800 GTX verbauen läßt
Wenn die Temps niedriger als bei der 6600GT/6800er Reihe sein sollen, dann sollte ja nichts gegen die Benutzung eines VF700 sprechen. Außer die Löcher stimmen nicht mehr überein.
Auch wenn der original Kühler relativ leise sein soll, so ist der Zalman VF700 immer noch leiser.
RLZ schrieb:Die erste Rechnung mit den Anzahl der Transistoren pro Pipe kann man ja noch Pi mal Daumen durchgehen lassen.
Aber diese Rechnung geht allein schon deswegen schief, weil der 110nm Prozess komplett anders als der 130nm Prozess ist. Allein um einen solchen Chip mit einem Mainstreamprozess (nur 130 und 90nm sind bei TSMC High-End mit Low-K) zu erzielen muss man sich schon etwas mehr Spielraum lassen.
So genau kenn ich mich da auch nicht aus, wollte auch keine Abhandlung drüber schreiben.
Ziehen wir mal ATI Daten des R430 (160 Mio @ 110nm = 240mm² ) (und R420 (auch 160 Mio @ 130nm =289 mm²)) heran. Werden ja anscheinend wie die NVidia Chips auch bei TSMC gefertigt, sollte also etwas besser vergleichbar sein. (Quelle www.beyond3d.com)
G70 334 mm² @ 110nm -> 334mm²/240mm² x 160 Mio = 222 Mio wie denn das ?!
oder
240mm²/289mm² (ATI Schrink 130nm->110nm) macht für (NV40 222 Mio @ 130nm) 287 mm² = ~238 mm² @110 nm und somit für 334 mm² = ~311 Mio kommt also der Nvidia Angabe mit 302 Mio sehr nahe. Somit dürfte 302 Mio schon passen, glaube Nvidia flunkert kaum um nen "paar Millionen" Transistoren.
[/QUOTE]
Hab das gleich oben mal geändert, sonst glaubt die Milchmädchenrechnung noch jemand.
RLZ schrieb:Die Shadereinheiten können einiges mehr als vorher.
Ja, was denn? Außer dem transparenten AA Modi und das sie schneller geworden sind.
Zuletzt bearbeitet:
RLZ
Captain Special
Die AA Modi sind Sache der ROPs und haben nichts mit den Shadern zu tun.masel schrieb:Ja, was denn? Außer dem transparenten AA Modi und das sie schneller geworden sind.
Bei der Pixelshaderunit (eine pro Pipe) können nun beide ALUs ein MADD und ein MULL und die 2 zusätzlichen Mini-Alus sind noch aufgebohrt worden .
Die Vertexshader können nun single-cycle MADD und sind insgesamt noch verbessert worden.
Dazu wurden dann noch das Branching der einzelnen Quad voneinander entkoppelt, was eine effizientere Nutzung bietet.
Die Texturecacheanbindung wurde auch wesentlich verbessert um den Leistungsabfall bei HDR-Rendering abzuschwächen.
Hier mal noch ein Bild, damit man sich vorstellen kann wie die Pixelshaderunit aussieht:
Na hoffentlich und zwar aktiviert. Die wollen doch nich den gleichen Fehler machen, wie bei Geforce 5 (FX) Serie, wo sie gerade an den 4 Pipelines gesparrt haben. Ich meine, dass ATI R-520 Generation standartmaessig am Ende Juli mit 32 und mehr angeboten wird und da werden sich aber einige genauer ueberlegen
SKYNET
Grand Admiral Special
- Mitglied seit
- 07.06.2002
- Beiträge
- 4.179
- Renomée
- 7
- Standort
- Zürich
- Mein Laptop
- HP Elitebook 2570p + 8460p + 8570p
- Prozessor
- AMD Ryzen 2700X
- Mainboard
- ASRock Fatality Gaming AB350 ITX
- Kühlung
- Alphacool Eisbaer
- Speicher
- 2x G.Skill Trident Z 4266 C19
- Grafikprozessor
- Gigabyte Aorus Xtreme GTX 1080 Ti
- Display
- 24" DELL U2410
- SSD
- 1x 256GB Samsung 950 Pro NVMe, 1x 256GB Sasmung 840 Pro SATA
- Soundkarte
- Onboard
- Gehäuse
- Cougar QBX
- Netzteil
- Bitfenbix Formula Goild 750W
- Betriebssystem
- Win 10 Pro
- Webbrowser
- Edge
- Verschiedenes
- Full system is Air cooled
FLOI schrieb:schwachfug
er hat 24 und nicht eine pipe mehr (das kostet GELD)
alternate hatte 100 karten
uu werden vielleicht 2000 karten weltweit verkauft (beim launch)
da kann nvidia ruhig aussortieren
die versionen mit 16 und 20 pipes werden bald kommen
da werden dann die schlechten chips verbaut
es ist schon lustig was sich manche hier zusammenreimen
nachgedfacht wird erst garnicht
kein schwachfug, mehr sage ich jetzt mal nicht
mr.wolf schrieb:aus diesem Posting
Na hoffentlich und zwar aktiviert. Die wollen doch nich den gleichen Fehler machen, wie bei Geforce 5 (FX) Serie, wo sie gerade an den 4 Pipelines gesparrt haben. Ich meine, dass ATI R-520 Generation standartmaessig am Ende Juli mit 32 und mehr angeboten wird und da werden sich aber einige genauer ueberlegen
32 und mehr was? Pixelpipelines? Müsten sie am Tackt aber auch noch n Stück drehen um an ne G70 ranzukommen. Die verbesserte Rechenleistung ner G70 Pixelpipeline ist schon nicht schlecht und deklassiert die von Ati schon etwas.
mr.wolf schrieb:aus diesem Posting
Na hoffentlich und zwar aktiviert. Die wollen doch nich den gleichen Fehler machen, wie bei Geforce 5 (FX) Serie, wo sie gerade an den 4 Pipelines gesparrt haben. Ich meine, dass ATI R-520 Generation standartmaessig am Ende Juli mit 32 und mehr angeboten wird und da werden sich aber einige genauer ueberlegen
du glaubst nich wirklich, dass ati mehr alsd 32 pipes verbaut...wobei selbst 32 noch nicht ganz sicher sind...oder?
und falls ati 32 verbaut werden wir sehen, wie gut die verbesserungen von nv wirklich sind. ich halt da ziemlich viel von...aber was da nun genau bei rauskommt muss die zukunft zeigen...
und wann fudo endlich kommt werden wir ja sehen...
BlackBirt
Commander
- Mitglied seit
- 13.08.2004
- Beiträge
- 183
- Renomée
- 0
Zero2Cool schrieb:aus diesem Posting
um nochmal auf das Thema Lautstärke zurück zukommen:
Ob sich der Zalman VF700 auf auf der 7800 GTX verbauen läßt
Wenn die Temps niedriger als bei der 6600GT/6800er Reihe sein sollen, dann sollte ja nichts gegen die Benutzung eines VF700 sprechen. Außer die Löcher stimmen nicht mehr überein.
Auch wenn der original Kühler relativ leise sein soll, so ist der Zalman VF700 immer noch leiser.
Der Zalman wird leiser sein, aber ich fürchte er passt nich druf! Wenn man mal den Chip der 6800 mit dem der 7800 vergleicht
Die Abstände der Schrauben werden großer sein. Kannst ihn natürlich auch auffem Chip festkleben
Tigershark
Vice Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 527
- Renomée
- 0
- Standort
- Geisenheim
- Prozessor
- Core 2 Duo E8400@ 9x400
- Mainboard
- ABIT iP35 PRO
- Kühlung
- Thermalright Ultra-120 eXtreme
- Speicher
- 4x1024MB Mushkin XP-2 6400
- Grafikprozessor
- eVGA 8800GTS superclocked
- Display
- HP LP2475W; 1920x1200
- HDD
- 1xWD VelociRaptor 300GB, 1xWD Caviar 500 RE
- Soundkarte
- X-Fi Music
- Gehäuse
- Antec P182
- Netzteil
- Seasonic S12-II 430
- Betriebssystem
- Windows Vista Ultimate 64bit
- Webbrowser
- Firefox 3.0.6
- Schau Dir das System auf sysprofile.de an
masel schrieb:Ja, was denn? Außer dem transparenten AA Modi und das sie schneller geworden sind.
Guggstu mal im 3DCenter G70-Technik Artikel
http://www.3dcenter.de/artikel/2005/06-26_a.php
8)
@R520 im Juli - Paperlaunch vielleicht schon....
ATI selbst hat eine Verschiebung bis September angekündigt, wie rotsichtig muss man sein, um immer noch Juli zu glauben? lol....
Tigershark schrieb:aus diesem Posting
Guggstu mal im 3DCenter G70-Technik Artikel
http://www.3dcenter.de/artikel/2005/06-26_a.php
8)
Hab ich auch schon gefunden, danke trotzdem.
Ähnliche Themen
- Antworten
- 9
- Aufrufe
- 16K
- Antworten
- 0
- Aufrufe
- 143K
- Antworten
- 0
- Aufrufe
- 234K
- Antworten
- 0
- Aufrufe
- 354K