Details zum G70, Vorstellung am 21. Juni?

Toonfish

Grand Admiral Special
Mitglied seit
05.01.2002
Beiträge
5.971
Renomée
30
Standort
München
Vor einem Jahr wurde auf einer GeForce LAN-Party in San Francisco die GeForce 6 Serie offiziell von <a href="http://www.nvidia.com" TARGET="b">NVIDIA</a> vorgestellt. Diese Tradition fortführend sei eine Vorstellung der GeForce 7800er Serie für den 21. Juni geplant, so berichtet <a href="http://www.gamespot.com/news/2005/06/02/news_6126883.html" target="b">GameSpot</a>. NVIDIA-Partner, Analysten und Presseleute würden zu einem "Abend voller Unterhaltung mit evolutionären Technologien, scharfem 3D-Inhalt und aufregender Spieleaction durch die Enthüllung unserer Next-Generation GPU" geladen.<p>Das neue Flagschiff der Serie wird GeForce 7800 GTX heissen und über 512 MB Speicher verfügen. Der in 110 nm gefertigte Chip wird SLI unterstützen und sich laut <a href="http://www.tomshardware.com/hardnews/20050531_110037.html" TARGET="b">Tom's Hardware</a> leistungsmäßig "deutlich" vor der 6800 platzieren. Zusätzlich wird es noch eine GeForce 7800 und eine GeForce 7800 GT geben, über deren Leistungsfähigkeit noch keine Details bekannt sind. Die GTX Karte wird preislich wohl auf dem Anfangsniveau der 6800 liegen und in den USA 550-600 Dollar kosten.<p>Bei <a href="http://www.hardwarezone.com" TARGET="b">HardwareZone</a> will man schon ein Engeneering Sample in der Hand gehalten und eine Stromaufnahme von 150W gemessen haben. Im Gegensatz dazu steht die stromsparende 110 nm Fertigung, welche beim taiwanischen Halbleiterhersteller <a href="http://www.tsmc.com" target="b">TSMC</a> durchgeführt wird, sowie der zwar große, aber in Single-Slot realisierte Kühler, den man auf dem <a href="http://www.planet3dnow.de/vbulletin/showthread.php?p=2252861#post2252861">Bild</a> sehen kann.<p>Nachdem einige <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=all&id=1116430255">Spezifikationen</a> bereits bekannt sind, wird man wohl noch auf erste Benchmarkergebnisse warten müssen. Dem kanadischen Hauptkonkurrent ATI gelang es mit seiner neuen Crossfire-Technologie vor kurzem den 3DMark05-Rekord gerade eben zu brechen, da rüstet NVIDIA bereits für den Gegenschlag. Sollte die Leistungsaufnahme der neuen GeForce Karten sich entgegen erster Fauxpass-Meldungen in Grenzen halten müssen sich die Kanadier mit dem R520 beeilen, wenn sie nicht den Anschluss verpassen wollen.
 
<ul><img src="/news_images/G70030605.jpeg"></ul>
 
Die 150 Watt sind Blödsinn, da braucht man gar nicht weiter diskutieren.

Wenn das 24 Pipe Gerücht stimmt, werden es wohl ca 50-60% mehr Performance. Ist schon okay nach der Performanceverdoppelung mit den Karten im letzten Jahr. Mehr ist kaum zu machen derzeit.
 
zeigt mir die 130Watt meiner 6800Ultra, dann glaub ich die 150Watt ;)
 
Vielleicht bringt Nvidia dann ja auch wieder ein gutes Midrange-Modell mit 12 Pipes für 200€. ;D ,als Nachfolger für die erfolgreiche 6600GT.

150Watt Stromverbrauch? :o
Na wenn wenn sich da nicht jemand vermessen hat... :]
Bei der Kühlösung die auf den Bildern zu sehen ist glaub ich nicht daran oder sie ist hocheffektiv. *oink*
 
mit den 150w stimmt mit sicherheit nicht. schon allein deswegen, weil derpeg und ein stromstecker zwar 150w liefern könnten, aber nemals ein hersteller bis an die grenzen der spezifikationen geht. und der kühler deutet auch auf eine gesenkte leistungsaufnahme hin.
 
Diese 150W kommen irgendwie wohl daher das Nvidia ein 400W Netzteil für ein System mit nur einer Karte empfiehlt. Für ein SLI System sollte es ein 550W Netzteil sein.
Ich kann mir beim besten willen nicht vorstellen das Nvidia die Spezifikation ohne Tolleranz ausnutzen würde. ;D

Es werden sicher nicht mehr als 100 Watt pro Karte werden. *suspect* *great*
 
*träüm* newsmeldung für den 22.06.05

Nvidia folgt dem erfolgreichen Beispiel amds und integriert automatische Stromsparmodi die in Phasen niedriger beanspruchung die leistungsaufnahme deutlich senken sollen. Dies, so Nvidia, geschehe durch gezieltes abschalten nichtbenötigter Chipareale und einer automatischen Seknung der Chipspannung, die einhergehe mit einer reduzierung des Taktes.

*/träum*
 
HiddenGhost schrieb:
aus diesem Posting

*träüm* newsmeldung für den 22.06.05

Nvidia folgt dem erfolgreichen Beispiel amds und integriert automatische Stromsparmodi die in Phasen niedriger beanspruchung die leistungsaufnahme deutlich senken sollen. Dies, so Nvidia, geschehe durch gezieltes abschalten nichtbenötigter Chipareale und einer automatischen Seknung der Chipspannung, die einhergehe mit einer reduzierung des Taktes.

*/träum*
Das machen die Chips doch schon längt. Chiptakt kannst du für 2D- und 3D-Modus eh getrennt einstellen und bei Karten vieler Hersteller verringert sich auch die Spannung der GPU im 2D-Modus. Das die Pixel- und Vertexshader Einheiten im 2D-Modus nicht laufen, ist eh selbstverständlich.

The_Borg
 
Wenn der kleine Kühler da 150W abführen sollte, dann würde der Plastikventilator ja schmelzen und raustropfen *buck* Nein, das ist Unsinn. Ich schätze mal, die Karte wird trotz erhöhter Leistung auf etwa dem gleichen Niveau sein, das wäre ja schon ne deutliche, aber realistische Einsparung.
 
schön zu sehen, daß nvidia immer mehr von alten 3dfx-produkten übernimmt.

wenn nvidia so weiter macht, dann dürfte spätestens die nächste generation in sachen LÄNGE zur voodoo5 5500 aufschließen ;)
 
Naja ich denke mal es gibt sicherlich einen nachfolgen zur 6600 GT. Denke sogar die wird 7600 GT heißen und sicherlich in sicherlich 90nm gefertigt sein.
 
cruger schrieb:
schön zu sehen, daß nvidia immer mehr von alten 3dfx-produkten übernimmt.

wenn nvidia so weiter macht, dann dürfte spätestens die nächste generation in sachen LÄNGE zur voodoo5 5500 aufschließen ;)


ich sehe in der länge der karte kein problem, wer natürlich irgent nen billiges gammescase hat, muss damit rechnen das die karte irgentwo aneckt. =)
 
SKYNET schrieb:
aus diesem Posting

ich sehe in der länge der karte kein problem, wer natürlich irgent nen billiges gammescase hat, muss damit rechnen das die karte irgentwo aneckt. =)

was hat das mit dem gehäuse zu tun ?

die voodoo5 5500 als beispiel war zu diversen mainboards inkompatibel, weil sie mit irgendwelchen bauteilen auf dem mobo kollidiert ist. hab ich selbst erleben dürfen, bei mir hat die karte seiner zeit ide-ports blockiert. und das war noch harmlos im vergleich zu anderen kombinationen, wo sich die karte erst gar nicht einbauen ließ.
 
cruger schrieb:
aus diesem Posting

was hat das mit dem gehäuse zu tun ?

die voodoo5 5500 als beispiel war zu diversen mainboards inkompatibel, weil sie mit irgendwelchen bauteilen auf dem mobo kollidiert ist. hab ich selbst erleben dürfen, bei mir hat die karte seiner zeit ide-ports blockiert. und das war noch harmlos im vergleich zu anderen kombinationen, wo sich die karte erst gar nicht einbauen ließ.

jedes moderneres Mainboard hat ein gutes Layout, was genau dieses Problem des "kollidierens" beseitigt....
 
p4z1f1st schrieb:
aus diesem Posting

jedes moderneres Mainboard hat ein gutes Layout, was genau dieses Problem des "kollidierens" beseitigt....

wers glaubt !? ;)

beispiel epox 9npa+

ep-9npa+_full.jpg


für g70 modelle vielleicht noch kein problem, aber eine karte mit ähnlicher länge wie eine voodoo5 5500 würde genau wie zu zeiten des kt133 die beiden ide-ports blockieren.
 
Dafür habe ich ein S-ATA raid @ PCI! ;D
 
cruger schrieb:
wers glaubt !? ;)

beispiel epox 9npa+

ep-9npa+_full.jpg


für g70 modelle vielleicht noch kein problem, aber eine karte mit ähnlicher länge wie eine voodoo5 5500 würde genau wie zu zeiten des kt133 die beiden ide-ports blockieren.


wer epox kauft ist selber schuld. :P
 
SKYNET schrieb:
aus diesem Posting

wer epox kauft ist selber schuld. :P

andere hersteller platzieren an der gleichen stelle gegenüber dem ersten peg-slot die sata-anschlüsse (z.b. gigabyte etc.), ist ab einer bestimmten länge der grafikkarte das gleiche problem in grün :]
 
dieses problem besteht nur wenn man SATA2 nutzen will UND mehr als 2 platten hat. :-X

die SATA1 anschlüsse sind nämlich unten. =)
 
Ich würd dem Kühler schon 100W zutrauen. Einerseits weis man die Drehzahl vom Lüfter net (ich erinnere da an die Geforce FX) und andererseits werden GPUs sowieso viel wärmer als CPUs, wodurch die Wärmeabfuhr erheblich einfacher geht. Und zum Schluss ist die GPU auch viel größer als eine CPU, was nochmals der Wärmeabfuhr zugute kommt. Dank der großen Recheneinheiten dürften HotSpots auch nicht so problematisch werden - zum Vergleich: Bei einer CPU werden vielleicht 90% der Wärme von 20% der Fläche erzeugt, bei einer GPU dagegen 80% der Wärme von 50% der Fläche (Phantasiewerte, auf die Relation kommt's an).

Das hängt größtenteils mit der Taktrate zusammen, und damit, dass eine GPU eigentlich nur ein überdimensionierter Rechenschieber ist (Recheneinheiten soweit das Auge reicht, jede läuft aber auf vergleichsweise niedrigem Takt -> macht wenig Wärme).


Letztendlich kann man also mit dem Kühler, der bei einer CPU für sagen wir 50W reicht, bei einer GPU wahrscheinlich schon 100W abführen, ohne die jeweils geltenden Betriebsbedingungen zu verlassen.
 
Zurück
Oben Unten