derzeit schnellste Grafikkarte 08/ 09 wohin gehts?

Ich glaube, dass durch die hohe Abwärme ein Die mit 2 GPUs zu bestücken nicht sehr klug wäre! Wenn auf so wenig Fläche so viel Hitze entsteht, ist das nur schwer zu kühlen.
Die nächste Frage wäre doch dann, wie die beiden GPUs zusammenarbeiten. Ähnlich wie beim C2Q über einen Cache bzw. über den Grafikspeicher oder über Zwischenpuffer? Vielleicht ja auch wie den HD3870X2 oder HD4870X2, wo die Kerne einfach getrennt voneinander die gleichen Operationen durchführen. So können die Mikroruckler aber nicht abgeschafft werden. Denn zu 100% können die beiden Kerne (GPUs) einfach nicht parallel arbeiten.
Also muss ein anderes, vielleicht auch einfacheres Verfahren genutzt werden. Ich denke da an den Core2Quad. Threadaufteilung bzw. Bildaufteilung in Sektoren.

Vielleicht fällt euch dazu was sinnvolles ein.

MfG, Paule
 
ja,klingt doch gut !!

und das mit den Microrucklern soll ja wirklich nur an der Wahrnehmbarkeitsgrenze sein, aber im Frühjahr werde ich da wohl eigene Erfahrungen sammeln...
Und ich denke die werden sich in Sachen effizientere Kühlung demnächst schon noch was einfallen lassen!
 
@dbpaule: Nun weis man nicht viel über den R900, nur das er wohl mit MCM kommt. Ich stelle mir vor das die Die kleiner werden wird als der RV670, also zum einen wird wohl 40nm Prozess zum Einsatz kommen, zum anderen wird die Transistorenanzahl im vergleich zur heutigen Chips nicht alzusehr vergrößern. Ein einzelner R900 wird wohl keine großen Leistungssprünge bringen, aber auch nicht viel Abwährme produzieren, wodurch dann das verbauen von bis zu vier Kernen möglich wäre.
Da muss man sich echt von der Vorstellung riesiger Chips wie bei Nvidia trennen. ATI wird seinen Schritt Richtung kleine Dies wohl weiter verfolgen.

Vielleicht ja auch wie den HD3870X2 oder HD4870X2, wo die Kerne einfach getrennt voneinander die gleichen Operationen durchführen. So können die Mikroruckler aber nicht abgeschafft werden. Denn zu 100% können die beiden Kerne (GPUs) einfach nicht parallel arbeiten.
Also muss ein anderes, vielleicht auch einfacheres Verfahren genutzt werden. Ich denke da an den Core2Quad. Threadaufteilung bzw. Bildaufteilung in Sektoren.

Das Unterteilen in Bildabschnitte beherrscht CF sogar und dort gibt es keine Microruckler, aber es skaliert schlechter als AFR und wir deshalb nich benutzt.
 
Zuletzt bearbeitet:
Danke fuer die Erklärungen, jetzt weiss ich endlich was FLOPs sind- und wie man sie ausrechnet.:)
Jetzt frage ich mich nur noch, welchen Einfluss der individuelle GPU-Takt (bei NVidia) auf die Leistung der Grafikkarte hat. Denn im Gegensatz zum RV770 ist der ja beim GT200 nicht synchron zum Shadertakt- inwiefern tut er also die Leistung der Shadereinheiten beeinflussen? (BSP: GPU= 602Mhz, Shader= 1296Mhz. Was passiert, wenn der GPU-Takt auf z.B 648 Mhz angehoben wird- der Shadertakt aber unverstellt bleibt? Hat das irgendwelche Auswirkungen auf die berechneten Operationen?)

Nunja, Shader-Operationen stellen nicht die gesamte Bandbreite einer Grafikkarte dar. Im Prinzip ist das ja erstmal nur Rechnen mit rationalen Zahlen (reellen Zahlen kriegt man ja durch die Unendlichkeit so noch nicht dargestellt). Die können seit der Einführung der programmierbaren Shader (ShaderModel 1.x, DX8-Generation) bereits ansatzweise für allgemeine Berechnungszwecke genutzt werden, wirklich sinnvoll ist das jedoch erst mit SM 4.0 (DX10-Generation) geworden, die einige schwierige Beschränkungen aufgehoben hat, so sind die Shader nun "unifed", also vereinigt. Vorher gabs die Unterteilung in Vertex und Pixelshader.. Dass seit dem die Nutzung für andere Aufgaben interessant geworden ist, sieht man ja auch z. B. an den Coprozessoren-Karten, diese setzen praktisch rein auf die Leistung der Shader in der GPU.

Anders siehts beim klassischen Einsatzzweck aus. Wenn ein Shader als Pixel Shader arbeitet, ist er gerade dabei die Eigenschaften eines Pixel zu verändern (z. B. Farbe). Als Unified-Shader kümmert er sich um die Form (Verschieben von Punkten). Mit der DX10-Generation kamen dann noch Geometry Shader hinzu, die können auch noch geometrische Objekte hinzufügen oder entfernen (der Vertex kann die nur bearbeiten). Das sind im Endeffekt also alles sehr wichtige Operationen für die Entstehung des Bildes, es braucht aber noch ein paar Dinge mehr.

Und für die sind andere GPU-Teile zuständig. Wichtige Teile sind z. B. die TMUs (Texture Mapping Units), diese statten erstmal 3D-Objekte mit einer Gestaltung der Oberflächen aus (bevor dann die Shader das Ergebnis im Bild umsetzen). Noch eher sind die ROPs dran, hier wird z. B. überprüft ob Objekte überhaupt im sichtbaren Bereich liegen. Nicht ganz unwichtig, zumal man sich bei nicht sichtbaren Objekten ja auch noch die ganze restliche Arbeit schenken kann. Gibt noch einiges mehr, und es sollte klar sein, dass das hier stark vereinfacht ist, dürfte aber einen ungefähren Überblick über die Arbeitsweise geben. ;)

Und nur für die Shader nutzt Nvidia den Shadertakt. Der Rest läuft "in etwa" auf dem angegebenen GPU-Takt. AMD nutzt halt keinen unabhängigen Shadertakt (jedenfalls nicht in dem Maße, dass er extra angegeben würde). Die wenigen Taktfrequenzen die bekannt sind, sind auch eine Vereinfachung (ich glaube aktuelle Radeon-GPUs haben rund 80 Taktdomainen), allerdings eine, mit der man gut leben kann, weil die unterschiedlichen Taktfrequenzen in einzelnen Bereichen nicht so ins Gewicht fallen.

Die Leistung der Grafikkarten kann man daher nicht mit den "FLOPs" (das steht übrigens für Floating Point Operations per second, also Fließkommaberechnungen pro Sekunde) so generell angeben. Schon allein die Maßzahl der FLOPs ist ja diskutabel (siehe ersten Post, die Unterschiede in der GPU-Architektur zeigen sich da bereits auf), aber wenn man noch die ganzen anderen Einheiten betrachtet wird klar, dass die technisch eigentlich nichts aussagen, weil man ja im Prinzip auch eine GPU mit supertoller FLOP-Leistung bauen kann, die aber sonst qualitativ oder quantitativ Einheiten aus der Steinzeit besitzt.

[Dieses eigentlich kann man dann auch wieder dadurch einschränken, in dem man sagt, die IHVs werden schon keine GPUs entwickeln, die dermaßen unausgeglichen designet sind (damit kann man ja nichts am Markt machen). Das stimmt natürlich, und deswegen kann man die FLOP-Leistung auch als sehr grobe Performance-Einschätzung gebrauchen. Jedenfalls gilt das, solange die GPUs mit dem Ziel als Grafikprozessor zu arbeiten, entwickelt wurde.]

Anhand der technischen Daten die konkrete Leistung herauszulesen, ist daher wirklich nicht möglich. Die IHVs haben dafür große Simulatoren, die ständig mit den neusten Daten gefüttert werden, und in denen die Entwicklung ziemlich lange abläuft. Aber auch da bekommen die nur angenäherte Leistungswerte.

Ist es eigentlich noch nicht möglich, zwei GPUs auf ein DIE zu packen? Gibt es da noch grössere Probleme, im Gegensatz zu den CPUs?

Meintest du zwei Dice als eine GPU zu verpacken? Sozusagen wie der aktuelle Core 2 Quad aussieht?
Der Ansatz ist sicher vielversprechend, man muss halt schauen wie man die Interkommunikation zwischen den Dice hinbekommt. Die Bandbreite zwischen den Einheiten muss unglaublich hoch. Sieht man ja an der Speicherbandbreite. Übrigens ist auch der Speicher einer der Punkte, weswegen man da auch grundsätzlich für entwickelte Dice sowieso eine passende Software im Hintergrund für braucht: Soll das ganze wie eine GPU wirken, müssen beide Dice auf den gemeinsamen Speicher sowie auf die Ergebnisse des anderen Dice Zugriff haben, womit wohl mindestens die doppelte Speicherbandbreite benötigt wird, da geht man bei aktuellen High-End-Systemen schon über 300 GB/s (was sicher für die anderen Aufgaben noch zu wenig wäre). Auf einer Platine als klassische X2-Lösung fast nicht machbar.

Zwei GPUs in ein Die zu verpacken, also sozusagen ein Die mit allem doppelt was eine aktuelle GPU hat, ist hingegen konstruktiv längst usos. Schau dir z. B. mal G86 (z. B. auf der 8500 GT) und G84 (z. B. auf der 8600 GT) an, hier man das fast vollständig umgesetzt. Ist dank der Parallelität von GPUs im Gegensatz zu CPUs ziemlich "einfach" und führt auch nicht zu Software-Schwierigkeiten (im Gegensatz zu X2-Lösungen).
 
Die RV770 Update ATi Gerüchte halten sich:
AMD RV775 Ready to Give Nvidia a Punch

http://en.expreview.com/2008/12/12/amd-rv775-ready-to-give-nvidia-a-punch.html

Aber was mir sauer aufstößt ist das hier:
Couple of days ago we got an email from a mysterious friend from US who would like to leak something new just because he likes our style. We need to keep his name condential, but we’d love to share all the information we’ve got.

Das erinnert doch stark an den Fall als ein Schwede nen gefälschten Screenshot an Fuadzilla schickte, und die beste News drauß wurde ...

Ausserdem sind die Daten sehr komisch .. 840 Shader, mehr in der aktuellen 3DC News:
http://www.3dcenter.org/

ciao

Alex
 
Zurück
Oben Unten