derzeit schnellste Grafikkarte 08/ 09 wohin gehts?

also ich verstehe ja deine Antworten bedingt, nicht jeder muss alles so sehen, wie der andere, das ist ja das schöne an einen fachlichen Austausch in einem guten Forum

Fett habe ich nur geschrieben, weil es micro oder mikro- Ruckler definitiv nach dem Wort sind, da warst Du nicht gemeint.

gegen das Wort "Irrsinn" wehre ich mich schon, da solltest Du in Deiner Wortwahl schon etwas besser auswählen! (sonst wird es unbegründet persönlich, was nicht in Deinem Sinne sein wird !!)

Über die anderen Details kann man verschiedener Meinung sein, die Kunst ist dabei, nur dies freundlich und ggf. "diplomatisch" zu diskutieren und ggf. auch mal eine andere Sicht zuzulassen...auf Einzelheiten gehe ich i.Mom. besser nicht ein...

Natürlich gibt es Wasserkühlungen die günstiger zu realisieren sind, das ist doch nicht so schwer, die Kupferleitungen meiner NB etc erinnern ja schon sehr daran, machbar wäre das ohne erheblichen Aufwand recht kostengünstig, wenn auch nicht in hochproffessionellem Stil - aber in "Kleinformat" ...
jedenfalls darüber nachzudenken und heute schon mal an "morgen" zu denken hat mit "Irrsin" weniger zu tun, als mit Logik...

also Bitte! ja- ? insgesamt schätze ich ja ansonsten Deine Beiträge, Linus

dann ... Gute Nacht wünsche ich, erstmal
 
Zuletzt bearbeitet:
Die Entwicklung ansich zu "Mehrkern-Grafikkarten" prangere ich gar nicht an (auch wenn ich diese Entwicklung mit gemischten Gefühle sehe, gerade wegen der bestehenden Problematik), du machst es dir nur um Welten zu einfach (und das meine ich mit dem Irrsinn).
Natürlich gibt es Wasserkühlungen die günstiger zu realisieren sind, das ist doch nicht so schwer, die Kupferleitungen meiner NB etc erinnern ja schon sehr daran, machbar wäre das ohne erheblichen Aufwand recht kostengünstig, wenn auch nicht in hochproffessionellem Stil - aber in "Kleinformat" ...
Schau dir mal aktuelle Wasserkühler an, in welchem Preissegment diese herumschwirren. 80/90€ müsste ein Endverbraucher schon anlegen für einen X2 Kühler. Überlege mal in welche Richtung sich dann ein Kühler für 4 Chips + Speicher + Stromversorgung entwickeln würde ;)
Desweiteren solltest du auch bedenken, dass die Grafikkarte wohl auch autark betrieben werden sollte (und dann wird es richtig teuer mit WaKü). Wenn nicht, schmälerst du deine winzige Zielgruppe weitergehend.
 
in der c't 25 wird gerade eine "Vielfach-Kern-Karte" vorgestellt ;)
 
Ist zwar nicht 2008/09 sondern 2012, aber nachdems direkt von den AMD/ATi Fellows kommt:
The team that I met with in Santa Clara was talking about designs that would be out in 2012, we’re talking 4 TFLOPS of performance here, 4x the speed of RV770.
Also rechnen wir 2010 mal Pi*Daumen mit 2 TFLOPs :)

Ansonsten nicht viel mehr Info zur RV8xx, ausser das er "toll" sein wird:
I asked specifically what would made the RV8xx series special all he could tell me was that ATI does have some things that are very interesting, very novel and very useful for the next product. I wanted more but given what Carrell and the rest of ATI had just given me, I wasn’t about to get greedy.

Der Rest das Artikels (RV770 Geschichte) ist aber trotzdem sehr interessant:

http://www.anandtech.com/video/showdoc.aspx?i=3469

ciao

Alex
 
Zuletzt bearbeitet:
hi Alex :)
ja,
klar, stimmt schon!

die 4870 einzeln soll ja 1,2 TFlops machen.
die 4870x2 dann 2x 1,2 TFlops theoretisch, rechnerisch...
zwei davon wären dann entweder 4x 1,2 TFlops, oder 4,8 natürlich nur rechnerisch ;) --> einfache Genauigkeit / doppelte= <1/5 davon, grob
und theoretisch (es soll ja jeweils nur immer um bis zu 80% mehr sein i.d.Praxis bei mehreren Karten
das wären dann um 3,5-4TFlops gesamt (rechnerisch)

klar, kann man das nicht einfach zusammenzählen, doch wiederum "teilen" sich die 2 oder 4 Karten ja die Aufgabe ein Bild zu berechnen, wenn sie das (leider nicht immer) tun, dann eben um Faktor 80% schneller als eine einzelne Karte, somit könnte man schon theoretisch auf um 4TFlops kommen...

aber klar, das sind nur Zahlen, doch mit diesen Zahlen rechnen etwa AliceNext auch nur...
( " theoretische" Rechenleistung )

interessant wäre, was ATI etwa dazu für Zahlen hat, außer, das eine einzelne 4870 eben auf 1,2TFlops kommt, eine 3870x2 auf um 1,1 TFlops und eine 4850 auf rund 1 Tflps....(die 3870x2 geben se ja definitiv an mit 1,1TFlops, wenn ichs noch recht in Erinnerung habe...)
auch Wikipedia gibt diese theor. Rechenleistung an...

Es bleibt spannend....ja, unbedingt :)

ciaoi
 
Zuletzt bearbeitet:
@ Opteron: Danke für die verlinkung dises sehr guten Artikels. Schon etwas ungewöhnlich für AMD, da wird sich doch in der PR Abteilung nich doch was ändern? Uns solls recht sein, denn etwas "behinde the scenes" im Prozessorbereich ist schon was feines 8)

Wenn man bedenk was ATI derzeit mit dem MCM System plant so wird die vier Kern GPU kommen, soviel ist klar. Wie man im Artikel schön lesen kann verfolgte ATI eine small Die strategy mit der R700. Mit dem R800 könnte das Designe nochmals wachsen, bei der nächsten echten Architektur könnte man dann wieder den Die sehr klein halten, womöglich sogar kleiner als den RV670. Dafür integriert man MCM und setzt dann je nach preissegment Chips ein.
Naja soviel was ATI machen könnte, aber was ist mit Nvidia? Technologisch hinkt sie ja hinterher. Hat jemand ne ahnung was Nvidia für Innovationen bereit hält?
 
Zuletzt bearbeitet:
In der neuen c't (s28 ) steht das nVidia u.a. mit Profikarten wie QuadroFX 5800 mit 240 Schaddereinheiten mit 300Pix/s liefern will.
auch ne Fx 370 ist im Gespräch und ein Chipsatz "QuadroFX 470 (passiv gekühlt)- der 470 soll mit nur 30W auskommen...
Eine "Fire-Stream" 9270 soll dann noch von AMD kommen, mit 800 Schadder-Kernen...
sie ähnelt aber lt c't der 4870 .... und übertrifft diese nicht, wenn ich das recht gelesen habe...8)
Nvidia's 280 x2 war ja schon im Gespräch, was mit der ist weis ich leider nicht, aber könnt mich noch mal umschaun....
nein, nur fakes davon....ich erspar den Link lieber, auf die schnelle nichts neues, ...nur das die zu teuer, zu heis und zu groß wäre...
(also wenn ich alles mal zusammen nehme, denk ich mit ner 4870x2 oder 4850x2 hat man schon ganz schön Power für die nächste Zeit und das mit Mainstreamkarten zum <1/3 Preis der Profi-karten, die natürlich im Professionellen Bereich ihre Daseisberechtigung haben, klar)
 
Zuletzt bearbeitet:
Hat jemand ne ahnung was Nvidia für Innovationen bereit hält?
Das letzte was vom nVidia Chef zu hören war, waren Fäkalausbrüche in Richtung Intel und AMD.

zu Intel: Larrabee ist Blödsinn
zu AMD: Wir bauen immer den schnellsten Chip, soll heißen, dass nV laut Chef nicht ATis "Small is beautiful" Ansatz kopieren wolle.

Das war aber schon im Oktober ... gut möglich, dass er sich nach den roten Zahlen auf besseres besinnt. Für die nächste Generation 2009 ist das so oder so aber schon zu spät, die sind ja schon längst in Entwicklung, wie man am Interview sieht.

@S.I.:
Die Firestream & Quadrokarten haben den gleichen Chip wie die normalen Gamerkarten, nur die Treiber sind unterschiedlich, teilweise gibts auch Versionen mit mehr VRAM (2 GB). Gibt auch immer wieder Hackertreiber, mit der man dann die Treiber auch auf normalen Karten einsetzen kann, aber solange man kein CAD etc. macht, hat man 0,0 davon.

ciao

Alex
 
Zuletzt bearbeitet:
Das letzte was vom nVidia Chef zu hören war, waren Fäkalausbrüche in Richtung Intel und AMD.

zu Intel: Larrabee ist Blödsinn
zu AMD: Wir bauen immer den schnellsten Chip, soll heißen, dass nV laut Chef nicht ATis "Small is beautiful" Ansatz kopieren wolle.

Das war aber schon im Oktober ... gut möglich, dass er sich nach den roten Zahlen auf besseres besinnt. Für die nächste Generation 2009 ist das so oder so aber schon zu spät, die sind ja schon längst in Entwicklung, wie man am Interview sieht.

Vielleich bauen se dann demnächst so große GPUs das sie gleich mal eine 1024bit Speicherbandbreite ranflanschen können, das würd ja die Die nich viel größer machen und wäre "innovativ". Oder sie steigen in die Küchenelektronik ein als Hersteller für Folding@Home Herdplatten....
 
Zuletzt bearbeitet:
S.I. schrieb:
Nvidia's 280 x2 war ja schon im Gespräch, was mit der ist weis ich leider nicht, aber könnt mich noch mal umschaun....
Angeblich soll ein doppelter G200 mit kleineren Taktraten als die der GTX260, aber ansonsten gleich beschnittenen Kern als GTX 295 kommen.
S.I. schrieb:
in der c't 25 wird gerade eine "Vielfach-Kern-Karte" vorgestellt
Da war der rv770 aber bestimmt nicht! die Basis ;) Gab es da auch mehrere Dies?
 
Quadro FX370 16 Rechenkerne; 470 16 Rechen Kerne....leider bekom ich nur chinesische Seiten, die nicht oder übelst übersetzt werden, im Orginal sieht das recht lustig aus für mich/uns (vermutlich für die Chinesen auch, wenn se unsere Seiten sehen....)
aber wie auch immer..........das interesanteste ist, das die nicht an die oben erwähnte und aufgelistete Rechenleistung der 4870 ran kommen! [aber ich versteh ehrlich gesagt, den Bericht sowieso nicht ganz...irgendwie...naja]
also ist die 4870 die Spitze derzeit insbesondere die x2 mit um 800 MHz GPU-Takt und mind.2x1GB GDDR5 /bzw. 2x x2
doch so eine Karte/n braucht wirklich durchdachtes Kühlsystem, wenn die länger laufen soll- Denke mit Standardlüftern etc. in nem Middi oder gar Minitower halten die bestenfalls für die Garantiezeit, sonst, insbesondere wenn noch wer meint die OC zu müssen....
 
Zuletzt bearbeitet:
Quadro FX370 16 Rechenkerne; 470 16 Rechen Kerne....leider bekom ich nur chinesische Seiten, die nicht oder übelst übersetzt werden, im Orginal sieht das recht lustig aus für mich/uns (vermutlich für die Chinesen auch, wenn se unsere Seiten sehen....)
aber wie auch immer..........das interesanteste ist, das die nicht an die oben erwähnte und aufgelistete Rechenleistung der 4870 ran kommen! [aber ich versteh ehrlich gesagt, den Bericht sowieso nicht ganz...irgendwie...naja]
also ist die 4870 die Spitze derzeit insbesondere die x2 mit um 800 MHz GPU-Takt und mind.2x1GB GDDR5 /bzw. 2x x2
doch so eine Karte/n braucht wirklich durchdachtes Kühlsystem, wenn die länger laufen soll

Ähm wenn man mal bei Nvidia schaut ist auch klar warum Quadro FX370 und Quadro FX470 nicht an eine HD4870 ran kommen. Die haben nämlich nur 8/16 Streamprozessoren, nicht GPUs.
Das ist die FX 370:
fx370.jpg


und das "die" FX 470:
chipshot-boardshots.jpg


Zum einen ist wie man sehen kann das FX470 keine Grafikkarte sondern ein Worksation Motherboard mit IGP und zum andern sind beide Produkte aus dem Einsteigerbereicht der Quadro Serie. Wenn du nach Konkurenz suchen wills schau dich mal nach der Quadro CX um die wurde nämlich erst letztens vorgestellt.
Warum du hier von chinesischen Seiten redest die du nicht linke willst versteh ich auch nicht. Ich habe zu den Karten bei Nvidia genug gefunden, dazu duzende Links auf Deutsch. Ich fände es schön wenn du etwas genauer recherschieren würdest bevor du gleich wieder alles von AMD/ATI grenzenlos in den Himmel hebst, damit diskreditierst du nicht nur dich selbst sondern auch andere AMD/ATI Befürworter.
 
@ Bayushi:
ich habe nur wiedergegeben, was c't schrieb, das ich das Ganze nicht recht verstanden habe gebe ich zu und hatte es oben angedeutet.
Das ich nicht ganz auf dem Laufenden bin in allen Sachen habe ich schon erwähnt und scheue es nicht nocheinmal zu tun!
Bin gerade dabei mich wieder fit zu machen, aber auf allen Bereichen geht es halt nicht (immer gleich)
nun kann man mich deshalb beschimpfen oder diskreditieren, wenn man das gerne macht...und dies für sinnvoll hält...
Auf die Frage vorher habe ich nur nach meinem Wissen geantwortet -weil ich g e f r a g t wurde....
Denke es ist möglich sich hier auch mal täuschen zu dürfen oder nicht alles zu wissen.
es gibt unsinnigere Posts als diesen hier!
aber auch freundlichen Umgang damit, meistens.............
wenn du auf diesem Gebiet fitter bist als ich (was keine Kunst wäre) dann teile uns dies doch mit, statt mich so anzureden!
in den Himmel habe ich niemanden und nichts geredet, wieso auch - das bisherige Fazit war, das die 4870x2 wohl die derzeit schnellste GK ist für den Konsumer
- sollte darüber hinaus es irgend etwas zwischen uns geben, was beredet werden sollte, so kannst Du mich ja PM anmailen o.ä.

bis dahin bitte ich doch etwas die Form zu wahren und um etwas mehr Höflichkeit, die ja wohl durchaus angemessen ist !
sollte ich bis dato deine Aussagen misverstanden haben, so bitte ich dies durch eine freundliche Geste zu untermauern!
Was mich betrifft, so schätze ich Deine Aussagen, wo sie fachlich fundiert und diplomatisch geäußert wurden!

so, bis hier fürs erste...


einen schönen Abend noch!
 
Zuletzt bearbeitet:
@ SI: Um sollche Situationen zu vermeiden gibt es eine einfache Lösung:
lesendenkenposten.jpg


Nich böser verstehen :). Aber ein kurzes innehalten nach dem Lesen eine Post kann helfen das die eigenen Antwort/Frage klarer formuliert ist oder sich gar erübrigt. Oder auch hinterfragen und selber im Netz recherschieren kann einige Fragen klären und erweitert das Wissen. Wenn ich alles schrieben würde was mir spontan einfällt, na dann gute Nacht 8)
 
na dann sind wir uns ja erstmal einig, denke ich....

gute nacht
 
Um mal meinen Senf dazu zugeben, ich denke auch dass es in näherer Zukunft immer noch wichtiger sein wird die Single-GPUs zu verstärken, anstatt auf Multi-GPUs zu setzen. Viele Spiele geben schon mit Doppel-GPUs keinen zufriedenstellenden Leistungszuwachs- aber bei Quad-Systemen ist die Skalierung einfach nur miserabel. Man ist auch immer auf starke Optimierungen angewiesen, die aber in den meisten Spielen fehlen.

Natuerlich ist es so, dass man mit einer X2er Karte deutlich höhere FPS-Werte bekommt, aber was hilft das schon, wenn sich z.B 50- wie 30FPS anfuehlen? Da wäre eine herkömmliche Karte mit 35FPS schon wesentlich sinnvoller. Was ich damit sagen will, also ich wuerde eine 280GTX einer HD4870X2 auf jeden Fall vorziehen, da die Frames zwar weniger, aber hochwertiger sind. Und den Kauf einer HD4850X2 kann ich schon mal gar nicht nachvollziehen. Schliezslich ist die Single-GPU nicht gerade die stärkste- deswegen wäre man in schlecht optimierten Spielen mit einer HD4870 deutlich besser drann.

Also wuerde ich weiterhin gerne sehen- dass vor allem die Architekturen verbessert werden, also mehr bzw. effektivere Shadereinheiten, mehr Grafikspeicher und besserer Zugriff auf den Hauptspeicher. NVidia muesste in der nächsten Zeit nicht mal besondere Architekturveränderungen vornehmen: Die 260/280er GPUs lassen sich sehr gut uebertakten. Eine 260GTX lässt sich z.B locker auf das Leistungsniveau einer 280GTX bringen. Wenn NVidia den GT200 auf 55nm shrinkt, können die sicher noch mehr als 20% an Leistung mit Hilfe von höheren Taktraten herausholen. Ist zwar nicht viel, aber sicher eine geeignete Notlösung. Auf den GDDR5-Speicher können die ja Dank des gigantischen Speicherinterface erstmal verzichten. Die Verwendung wuerde natuerlich den Zugriff auf den Arbeitsspeicher verdoppeln!:D

Ansonsten hätte ich noch eine Frage zu den Shader-ALUs: Die 280GTX hat ja 240, während die HD4870 irgendwie 800 verbaut hat. Aber das kann doch nicht das gleiche sein, sonst muesste die HD4870 ja deutlich schneller sein.

Allerdings habe ich bei Computerbase folgende Beschreibung gesehen:

280GTX: 240 Shadereinheiten (1D)
HD4870 160 Shadereinheiten (5D)

Soll das also heissen, das die 160 Shadereinheiten der HD 4870 einen theoretischen Effekt von 800 haben?! Oder ist damit etwas anderes gemeint? Und gibt es auch etwas zwischen "1D" und "5D", bzw. warum verwendet NVidia nichts davon?*noahnung*

MfG,
sockel tw2+

PS: Sorry fuer meine schlampige Sprache, aber ich kann kaum noch die Augen offen halten.;)
 
sockel tw2+ schrieb:
Um mal meinen Senf dazu zugeben, ich denke auch dass es in näherer Zukunft immer noch wichtiger sein wird die Single-GPUs zu verstärken, anstatt auf Multi-GPUs zu setzen.
In naher Zukunft gebe ich dir absolut recht. Nur wer weiß welche Tricks sich die Grafikkartenentwickler (Hersteller sind sie ja nicht mehr ;)) als nächstes einfallen lassen? Warum sollte es nicht möglich sein, das sich irgendwann (in ~2Jahren) mal mehrere Grafikkarten wie eine verhalten, oder Mikroruckler aus der Welt geschafft werden?
Wenn NVidia den GT200 auf 55nm shrinkt, können die sicher noch mehr als 20% an Leistung mit Hilfe von höheren Taktraten herausholen
Bis jetzt hören sich die Gerüchte jedoch anders an. Es scheint vielmehr den GT200 einfach günstiger in der Herstellung werden zu lassen (und damit konkurrenzfähiger zum rv770). Die einzige Sache, die evtl auf eine Besserung hindeuten könnte, wäre das Gerücht um die Doppelkarte mit einer niedrig getakteten GTX260, wohingegen der Takt natürlich wiederum einschränkend ist.. Bis jetzt ist das jedoch alles nur Gerücht um es nochmal deutlich herauszustellen...
Ansonsten hätte ich noch eine Frage zu den Shader-ALUs: Die 280GTX hat ja 240, während die HD4870 irgendwie 800 verbaut hat. Aber das kann doch nicht das gleiche sein, sonst muesste die HD4870 ja deutlich schneller sein.
Stimmt, das ist auch nicht das Gleiche. Der nV Chip ist nunmal anders aufgebaut und arbeitet also auch anders (u.a. sind deren Schadereinheiten weit höher getaktet). Man kann es sich vereinfacht (so stelle ich mir das zumindest vor ;D) folgendermaßen vorstellen:
Die 280GTX arbeitet sequentiell und erreicht dadruch eine sehr gute Auslastung der Einheiten, wohingegen beim rv770 versucht wird, möglichst viel parallel zu bearbeiten, was natürlich nicht immer perfekt möglich ist.
Bayushi schrieb:
Die haben nämlich nur 8/16 Streamprozessoren, nicht GPUs.
Sowas hatte ich mir schon fast gedacht. ;D Weiterführend sollte man evtl erwähnen, das die 370 mit ihren Specs der Gf 8400 oder 9400 sehr ähnlich ist (leider sind die technischen Daten der Desktopkarten auf der nV Seite rar gesäht) womit dann auch die "schlechte" Leistung begründet ist.
 
Morgen,

Also die HD4870 wird in Wikipedia mit volgenden Daten angegeben:
RV770 | 16 RoPs |10 ShaderCluster | 800 SPs | 40 TMUs | 750 MhzTakt | 1800 Takt GDR | 256Bit Breite
weiteres ist dort zu erfahren:
http://de.wikipedia.org/wiki/ATI-Radeon-HD-4000-Serie
dort:
http://ati.amd.com/products/radeonhd4800/index.html
The new TeraScale graphics engine combines the power of up to 1.2 teraFLOPS, up to 800 stream processors and next generation GDDR5 memory to propel you deep into your gameplay with seamless frame rates and high resolutions.
wird wie in Wikipedia die Leistung auf 1,2TFlops angegeben (bei 750MHz !)
 
Zuletzt bearbeitet:
Ja und? Stimmt doch. 800 Shadereinheiten, von denen aber jeweils 5 immer eng zusammengefaßt sind, so daß dieser 5er-Block entweder die gleiche Rechnung fünffach ausführen kann oder eine einzelne Rechnung nur eine Einheit nutzt, aber alle 5 blockiert. Im ersten Fall ist das optimal, im zweiten Fall sehr schlecht, die Realität liegt irgendwo dazwischen.
 
Allerdings habe ich bei Computerbase folgende Beschreibung gesehen:

280GTX: 240 Shadereinheiten (1D)
HD4870 160 Shadereinheiten (5D)

Soll das also heissen, das die 160 Shadereinheiten der HD 4870 einen theoretischen Effekt von 800 haben?! Oder ist damit etwas anderes gemeint? Und gibt es auch etwas zwischen "1D" und "5D", bzw. warum verwendet NVidia nichts davon?*noahnung*
Hier mal ne "kleine" Übersicht:
kaigai_12.jpg


Wenn Dus noch genauer haben willst, musst Du Artikel wälzen, cb hat da Brauchbares:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/3/

oder irgendne andre Seite, z.B. techreport:
ATi:
http://techreport.com/articles.x/14990/4
nV:
http://techreport.com/articles.x/14934/5

ciao

Alex
 
Vielen Dank fuer eure Bilder und Links, damit kann ich wirklich was anfangen!;D
Jo, dann habe ich erstmal 'ne Weile zu lesen...:)

In naher Zukunft gebe ich dir absolut recht. Nur wer weiß welche Tricks sich die Grafikkartenentwickler (Hersteller sind sie ja nicht mehr ;)) als nächstes einfallen lassen? Warum sollte es nicht möglich sein, das sich irgendwann (in ~2Jahren) mal mehrere Grafikkarten wie eine verhalten, oder Mikroruckler aus der Welt geschafft werden?

Anscheinend ist es sehr schwierig das Problem aus der Welt zu schaffen- allerdings könnte ich mir vorstellen, dass die Firmen fieberhaft an einer Lösung arbeiten (oder wurde eine Lösung erstmal fuer unmöglich erklärt?*noahnung*). Wenn einer der Grafikkartenhersteller es schaffen wuerde seine Multi-GPU-Frames auf die selbe Qualität der Single-GPUs zu bringen, wuerde er sich wohl ohne Zweifel die Performancekrone sichern. Und vermutlich wuerde es dann auch bald so aussehen wie bei den Prozessorherstellern, also mit Dual, Quad- und später vielleicht sogar Okta-GPUs. Hach, auf sowas wuerde ich dann Crysis testen wollen..."träum"

Aber wie gesagt, hoher Stromverbrauch und schlechte Skalierung werden wohl immer ein Bestandteil sein. Ich find's schade, dass es nicht so wie bei den Prozessorherstellern läuft (bezueglich des Stromverbrauchs). Allerdings darf man ja auch nicht vergessen, wie sich die Leistung eines Chips innerhalb von einem Jahr erhöht (viel schneller als bei den Prozessorherstellern).

Momentan bin ich immer noch ein Befuerworter von starken Single-GPUs.;)

MfG,
sockel tw2+
 
Mal ein Paar Worte zu den Shadern:

Die R600/R700-Generation-GPUs sind im Bereich der Shader wie folgt aufgebaut:
Eine Shadereinheit besteht auf 5 Streamprozessoren. Diese 5 SPs können parallel (das ist wichtig!) jeweils eine MAD-Operationen tätigen (MAD steht für Multiplikations und Additions-Operation). Wenn Computerbase da also schreibt, der RV770 hat 160 Shadereinheiten (5D), dann meinen sie dass eine Shadereinheit 5 dieser MAD-Operationen parallel ausführen kann.
Warum ist das mit den parallel wichtig: Nun, wenn die eine Berechnung in Abhängigkeit einer anderen steht, dann können diese logischerweise nicht gleichzeitig ausgeführt werden. An der Stelle muss die Treiberarbeit greifen, die möglichst unabhängige Operationen in die Shadereinheiten packt, damit die ausgelastet werden.
Nach meinen letzten Informationen liegt die durchschnittliche Auslastung in aktuellen Spielen so bei 40-60%.

So, eine Shadereinheit kann also im Maximum 5 MADD-Operationen (MADD steht für Multiplikation und Addition, das sind also zwei), also 5 * 2 = 10 Operationen durchführen. Der RV770 hat 160, das sind 160 * 10 = 1600 Operationen. Das mal den Takt (750 MHz bei HD 4870) ergibt 1.200.000 MegaFLOPs, das sind die 1,2 TeraFLOPs. Wie gesagt, das ist das theoretische Maximum.

[Wenn man eine weitere Kleinigkeit betracht, verbessert sich übrigens diese Wertigkeit noch: Eine der 5 SPs in einer Shadereinheit ist etwas besser als die anderen 4, dieser kann alternativ zur MAD-Operationen auch eine transzendente Funktionen (Exponential-, Logarithmus-, Winkelfunktion) berechnen. Übrigens ein großer Vorteil der AMD-Architektur.]


Bei Nvidia siehts wie folgt aus: Dort gibt es nur einfach Shadereinheiten (1D = nur ein SP läuft parallel, also genauer gesagt keiner), deswegen gilt hier (und auch nur hier!) Shadereinheit = Streamprozessor. Dieser kann wieder eine MADD-Einheit berechnen, und manchmal zusätzlich auch noch eine weitere Multiplikation ("MUL"). [Das kann man erst ab der GT200-Serie generell sagen, zu Zeiten von G8x/G9x ging das wohl auch manchmal, aber wann genau konnte Nvidia da nicht sagen - oft war diese MUL-Einheit nicht verfügbar - daher gibts hier manchmal Angaben, die mit dieser MUL-Einheit rechenn und manchmal ohne die]. Das macht also pro Shadereinheit einen Streamprozessor mal 3 Operationen (MADD + MUL) = 3. Das mal 240 Shadereinheiten im GT200 ergibt hier 720 Operationen, das mal den Takt (in der GTX 280 sinds 1300 MHz) ergibt die 936.000 MegaFLOPs, also 936 GFLOPs). Das ist wieder ein theoretisches Maximum, was wohl in der Realität nicht erreich wird (genaue Auslastungszahlen hier habe ich leider nicht).


Es dürfte aber für Nvidia auf Grund der nicht so stark vorhandenen "Parallelität" einfacher sein, die Shadereinheiten besser auszulasten.
 
@ tw2+: Derzeit sind wirklich SLI und CF das Problem. Diese Techniken skalieren schlecht und sind von Software zu Software untschiedlich gut ausgeprägt. Man muss mMn bei Multi GPU weg von SLI/CF und zwei Sachen manchen:
- physische mehr Kern GPUs bauen, wie es z.B. MCM vorsieht.
- die Software multi GPU fähig machen unabhänig vom Hersteller und flexieble Berechnungen möglich machen.

Doch das ganze geht Hand in Hand. Erst wenn man weg ist von SLI/CF Bridgechips oder mehreren Karten und zu physischen multicore GPUs übergeht wird man einenen gemeinsamen Speicherzugriff von mehrern Kernen auf den selben Speicher realiesieren können. Und erst dann macht es Sinn die Leistungsverteilung auch flexiebler zu gestallten und vieleicht auch die Berechungen in einen Frame nicht nur nach Pixelflächen oder mit abwechselnten Frames zu gestallten sonderen eine z.B. auf eine GPU Texturen Berechnungen und auf der anderen AA/AF Berechnungen machen lassen. Zudem gäbe es dann bei der skalierung der Systeme theoretische 100% Leistungszuwachs wie bei multi CPU und es hängt nur noch von einer guten Aufgabenverteilung ab. Damit hat man zwar immer noch leichte Schwankungen von Software zu Software, je nachdem wie gut sie die Leistung verteilen, aber der Druck auf die Entwickler wäre wohl groß genug das man multicore GPUs entsprechen unterstützt. Siehe CPU Entwicklung, kein aktuelles Spiel mit moderner Technik kann es sich leisten single threaded zu sein.
 
@laser114:

Danke fuer die Erklärungen, jetzt weiss ich endlich was FLOPs sind- und wie man sie ausrechnet.:)
Jetzt frage ich mich nur noch, welchen Einfluss der individuelle GPU-Takt (bei NVidia) auf die Leistung der Grafikkarte hat. Denn im Gegensatz zum RV770 ist der ja beim GT200 nicht synchron zum Shadertakt- inwiefern tut er also die Leistung der Shadereinheiten beeinflussen? (BSP: GPU= 602Mhz, Shader= 1296Mhz. Was passiert, wenn der GPU-Takt auf z.B 648 Mhz angehoben wird- der Shadertakt aber unverstellt bleibt? Hat das irgendwelche Auswirkungen auf die berechneten Operationen?)

@Bayushi:

Ist es eigentlich noch nicht möglich, zwei GPUs auf ein DIE zu packen? Gibt es da noch grössere Probleme, im Gegensatz zu den CPUs?

MfG,
sockel tw2+
 
@Bayushi:
Ist es eigentlich noch nicht möglich, zwei GPUs auf ein DIE zu packen? Gibt es da noch grössere Probleme, im Gegensatz zu den CPUs?

Ist ne gute Frage. Wenn man MCM anschaut wird es nichts anders werden als das was man mit den Core2 Quads macht: "zusammenkleben". Warum AMD/ATI das nicht schon mit dem R800 macht sonderen wohl erst mit dem R900 wird sich zeigen, meine Vermuten das es etwas mit dem verschoben Fusionprodukten zu tun hat lässt sich ja leider nicht bestätigen.
 
Zurück
Oben Unten