News Unbekannte Grafikkarte schlägt Nvidias Titan knapp

Opteron

Redaktion
☆☆☆☆☆☆
Mitglied seit
13.08.2002
Beiträge
23.645
Renomée
2.254
  • SIMAP Race
  • Spinhenge ESL
  • BOINC Pentathlon 2012
Auf einer koreanischen Seite, von der laut Wasserzeichen in den Bildern auch die gestrigen Hawaii-Fotos stammen, sind nun auch Benchmarkergebnisse aufgetaucht, die eine “unbekannte” Grafikkarte mit 1020 MHz Kern- und 1250 MHz Speichertakt (5,0 GT/s) mit einer HD7970 sowie den drei Nvidia-Karten Titan, GTX780 und GTX770 vergleichen.
(…)

» Artikel lesen
 
Zuletzt bearbeitet:
Wo liegt der Sinn darin bei einer neuen Karte auf einen derart Niedrigen Speichertakt zu setzen? Die 7790 oder GeForce GTX 770 Takten ihren Speicher zum Beispiel deutlich höher. Ist das 512 Bit Interface hier besonders Empfindlich gegenüber hohen Taktraten oder will man nur den Partnerfirmen und Endkunden ordentlich OC Spielraum geben. Alternativ könnte man auch Spekulieren das die gezeigte Karte nur die zweit schnellste Version ist. Warten wir mal die kommende Woche ab ;)
 
Wenn das Interface so breit ist, braucht man keinen so hohen Takt, das spart Strom ;)
 
Wenn das Interface so breit ist, braucht man keinen so hohen Takt, das spart Strom ;)

Jupp siehe dazu auch den entsprechenden Abschnitt in der gestrigen Meldung:
In unserem Partnerforum 3DCenter fachsimpeln die Kollegen bereits. Eine der interessanten Technikinfos dürfte dabei sein, dass ein so breites Speicherinterface das Verwenden von etwas langsameren aber dafür stromsparenden GDDR5-Speicherbausteinen ermöglicht, wodurch sich AMD etwas Luft im ansonsten ausgereizten TDP-Budget verschafft.
Hawaii-Grafikkartenbilder aufgetaucht: 4 GB VRAM und 512 Bit GDDR5? | Planet 3DNow!.

Außerdem sparts auch noch Chipfläche. Die Speicherkontroller benötigen für höhere Taktraten deutlich mehr Fläche. So blöde ist 512bit also eigentlich gar nicht. Gewiss - es gibt Nachteile, aber eben auch Vorteile :)
 
Hi

schöne Zusammenfassung, einzig der Verbrauch verwirrt mich etwas, ich dachte die Titan wäre so sparsam in der Folie ist sie unter last ja ganz schön durstig?

lg
 
schöne Zusammenfassung, einzig der Verbrauch verwirrt mich etwas, ich dachte die Titan wäre so sparsam in der Folie ist sie unter last ja ganz schön durstig?
Also ich würde mich eher wundern, wenn so ein Riesenchip ein Stromsparwunder wäre.

Die Verbrauchsmessungen sind auch immer abhängig vom Benchmark. Im aktuellen Fall haben sie da 3DMark genommen, bei dem die Titan auch auf Platz 1 liegt. Mit anderen Worten: Die Karte wird in dem Fall gut ausgelastet werden, irgendwoher muss die Leistung ja auch kommen.
 
Hi

schöne Zusammenfassung, einzig der Verbrauch verwirrt mich etwas, ich dachte die Titan wäre so sparsam in der Folie ist sie unter last ja ganz schön durstig?

lg

Die Titan verbraucht schon viel Strom, allerdings bringt sie dafür auch überproportinal viel Leistung -> Sparsam ist sie also nicht unbedingt, eher effizient. Wie sehr die Anwendung da einspielt sieht man übrigens, wenn man die Werte der Kollegen mal miteinander vergleicht. CB testet bei Assasins Creed und da ist die Titan deutlich unter der 7970 GHz, bei HWLuxx ist die Titan allerdings mit dem verbrauch oberhalb der 7970 GHz. Meine Vermutung geht aber eher dahin, dass in den meisten Tests AMDs neues Flaggschiff mehr verbraucht als die Titan.
 
Ich freue mich schon auf die kommenden Test. Die R9 290X (muss mich erst noch an die neuen Bezeichnungen gewöhnen ^^) ist nach den koreanischen Test viel leistungsstärker als ich vermutet hätte. Die Leistung stimmt, der Verbrauch auch. Was will man mehr? ^^ Bestimmt wird sich auch der Preis nach kurzer Zeit auf einem AMD typischen Niveau einpegeln. Gut gemacht AMD!!! xD
 
Meine Vermutung geht aber eher dahin, dass in den meisten Tests AMDs neues Flaggschiff mehr verbraucht als die Titan.
Jupp, da kann man mein Argument auch in die Gegenrichtung nehmen: Nachdem die Karte im 3DMark langsamer als die Titan ist, wird sie wohl nicht so 100% ausgelastet sein und deshalb eventuell weniger als normal verbrauchen. Ist ja schon etwas verwunderlich, da sie ja auch 1 GB mehr RAM onboard hat, selbst wenn das low-power Chips sein sollten.
 
Die Stromverbrauchsdiagramme zeigen sowieso offenbar den Verbrauch des Gesamtsystems, was die Werte schon verwässert, und dabei ist auch nicht klar, ob das identische Testsystem genommen wurde oder zwei unterschiedliche Systeme (selbst mit exakt gleicher Konfig gäbe es wegen der Serienstreuung Unterschiede). Also für mehr als eine ganz grobe Abschätzung taugt die Strommessung nicht.

Wobei ja sowieso nicht klar ist, ob das ganze nicht ein Riesen-Fake ist. Scheint aber alles irgendwie zueinander zu passen. Auch kann es sein, daß es Leaks von Engineering-Samples sind mit leicht unterschiedlichen Taktraten. Auf den kürzlich geleakten Fotos ist ja auch ein Testboard drauf, die finale Version für den Markt wird wohl kein hinten verlötetes Kabel mehr haben ;)
 
Hat der Chip eigentlich HSA-Features? Oder muss man immer noch vorher alles ins VRAM kopieren?

Weiss man nicht, ist ja alles erst inoffiziell, für die Details muss man die offiziellen Präsentationen abwarten.

Würde aber auch nicht sooviel Unterschied machen, ob man jetzt was kopieren muss, oder ob die GPU auch was direkt aus dem CPU-RAM lesen kann, die Latenz ist fast die gleiche. Wobei - das Programmiermodell wäre natürlich wieder einfacher.
 
Nicht ganz. Du hättest recht, wenn der Treiber hingehen würde und im Hintergund ohen dezidierte Anweisung des Entwickler den Code in den VRAM kopieren würde. Das kann aber nicht die Lösung sein.
Stellen wir uns mal einen Workload vor, an dem sowohl GPU als auch CPU stark beteiligt sind. Alles würde serialisiert ablaufen, die Ergebnismengen müssten ständig hin- und hergeschoben werden. Genau diesen Zustand haben wir doch aktuell.
Unter HSA hätte VRAM doch eingentlich nur die Funktion eines temporären Speichers. Datenmodell und Code müssten eigentlich im RAM bleiben und über PCIe zugänglich sein. So wie ich es verstanden habe, sollte dies auch möglich sein, nur auf den Cache der CPU hat die GPU keinen Zugriff.
 
Wo liegt der Sinn darin bei einer neuen Karte auf einen derart Niedrigen Speichertakt zu setzen? Die 7790 oder GeForce GTX 770 Takten ihren Speicher zum Beispiel deutlich höher. Ist das 512 Bit Interface hier besonders Empfindlich gegenüber hohen Taktraten oder will man nur den Partnerfirmen und Endkunden ordentlich OC Spielraum geben. Alternativ könnte man auch Spekulieren das die gezeigte Karte nur die zweit schnellste Version ist. Warten wir mal die kommende Woche ab ;)

Je geringere die Taktraten desto weniger die Fläche benötigt man ( 2*256Bit von Pitcairne sind kleiner als die 384Bit von Thaiti, Verdrahtungs und PCB Aufwand steigt aber natürlich ) und eben geringerer Verbrauch. GDDR5 braucht bei 4Gb sicher um die 60 Watt bei 6000 MHz bei 5000MHz gibt es inzwischen aber sogar welchen mit 1,35V statt 1,5V das sind sicher mindestens 20W weniger

---------- Beitrag hinzugefügt um 15:42 ---------- Vorheriger Beitrag um 15:41 ----------

Also ich würde mich eher wundern, wenn so ein Riesenchip ein Stromsparwunder wäre.

Die Verbrauchsmessungen sind auch immer abhängig vom Benchmark. Im aktuellen Fall haben sie da 3DMark genommen, bei dem die Titan auch auf Platz 1 liegt. Mit anderen Worten: Die Karte wird in dem Fall gut ausgelastet werden, irgendwoher muss die Leistung ja auch kommen.

An und für sich sind große Chips immer effizienter da sie breiter sind und dadurch geringere Taktraten nutzen können. Nur treibt man es eben immer auf die Spitze da man um bedingt die Leistungskrone will
 
Außerdem sparts auch noch Chipfläche. Die Speicherkontroller benötigen für höhere Taktraten deutlich mehr Fläche. So blöde ist 512bit also eigentlich gar nicht. Gewiss - es gibt Nachteile, aber eben auch Vorteile :)

Kannst du mal kurz ausführen, warum das so ist? Is ja nur Takt, leuchtet mir nicht sofort ein. Reines Abwärmeproblem -> Mehr Platz, ums besser zu verteilen? Oder ist das bei diesen Taktraten schon ne HF-Sache, für die man Leiterbahnen anders führen sollte, als bei Tante Ernas IGP?
 
Kannst du mal kurz ausführen, warum das so ist? Is ja nur Takt, leuchtet mir nicht sofort ein. Reines Abwärmeproblem -> Mehr Platz, ums besser zu verteilen? Oder ist das bei diesen Taktraten schon ne HF-Sache, für die man Leiterbahnen anders führen sollte, als bei Tante Ernas IGP?
Hat Gipsel erst gemacht, ich bin mal so frei und kopiere seinen Text:
Um hochfrequente Signale sauber off-die bzw. sogar off-package zu bringen, sind entsprechende Treiber nötig (in dem Sinne, daß sie die Signale treiben). Man muß ja praktisch gegen die Kapazitäten und Induktivitäten der Leitungen ankämpfen, die das Signal breitnudeln wollen. Um in kürzerer Zeit einen Signalpegel auf ein bestimmtes Level zu bekommen, sind schlicht höhere Ströme nötig. Das wird immer schwieriger, weswegen diese Schaltungen (die direkt an den Pads des Interfaces sitzen und somit inzwischen deren Größe mitbestimmen) tendentiell mit der Frequenz (und dem Signalpegel und je nach [fehlender] Güte der Datenleitungen) wachsen.

Tahitis 6+GBps-Interface ist offenbar sehr konservativ ausgelegt, sonst wäre das nicht so viel größer geworden. Das geht sicher auch kleiner(sieht man im Prinzip ja bei nV, von Bonaire fehlt ein entsprechender Dieshot, um da was sagen zu können). Das fiel schon damals auf, daß die Pad-Area des Speicherinterfaces vergleichsweise riesig ist.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9927412#post9927412

Flapsig ausgedrückt: Für mehr (Speicher)Speed brauchts auch nen größeren Motor mit mehr Hubraum/Zylinder (den genannten "Treiber" (hat nix mit Softwaretreibern zu tun))
 
gerade nochmal im 3DCenter gesucht

1x 128Bit bei Pitcairne sind 10mm² bei Thaiti aber 20mm²

384Bit SI bei Thaiti ist also 60mm² 512Bit mit Pitcairne wären nur 40mm²
 
Noch einen Nachtrag zu HSA. ATI hatte doch vor Jahren für das LowBudget-Segment eine Technologie Namens Hypermemory Ich denke, diese könnte in diesem Rahmen zu einer Renaissance kommen. Die Performance dürfte für GPGPU auch Dank PCIe 3 ausreichend sein.
 
gerade nochmal im 3DCenter gesucht

1x 128Bit bei Pitcairne sind 10mm² bei Thaiti aber 20mm²

384Bit SI bei Thaiti ist also 60mm² 512Bit mit Pitcairne wären nur 40mm²
Etwas in der Richtung sagt ja auch Dave Baumann:
Per 128b chunk the Pitcairn PHY is about half the size and Tahiti has 3 of them.
Scheint also in der Tat so zu sein, dass man auf ein 512-bit SI setzt. Wäre ein cleverer Schachzug, wenn man dadurch Fläche und eventuell auch Energie sparen kann. Zudem hätte man sicherlich mehr Reserven für die darauf folgende 20 nm Generation. Ein deutlich schnellerer GDDR5 Nachfolger wird dann vermutlich noch nicht verfügbar sein. Eine Überdimensionierung wie seinerzeit beim R600 wird es hoffentlich nicht wieder werden.
 
Zurück
Oben Unten