Erster Test des ATI R600?

NOFX

Grand Admiral Special
Mitglied seit
02.09.2002
Beiträge
4.532
Renomée
287
Standort
Brühl
  • RCN Russia
  • Spinhenge ESL
Die Computerseite Level 505 will eine Grafikkarte mit dem ATI R600-Chip in die Finger gekriegt haben und hat zu dieser bereits Spezifikationen veröffentlicht und umfangreiche Benchmarks durchgeführt.

Der R600 soll vorraussichtlich im Januar vorgestellt werden; erste Karten werden ab März im Handel erwartet. Bei der getesteten Karte soll es sich um eine aus dem Microsoft Vista Driver Certification Program handeln, die einen Weg in die Hände der Tester gefunden haben soll.

In den veröffentlichten Benchmarks liegt der R600 zwischen 8% und 42% vor NVIDIAs aktuellem Topmodell, der GeForce 8800GTX.

Technische Spezifikationen:
<ul><li>64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle
<li>32 TMUs, 16 ROPs
<li>512 bit Memory Controller, full 32 bit per chip connection
<li>GDDR3 at 900 MHz clock speed (January)
<li>GDDR4 at 1.1 GHz clock speed (March, revised edition)
<li>Total bandwidth 115 GB/s on GDDR3
<li>Total bandwidth 140 GB/s on GDDR4
<li>Consumer memory support 1024 MB
<li>DX10 full compatibility with draft DX10.1 vendor-specific cap removal (unified Programming)
<li>32FP [sic] internal processing
<li>Hardware support for GPU clustering (any x^2 [sic] number, not limited to Dual or Quad-GPU)
<li>Hardware DVI-HDCP support (High Definition Copy Protocol)
<li>Hardware Quad-DVI output support (Limited to workstation editions)
<li>230W TDP PCI-SIG compliant
</ul>
Besonders herausstechend sind relativ niedrige Anzahl der Unified Shader (64), die jedoch mehrere Operationen pro Takt ausführen können sollen, und die sehr hohe Speicherbandbreite (bis 140 GB/s). nVidia geht mit dem G80 einen etwas anderen Weg und spendiert diesem 128 Unified Shader aber eine, auf Grund des 384 Bit Buses, mit 86 GB/s relativ kleine Bandbreite.

Auf Anfrage von DailyTech, die eine Verifizierung der Benchmark-Ergebnisse haben wollten, wurde darauf verwiesen, dass Benchmark-Screenshots Schlüsse auf die Herkunft der Karte ziehen ließen, was man jedoch vermeiden wollte. Man sollte deshalb vielleicht die Ergebnisse mit Vorsicht genießen...

<b>Quelle:</b> <a href="http://level505.com/2006/12/30/the-full-ati-r600-test/" target="b">The Full ATI R600 Test</a>
 
In den veröffentlichten Benchmarks liegt der R600 zwischen 8% und 42% nVidias aktuellem Topmodell, der GeForce 8800GTX.

Da fehlt ein wichtiges Wort.
 
wollte auch gerade fragen, ob es den satz auch auf deutsch gibt.
 
Die drei Buchstaben kann sich wohl jeder denken... v o r ... :-[

Danke auch an SPINA, der mir das per PN geschrieben hat und nicht den Kommentar-Thread zuspamt! ;)
 
Zuletzt bearbeitet:
Und wo bekomme ich das AKW für die Stromversorgung her?
Ich meine unter 150 Watt oder so wird das sicher nix gehen.
 
Und dann stellt euch mal Crossfire damit vor :]
Da brauchst du dann wirklich ein Kraftwerk in deinem Garten ;)

mfg
TDF
 
"230W TDP PCI-SIG compliant" muss ja nicht bedeuten, dass der auch die 230 Watt braucht, sondern nur, dass der innerhalb der Specs ist.

Auf der anderen Seite lässt so eine Äußerung nichts gutes vermuten.
Die 28 Watt von ner 7600GS wird der wohl nicht schlagen können ;)
 
Den Chip dann letztendlich so zu takten, daß er etwas schneller als das bereits im Markt befindliche Konkurrenzprodukt ist, ist doch im Normalfall keine überraschende Aktion. Ich finde eigentlich interessanter, ob irgendwelchen neuen Features vorhanden sind, d.h. Antialiasingmodi o.ä., die man dann auch in den kommenden (interessanteren) Mainstreamversionen erwarten darf.
 
Den Chip dann letztendlich so zu takten, daß er etwas schneller als das bereits im Markt befindliche Konkurrenzprodukt ist, ist doch im Normalfall keine überraschende Aktion.

Du würdest damit richtig liegen, wenn R600 und G80 vom aufbau her vergleichbar wären, sind sie aber nicht.
 
<ul><li>64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle
<li>32 TMUs, 16 ROPs

Hey,

cool, 4-Way SIMD :) Ich glaube die aktuelle Generation ist 3-Way SIMD bei ATI R580, oder?! *gg*

Ich glaube 16 3-Way SIMD für die Pixelshader..

Jetzt 64 4-Way SIMD ist schon genial, auch wenn Vertex-, Pixel- und Geometrieshader sich diese teilen werden.. :D

Also beim R580 hieß es dann 48 Shader, dann heißt es beim R600 wohl nun 256 Shader? :D :o ??? Wie geil, hehe

Also stimmen die Specs und das gepaart mit der hohen Bandbreite des Speichers, also GDDR4, dürfte mit GPGPU aka Folding@Home einiges gehen..! *buck* :D *lol*

Also Nvidia hat ja mit dem G80 128 1-Way SIMDs soweit ich das verstanden habe.. ;-)
Und wieviel Shaderops hat dieser pro Cycle? Auch 128 oder?
Dies scheint an der Limitierung von 16 ROPs zu liegen, oder?! ???

Eigentlich müsste hier AMD ATi mit dem R600 doch mehr haben.. o_O


Achso, was ist nochmal der Unterschied zwischen TMUs und ROPs?
Der R580 hat ja schon nur 16 ROPs, hätte gedacht, dass der R600 hier vielleicht auch mal das doppelte also 32 ROPs besitzt..

Naja, vielleicht klappts ja beim Refresh R680 :D :] ;)

MfG
CYA

iNsuRRecTiON

PS: Frohes Neujahr wünsch ich :D
 
Wer soll die Stromrechnung bezahlen?:-/ :-[

Meines erachtens der völlig falsche weg,aber seis drum....


Ja Ja Ja

Ein 300 PS Auto wünschen das nur 5l auf 100km verbraucht.???
Diese Diskussionen immer über den Stromverbrauch bei High - End - Karten.
Leistung muss irgend wo her kommen.
Wenn sich jemand über den Stromverbrauch ärgert kann sich doch ein Mobo mit Onboard Grafik kaufen.
Dann spart man noch mal was.

Gruß
Klatty
 
Das ist schon richtig, aber wenn man den exorbitant steigenden Stromverbrauch der Hardware in den letzten zwei Jahren so anschaut, dass ist verglichen mit den Jahren davor schon Wahnsinn.
Und Strom wird auch nicht gerade billiger.

mfg
TDF
 
Die Karten können unter Last von mir aus soviel Strom ziehen wie die wollen. Da störts mich nicht wirklich...aber im Windows Betrieb sollten die was sparsamer werden.

Mal schauen wie sich so die neue Generation unter Idle mit dem Stromverbrauch schlägt, die letzte von ATI konnte da leider nicht sooo überzeugen.
 
Naja selbst unter vollast ist sind 230 Watt nur für die Graka scho extrem viel.

Jetzt haben es AMD und Intel es endlich geschafft CPUs zu bauen die keine 100 Watt mehr brauchen und dann kommen ATI äh AMD und nVidia und bauen GPUS die über 200 Watt ziehen.
Das kanns doch ned sein.
Mit jeder Generation noch mal X Watt mehr.

230 Watt braucht meine Kiste vielleicht mal unter volllast.
 
die TDP is bei max. 230W ... ich wette n kasten köstritzer druff, dass die real net mekrlich über der 88GTX liegen wird ... tippe mal so auf 165W
 
cool, 4-Way SIMD :) Ich glaube die aktuelle Generation ist 3-Way SIMD bei ATI R580, oder?! *gg*


Ich glaube 16 3-Way SIMD für die Pixelshader..
Ähh nein.
Momentan hat man als VS-ALU eine 4-way SIMD + 1 Skalar und als PS ein 3-way SIMD + 1 Skalar.

Also beim R580 hieß es dann 48 Shader, dann heißt es beim R600 wohl nun 256 Shader? :D :o ??? Wie geil, hehe
Eher 48+8 vs 64.
Wenn diese neuen Angaben überhaupt stimmen...

Also Nvidia hat ja mit dem G80 128 1-Way SIMDs soweit ich das verstanden habe.. ;-)
Eher 8*16-way SIMD mit besserem Scheduler (und dadurch fast 100% Auslastung).
Bisher wurde immer ein Pixel mit allen Farbkomponenten auf einmal berechnet. Davon immer dann immer 4 Pixel auf einmal (deswegen die Quad-Aufteilung).
Der G80 nimmt jetzt von 16 Pixel immer eine Komponente. Unbenutzte Komponenten in den Vektoren verschleudern dadurch halt keine Rechenleistung mehr.
Und wieviel Shaderops hat dieser pro Cycle? Auch 128 oder?
Das kommt darauf an wie du Shaderops definierst...

Zur G80 Architektur findest du bei 3DCenter einen sehr guten Artikel.

Dies scheint an der Limitierung von 16 ROPs zu liegen, oder?! ???
Die ROPs haben nix mit den ALUs zu tun.

Achso, was ist nochmal der Unterschied zwischen TMUs und ROPs?
TMUs sind für den lesenden Speicherzugriff und Texturfilterung zuständig. (aka Input)
ROPs für den Z-Vergleich, Blending und schreibenden Speicherzugriff. (aka Output)
Der R580 hat ja schon nur 16 ROPs, hätte gedacht, dass der R600 hier vielleicht auch mal das doppelte also 32 ROPs besitzt..
ROPs limitieren eigentlich nur bei reinen Z-Passes. Sowohl Xenos als auf G80 haben die ROPs so aufgebohrt, dass sie einen wesentlich höheren Z-Durchsatz haben. Dadurch ist wohl eher mit wenigen "fetten" ROPs als mit mehr "schlanken" zu rechnen.
 
Zuletzt bearbeitet:
IVIaraud3R, dein Wort in Gottes Gehörgang.....meine Kiste mit dem alten Stromfress-Urmonster GF-6800Ultra saugt mit ALLEN Peripherien (17" TFT, Drucker, 5.1 DD-Boxensystem) auf Vollast gerade mal 240Watt...230Watt peak NUR für die GraKa tut sogar meinem (mitlerweile abgeschwächtem, aber immernoch bissl vorhanden) Highend-Hardwaresymphatisanten-Herzen weh...

Das müsste wirklich net sein
 
bin dieses jahr noch nicht ganz wach, von daher entschuldigt bitte die frage
wenn die g80 schon den schnellsten intel quadcore mehr als ausreizt, so dass die cpu die leistung limitiert, wie kann man dann bestimmen, dass die r600 um x% schneller ist?

egal, ich hoffe sehr, dass ati mindestens was gleichwertiges hat, denn das dreht die preisschraube runter

p.s. will endlich directx10 benches sehen ;)
 
Eine 8800GTX kann jeden aktuellen Prozessor überfordern, wenn die Auflösungen zu niedirg gewählt werden, da Spiele dann sehr schnell eine Prozessorlimitierung erreichen. Dabei ist es jedoch relativ unäbhängig davon, welcher aktuelle Prozessor eingesetzt wird, da sich deren Leistungsspektrum nicht großartig (höchstens Faktor 2). Ein Quadcore lohnt sich momentan für Spiele noch nicht, da gerade die ersten überhaupt richtig von Dualcore profitieren. Ein C2 QX6700 ist fast ausschließlich für hohe 3DMark06-Punkte wichtig, für Spiele aber recht uninteressant.

Wichtig ist wie geschrieben für die Test die Auflösung, 1024*768 ist heute nichtmehr zeitgemäß, 1280*1024 ist bei fast allen TFTs (<20") Standard und damit die meist genutze Auflösung, und AA und AF gehört mittlerweile auch dazu. Außerdem gibt es mittlerweile auch schon Auflösungen von 2560*1600 und die benötigen dann mal schnell die dreifache bis vierfache Leistung der Graka.
 
Ein Quadcore lohnt sich momentan für Spiele noch nicht, da gerade die ersten überhaupt richtig von Dualcore profitieren. Ein C2 QX6700 ist fast ausschließlich für hohe 3DMark06-Punkte wichtig, für Spiele aber recht uninteressant
Das ist glaube ich nicht ganz richtig. Entweder ist das Spiel singelthreaded, dann profitiert es nicht von einem MultiCore Prozessor. Oder es ist multithreaded und dann profitiert es sehr wohl von einem Prozessoren von zwei oder vier Kernen. Wenn man davon ausgeht, dass das Spiel multithreaded programmiert ist, ist auch davon auszugehen, dass die Last nicht nur auf zwei Threads aufgeteilt wurde, sondern eine noch feinere Ausplitterung vorgenommen wurde, sodass ein QuadCore Prozessor in eben demselben Maße beschleunigt wird wie ein DualCore Prozessor gegenüber einem SingelCore Modell. Erst bei einer viel höheren Anzahl der Kerne sollte dann kein weiterer Nutzen bei einer einzelnen Anwendung festzustellen sein.
 
Wenn man sich hier den Vergleich anschuat, sieht man, dass gerade einmal 20-30% an Performance durch den zweiten Kern gewonnen wird, bei noch zwei mehr wird das bestimmt nicht besser.
 
@NOFX: Die aufgeführten Benchmarks werden wohl einfach grafik- oder speicherlimitiert sein.
 
Zurück
Oben Unten