AMD R600 ES Benches

w0mbat

Commodore Special
Mitglied seit
19.05.2006
Beiträge
416
Renomée
18
Erste R600 Benches
Quelle

# 64 4-Way SIMD Unified Shaders, 128 Shader Operations/Cycle
# 32 TMUs, 16 ROPs
# 512 bit Memory Controller, full 32 bit per chip connection
# GDDR3 at 900 MHz clock speed (January)
# GDDR4 at 1.1 GHz clock speed (March, revised edition)
# Total bandwidth 115 GB/s on GDDR3
# Total bandwidth 140 GB/s on GDDR4
# Consumer memory support 1024 MB
# DX10 full compatibility with draft DX10.1 vendor-specific cap removal (unified programming)
# 32FP internal processing
# Hardware support for GPU clustering (any x^2 number, not limited to Dual or Quad-GPU)
# Hardware DVI-HDCP support (High Definition Copy Protocol)
# Hardware Quad-DVI output support (Limited to workstation editions)
# 230W TDP PCI-SIG compliant

Testsystem
* Processor: Intel Kentsfield Core 2 Extreme QX6700 (Quad Core) 2.66 GHz, overclocked to 3.2GHz
* RAM: OCZ Titanium 2048 MB (2×1GB) DDR2-800 PC2-6400 Dual Channel
* Motherboard: EVGA 122-CK-NF68-AR LGA 775 (Socket T) nVidia nForce 680
* Harddrive: 2x Seagate Barracuda 7200.9 ST3500641AS 500 GB @ 7200 RPM, SATA 3.0 Gb/s on RAID 0
* Dedicated Sound: Creative SoundBlaster X-Fi Platinum

Der R600 gewinnt fast alle Benches, teils deutlich! Und das mit einem heruntergetakteten Modell und Betatreibern! Da hat AMD aber ein richtig geiles Teil im Ofen :sabber:



1fk9.jpg

2em8.jpg

3az0.jpg

4hy7.jpg

5ln6.jpg

6yp2.jpg

7gr9.jpg

8ku6.jpg

9kh0.jpg
 
..wenn da erstmal die Teiber optimiert sind....:o
 
f you just bought a GeForce 8800, especially the GTX version, you might want to return your card on January 22nd when ATI R600 cards become available throughout the US at 630 USD (MSRP Price) which roughly equals the current price for a GeForce 8800GTX.
22. Januar, das sind nur noch drei Wochen... Mal sehen, ob sich das bewahrheitet.
 
Gut. Das wird die unangemessenen Preise der 8800-Reihe endlich herabsetzen. ;)
Die GDDR4-Variante sollte NVIDIA ab März nochmals unter Druck setzen.

MfG
 
hammergeil :) *sabber*
 
naja.. ich weis nicht. Sicherlich sind die Benchmarks beeindruckend, was davon aber letztenendes wirklich der Realität entspricht steht eauf einem anderen Blatt. Ich würde sagen... zurücklehnen, Kaffe trinken und auf den Release warten. Bis es passende DX10 Titel gibt dauuert eh noch ewig. *lol*

Gruß
ASRock_User
 
naja.. ich weis nicht. Sicherlich sind die Benchmarks beeindruckend, was davon aber letztenendes wirklich der Realität entspricht steht eauf einem anderen Blatt. Ich würde sagen... zurücklehnen, Kaffe trinken und auf den Release warten. Bis es passende DX10 Titel gibt dauuert eh noch ewig.
Kann schon sein, aber drei Wochen vor dem offiziellen Release ist der Wahrheitsgehalt der Daten, bzw. deren Wahrscheinlichkeit, möglicherweise einigermaßen hoch.

So kurz vor dem Launch kann man evtl. davon ausgehen, daß die GPU fertig ist, und die Massenproduktion bereits begonnen hat. Trotzdem kann es natürlich eine Ente sein, bis die Daten offiziell bestätigt sind, bleibt alles Spekulation. Gesundes Mißtrauen hat noch nie geschadet.
 
Von wegen es dauert noch ewig bis DX10 Titel kommen!

Far Cry Crysis steht bereits in den Startlöchern.

Wird schneller kommen, als uns allen lieb ist!
 
...DirektX10 mit Windows Vistaaaaa *grusel* ;)


Außerdem hab ich nix anderes als dieses vom neuen Chip von ATI erwartet!

Nur folgendes finde ich etwas verwunderlich:
# Hardware support for GPU clustering (any x^2 number, not limited to Dual or Quad-GPU)

dann wären nämlich nur diese kombinationen möglich:
1^2=1; 2^2=4; 3^2=9; 4^2=16 usw.
... haha auß mit euren dual GPU systemen! :P ;D

logischer wäre 2^x
Dann gäbs die Kombis:
2^0=1; 2^1=2; 2^2=4; 2^3=8; 2^4=16 usw.

wobei dahingestellt sei, ob es überhaupt sinnvoll ist mehr als 4 Grakas in einen Rechner zu verbauen. (8 pcie 16x Stecklätze *lol*)

Wollts nur mal gesagt haben....
vileicht machts auch die quelle unglaubwürdiger.... wenn die nichmal rechnen könn *buck* (duck und weg)
 
wobei dahingestellt sei, ob es überhaupt sinnvoll ist mehr als 4 Grakas in einen Rechner zu verbauen. (8 pcie 16x Stecklätze *lol*)
Also ich denke, PCIe-x16 besitzt so viel Bandbreite, daß auch mehrere GPU-Cores damit versorgt werden können.

Es war ja schon öfter zu lesen, daß die Zeit der großen Grafik-Monolithen mit nahezu 1 Mrd. Transistoren langsam zu Ende gehen wird, und die Zukunft in der intelligenten Zusammenschaltung einer nach oben offenen Zahl gleichartiger GPUs bzw. Cluster liegt.
 
Joa darauf hab ich gewartet, Gut, dass ich schonmal Weinachtsgeld zurückgelegt
habe, wie die wohl abgeht mit Originaltakt und Final- Treibern.

Jetzt laufe ich bis zum 22.1 mit ner Dauerla*** rumm *baeh*

Spass beiseite: es wird sich ja zeigen, welche Daten der Warheit entsprechen.

@Ragas: Die schreiben ja, dass es technisch möglich wäre,
nich das es sinvoller oder so wäre. Oder dass es wirklich 16 Chip CrossFire geben wird,
ist glaube ich auch ziemlich unwarscheinlich/unmöglich
(zumindest ohne Multcore Grafikchips *buck* )

MfG und guuten Rutsch geforcerocker
 
Zuletzt bearbeitet:
Die Voodoo 5/6000 hatte vier Chips auf der einen, es gab auch schon eine Karte von Ati mit einem Chip auf jeder Seite, dann könnte man bei 50cm Länge und 4/oder mehr Zusatzstromsteckern doch 8 Chips auf eine Karte verbauen. *engel*
 
jap geforcerocker ich meinte aber, was sinnvoll wäre.

Die Voodoo 5/6000 hatte vier Chips auf der einen, es gab auch schon eine Karte von Ati mit einem Chip auf jeder Seite, dann könnte man bei 50cm Länge und 4/oder mehr Zusatzstromsteckern doch 8 Chips auf eine Karte verbauen. *engel*
lol... überlegt mal, wie lang schon ne karte mit einem Chip ist! wie das erst bei 4 chips auf einer Karte aussieht..... das is schon krank, da kann keiner mit mir diskutieren.

Debaser mit diesen Intelligenten kleinen Recheneinheiten sind aber nicht mehrere Chips (warum rede ich immer von chips?!.. ihr wisst ja was ich meine) gemeint, die auf einer Karte aufgelötet sind. Sondern es ist die Rede von vielen größtenteils unabhängigen Recheneinheiten auf einem Chip, die man einzeln abschalten kann, also so ähnlich wie nativer dualcore bei CPU's.
 
Zuletzt bearbeitet:
jDebaser mit diesen Intelligenten kleinen Recheneinheiten sind aber nicht mehrere Chips (warum rede ich immer von chips?!.. ihr wisst ja was ich meine) gemeint, die auf einer Karte aufgelötet sind. Sondern es ist die Rede von vielen größtenteils unabhängigen Recheneinheiten auf einem Chip, die man einzeln abschalten kann, also so ähnlich wie nativer dualcore bei CPU's.
Ja, genauso habe ich es auch gemeint - nicht 8, 16, 32 oder mehr GPUs auf einem PCB.
 
Naja ich sehe dem mit gemischten Gefühlen entgegen.
Warum wird sowas immer mit herunter getakten Modellen gemacht und ohne einen Treiber der fast Final ist. (Nvidia machts änlich)

*runtergetaktet, aber wenn die richtig geht haut Sie alles weg* hahah


Jungs bringt Daten wenn das Ding fast Final ist.
 
hahahaha :D

Geil!! Das war klar, dass ATi / AMD hier mächtig auftrumpfen wird!
Die "armen" 8800GTX besitzer.... ich würd mich an deren Stelle jetzt ärgern *suspect*
 
naja.. ich weis nicht. Sicherlich sind die Benchmarks beeindruckend, was davon aber letztenendes wirklich der Realität entspricht steht eauf einem anderen Blatt. Ich würde sagen... zurücklehnen, Kaffe trinken und auf den Release warten.


Das sehe ich auch so. Abwarten und Tee trinken. :)
 
die frohen nicht 8800er besitzer ^^ die wird im preis auf das bezahlbare sinken *freu* und ich kann mir vllt so n ding in meinen rechner bauen, anfang februar =P

aber ich glaub eigentlich nicht, dass der r600 diese benchs hat.. ok, das ist schon glaubwürdig gemacht, dass auch maaal die geforce gewinnt, aber .. und der ganze quatsch mit nicht final use -.-* naja, ich würd auch sagen, warten und tee trinken ^^ man wird sehen, was die drauf hat =)

MfG
Max
 
Hach wie schön, wenn der release wirklich schon am 22. ist kann ich mir dann schön günstig ne 8800 gts ins neue system holen für ~300 €...oder doch ne R600...mhm... 8)
Mal schauen ob ATI die Bildquali von nVidia und auch die guten Kühler der 8800er Karten mitbringt, dann wirds interessant.

mfg
 
naja hin oder her .... die r600 wird denke ich schon stärker wie die aktuellen g80, schon alleine weil ja über 2 monate mehr zeit war bei der entwicklung.

andererseits sind erste dx10 titel ja fast ausnahmslos verschoben worden ... man spricht hier von 2-3 quartal für crysis, das ja wohl eines der ersten titel für dx10 sein wird. bis dahin werden sämtliche mainstream karten von nvidia und ati verfügbar sein und sogar schon die releases der g80 und r600....

wenn bis dahin der tee mal nicht schon lauwarm geworden ist ==))
 
Gut. Das wird die unangemessenen Preise der 8800-Reihe endlich herabsetzen. ;)
Also ich weiß nicht. Folgende Punkt in den Spezifikationen hören sich nach einem ziemlich teuren PCB Layout des R600 an:
- 512 bit Memory Controller, full 32 bit per chip connection
- Consumer memory support 1024 MB
Gut möglich, dass der R600 so eine ganze Preisklasse über den bisherigen G80 Chips angesiedelt ist. Jedenfalls wenn alle Möglichkeiten des R600 ausgenutzt werden. Aber vielleicht erwarten uns vorerst nur R600 Karten mit 512 MB Speicher und 256 Bit Interface in erschwinglichen Preisregionen. Dann stellt sich jedoch die Frage, inwieweit der aus den Benchmarks ersichtliche Leistungsvorsprung gewahrt bleibt und wie nVidias Antwort aussieht. Die Leistungskrone wird man sich ja wohl, wenn man sie schon verlieren sollte, zurückerobern wollen und inzwischen hatte nVidia nach der Verzögerung des R600 genug Zeit etwas auf die Beine zustellen.
 
Zuletzt bearbeitet:
Das sehe ich auch so. Abwarten und Tee trinken. :)

Jap ;) Die Benchs sehen wirklich nett aus. Aber letztenendes sind sie nicht mehr als Spekulation. Benchmarkdiagramme kann ich mir auch einfach erstellen ;)
Sollte es sich um echte Benchmarks handeln, vermute ich, dass in den kommenden Tagen noch mehr Benchmarks aus anderen Quellen auftauchen.

Aber ich grusel mich jetzt schon vor dem gehype, dass nun um den R600 losgetreten wird. Das der R600 besser ist als der G80 war zu erwarten. Alles andere wäre wohl eher ein Armutszeugniss für ATI/AMD.

Gruß
ASrock_USer

E: Zumal man nicht vergessen sollte, dass für eine Graka auch andere dinge als nur die Leistung entscheidend sind. Da wären noch Lautstärke, Stromverbrauch und natürlich die BQ.
 
Zuletzt bearbeitet:
Der Punkt Lautstärke erinnert mich an meinen alten CPU Kühler Vulcano 11+.
Das Ding ist eine Turbine (ich mein die Lautstärke)
Und die Kühlleistung war nicht so dolle.

Hoffentlich kühlt ATI das Ding etwas leiser ;D und drosselt den Stromverbrauch.
Mein neues NT werde ich wegen der Karte nocht ersetzen. Bin doch kein Kernkraftuser.
 
Naja, war ja wohl jedem klar das der R600 schneller ist als der G80 - AMD könnte es sich gar nicht leisten 3 Monate nach Start des G80 einen Chip zu präsentieren der langsamer ist als die Konkurrenz.
Insofern versteh ich den ganzen Hype um den R600 grade nicht, zumal passend zum Start Nvidias Refresh(Ankündigung) anstehen dürfte - Zeit genug hatten sie ja bis dahin..
(auch Nv wird GDDR4 bringen, das vergessen hier wohl einige...)
 
Naja bei Ebay gehen die 8800GTS Karten die gut OC können für 600 Euro weg! :o Da werde ich wohl meine auch verscherbeln wenn der R600 kommt! *lol*
.
EDIT :
.

Naja, war ja wohl jedem klar das der R600 schneller ist als der G80 - AMD könnte es sich gar nicht leisten 3 Monate nach Start des G80 einen Chip zu präsentieren der langsamer ist als die Konkurrenz.
Insofern versteh ich den ganzen Hype um den R600 grade nicht, zumal passend zum Start Nvidias Refresh(Ankündigung) anstehen dürfte - Zeit genug hatten sie ja bis dahin..
(auch Nv wird GDDR4 bringen, das vergessen hier wohl einige...)


Ähmm wo steht das , daß der R600 schneller ist?? Bisher gibts keine fakten außer dem bench hier den mal wohl mal mit Vorsicht genießen sollte! Und in sachen 3Dmurks nehmen die sich ja nun überhaupt nichts! Bisher lagen Ati und Nvidia imm nahe beinander und ich denke auch das es diesmal so sein wird! Nvidia schmeißt denn sicher den G81 raus ala 8900GTX oder so der denn wieder an dem R600 mit ein paar kleinen Poinst mehr im 3Dmurks vorbei zieht! Ich finds im Grunde affig! Wenn der R600 ein wenig schneller ist wie mein 8800GTS denn kack ich auf die paar Poinst mehr im 3Dmurks, aber wenn der R600 billiger ist und wirklich enorm mehr Leistung bietet, denn wechsel ich gerne wieder zu Ati!
 
Zuletzt bearbeitet:
Zurück
Oben Unten