GTX 280 Benchmarks

Sparky

Admiral Special
Mitglied seit
02.09.2004
Beiträge
1.762
Renomée
147
Standort
Wien
hier.

und hier.

fuer alle die's interessiert. :)

Anmerkung: Inquirer hat kein NDA mit Nv, daher muessen diese Scores nicht unbedingt authentisch sein.
 
Zuletzt bearbeitet:
Falls die Benchmarks stimmen dann haut mich das nicht gerade vom Hocker *buck* Aber erstmal abwarten, ausserdem wollte ich meine GTX eh noch paar Monate behalten...
 
Falls die Benchmarks stimmen dann haut mich das nicht gerade vom Hocker *buck* Aber erstmal abwarten, ausserdem wollte ich meine GTX eh noch paar Monate behalten...
Sieht wirklich nicht so wild aus....einzige wirkliche Verbesserung scheint die Speicherbandbreite zu sein (siehe Crysis @ 1920x1200)

Damit hat meine nächste Aufrüstung auch noch etwas Zeit :)
 
Zuletzt bearbeitet:
CB hat ebenfalls ihren Test draußen.

Insgesamt finde ich die Karte schon beeindruckend... die Leistung stimmt und setzt die G92 Reihe sehr gut fort. Der Stromverbrauch im Idle Modus ist für die Leistung sehr gut, allerdings unter Last schlägt sie ordentlich zu.
Ich denke das nVidia ein gutes Stück Arbeit abgeliefert hat, auch wenn der Stromverbrauch unter Last trotzdem zu hoch ist. Grade im SLI Modus schaffen beide Karten die 500W Marke ja spielend, was Wahnsinn ist, da bei CB ja nur die Grafikkarte voll belastet werden und nicht die CPU die dann sicherlich nochmal mit ca. 100W zuschlagen würde.
 
Naja, ich finde sie viel zu laut, verbraucht zu viel Strom unter Last. Und wenn man den Preis in Relation zur Geschwindigkeit sieht dann ist das schon eine Enttäuschung für mich. Schnell alleine reicht nicht wie ich finde. Positiv ist der IDLE Stromverbrauch zu erwähnen. Kein DX 10.1. Für eine Neuentwicklung finde ich das Ergebniss nicht so toll. Naja, schaun wir mal ob ATI was besseres zumindest in Sachen Lautstärke und Stromverbrauch dagegenzusetzen hat was sein Geld eher Wert ist. Mehr als 300€ würde ich so oder so nicht für eine Grafikkarte ausgeben wollen und da ist die GTX280 Meilenweit weg. Für die Profizocker mit lockerer Börse die immernur das schnellste wollen ist die Grafikkarte aber sicht toll. Die Leistungskrohne hat sie jedenfalls locker inne :)!
 
Also die Rohleistung der GT200 wurde in manchen Punkten gegenüber dem G92 wirklich massiv gesteigert. Vorallem wenn es um wissenschaftliche Anwendungszwecke geht, wie Folding@Home. Dafür steht jetzt auch Double Precision zur Verfügung. Damit integriert sie sich perfekt ins nVidia Tesla Portfolie und ist auch für AMDs Torrenza attraktiv. Immerhin 30720 Threads sollen parallel abzubearbeiten sein, bei einer gesamt Rechenleistung von fast ein TeraFLOP/s. Wenn nVidia nicht irgendwo mal wieder einen Bug übersehen hat, wird es schwer für ATi werden mit dem RV770 dagegen anzukommen. Diese kann immerhin dank 55nm und weniger Transistoren mit einem deutlich geringeren Laststromverbrauch punkten.
 
Zuletzt bearbeitet:
ATI wird sich kaum gegen die neuen nVidia Karten setzen lassen sondenr eher wieder im Mainstreamsegment zuschlagen. Die RV770 wird eher der konkurrent zur 9800GTX, die auch besser ins Preissegment der ATI als Gegner passt. Diese gilt es zu schlagen, dann wäre ATI ein guter Wurf gelungen. Die 4850 dürfte sich knapp über einer 8800GTS 512MB positionieren, wo sie mit geringem Preis und vielen Features der Sieger sein dürfte.

Absolutes High End werden wir auch diesmal nicht von ATI bekommen, sondern sehr flotte Karten mit gutem Stromverbrauch und günstigem Preis. Ich denke das ist auch interessanter für die meisten User.
 
Ich finde der neue Nvidia chip ist der un-innovativste Chip den NVidia seit langem herausgebracht hat! Klar, er ist schnell im vergleich zum "älteren" G92, aber ich glaube kaum dass dieser Chip nvidia geld verdienen lässt.
Für mich hat höchstens die GTX260 ne chance wegen dem preis, aber da wird Nvidia nichts verdienen, außer jeder chip der vom band läuft funktioniert auch...

insgesamt scheint mir der GT200 ein flop wie der alte R600 zu werden... vielleicht nicht ganz so schlimm, aber doch ähnlich.
Ich persönlich erhoffe mir vom R770 mehr, wieviel da dann wirklich rauskommt muss sich zeigen
 
ich wuerde sagen Nv hat mit der GTX 280 eine starke Karte abgeliefert - allerdings werde ich mich Nvs Wahnvorstellungen beim Preis diesmal nicht beugen - ich habe gehofft die GTX 280 wuerde schliesslich so um die $500 kosten... naja offenbar sind die yields doch weit kleiner als erwartet, und man weiss noch nichts genaueres ueber die Performance der neuen ATi Karten. Sollte die 4870 ein (klar) besseres Preis/Leistungsverhaeltnis vorweisen koennen - und es sieht fast danach aus - dann freue ich mich aus mein erstes X-fire System. :)
 
Ich finde der neue Nvidia chip ist der un-innovativste Chip den NVidia seit langem herausgebracht hat! Klar, er ist schnell im vergleich zum "älteren" G92, aber ich glaube kaum dass dieser Chip nvidia geld verdienen lässt.
Für mich hat höchstens die GTX260 ne chance wegen dem preis, aber da wird Nvidia nichts verdienen, außer jeder chip der vom band läuft funktioniert auch...

insgesamt scheint mir der GT200 ein flop wie der alte R600 zu werden... vielleicht nicht ganz so schlimm, aber doch ähnlich.
Ich persönlich erhoffe mir vom R770 mehr, wieviel da dann wirklich rauskommt muss sich zeigen

Die 4870X2 soll aber angeblich den GTX-280 deutlich zerfetzen können, der wiederum nur die Leistung einer 9800X2 erreicht, wenn kommende Benchmarks das bestätigen. Und wenn der 4870X2 wie geplant seinen kompletten Speicher für beide Cores nutzen kann, und die Mircoruckler dann ade sein werden, dürfte NV zumindest hier "Probleme" bekommen. So sehe ich das momentan.

Was den GT-200er Chip angeht, soll später ebenfalls von 65nm auf 55nm umgestellt werden, damit könnte evt. nochmal der Verbrauch reduziert werden.

Und was will NV den noch verkaufen, wenn der 4870 schon schneller als eine G92. 8800GTS/8800Ultra, da müßte man schauen wie sich preislich hier der GTX-260 entwickeln wird, im X2 Bereich wird ATI, wenn alles klappt vorne liegen, und von unten nach oben scheint ATI ebenfalls aufzuräumen - womit sich NV keinesfalls jetzt ausruhen kann.
 
Zuletzt bearbeitet:
gute schnelle karte, sehr guter verbrauch, für die leistung, aber ein schweine-preis :)
30% schneller als eine x2, aber doppelt so teuer.
ich denke mal, wenn man die max. verbrauchsleistung testen will, dann muss man spielen und cuda etc. zeitgleich laufen lassen. das haben die super hinbekommen, kann man nicht anders sagen.
allerdings gibt es kaum noch taktreserven für das monstrum...erst ab 55nm wohl wieder.

mfg
 
Fazit:

Der GT200 ist nichts anderes als zwei G92er.
Vorteil(e):
- 2D Stromsparmodus
- (bisher) keine Microruckler, vor kurzem hat PCGH in den News das es auch bei der GT200 geben würde)
- 1GB Ram statt 2x512 -> mehr Speed in hohen Auflösungen (für die dir Karte dann doch häufig wieder zu langsam ist laut CB )

Nachteile:
- ~550€ -> überteuerter Preis der kaum runter gehen kann da die Dice so groß sind und somit die Ausbeute bescheiden ist. Die 9800GX2 gibt es schon ab 360€
- hoher Stromverbrauch (die GX2 ist deutlich älter und braucht auch nicht mehr...)

Fazit:
Warum das Fazit von CB und PCGH so gut ausfällt? Durch die Blumen sehe ich folgendes: Einen Aussterbenden Dinosaurier, der letzter seiner Art?
Vor allem die GTX260 wird es >wahrscheinlich< schwer gegen die 4870 haben, ich bin jeden falls auf die 48x0 Serie gespannt.
 
naja bissel wenig für die ankündigungen/behauptungen und das nv das zu dem preis rausbringt ich weist net*suspect*
1 positiven effect hats meine nächste graka wird billiger*flasche*
 
Fazit:

Der GT200 ist nichts anderes als zwei G92er.
Vorteil(e):
- 2D Stromsparmodus
- (bisher) keine Microruckler, vor kurzem hat PCGH in den News das es auch bei der GT200 geben würde)
- 1GB Ram statt 2x512 -> mehr Speed in hohen Auflösungen (für die dir Karte dann doch häufig wieder zu langsam ist laut CB )

Nachteile:
- ~550€ -> überteuerter Preis der kaum runter gehen kann da die Dice so groß sind und somit die Ausbeute bescheiden ist. Die 9800GX2 gibt es schon ab 360€
- hoher Stromverbrauch (die GX2 ist deutlich älter und braucht auch nicht mehr...)

Fazit:
Warum das Fazit von CB und PCGH so gut ausfällt? Durch die Blumen sehe ich folgendes: Einen Aussterbenden Dinosaurier, der letzter seiner Art?
Vor allem die GTX260 wird es >wahrscheinlich< schwer gegen die 4870 haben, ich bin jeden falls auf die 48x0 Serie gespannt.

Wo steht den das der GT-200 ein Dual-Core ist ?, ............... muß gestehen bisher noch keine Artikel darüber gelesen zu haben.
 
Zuletzt bearbeitet:
bbott schrieb:
- hoher Stromverbrauch (die GX2 ist deutlich älter und braucht auch nicht mehr...)
Das ist wohl normal, da sich zwar die Transistoranzahl massiv erhöht hat, nicht jedoch der Herstellungsprozess im gleichen Zuge verkleinert. Bei der 4xxxer Serie ist gleiches zu befürchten.
Fazit:Vor allem die GTX260 wird es >wahrscheinlich< schwer gegen die 4870 haben, ich bin jeden falls auf die 48x0 Serie gespannt.
Das denke ich auch :)

Ein Ass könnte nV jedoch noch ggü ATI/AMD haben. PhysX in Hardware (soll bald durch neue Treiber kommen, wenn da mal nicht wieder jemand Bullshit geredet hat...). Da wage ich mir noch keine Meinung zu.
 
Zuletzt bearbeitet:
Hallo,

die GTX280 ist eine Karte, die so noch niemand braucht. Sie ist nicht wirklich schneller als die 9800GX2, noch stromsparender, geschweige denn günstiger. Vor allem enttäuscht mich die Stromaufnahme im Idle, die von NVidia doch so angeprießent wurde. Ausgehend davon, dass eine 3850 20W Idle-Leistung verbrät, liegt die GTX280 dann etwa bei knapp 50W. Ist zwar eine deutliche Senkung gegenüber der 9800GX2, jedoch deutlich von den versprochenen 25W entfernt. Da die GTX260 auch noch mal n gutes Stück langsamer ist, fehlt mir bei diesen Modellen der Sinn der Veröffentlichung für den Kunden und Endnutzer. Einzig der SLI-Verbund aus 2 x GTX280 sprengt alle Benchmark-Rekorde, jedoch auch preislich und von der Stromaufnahme her.

@Zidane:
Das mit dem Dual-G92 war wohl so gemeint, dass der einzelne Chip der GTX280 soviel Leistung wie die 9800GX2 besitzt, die ja 2x den G92-Chip besitzt.

So warte ich auf erste Test der 4850 bzw. 4870, die ihre Leistungsaufnahme im Leerlauf nochmals deutlich senken konnten. So hab ich schon von 10W gelesen. Wenn dann noch das Preis-Leistungsverhältnis stimmt, haben wir den neuen Sieger.

Gruß
 
*flasche* *ich bin stolz darauf niemals eine Nvidia karte käuflich erwerbt zu haben* *flasche*

aber mal im ernst wenn die 4870 das hält was die Spekulationen sagen dann verkauft amd ja nachher die karten trotz Leistungsvorsprung günstiger als die der Konkurrenz und das wäre ja eine mehr als absurde Situation für Nvidia naja mal gucken was kommt
 
Wo steht den das der GT-200 ein Dual-Core ist ?, ............... muß gestehen bisher noch keine Artikel darüber gelesen zu haben.

Der GT ist natürlich ein Chip der aber die Leistung hat sie als hätte man zwei G92 auf einem Die zusammen geklatscht, das plus an Speed (in hohen Auflösungen) kommt wohl hauptsächlich vom Speicher Interface her und von 1GB Ram.

NV- Fans hatten ja schon News verbreitet das die Rechenleistung der Shader zusätzlich um 50% erhöht wurden :]

Besonders die Kommentare einiger PCGH User waren leicht überzogen... doppelte Leistung einer GX2 ;D Ich habe mich köstlich amüsiert.


Für mich sieht der GT200 aus, wie 1,5 Jahre auf der faulen Haut gelegen (etwas übertrieben gesagt!). Einfach Null Innovation (kein DX 10.1, Shader nicht verbesser... etc.).
 
Naja die üblichen 10% verbesserung die NVIDIA immer drauf packt. Ich bleibe vorerst bei meiner 8800 GTX *flasche*
Daddele die letzte zeit eh mehr auf der 360. Vorallem GTA4 :)
 
Das ist wohl normal, da sich zwar die Transistoranzahl massiv erhöht hat, nicht jedoch der Herstellungsprozess im gleichen Zuge verkleinert. Bei der 4xxxer Serie ist gleiches zu befürchten.
Das denke ich auch :)

Ein Ass könnte nV jedoch noch ggü ATI/AMD haben. PhysX in Hardware (soll bald durch neue Treiber kommen, wenn da mal nicht wieder jemand Bullshit geredet hat...). Da wage ich mir noch keine Meinung zu.

1. Die 4750 benötigt wie die 3870 110W bei 50% mehr Transistoren, oder die 4870 benötigt 40W (~ 36%) mehr und dürfte locker mehr als 50% mehr fps bringen ;) Zumal die ja eine 9800gtx um 40% schlagen soll (laut AMD). Weil die V-Core wurde deutlich abgesengt, wenn ein Chip nicht so gut ist wird es halt eine 4850er. NV muss jeden Chip nutzen um den Preis zu drücken da geht der Spielraum gegen Null.


2. PhysX ??? Nicht im ernst das dauert noch mindestens 3. Generationen (eher 5.), PhysX ist was Grundlegendes d.h. neue Programmiersprache lernen und den Umgang damit lernen zudem wird eine ausreichende Verbreitung vorausgesetzt. Moment da war doch was die GX 2x0er sind ja nur für 0,1% der User ;)
Außerdem wird PhysX gegen AMD/Intel wohl keine Chance haben, wird wohl eine Totgeburt. PhysX hätte mit AMD an der Seite noch Chancen gehabt aber so *suspect*
 
Nun in Begeisterungsstürme versetzt mich das ganze nicht. Teilweise nur 30 % Mehrleistung im Vergleich zu meiner GTS. Dafür 3 mal so teuer. Ich warte da lieber auf den Refresh.
 
2 x GX2 280 + ein QuadCore @ 4GHz (wie der @ CB) und die 1000W dürften das erste Mal durchbrochen werden... Das ist es, was mir als erstes durch den Kopf ging.

Ansonsten ist es eine ordentlich Karte, die vorallem DX10.1 vermissen läßt und sicherlich die Leistungsgrenze für ATi wieder ins unerreichbare legt..
 
Hmm, keine großen Überraschungen.

Im Prinzip ist es kein neuer Chip, also auch kein großen Performancesprünge oder Features.

Der Stromverbrauch ist logischerweise angestiegen und liegt für Silence User auf nem sehr schwer tragbaren Niveau, das kriegt man auf keinen Fall passiv gekühlt.

Der Preis ist normal für das aktuelle Spitzenprodukt und man muss da eh mal schauen wie die sich entwickeln, interessant ist es aber dass die karte mal kein Paperlaunch ist sondern wirklich verfügbar (für mich die einzigste Überraschung)

Für mich sieht der GT200 aus, wie 1,5 Jahre auf der faulen Haut gelegen (etwas übertrieben gesagt!). Einfach Null Innovation (kein DX 10.1, Shader nicht verbesser... etc.).
Nunja, keiner weiss wieviel Arbeit da rein gesteckt wurde und ob Nvidia nicht schon ne Weile an einem wirklich neuen Chip werkelt. Seit dem G80 war Nvidia nicht im Zugzwang also warum sollten sie auch mehr tun als nötig.


Ich bin mal gespannt auf die neuen Ati Karten, wenn die wirklich so toll sind wie das hier alle träumen dann wär das gut für Ati, aber ich warte da mal lieber ab ;)

@herby
Grad gesehen, kann dir da nur 100% zustimmen, kein Fanboy sondern ein Realist :)
 
Ich bin überrascht das hier einige scheinbar doch einen extravaganten Chip erwartet hatten nachdem so viele Infos durchs Netz kursiert sind. Es war klar das der neue GT 200 kein wirklich neuer Chip sein wird sondern lediglich eine Erweiterung des G92.
Ebenso versteh ich einige Aussagen nicht das hier geglaubt wird der RV770 wird hier besser. Dieser sit ebenfalls nur ein Aufguss des R600/RV670. Es wurden die Textureinheiten verdoppelt, was dringend nöltig war und die Shaderanzahl erhöht. Mehr wurde hier auch nicht getan. Bis auf ein paar Feinheiten die wohl Grundsätzlich bei beiden Herstellern der Fall sind und sein werden, die aber nur wenig ins Gewicht fallen.

Weder ATI noch nVidia setzen auf eine neue Architektur. Warum auch, die Fehler der ersten Generation wurden und werden nach und nach behoben, bis die Grundstruktur des Chipdesign ausgereizt ist. Erst dann, und wohl auch erst mit DX11, das ja schon im Gespräch ist, wird es wirklich ein neues Chipdesign geben. Und das kann noch dauern.
 
Zurück
Oben Unten