HD 2600 XT !!! Welches?

Psychodelik

Admiral Special
Mitglied seit
29.02.2004
Beiträge
1.224
Renomée
22
Was ist besser? (allgemein gefragt)

HD 2600 XT, 256 MB GDDR4

oder

HD 2600 XT, 512 MB GDDR3

Welches würdet ihr von diesen beiden kaufen, wenn ihr die Wahl hättet? (es geht nur um diese beiden Grafikkarten) "Bitte mit Begründung"

PSYCHO
 
Nun ja, 512MB mit hohem Takt (GDDR3 oder 4 ist egal, kommt ja auf den Takt an) wären natürlich am besten, aber es kommt immer auf den Preis an. Ich denke, in Situationen, in denen man 512MB voll ausnützen kann, ist der Chip und die knappe Speicherbandbreite sowieso überfordert, man darf da eben nicht zu viel erwarten.

Es mag sein, daß sich die Karte später besser wieder verkauft, wenn 512MB RAM drauf sind, aber offen gesagt würde ich lieber die billigste Version nehmen, nämlich die GDDR3-Version mit 256MB für knapp über 90€, und die gesparten 20-30€ auf Halde legen für die nächste Aufrüstung, die sowieso nicht so weit entfernt ist.

Wenn 120€ ausgegeben werden sollen, bietet sich aber bereits die X1950pro an, die mehr Leistung hat. Wenn dann DX10-Spiele in größerem Umfang auftauchen (frühestens nächstes Jahr), kann man immer noch eine DX10-Karte kaufen, bis dahin gibt es sowieso bessere Mainstreamkarten (mit stärkerem Chip und 256bit SI) und eine HD 2600 ist dann eh zu schwach.
 
ich würde die mit GDDR 4 nehem, die ist überall um einen Tick schneller, und in der Leistungsklasse machts 256 oder 512 keinen merkbaren unteschied. Ausser dass die 512MB gddr3 gleich viel oder sogar mehr als die 256mb gddr4 kosten.

mfg
 
hd2600xt gddr3 würd ich nehmen

die gddr4 ist gerade 4% schneller und für den mehrpreis lohnt das nie und nimmer
 
die gddr4 ist gerade 4% schneller und für den mehrpreis lohnt das nie und nimmer
Zumal sich der Speichertakt der gddr3-Karten wohl bei Bedarf noch ordentlich anheben lassen soll.

Das Fazit im cb-Test legt auch deutlich die GDDR3-Variante nahe:
Kommt der Preis ins Spiel, bleiben nicht viele Argumente für die GDDR4-Version über. Falls es dennoch eine Radeon HD 2600 XT sein soll, lohnt ein Blick auf die GDDR3-Version. Diese ist kaum langsamer als die höher getaktete GDDR4-Karte, kostet aber ein gutes Stück weniger. Und sie schafft es unterm Strich sogar, eine die GeForce 8600 GT vom Thron in ihrem Preissegment zu verdrängen. Auch und gerade aufgrund ihres geringen Stromverbrauches und der Geräuschentwicklung.
(http://www.computerbase.de/artikel/...eon_hd_2400_xt_hd_2600_xt/30/#abschnitt_fazit)
 
Also ob es nicht doch 512 MB sein sollen? Genau diese Frage habe ich mir auch schon gestellt, aber besonder wenn ich nun auf einen 19 Zoll Breitbild TFT umsteigen will.

Auch halte ich nicht viel von DDR 4 bei den Karte und das unabhängig von diversen Test.
Mal eine Andere Frage: Was bringen eigentlich diese Doppel GPU Karten nun wirklich bei zum Beispiel Tomb Raider Anni oder bei Titan Quest oder bei Quake 4 oder so?
Denke zwar nicht, dass die Karten langsam sind, aber so der ultra überfliege werden die nicht sein oder?

Noch was: Kommen eigentlich noch Produkte mit einem HD 2900 raus die etwas weniger als die XTX bieten, aber anderer Seits nicht so limitiert sind wie diese HD 2600er (256 Bit Bus und nur 100 Watt)?
Will nämlich aufrüsten und suche aus diesem Grund eine neue Grafikkarte so um die 100 - 250 €.
 
Zuletzt bearbeitet:
also wenn du was zwischen 2600XT und 2900XT suchst, dann kommst du um die 2600XT Gemini Karten oder einfach 2 CrossFire 2600XTs nicht herum wenn du was von ATI willst.

Aber ich bin mir ziemlich sicher, dass ATI noch heuer Chips nachschieben wird, nennen wir sie 2700er Serie, die diese Lücke schliessen wird. NVidia macht das glaub ich auch - vielleicht schon angekündigt glaub ich.

aber der haken bei den dingern ist: die kommen erst am Tage X... die anderen gibts schon.

mfg
 
aber der haken bei den dingern ist: die kommen erst am Tage X... die anderen gibts schon.
Bei nv ist Tag X gerüchteweise wohl im November angesetzt, rechtzeitig vorm Weihnachtsgeschäft.
Gehobene Mittelklassekarten der neuen Generation wirds also wohl für einige Zeit nicht geben, da dx10 sich aber noch nicht etabliert hat, kann man eigentlich noch gut über eine Karte der letzten Generation nachdenken.
 
also ich weiss nicht obs hier jemand NICHT mitbekommen hat:
DirectX 10 ist bei den entwicklern voll eingeschlagen, da es sehr viel einfacher und schneller geht damit zu entwickeln, deswegen gibt es momentan so gut wie keine spiele-schmiede die nicht an einem dx10 titel arbeitet - auch wenn das dann nur unter Vista funktioniert - aber ich bin Vista Fan, deswegen ist es auch das erste Windows das ich doch glatt gekauft habe :) und wenn jemand weiterhin spiele auf dem pc spielen will, dann muss er wohl oder übel Vista kaufen, DX10 Graka kaufen, usw.

also die aussage "DX10 hat sich noch nicht etabliert" stimmt so nicht. wenn man jetzt eine neue karte kauft und die DX9 ist, dann ist man selber schuld wenn man in 6 monaten wieder eine neue kaufen muss, nur um ein spiel spielen zu können was mit der jetzt gekauften karte nicht geht... wow, ich glaube sollte kürzere sätze machen :)

mfg
 
kein Regal - es gibt ja auch koffer dafür :)

Crysis DX10, Company of Heroes DX10, FSX, usw.
Und da ID und andere Engine-Hersteller die neue Engine auch auf DX10 ausgelegt haben, werden wohl viele spiele kommen.
Aber wen interessierts....

Aber kaufts euch ruhig ne DX9 karte, ich kauf mir halt nur alle 2 jahre ne neue Grafikkarte... jedem seine entscheidung

mfg
 
Jau - kauf DU dir ruhig jetzt ne D3D 10-Karte, um in nem guten halben Jahr festzustellen, dass sie für die dann erscheinenden Games viel zu lahm is ;D

BTW: Es gibt kein DirectX 10 - nur D3D 10 ;)
 
@boidsen
Zu schnell zu langsam oder genau richtig ist immer das Problem. Ja sicher sind die D3D 10 Karten wenn die richtigen D3D 10 Spielen kommen nicht mehr Top. Wie gut die Leistung dann wirklich ist, sehen wir erst wenn die Spiele kommen.
Eines kann man aber sagen, man kann, wenn auch nicht auf Maximal stufe aber wenigsten mann kann was davon sehen was D3D 10 zu bieten hat und muss sich nicht mit D3D9c rumärgern, sollte das überhaupt noch geben und richtig genutzt werden. Es wird sicher noch D3D 9c unterstützt, aber wie viele mühe sich die Hersteller noch damit geben werden wir ja dann sehen. Sehr viel glaube ich nicht.
 
Eines kann man aber sagen, man kann, wenn auch nicht auf Maximal stufe aber wenigsten mann kann was davon sehen was D3D 10 zu bieten hat und muss sich nicht mit D3D9c rumärgern, sollte das überhaupt noch geben und richtig genutzt werden. Es wird sicher noch D3D 9c unterstützt, aber wie viele mühe sich die Hersteller noch damit geben werden wir ja dann sehen. Sehr viel glaube ich nicht.
DX9 wird wohl schon noch eine Zeit lang unterstützt werden, vorm völligen Wechsel zu DX10 muss der Anteil der Leuts mit entsprechenden GraKas (und entsprechendem OS) erstmal groß genug sein.
Zumal DX10 afaik nichts wirklich Neues bringt, es sind nur mehr "Effekte" bei gleichbleibedem Rechenaufwand möglich, es ist also effektiver. Das wird in den ganzen DX9 vs. DX10 vids doch ganz gut deutlich.
 
immer langsam bevor hier jemand anfängt zu flamen...

auf jeden fall habe ich nicht so hohe ansprüche wie einige hier wo wenn mal nur 99 frames rausschauen gleich was gemacht werden muss. solange es bei meinen gewohnten einstellungen nicht ruckelt ist mir alles egal. mir gehts ums spiel an sich.

und wenn du die die grafikkartengeschichte der letzten 10 jahre angeschaust, dann wirst du erkennen, dass high-end karten einer generation nicht mal von den midrange karten der übernächsten generation in sachen geschwindigkeit überholt worden sind...
mit einer GF FX 5900 Ultra kann man auch heute noch gut spiele spielen bei angenehmen einstellungen. ....nur eben KEINE DX9 spiele... naja, das wird immer so sein dass einige so denken und andere so - im gegensatz zu
Jau - kauf DU dir ruhig jetzt ne D3D 10-Karte, um in nem guten halben Jahr festzustellen, dass sie für die dann erscheinenden Games viel zu lahm is
- Leuten kann ich behaupten dass das mir mit meiner 2900XT nicht passiert! ...weil ICH kann mit NICHT-ULTRA Einstellungen auch spielen...

aber hab jetzt keine Lust mich provozieren zu lassen...

@Redphil: DX10 bringt eigentlich nur den Programmierern was - nicht direkt dem Endkunden.

trotzdem mfg
 
Zuletzt bearbeitet:
Soweit man das auf den ganzen Vergleichsvideos sieht ist der optische Unterschied im Moment zwischen D3D 9 und D3D 10 marginal. Also, wenn man sich jetzt ne Karte zulegt primär erstmal auf den Preis schauen und wenn die HD 2600 XT mit 512 MB GDDR3 verfügbar ist, dann die, weil die wird sich auch um die 100 Euro einpendeln.
 
Soweit man das auf den ganzen Vergleichsvideos sieht ist der optische Unterschied im Moment zwischen D3D 9 und D3D 10 marginal. Also, wenn man sich jetzt ne Karte zulegt primär erstmal auf den Preis schauen und wenn die HD 2600 XT mit 512 MB GDDR3 verfügbar ist, dann die, weil die wird sich auch um die 100 Euro einpendeln.

Also das die Unterschiede noch marginal sind ist doch klar. Im Moment experimentieren die Entwickler noch etwas herum. Wenn aber D3D 10 richtig genutzt wird und man D3D9 kaum richtig beachtetet ist man mit D3D10 besser dran.

Ich tendiere auch eher zu einer 512 MB Version oder zu einer dual GPU Karte.

Edit:
Ach du Scheiße. Hat jemand den Artikel in der neuen C´T zu den HD2600 und HD2400 gelesen. Was ist den davon zu halten. Die Karten sind zwar schneller als die gf 8600gts, aber doch nicht der bringen wie es aussieht. Kann dazu mal einer was sagen?
Muss ich dann doch auf eine kleine HD2900 warten oder ist der Test in der C´T etwas komisch?
 
Zuletzt bearbeitet:
Kann mal einer was zu der Info aus der C´T sagen? Bitte und kann man mir mal erklären was das für Karten sind von NV und ATI/AMD (nicht vom Chipsatz her)? Das ist ja mal eine Katastrophe.
Ich wollte eigendlich aufrüsten, aber das Gnaze kann man ja schon fast wieder vergessen. Da scheint ja eine X800 schneller zu sein oder eine X19XY. Schade, dann muss ich wohl noch auf die abgespekten HD 2900 warten.
 
Sowas kommt immer 8)
 
ist denn überhaupt schon klar ob sowas kommt ?

Jepp, der HD 2950 Pro ist im Gespräch, habe ich irgend wo mal gelesen, bin mir aber leider nicht mehr sicher, wo.

Der soll in 65nm Fertigung kommen und soll etwas unterhalb vom HD 2900 XT getaktet sein und der hat bestimmt eine 256 MBit Anbindung.

PSYCHO
 
Zurück
Oben Unten