News Schon wieder schlechte Nachrichten vom Fermi

Vielleicht macht es Nvidia ja auch wie Intel und erklärt den Fermi zum Entwicklungsmuster und erst die darauf folgende Generation soll marktreif werden. ;D
 
wiese Intel macht es doch wie Bananen-Harware, die reift beim Kunden :D
Für Schrott noch ~700Dollar bezahlen, sinnlos.
Wenn die Karten wenigsten guten Yield hätten und eine Langlebigkeit ohne Bugs geratiert wäre! Aber so ist es wie G80, G92 die Reihenweise gestorben sind.
Pfusch.

Bis auf die schlechte Idle Frequenz mit Bildstörung kann ich nix schlechtes bei den 5750 und 5770 sagen. Laufen ansich tadelos.

Von XFX würde ich keine Karte mehr kaufen, bei der schlechten Programmierung bei der GTS250, GTX260 und dann noch nicht mal das Problem lösen können. Umsonst sind die nicht mit die billigsten Karten.
Für mich vergleicbar mit den Dauerausfall bei Club3d.
 
Zuletzt bearbeitet:
hehe, bin halt auf der suche nach einer Karte die für mich optimal ist.
Die 4870 war von der Leistung halt optimal, aber der Stromverbrauch grottig.
dazu noch laut. zu gutem Preis abgestoßen und 4670 passiv besorgt,
Die 5750 wäre für mich die Karte gewesen fast genauso schnell wie die 4870, deutlich geringerer Stromverbrauch, und das Passiv!
Aber halt buggy.

Aktuell hab ich kein Plan was ich nehmen soll. hoffe NV bringt auch ein paar gute Karten mit guter Leistung die sich passiv kühlen lassen.

wenn du erstmal begriffen hast, dass es keine "optimale karte" gibt, dann hast du auch weniger stress. der markt ist in bewegung und die ultimative karte gibt es nicht, sondern immer mehrere möglichkeiten.
hatte auch die 4870. mit einem trick konnte man den idle-verbrauch um 30w senken. top sache. mit einem alternativen kühler geht was an der lautstärke. die eierlegende wollmilchsau gibt es nicht. ausserdem ist die 5750 langsamer als die 4870!
schau einfach nur, welche leistung du brauchst, sprich: welche auflösung du zockst, welche spiele und dann schau dir die benches an, welche leistungsklasse dir reicht. aktuell halte ich eine 5770 mit einem veränderten kühler für eine recht nahe eierlegende wollmilchsau. also, zugreifen, spaß haben, vergessen, was der markt in x wochen bringt, fertig.
.
EDIT :
.

Och, ich hab für die 5850 im Oktober 229€ bezahlt, ich könnte sie heute wohl gebraucht für mehr verkaufen, wenn ich wollte. Ich will aber nicht :P

Na, aber im Ernst, auch wenn der Euro-Dollarkurs nicht ganz unschuldig an den gestiegenen Preisen ist, es wird schon Zeit, daß es Konkurrenz gibt. Dürfte dieses Jahr aber nicht wesentlich besser werden, die paar Fermi-Karten ändern nichts, und von den kleineren Abwandlungen hat man noch gar nichts gehört. Sowas nimmt einfach den Schwung aus der technischen Entwicklung, nicht gut. Andererseits, wenn die Chips nicht so schnell in der Performance zulegen müssen, um Konkurrenzfähig zu sein, dann holt die Fertigungstechnologie vielleicht wieder etwas auf und die nächste Kartengeneration ist etwas sparsamer. Mal sehen.

der markt ist doch heute nicht mehr wie vorher!
konsolenbindung schafft stillstand im bedarf von mehr grafikpower beim pc. dadurch muss man gar nicht mehr - im ggsatz zu früher - das teue highend-teil kaufen, sondern kann schon mit lösungen <200,- zufrieden sein. ein anstieg der auflösung von 1920x1200 ist auch nicht mehr zu erwarten. nehme an, dass sich ganz wenige einen 30" auf den schreibtisch stellen. ergo ist bei 1920x1200 erstmal schluss.
ich behaupte jetzt einfach mal: wer sich heute eine graka für 250,- kauft, kommt viel länger damit aus, als bisher!
 
Für Schrott noch ~700Dollar bezahlen, sinnlos.
Wenn die Karten wenigsten guten Yield hätten und eine Langlebigkeit ohne Bugs geratiert wäre! Aber so ist es wie G80, G92 die Reihenweise gestorben sind.
Pfusch.

Na na na... nicht gegen die NV G80-, G92-Chips wettern ;)
Die Karten wurden überall hoch gelobt, haben Millionen von Fans und von Bugs wurde nie offiziell berichtet. *noahnung*
Obwohl ich ja zugeben muss, dass ich vorige Woche auch eine 8600GT zu Grabe getragen habe.
Schade eigentlich

Gruß Lehmann
 
wiese Intel macht es doch wie Bananen-Harware, die reift beim Kunden :D
Für Schrott noch ~700Dollar bezahlen, sinnlos.
Wenn die Karten wenigsten guten Yield hätten und eine Langlebigkeit ohne Bugs geratiert wäre! Aber so ist es wie G80, G92 die Reihenweise gestorben sind.
Pfusch.

Bis auf die schlechte Idle Frequenz mit Bildstörung kann ich nix schlechtes bei den 5750 und 5770 sagen. Laufen ansich tadelos.

Von XFX würde ich keine Karte mehr kaufen, bei der schlechten Programmierung bei der GTS250, GTX260 und dann noch nicht mal das Problem lösen können. Umsonst sind die nicht mit die billigsten Karten.
Für mich vergleicbar mit den Dauerausfall bei Club3d.

was flamst du denn hier rum?
keiner zwingt dich produkt x zu kaufen! auch bei anderen produkten gibt es schlechte chargen. grundsätzlich dafür hersteller meiden halte ich für verkannt. nach deiner aussage könnte man heute keine hdds mehr kaufen, da jeder hersteller in der vergangenheit mal "schrott" produziert hat. ziemlich dämlich deine aussage.
 
wenn du erstmal begriffen hast, dass es keine "optimale karte" gibt, dann hast du auch weniger stress. der markt ist in bewegung und die ultimative karte gibt es nicht, sondern immer mehrere möglichkeiten.
hatte auch die 4870. mit einem trick konnte man den idle-verbrauch um 30w senken. top sache. mit einem alternativen kühler geht was an der lautstärke. die eierlegende wollmilchsau gibt es nicht. ausserdem ist die 5750 langsamer als die 4870!
schau einfach nur, welche leistung du brauchst, sprich: welche auflösung du zockst, welche spiele und dann schau dir die benches an, welche leistungsklasse dir reicht. aktuell halte ich eine 5770 mit einem veränderten kühler für eine recht nahe eierlegende wollmilchsau. also, zugreifen, spaß haben, vergessen, was der markt in x wochen bringt, fertig.
.
EDIT :
.



der markt ist doch heute nicht mehr wie vorher!
konsolenbindung schafft stillstand im bedarf von mehr grafikpower beim pc. dadurch muss man gar nicht mehr - im ggsatz zu früher - das teue highend-teil kaufen, sondern kann schon mit lösungen <200,- zufrieden sein. ein anstieg der auflösung von 1920x1200 ist auch nicht mehr zu erwarten. nehme an, dass sich ganz wenige einen 30" auf den schreibtisch stellen. ergo ist bei 1920x1200 erstmal schluss.
ich behaupte jetzt einfach mal: wer sich heute eine graka für 250,- kauft, kommt viel länger damit aus, als bisher!

Optimal natürlich für meine Anforderungen.

wie gesagt die passive 5750 wäre für mich die Wollmichsau gewesen ;)
Ich geb dir recht Grakas halten heute doch eigentlich sehr lange, die 4870 hatte ich ja auch ne ganze weile
ich hab damals auch mit ati tray tools selbst getaktet, allerdings war mir der absolute Stromverbrauch zu hoch.

Full HD ist schon eine markante grenze.(und wird aber sich nur von den wenigsten genutzt)
immerhin können wir mit heutigen Karten in auflösungen <1680*1050 alles im maximalen Details absolut flüssig zocken.(lassen wir mal einzelne spiele außen vor)
imho ist 1680*1050 das neue 1280*1024.

Kann mir einer von euch sagen ob man beim ATI CCC das alte Layout einstellen kann? ich find das neue absolut beschissen.(Dropdown,statt auswahlliste, alles irgendwie versteckt)

Bisher hatte ich keine Probs weder bei ATI oder Nvidia, doch die übersichtlichkeit bei ATI ist ziemlich bescheiden seit der änderung.
 
Zuletzt bearbeitet:
*lol* *lol* Mann, wird das ein Spass, Duke Nukem Forever auf ner Fermikarte zu spielen !! *oesi2**buck* *baeh* *lol*

Sorry , konnte nicht widerstehen - ist halt Freitag ;)

Mmoe
 
hehe, bin halt auf der suche nach einer Karte die für mich optimal ist.
Die 4870 war von der Leistung halt optimal, aber der Stromverbrauch grottig.
dazu noch laut.

Also hör' mal, das ist überhaupt kein Argument! Ich habe meine 4870 mit ATI Tray Tools per selbst erstelltem Stromsparprofil auf 200/200 gedrosselt. Gleichzeitig ist aktiviert, dass die ATT beim Einschalten des 3D-Modus automatisch das Full-Speed-Profil laden. So habe ich - anders als beim Catalyst - nicht den Ärger mit dem manuellen Umschalten.

Also, bei den Preisen muss das ein Leistungsmonster sein...sonst kauft das keine Sau, außer Cruncher.

Oder nVidia-Fanboys. Schaut Euch mal das dümmliche Geflame zu diesem Artikel hier an.

Na na na... nicht gegen die NV G80-, G92-Chips wettern ;)
Die Karten wurden überall hoch gelobt, haben Millionen von Fans und von Bugs wurde nie offiziell berichtet.

Naja, die Bugs sollten auch nicht mehr sein, denn immerhin wird der G92-Chip jetzt für die 3. Generation Grafikkarten verwurstet. 8800 GT/GTS, 9800 GT/GTX+ und GTS 240/250. Rebranding at its best!
 
http://www.semiaccurate.com/2010/02/26/sweden-gets-world-exclusive-geforce-fermin-card/

Ist das ein verfrühter Aprilscherz? Bei der Anzahl an 666 im Text, kommt mir die ganze Sache schon sehr danach vor ;D. Und erst der Name - Fermin. Klingt nach vermin.
Sollten da wirklich 4 Fermi Chips darauf werkeln, dann zieht das Teil um die 800 Watt. Da brauchen die Overclocker ja schon fast ein eigenes NT für die Karte.

MfG

Siehe unten:
File under Graphics and Humor
 
Bisher habe ich nur 2x eine 6800GT AGP/PCIe entsorgen müssen, meine 8800GTS G92 läuft noch, allerdings wird sie kaum gefordert, evt. werfe ich die aus dem Server der kaum benutzt wird raus, und packe da ne low Cost Karte von NV o. Matrox rein.
 
Zurück
Oben Unten