6870 (MSI) & 6850 (ASUS) bei erstem Händler gelistet... 209,-€ & 165,-€

ist ein paradebeispiel für den niedergang der umgangsformen hier.
das ist nur vereinzelt so. Meist greifen wir früher oder später ein.
Wenn wir etwas zögern ist das nur ein Zeichen unserer Freundlichkeit und Geduld.

Darauf würde ich mich aber nicht verlassen - nicht du persönlich, sondern allgemein.

Der Thread wird beobachtet und ggf. auch nachdrücklich eingegriffen, hoffe aber dies muss nicht sein..

Und nun BtT ... möglichst freundlich und sachlich ohne ständig auf allem rumzureiten usw.
Streitereien werden ebenfalls unterbunden!
 
Das die Jungs von CB da jetzt eingestehen mussten, dass sie eine runtergetaktete HD6870 als HD6850 gebencht haben, ist natürlich ein Armutszeugnis. Jeder hätte sich doch vorher mal unter GPU-Z die Shadereinheiten usw. angesehen...mal schaun wieviel Boden die HD6850 dann in ihrem Test verlieren wird.
Nunja, von der etwas geringeren Leistung mal ganz abgesehen, haben die nicht auch eine Verbrauchsmessung gemacht?
Mal sehen wieviel weniger Strom sie dann braucht und ob sich die Einheiten freischalten lassen! ;D

MfG
 
Das sich da aus einer HD6850 per Biosflash noch 160SP freischalten lassen, halte ich für nicht sehr wahrscheinlich (wäre das erste mal seit der X800GTO 12 Pipes --> 16 Pipes). Ich denke das die da ein sehr "spezielles" Reviewsample von Sapphire bekommen haben. Traurig auch warum Sapphire das nicht mitbekommen haben will - ein Schelm wer böses dabei denkt. Wenn man dem Test auf Guru3D Glauben schenken darf, dann sind es 20W Unterschied zw. der 6850 und der 6870 (121W zu 141W).
 
Ein Spiel ? Okay wie währs wenn wir hier WoW als Beispiel nehmen, dann entsprechende Grakas einbauen um ein setup mit 3 Monitoren zu betreiben und dann Raiden gehen ? Auflösung währe dann 5760*1080, aber keine sorge das ist dann schon CPU Limitirt ;)

Aber das lässt du als Beispiel natürlich nicht gelten oder ?

Und ja Verbrauch bezieht sich immer auf die Leistung. Wenn ich überlege das ich auch kein 525i mit 192 Ps brauche um zu arbeit zu fahren, sondern das das der Fiesta meiner Frau genau so gut kann, ich frahre auf der Autobahn eh maximal 130 ;)

Wenn ich dann aber freie fahrt haben mächte komm ich mit dem Fiesta nicht mehr weit. Und so und nichts anderes ist der CPU vergleich oben. Natürlich vergleicht man imemr wie viel Leistung bei wie viel Watt ich bekomme - der rest interessiert mich als Kunden eh nicht.

n 5er is eh zu schwer da kommt zuwenig leistung rüber *suspect*
und mit smt verlierste leistung in wow ja gz!
und nein ich hab selbst n i7 980 xe @ 4,8ghz
merkwürdig das ich mit nem nividia system mehr fps hab als mitn ati? also limitiern doch die gpu´s :D bzw vram dalaran
 
@ Lord Bainzer
Nunja, es ist auch zum ersten mal der Name AMD vor Radeon, sicher wird das nicht bei allen gehen.
Was meinst mit sehr spezielle Reviewsample, evt ordert Sapphire nur die guten und die Einheiten werden nur auf Nachfrage der 6850 deaktiviert? *noahnung*
20W Unterschied hört sich schon realistischer an wie 12W ;)


MfG
 
Also mal meine Meinung zu dem Thema. NV baut die potenteren, aber aufwändigeren Chips. Und es ist ja schon bei den letzten Karten so gewesen, daß NV mit diesen nur einen geringen bis gar keinen Gewinn machen konnte. AMD setzt beim Design eher auf günstigere Lösungen, die dafür nicht ganz so schnell sind. Und genau jetzt sehe ich AMD im Vorteil. In der Spielewelt tut sich derzeit nichts a la Crysis. Wie schon in nem anderen Post sagte, reichen die jetzigen Karten für alle Spiele locker aus, wenn man nicht gerade >1920 spielen will. Nur wird das ein sehr kleiner Teil der Spieler sein. Und mit ner Mega-Tessellation bringe ich auch keinen dazu, daß er 20% extra für ne Karte bezahlt. Bleibt noch PhysX und so lange sich das nicht wirklich durchsetzt *noahnung* So sehe ich das und mich mal als Durchschnittsuser, ich zocke bissl, mache Office, bissl Filme und lasse nebenbei etwas falten.
 
Was mir da noch aufgefallen ist: "25% weniger Silizium g.ü. der HD5850" vermutlich auch wegen den fehlenden DP Einheiten.
Sind das womöglich reine Zocker Karten, wie steht es mit dem chrunchen?

MfG

€dit: thx an Dr@ ;D
1_AMD_Eyespeed_Technology.png

http://www.planet3dnow.de/photoplog/index.php?n=11617
 
Zuletzt bearbeitet:
@ Lord Bainzer
Nunja, es ist auch zum ersten mal der Name AMD vor Radeon, sicher wird das nicht bei allen gehen.
Was meinst mit sehr spezielle Reviewsample, evt ordert Sapphire nur die guten und die Einheiten werden nur auf Nachfrage der 6850 deaktiviert? *noahnung*
20W Unterschied hört sich schon realistischer an wie 12W ;)


MfG

Anspielung auf das Kerne Freischalten bei AMD CPUs? ;D

Also auf PCGH steht, dass das Testmuster aus der Vorserienproduktion sind, die ev. sogar auch im Handel gelandet sind. So kann man vielleicht als Erstbesteller einer HD6850 einen Barts XT Chip erwischen, wenn man Glück hat. Sapphire ist übrigens nicht der einzige Hersteller der von der Problematik HD6860 betroffen ist. Bei TechPowerUp ist eine HD6850 von HIS mit 1120 SP aufgetaucht...;)
 
So kann man vielleicht als Erstbesteller einer HD6850 einen Barts XT Chip erwischen, wenn man Glück hat.
Oder Pech, wenn sie dadurch nicht mehr ihre TDP einhält und es zu Schäden an der Grafikkarte bzw. Mainboard oder zu Instabilitäten kommt.

Schließlich hat die Radeon HD 6870 einen zweiten 6-Pin PEG Stecker und die Radeon HD 6850 keinen, aber ich schätze diese Gefahr ist gering.
 
Oder Pech, wenn sie dadurch nicht mehr ihre TDP einhält und es zu Schäden an der Grafikkarte bzw. Mainboard oder zu Instabilitäten kommt.

Schließlich hat die Radeon HD 6870 einen zweiten 6-Pin PEG Stecker und die Radeon HD 6850 keinen, aber ich schätze diese Gefahr ist gering.

Laut Spezifikation sind mit einem 6pin Anschluss + Portpower 150W möglich. Also selbst wenn man einen 6870-Chip erwischt und diesen auch auf 6870-Taktniveau bringen kann, dann sind (laut Guru3D und ohne das Hinzuziehen von Toleranzen) 141W angesagt. Theoretisch also definitv möglich.
 
Sind das womöglich reine Zocker Karten, wie steht es mit dem chrunchen?

MfG
Da es ( noch ) die selbe Architektur wie Cypress ist, sollte das crunchen dank DP kein Problem darstellen und auf etwa selbes Niveau kommen von der Performance her. Erst der große Bruder Cayman könnte geänderte Apps erfordern wegen den 1*4D Shadern.
Hab deinen Link noch nicht gelesen, werd es aber gleich tun.
 
Zuletzt bearbeitet:
Da es ( noch ) die selbe Architektur wie Cypress ist, sollte das crunchen dank DP kein Problem darstellen und auf etwa selbes Niveau kommen von der Performance her. Erst der große Bruder Cayman könnte geänderte Apps erfordern wegen den 1*4D Shadern.
Hab deinen Link noch nicht gelesen, werd es aber gleich tun.


Nein die karten haben kein DP ähnlich wie bei der 57xx ;)
 
Holy Shit of a Cow, hast recht. Bin automatisch davon ausgegangen wegen 256Bit SI.
OMG das ist bitter. Damit wird sich AMD keine Freunde in der Cruncher Gemeinde machen, das ist sicher. Nur gut das die alten Cypress jetzt im Preis fallen.
 
Zuletzt bearbeitet:
Du kanst irgendwie nicht anders, oder ?
Nun also in Englisch Fäkalausdrücke...:]
Leider bist du via PN nicht zu erreichen, somit also hier.

Man, muss das denn sein? *chatt*

PS: Jetzt wird mir langsam die Hutschnur zu eng....( ! )
 
Zuletzt bearbeitet:
@ S.I.
Micha, ich ändere das kurz und dann ist friede, freude & Eierkuchen?

Holy pantshit of a Cow Baby, hast recht. Bin automatisch davon ausgegangen wegen 256Bit SI.
OMG das ist bitter. Damit wird sich AMD keine Freunde in der Cruncher Gemeinde machen, das ist sicher. Nur gut das die alten Cypress jetzt im Preis fallen.
 
Was für ein gebashe :D 200 Euro sind viel Geld für ne Grafikkarte, die paar Pixel auf den Schirm zaubert.

Ich find die Werte gut, die Namesgestaltung eher nicht aber naja. Die 5000er Reihe war die erste DX11 Karte. Das gelaber das die Fermis ja soviel besser sind, ist zwar richtig, aber es liegt fast nen halbes Jahr zwischen den Releases.

Ich habe mich für 2x5850 entschieden. 1. Weil ich mehr Leistung wollte und 2. Eyefinity.
Wenn die neuen Karten die selbe Leistung haben ist dies schon mal ein Plus. Unser Crossfire-Tests haben gezeigt, das 2x5770 so schnell sind wie eine 5850.

Die 6000er werd ich überspringen da es sich aktuell nicht wirklich lohnt.

Und zum Thema Multicores, viele Spiele die ich in letzter Zeit gezoggt habe profitieren von mehr Kernen, daher halte ich einen 1055T für keine falsche Beratung. Wär ältere Games spielt wird von mehr Ghz profitieren.

so long
 
Schön das es hier nicht weiter auf das Niveau anderer Foren absinkt!

Also ich muss ehrlich sagen das die neuen Karten äußerst attraktiv sind. Die neue Mittelklasse ist schnell, günstig und lutscht einem nicht die Steckdose cremig. Wenn ich mich nicht erst vor ein paar Monaten für eine 5770 entschieden hätte (mit der ich übrigens sehr zufrieden bin) wären die neuen Karten in die engere Auswahl gekommen.
 
Ich wollte schon bei den 5xxxer zuschlagen, jedoch waren die preislich für mich nie attraktiv. Jetzt eine schöne 6850er mit guter Kühllösung und ich habe was neues. Temps & Lautstärke sind mir jetzt wichtiger.
 
Ich wollte schon bei den 5xxxer zuschlagen, jedoch waren die preislich für mich nie attraktiv. Jetzt eine schöne 6850er mit guter Kühllösung und ich habe was neues. Temps & Lautstärke sind mir jetzt wichtiger.

da schließe ich mich an, als Ersatz für meine 4870er :)
 
Die 6850 kann sich nach dem 2 update bei CB immernoch vor der GTX 460 enreihen :).
 
Also ich warte auf die Ankunft meiner bestellten 6870. Hatte mit der 5850 geliebäugelt, bin aber im Nachhinein froh, gewartet zu haben. Wenn ich annähernd die Performance einer 5870 für €200,00 bekomme, relativieren sich die anderen Kritikpunkte (undurchsichtige Namensgebung, Einsparungen in der Architektur..).
 
Falls wer die Karte besitzt, könnte er dann mal ein paar Worte zur DC-Leistung sagen? Am besten wäre Fah, aber ich will ja nicht zu viel verlangen :)
 
Heute Morgen ist meine 6870 von MSI eingetrudelt...hab meine 4870 damit nach fast 2 Jahren in Rente geschickt.

Schön leise und schön kalt das Teil, zum verbrauch kann ich leider nicht mehr sagen als die Testberichte (kein Messgerät).

Ich habe noch einen Phenom II X4 940BE im Rechner, ob der die Karte wohl limitiert?!
 
Kannst Du ganz einfach selbst rausfinden. Steigere in Spielen die Auflösung und Qualität, bleibt die Bildrate konstant und sinkt nicht "langweilt" sich deine Grafikkarte. ;)
 
Zurück
Oben Unten