Zuhause bei AMD und nie mehr zurück zu NVIDIA!

Mein erster Rechner 1900DM für einen Mittelklasse Rechner, die Riva lief wie sie sollte.
NVIDIA Riva TNT2 32MB no name mit
AMD Slot A Athlon 500MHZ @ 750MHZ

Diablo2 schrie nach mehr Power und der wurde durch die GTS erst einmal gestillt.
OFP brauchte mehr Power die Geforce und der Athlon waren schon per OC am Anschlag.
NVIDIA GeForce2 GTS 32MB von ASUS
AMD Slot A Athlon 750MHZ @ 1GHZ

CPU starb den OC Tod durch zu viel Vcore neues MOBO und CPU mussten her die Geforce
Wurde günstig gebraucht gekauft mit neuer costum Lukü mehr Leistung herrausgekitzelt.
NVIDIA GeForce3 Ti 200 64MB MEDION
AMD Sockel A Duron 1,2GHZ @ 1,4GHz

Meine erste ATI, das Paket hat mich überzeugt P/L und Bildqualität war auch per BNC am Monitor nicht zu toppen. Leistung satt und per Arctic Cooling ATI Silencer 1 war dann auch Ruhe, die Graka ist heute noch in Betrieb. Top Karte.
ATI Radeon 9700 Pro 128MB SAPPHIRE Atlantis
INTEL P4 2,4GHz @ 3,1 GHz

Eine spitzen CPU suchte nach einer gleichwertigen Graka. Die ASUS EAXX1950 war absolut unproblematisch so lange kein Hitzestau im Gehäuse vorhanden war dann konnte die Karte auch lauter werden.
ATI Radeon X1950XTX 512MB ASUS EAX
AMD A64 X2 2,2GHz @ 2,6Ghz

Die Powercolor war Hausmannskost und absolut unproblematisch leise und kühl.
ATI Radeon HD 4850 1GB Powercolor PSC+
AMD PHII X3 720 2,8GHz @ 3,2GHZ

Die HD7950 ist heute noch eine super Karte allerdings nicht die VTX3D. Zu lauter Lüfter, Spulenfiepen ab ca 100 FPS. Kühler runter und Arctic Accelero Xtreme IV 280X rauf und Ruhe war es auch bei Vollast. Die Karte wurde weitervererbt und läuft heute noch mit BOINC ohne Probleme.
Die neue Karte wurde eine AMD Radeon R9 290 Sapphire vapor-x tri-x oc, so lang wie der Name ist die Karte auch Leistung top und Lautstärke leise.
ATI Radeon HD 7950 3GB VTX3D V 3Boost & AMD Radeon R9 290 Sapphire vapor-x tri-x oc
AMD FX8320 3,5GHz @ 4,4GHz

Der „Reise“ Rechner bekam Leistung satt mit Wakü zu einer Zeit als der € noch etwas wert war.
Nach dem die Marketing Lüge von NVIDIA zur 970 bekannt wurde, war klar alles richtiggemacht.
Die 290x hat kein Spulenfiepen und MSI gibt auch eine Kartengarantie, wenn man den Kühler tauscht, was für mich wichtig war durch das Modding mit einem Wasserkühler.
AMD Radeon R9 290X 4GB MSI Gaming
INTEL i7 5820 3,3GHz @ 4,6GHz

Ich hatte ATI bzw jetzt AMD Karten wegen des besseren P/L Verhältnis gegenüber anderen Marktteilnehmern gekauft. Matrox war mal auf dem Schirm wegen des sehr guten Bildes hatte aber nicht die 3D Leistung für Games und war seit der 9700pro kein Thema mehr.
Eine neue Graka benötige ich im Moment keine, für ein Leistungsupgrade.
 
Da gibt es natürlich nichts Schönzureden.
Aber man kann ja trotzdem abwägen, ob man die Karte auch mit 3,5GB noch wie vorgesehen nutzen kann. Bei mir ist das der Fall.
Ich hätte auch kein Problem damit, einen VW Diesel zu kaufen, sofern der Preis stimmt.

ALso findest du es völlig OK, wenn dich (bestimmte??) Unternehmen verarschen?

Und genau darum geht es ja!

nVidia hat ja gesehen, dass es für sie gut ist, die unehrlich zu sein und die Kunden über den Tisch zu ziehen.

Glaubst du wirklich, dass sie beim nächsten mal nicht noch üblere Dinge abziehen?!

Also wenn man sich mal anschaut, wie es angefangen hat: erst zum Speicherinterface unpassende Speichermengen anbieten, jetzt den Speichercontroller kastrieren.
Da muss man doch ganz ehrlich fragen:
Was wird als nächstes kommen?

Und es interessiert niemanden, die Produkte werden nicht Boykottiert (denn NUR so kann man dem Unternehmen zeigen, dass man das scheiße findet!) sondern muter weiter gekauft und auch in Foren empfohlen...

Du siehst, worauf ich hinaus will?

Der VW Skandal ist insofern anders gelagert als dass VW damit eben NICHT (mehr) durchkommt, die Leute sich aufregen, die Besitzer Maßnahmen dagegen ergreifen - was bei der GTX 970 ja eben NICHT der Fall war...

Entsprechend wird VW das wohl kein zweites mal machen (die anderen werdens sich auch überlegen und 'ehrlicher' arbeiten).
Bei nVidia muss man allerdings erwarten, dass sie noch Userunfreundlicher agierender werden, noch schlimmer als es Apple jetzt schon tut!

Denn das ist ja 'das Große Vorbild' von dem Herren Jennsen: Apple...
Inklusive der Anhänger...
 
Natürlich finde ich es nicht OK.
Mir ist vor vielen Jahren beim Boykottieren aber irgendwie aufgefallen, dass die Anzahl der noch verbleibenden Hersteller in vielen Bereichen dann gegen Null tendiert.
Da ich bei der CPU schon die teure AMD-Variante gegenüber Intel bevorzugt habe, mußte wenigstens bei der GPU etwa deutlich effizienteres (und damit Preiswerteres) her. Stromkosten fließen bei mir mit ein in die Kalkulation.
 
[3DC]Payne;5070129 schrieb:
ALso findest du es völlig OK, wenn dich (bestimmte??) Unternehmen verarschen?
Er hat seine GeForce GTX 970 doch nach Bekanntwerden des fehlenden achten L2-Caches gekauft. *noahnung*
 
Der „Reise“ Rechner bekam Leistung satt mit Wakü zu einer Zeit als der € noch etwas wert war.
Nach dem die Marketing Lüge von NVIDIA zur 970 bekannt wurde, war klar alles richtiggemacht.
Die 290x hat kein Spulenfiepen und MSI gibt auch eine Kartengarantie, wenn man den Kühler tauscht, was für mich wichtig war durch das Modding mit einem Wasserkühler.
AMD Radeon R9 290X 4GB MSI Gaming
INTEL i7 5820 3,3GHz @ 4,6GHz

...und in (spätestens) 2 Jahren, wenn der Nachfolger der GTX970 draußen ist, kannst dich auch noch mehr an deiner Karte erfreuen, da sie dann meilenweit vor der GTX 980 liegen wird, sehr wahrscheinlich sogar oft vor der GTX 980ti...

Halt genau, wie es jetzt bei GK104 karten und Tahiti Besitzern der Fall ist.
mal ein Blick auf diese Zahlen werfen und mal über sich ergehen lassen.
GTX770, 2GiB: 100% (avg)
R9-280: 150%
R9-280X: 167%

Vor 2 Jaren waren beide nah beisammen...
 
Zuletzt bearbeitet:
Oh, das ist ja ein niedlicher Thread ;D Als Trotzreaktion auf den uralten Thread von Tobi, wo sich AMD Fanboys beschwerten, der Thread-Titel sei zu provokant, wird nun ein AMD Thread mit gleichem Titel geöffnet. Ooookay, macht Sinn :] ;D Zumindest, wenn man selbst nämlich nur provozieren statt diskutieren möchte.

[3DC]Payne;5070140 schrieb:
...und in (spätestens) 2 Jahren, wenn der Nachfolger der GTX970 draußen ist, kannst dich auch noch mehr an deiner Karte erfreuen, da sie dann meilenweit vor der GTX 980 liegen wird, sehr wahrscheinlich sogar oft vor der GTX 980ti...

Mal davon abgesehen, dass in 2 Jahren die o. g. Karten sowieso alle grottenlahm sein werden, angesichts der aktuellen Entwicklungen (VR):

Wie schon im anderen Thread gesagt: Das ist einfach nur wilde Spekulation, sonst nichts. Keiner weiß, was in 2 Jahren sein wird. Vielleicht haben AMD und/ oder nVidia dann eine andere Treiberpolitik, vielleicht ist nVidia pleite, vielleicht spielen dann alle nur noch mit VR-Brillen und die oben genannten Grafikkarten sind sowieso alle viel zu lahm, vielleicht ist die Welt untergegangen.... wir wissen es nicht.

Edit:

[3DC]Payne;5070140 schrieb:
Halt genau, wie es jetzt bei GK104 karten und Tahiti Besitzern der Fall ist.
mal ein Blick auf diese Zahlen werfen und mal über sich ergehen lassen.
GTX770, 2GiB: 100% (avg)
R9-280: 150%
R9-280X: 167%

Vor 2 Jaren waren beide nah beisammen...

Habe mir gerade mal deinen Link angeschaut. Deine Argumentation stützt sich auf den Test eines (wegen seiner grottenmiesen Optimierung kritisierten) Spiels? In dem Test steht außerdem drin, dass das Spiel enormen Speicherhunger hat (also vergleichst du die 2GB GTX770 gegen die 3GB R9-280).

Kann auch die Werte, die du da nennst (100% vs. 150%/ 167%) nicht nachvollziehen. Bei mir sieht das so aus (GTX770 mit 4GB genommen):

1080p:
unbenanntuwo5w.jpg


1440p (was ohnehin Schwachsinn ist bei diesen Karten):
unbenannt2iikjr.jpg


Wow, das sind ja wirklich eklatante Unterschiede.

Die 2GB GTX770 fällt gegenüber der 4GB Version in 1080p nochmal 13% ab, was aber nicht verwunderlich ist, wenn das Spiel solch enormen Speicherhunger hat, wie in dem Artikel steht. 3GB sind scheinbar absolutes Minimum für dieses Spiel.

In 1440p fällt die 2GB GTX770 verständlicherweise auf Grund ihres kleinen Speichers noch weiter ab (25% zur 4GB GTX770). Völlig normal, der Speicher reicht einfach vorne und hinten nicht. Diese Auflösung ist allerdings sowieso Schwachsinn bei diesen alten, langsamen Karten. Es sei denn, man möchte mit 25-35fps spielen :]

Wenn ich mir diese Zahlen so anschaue, dann müsste das Fazit wohl eher lauten (wenn man denn auf Langlebigkeit einer Grafikkarte besonderen Wert legt), dass man zu einer Grafikkarte mit mehr Speicher greifen sollte. Nicht jedoch, dass nVidia alte Grafikkarten irgendwie auffällig schlecht mit Treibern versorgt :]
Vorausgesetzt natürlich, man sieht den Test eines einzigen (besonders Speicher hungrigen) Spiels überhaupt als repräsentativ an.

Deine Voraussagung jedoch, dass in 2 Jahren eine 4GB R9 290X "meilenweit vor der GTX 980 liegen wird, sehr wahrscheinlich sogar oft vor der GTX 980ti..." ist einfach nur an den Haaren herbei gezogen. Die GTX980 hat gleich viel, die GTX980Ti sogar 50% mehr Speicher.
 
Zuletzt bearbeitet:
Oh, das ist ja ein niedlicher Thread ;D Als Trotzreaktion auf den uralten Thread von Tobi, wo sich AMD Fanboys beschwerten, der Thread-Titel sei zu provokant, wird nun ein AMD Thread mit gleichem Titel geöffnet. Ooookay, macht Sinn :] ;D Zumindest, wenn man selbst nämlich nur provozieren statt diskutieren möchte.

Der Titel ist nicht gleich und er ist auch nicht der selbe! Erkennen und Differenzieren kannst Du nicht? Wenn ich provozieren lesen, dann denke ich natürlich zuerst an dich! Du versuchst das andere - für dich gleiche Thema - ja auch ständig am Leben zu erhalten. Du bist quasi der Defibrillator - oder willst es zumindest sein.



Mal davon abgesehen, dass in 2 Jahren die o. g. Karten sowieso alle grottenlahm sein werden, angesichts der aktuellen Entwicklungen (VR):

Wie schon im anderen Thread gesagt: Das ist einfach nur wilde Spekulation, sonst nichts. Keiner weiß, was in 2 Jahren sein wird. Vielleicht haben AMD und/ oder nVidia dann eine andere Treiberpolitik, vielleicht ist nVidia pleite, vielleicht spielen dann alle nur noch mit VR-Brillen und die oben genannten Grafikkarten sind sowieso alle viel zu lahm, vielleicht ist die Welt untergegangen.... wir wissen es nicht.

Nicht jeder braucht VR und nicht jeder wird es haben! Daher ergibt deine Aussage auch weniger als gar keinen Sinn. Dank Fanboys - so wie Du es bist - wird NVIDIA nicht Konkurs gehen. Auch wenn Du immer wieder betonst anderen Herstellern eine Chance zu geben - nur um sie dann mit frei erfundenen Dingen auszuschließen.

Edit:



Habe mir gerade mal deinen Link angeschaut. Deine Argumentation stützt sich auf den Test eines (wegen seiner grottenmiesen Optimierung kritisierten) Spiels? In dem Test steht außerdem drin, dass das Spiel enormen Speicherhunger hat (also vergleichst du die 2GB GTX770 gegen die 3GB R9-280).

Wenn ich mich recht entsinne ist es genau NVIDIA, die ständig irgendwelche "Optimierungen" ("Game Ready Drivers") brauchen, damit die Spiele darauf vernünftig laufen (siehe Beta von The Division The Division: R9 390 spielt GTX 970 aus ). Die Optimierung sollte und muss Sache der Anwendungsentwickler sein und nicht der Treiberentwickler - ausgenommen ist natürlich Betrug, um andere künstlich auszubremsen.


Deine Voraussagung jedoch, dass in 2 Jahren eine 4GB R9 290X "meilenweit vor der GTX 980 liegen wird, sehr wahrscheinlich sogar oft vor der GTX 980ti..." ist einfach nur an den Haaren herbei gezogen. Die GTX980 hat gleich viel, die GTX980Ti sogar 50% mehr Speicher.

Kannst Du das Gegenteil beweisen? Alle Indizien aus der Vergangenheit stützen jedoch seine These, dass die 900er Generation dann nicht weiter "optimiert" wird und man die Besitzer zum Neukauf anregen muss. NVIDIA Kunden verpesten durch ihren häufigen Neukauf die Umwelt, verbrauchen unnötig Ressourcen und über die Energie, die bei der Herstellung "drauf" geht, damit möchte ich erst gar nicht anfangen.

Wer oder was hinderte NVIDIA daran mehr Speicher auf die Karte zu packen? Niemand!
 
Zuletzt bearbeitet:
Ich zitiere mich mal selbst:

Daher stelle ich mal eine kühne Behauptung auf: Spätestens auf Seite 2 dieses Themas gehen sich alle an die Gurgel und das ganze endet in wüsten Vorhaltungen die weder belegbar sind noch überprüft werden können.

Ich stell mir von daher schonmal das Popcorn bereit. ;D

von daher schmeckt das Popcorn im Moment wahnsinnig lecker!

Abgesehen von dieser Schlammschlacht ist es anscheinend noch keinem der Protagonisten in den Sinn gekommen einfach mal zu sagen: Ich habe die Grafikkarte XY und bin so etwas von zufrieden mit der Karte. Aber nein, was kommt hier: Ich hab den Größten und den Längsten und aller anderen sind doof und stinken nach Maggi. Echt zum kotzen sowas. Lasst es doch einfach. Meint ihr denn eure blöde Hardware wird auch nur ein Stückchen schneller wenn man andere runtermacht. Die eigene Freundin (sofern vorhanden) wird auch nicht hübscher wenn man über alle anderen herzieht und behauptet die wären hässlich.

Insofern bin ich sehr zufrieden mit meiner nvidia 660 GTX und alles andere ist mir egal.
 
Der Titel ist nicht gleich und er ist auch nicht der selbe! Erkennen und Differenzieren kannst Du nicht? Wenn ich provozieren lesen, dann denke ich natürlich zuerst an dich! Du versuchst das andere - für dich gleiche Thema - ja auch ständig am Leben zu erhalten. Du bist quasi der Defibrillator - oder willst es zumindest sein.
Der Titel ist sinngemäß gleich, mehr gibt es dazu nicht zu sagen. *noahnung*

Nicht jeder braucht VR und nicht jeder wird es haben! Daher ergibt deine Aussage auch weniger als gar keinen Sinn.
VR war nur ein Aspekt. Die Aussage, nämlich dass niemand weiß, was in 2 Jahren sein wird, ergibt sehr wohl Sinn. Zudem habe ich ja deutlich gemacht, wie löchrig die Argumentation von [3DC]Payne war. Der von ihm gepostete Link untermauert in keiner Weise seine Behauptung.

Dank Fanboys - so wie Du es bist - wird NVIDIA nicht Konkurs gehen. Auch wenn Du immer wieder betonst anderen Herstellern eine Chance zu geben - nur um sie dann mit frei erfundenen Dingen auszuschließen.
Falsch. Auch wenn du das gerne so hättest, bin ich im Gegensatz zu dir kein Fanboy. Denn ich mache aus dem Kauf einer Grafikkarte keine politische Entscheidung aus Überzeugung, sondern ich kaufe schlicht nach meinen priorisierten, sachlichen Kaufkriterien (die haben nichts mit frei erfunden zu tun, sondern das sind Fakten). Diesmal war es eine GTX980(Ti), davor eine GTX670, davor war es eine HD6870 und diverse andere AMD/ ATI Karten bis zurück zur *überleg* GeForce 3 oder 4 (habe außerdem im Bürorechner eine AMD APU). Beim nächsten Mal kann es gerne wieder AMD sein, aber das wird sich schlicht an den Eckdaten (für mich hauptsächlich Energieeffizienz) entscheiden. Mir ist dieser ganze politische Krams und das Herstellerlogo auf meiner Graka nämlich sowas von wumpe.
Mein Foren-Nickname ist sogar eine AMD CPU, ich nV Fanboy und AMD Hater *lol*

Kannst Du das Gegenteil beweisen? Alle Indizien aus der Vergangenheit stützen jedoch seine These, dass die 900er Generation dann nicht weiter "optimiert" wird und man die Besitzer zum Neukauf anregen muss.
Welche Indizien denn? Ich lasse mich ja gerne aufklären und eines Besseren belehren. Die Messergebnisse aus dem von [3DC]Payne geposteten Link, die seine Behauptungen untermauern sollten, waren jedenfalls völlig fehlinterpretiert von ihm. Die Ergebnisse reichen mir schonmal als "Beweis", dass die GTX770 genauso "langlebig" wie eine R9 280 war (nämlich garnicht).

Wer oder was hinderte NVIDIA daran mehr Speicher auf die Karte zu packen? Niemand!
Wer oder was hinderte jemanden daran, die GTX770 mit 4GB statt mit 2GB zu kaufen? Niemand! ;)
 
Zuletzt bearbeitet:
Ich zitiere mich mal selbst:



von daher schmeckt das Popcorn im Moment wahnsinnig lecker!

Abgesehen von dieser Schlammschlacht ist es anscheinend noch keinem der Protagonisten in den Sinn gekommen einfach mal zu sagen: Ich habe die Grafikkarte XY und bin so etwas von zufrieden mit der Karte. Aber nein, was kommt hier: Ich hab den Größten und den Längsten und aller anderen sind doof und stinken nach Maggi. Echt zum kotzen sowas. Lasst es doch einfach. Meint ihr denn eure blöde Hardware wird auch nur ein Stückchen schneller wenn man andere runtermacht. Die eigene Freundin (sofern vorhanden) wird auch nicht hübscher wenn man über alle anderen herzieht und behauptet die wären hässlich.

Insofern bin ich sehr zufrieden mit meiner nvidia 660 GTX und alles andere ist mir egal.

Es kamen doch bisher sehr viele Bekundungen mit zufriedenen AMD/ATI Nutzern. Nur haben sich jetzt die NVIDIAner eingeklinkt und wollen Unruhe stiften.

Meine "blöde" Hardware ist günstiger und mindestens gleich schnell (künstliche Bremse in einige Spielen außer Acht gelassen) - im Vergleich zur unlauteren Konkurrenz. Das mehr an Geld wird in Diesel, der gerade auch billig ist und schweizer Automatikuhren investiert. ;)
 
Mal davon abgesehen, dass in 2 Jahren die o. g. Karten sowieso alle grottenlahm sein werden, angesichts der aktuellen Entwicklungen (VR)
Oh ja, richtig, weil ja auch Karten von vor 2 Jahren ja auch heute total unbrauchbar sind. Und vor 2 Jahren waren die Karten, die damals 2 Jahre alt waren, auch total unbrauchbar.
Und warum ist es denn immer noch möglich, mit den ersten DX11 Karten auch heute noch einige aktuelle Games zu zocken?!

Eben weil deine Aussage hier völliger Käse ist, die einfach nur an den Haaren herbeigezogen ist.
Zumal ein Spiel auch auf relativ schwacher Hardware laufen _MUSS_, auch wenn du es nicht gerne hörst, denn nicht jeder ist bereit seinen Rechner jedes Jahr für mehrere hundert/tausend Euronen aufzurüsten. Und darauf müssen auch die Entwickler rücksicht nehmen - wer soll denn sonst das Spiel spielen?!

Oh und zu VR:
1. ist der Vorreiter dort mal wieder AMD.
2. Ist das alles noch Zukunftsmusik
3. Wird das lange Zeit nur eine Randerscheinung sein.

Wie schon im anderen Thread gesagt: Das ist einfach nur wilde Spekulation, sonst nichts. Keiner weiß, was in 2 Jahren sein wird. Vielleicht haben AMD und/ oder nVidia dann eine andere Treiberpolitik, vielleicht ist nVidia pleite,
Ja, nee, is klar.
In den nächsten 2 Jahren soll sich etwas ändern, was sich in den letzten 10 Jahren nicht geändert hat...

Und warum sollte nVidia etwas ändern, was den Kunden schadet und ihnen nützt?!




Habe mir gerade mal deinen Link angeschaut. Deine Argumentation stützt sich auf den Test eines (wegen seiner grottenmiesen Optimierung kritisierten) Spiels? In dem Test steht außerdem drin, dass das Spiel enormen Speicherhunger hat (also vergleichst du die 2GB GTX770 gegen die 3GB R9-280).

Kann auch die Werte, die du da nennst (100% vs. 150%/ 167%) nicht nachvollziehen. Bei mir sieht das so aus (GTX770 mit 4GB genommen)
Ja, natürlich habe ich die 2GiB GTX 770 genommen und nicht die 4GiB Version.
Überlege mal bitte, warum...
Dafür gibt es nämlich einige handfeste Gründe, die DU nicht mit Worten wegwischen kannst.

Die 4GiB GK104 Karten kannst nämlich mit der Lupe suchen.
Die waren nämlich schlicht viel zu teuer, im Bereich um die +100€ oder sogar noch mehr.

Daher wird jemand, in über 90% der Fälle, der eine GK104 Karte gekauft hat, eine Karte mit 2GiB VRAM gekauft haben, nicht mit 4GiB.

Vorausgesetzt natürlich, man sieht den Test eines einzigen (besonders Speicher hungrigen) Spiels überhaupt als repräsentativ an.
...dass auch noch 'zufälligerweise' eines der krassesten nVIdia Gameworks Titel der letzten Zeit ist, also eigentlich super duper toll auf nVidia Hardware laufen sollte...

Oder hat man sich vielleicht doch eher dazu entschieden, das Gegenteil zu machen?!
Deine Voraussagung jedoch, dass in 2 Jahren eine 4GB R9 290X "meilenweit vor der GTX 980 liegen wird, sehr wahrscheinlich sogar oft vor der GTX 980ti..." ist einfach nur an den Haaren herbei gezogen. Die GTX980 hat gleich viel, die GTX980Ti sogar 50% mehr Speicher.
Ja, genau so wie es jetzt mit der GTX 680 und der Radeon HD7970 der Fall ist.
Genau so, wie es damals mit der Geforce 6800 und der Radeon X800 der Fall war.
Genau so wie es damals mit der Geforce 7900 und der Radeon X1900 der Fall war.
Genau so wie es jetzt mit der Geforce GTX 780 und der Radeon R9-290 der Fall ist.

Nur Fermi vs. HD5000, ev. sogar HD6000 Serie schaut anders aus. Das lag aber an der VLIW Architektur, mit der AMD etwas Boden verloren hat...
Dafür verbriet aber eine HD5870 fast 100W weniger als eine GTX 480, bei fast gleicher Leistung...

Und es gibt auch Aussagen von einigen Leuten, die meinen, dass bei nVidia auf einmal irgendwelche Objekte verschwinden, wenn man denen den Code für ein neues Projekt gegeben hat...
Das hat man früher 'Treibercheat' genannt, heute scheints wohl keinem aufgefallen zu sein (kannst ja mal im 3DCenter suchen)...

Und auch die Sache mit der großen Kepler Karte (GTX 780, 780ti, Titan...) und einigen Spielen schon vergessen?!
Also dass die Performance der Karte so grotten schlecht war, dass sogar eine GTX 960 auf dem Niveau war und es praktisch keinen UNterschied machte...

--- Update ---

Wer oder was hinderte jemanden daran, die GTX770 mit 4GB statt mit 2GB zu kaufen? Niemand! ;)
Budget? Preis/Leistung?!

Aber klar, +50% mehr für etwas zahlen, wird jetzt einfach mal als nicht so wichtig abgetan...

Also echt, du willst kein nV Fan sein, verteidigst aber den Haufen mit dem Messer zwischen den Zähnen?!
Wann hattest du denn das letzte mal 'ne AMD Karte im Rechner?!

Bei mir war letzte Woche noch 'ne GTX570 im Rechner, die ich durch eine AMD HD7770 getauscht habe, eben weil ich die Leistung(saufnahme) der Karte nicht brauchte.
 
[3DC]Payne;5070195 schrieb:
Ja, natürlich habe ich die 2GiB GTX 770 genommen und nicht die 4GiB Version.
Überlege mal bitte, warum...
Dafür gibt es nämlich einige handfeste Gründe, die DU nicht mit Worten wegwischen kannst.

Die 4GiB GK104 Karten kannst nämlich mit der Lupe suchen.
Die waren nämlich schlicht viel zu teuer, im Bereich um die +100€ oder sogar noch mehr.

Daher wird jemand, in über 90% der Fälle, der eine GK104 Karte gekauft hat, eine Karte mit 2GiB VRAM gekauft haben, nicht mit 4GiB.

Ah ok, und damit wird nun deine haarsträubende These untermauert, eine 4GB R9 290X werde in spätestens 2 Jahren "meilenweit vor der GTX 980 liegen wird, sehr wahrscheinlich sogar oft vor der GTX 980ti..." wo doch diese beiden Karten gleich viel oder mehr Speicher haben?

Preis-Leistung (wenn man "Leistung" mal schlicht auf fps beschränkt) mag bei nVidia schlechter sein, das will ich überhaupt nicht leugnen *noahnung*
 
Zuletzt bearbeitet:
@Thunderbird 1400

Mit dir kann man nicht diskutieren, entweder wird verharmlost, Fakten nicht anerkannt oder das Fähnchen der "persönlichen Vorlieben" dreht sich im Wind, da das grüne Marketing wieder bestimmte "Merkmale" auf die Welt losgelassen hat. Außerdem hast Du bisher nichts zum Thema beigetragen, außer eben versucht Unruhe zu stiften. Am besten einfach noch mal meinen Eingangsbeitrag durchlesen und verstehen, auch wenn das bei dir wieder Schaum vorm Mund bedeutet.
 
[3DC]Payne;5070195 schrieb:
Also echt, du willst kein nV Fan sein, verteidigst aber den Haufen mit dem Messer zwischen den Zähnen?!
Nö, ich verteidige nVidia nicht. Mich nervt es nur, wenn jemand Messergebnisse total fehlinterpretiert und dann haarsträubende falsche Schlüsse als Fakten darstellt.

--- Update ---

Mit dir kann man nicht diskutieren, entweder wird verharmlost, Fakten nicht anerkannt oder das Fähnchen der "persönlichen Vorlieben" dreht sich im Wind, da das grüne Marketing wieder bestimmte "Merkmale" auf die Welt losgelassen hat. Außerdem hast Du bisher nichts zum Thema beigetragen, außer eben versucht Unruhe zu stiften.
Ich bin auf einen Beitrag von [3DC]Payne eingegangen, nämlich seine Behauptung. Also habe ich sehr wohl etwas zum Thema beigetragen. Oder wird es hier nicht gerne gesehen, wenn jemand Fehlinterpretationen als solche bezeichnet, wenn sie zu Gunsten AMDs ausgelegt waren? *noahnung*
 
Lies noch mal dein Geschreibsel! Nur Du kannst natürlich - die für dich anscheinend richtigen - Schlüsse ziehen!!1!!!!Elf
 
Lies noch mal dein Geschreibsel! Nur Du kannst natürlich - die für dich anscheinend richtigen - Schlüsse ziehen!!1!!!!Elf

Nee, is klar. Man möge mir gerne erklären, wie die Messergebnisse des verlinkten Tests so zu deuten sind, dass man zu dem von [3DC]Payne geäußerten Schluss kommt. Für mich zeigen die Messergebnisse schlicht den Einbruch einiger Karten auf Grund von zu wenig Speicher (die GTX960 macht es auf Grund ihrer Rohleistung noch halbwegs wett).
nVidia Karten mögen ein schlechteres oder von mir aus auch mieses Preis-Performance-Verhältnis haben, darum ging es nicht.

Wenn es natürlich in diesem Thread nicht erwünscht ist, Aussagen anzuzweifeln, weil hier nur AMD Fanboys erwünscht sind.... ok bitte, dann gehe ich halt. Dann schreib doch bitte "nur Pro-AMD Argumente in diesem Thread erwünscht" gleich mit in den Titel.
 
Zuletzt bearbeitet:
Ah ok, und damit wird nun deine haarsträubende These untermauert, eine 4GB R9 290X werde in spätestens 2 Jahren "meilenweit vor der GTX 980 liegen wird, sehr wahrscheinlich sogar oft vor der GTX 980ti..." wo doch diese beiden Karten gleich viel oder mehr Speicher haben?

Dann drehen wir den Spieß doch mal um.
Was hindert dich daran die 8 GB Variante der 290x zu nehmen? Der Preis scheint bei dieser theoretischen Diskussion ja irrelevant zu sein.
 
Dann drehen wir den Spieß doch mal um.
Was hindert dich daran die 8 GB Variante der 290x zu nehmen? Der Preis scheint bei dieser theoretischen Diskussion ja irrelevant zu sein.

Wenn für mich die Energieeffizienz einer Grafikkarte kein entscheidendes Kaufkriterium wäre, dagegen jedoch die "Langlebigkeit" bzw. "Zukunftssicherheit", dann würde mich garnichts daran hindern, die 8GB 290X zu nehmen. Für jemanden mit entsprechenden Prioritäten bei der Kaufentscheidung würde ich meine volle Empfehlung aussprechen.
 
Zuletzt bearbeitet:
Der Punkt Energieeffizienz ist bei solchen Diskussionen immer wieder witzig denn die Energie die für die Herstellung einer solchen Karte verbraten wird wird dabei immer so schön ausgeblendet, obwohl das deutlich mehr sein dürfte als sie innerhalb der Nutzungsdauer an Strom verbraten hat.
Kann ich eine solche 290x (deutlich) länger nutzen wäre sie also dennoch energieeffizienter als die GTX 980.
 
Der Punkt Energieeffizienz ist bei solchen Diskussionen immer wieder witzig denn die Energie die für die Herstellung einer solchen Karte verbraten wird wird dabei immer so schön ausgeblendet, obwohl das deutlich mehr sein dürfte als sie innerhalb der Nutzungsdauer an Strom verbraten hat.
Kann ich eine solche 290x (deutlich) länger nutzen wäre sie also dennoch energieeffizienter als die GTX 980.
Wie bereits geschrieben, ist mir die Energieeffizienz nicht wichtig, weil ich die Umwelt schützen möchte, sondern weil meine Butze im Sommer zu heiß wird ;) Auch Stromkosten sind mir mehr oder weniger egal, ich zocke ja nicht 1.000 Stunden im Jahr.

PS: Auch die aktuellen R9 Nano, Fury, Fury X haben alle nur 4GB (man möge mich korrigieren, falls ich was übersehen haben sollte), insofern wird es interessant zu sehen sein, wie diese Karten in 2 Jahren im Vergleich zu Karten mit 6GB oder mehr Speicher bei Speicher hungrigen Spielen da stehen werden. Vermutlich ähnlich, wie hier die 2GB GTX770 beim Batman Game.
 
Zuletzt bearbeitet:
Kann man nicht oft genug herausstreichen :
Die Optimierung sollte und muss Sache der Anwendungsentwickler sein und nicht der Treiberentwickler - ausgenommen ist natürlich Betrug, um andere künstlich auszubremsen.

Was mir früher an nvidia gefallen hat, als sie in direkter Konkurrenz mit 3DFX waren, dass sie appeliert haben (ja schon fast auf die Barrikaden gestiegen sind) man solle sich doch bitte an die Standards halten und keine Proprietären Sachen machen, nur um andere damit auszuschliessen. (hallt mir Heute noch in den Ohren)
Leider scheint man das bei nv nach dem Aufkauf von 3DFX vergessen zu haben.
 
@Thunderbird 1400
Ich hab hier nen FX-8350 und ne 290x am laufen und keine großartigen Probleme damit. Auch nicht im Sommer, allerdings habe ich bei dann auch anderes im Sinn als mich in der Bude zum Daddeln zu verschanzen.
Die Furys haben technisch bedingt nur 4 GB, eine GTX980 mit mehr als 4 GB ist mir nicht bekannt. Auch standen diese Modelle hier garnicht zur Debatte, wodurch ich mich frage warum du jetzt damit ankommst.
 
Zurück
Oben Unten