NVIDIA - Pascal

Es geht doch nicht um 30 Watt, sondern beispielsweise um 100 bis 150 Watt, schaut man sich AMD´s r9 390x gegen Nvidias GTX 980 an, oder eben die r9290 gegen GTX970.
Ist zwar ein schönes Märchen, was von Reviews gerne so dargestellt wird. Ist und bleibt aber ein Märchen. Die Unterschiede sind in der Praxis weit weniger drastisch. Stichwort Partnerkarten, Stichwort Nvidias PT Schummelei. Ausserdem gibt's auch Workloads, wo die Geforces ineffizienter arbeiten.

Lass das mal 50 Watt Unterschied sein. Bei 2 Stunden pro Tag sind das 36,5 KWh im Jahr. Bei ~30 Cent / KWh sind das knapp 11 Euro. Die meisten Enthusiasten wechseln ihre Karte spätesten nach 2-3 Jahren. Da sind das halt gut 20 bis 30 Euro. Sry, aber bei teils über 50 oder gar 100 Euro höheren Preisen für eine Geforce zieht das Argument Stromkosten mal überhaupt nicht. ;)
 
klar darf man die leistungsaufnahme kritisieren. und klar gibt es szenarien, wo eine möglichst geringe leistungsaufnahme wichtig sein kann (viel leistung auf kleinem raum leise kühlen).

aber zumindest bei mir steht das nicht an erster stelle. mit genug platz hab ich damals meine sapphire tri-x fury unterbringen können. mit einem der leisesten kühlsysteme, die ich bis dahin erlebt habe. ich habe damals auch keine probleme gehabt, meinen alten prescott p4 trotz hoher leistungsaufnahme beinahe lautlos zu kühlen.

von daher sollte man nun ausgerechnet den peak-verbrauch nicht als allein selig machendes kriterium bewerten.

--- Update ---

zieht das Argument Stromkosten mal überhaupt nicht. ;)
es geht hier um das umweltbewusstsein und nicht um den schnöden mammon. wenn ich bei verwendung einer nvidia grafikkarte weiß, dass irgendwo wieder ein atomkraftwerk abgeschaltet werden kann, dann kann ich besser schlafen. ;)
 
Umweltbewusst wäre die alte Karte weiter zu verwenden. Alles andre ist sich selbst zu belügen.
 
Ist zwar ein schönes Märchen, was von Reviews gerne so dargestellt wird. Ist und bleibt aber ein Märchen.Lass das mal 50 Watt Unterschied sein.

Es kostet wirklich keine Minute das gegen zu prüfen.??? Alleine an der TDP der Karten wird man doch schon darüber informiert, dass es gar keine ~50 Watt sein können.


Strombedarf.PNG

Das sind zwischen GTX 970 und R9 390 ganze 153 Watt, ich habe vorher mit 125 Watt gerechnet, zwischen GTX 980 und r9 390x sind es 138 Watt, gemessen an der Steckdose, also genau das was man effektiv an Strom bezahlt. Die GTX 480 war damals weniger schlimm, wenigstens war die damals noch schneller unterwegs.

Wenn es nur 50 Watt wären, ja dann hätte AMD bestimmt mehr Karten verkauft.
Aber okay das war bestimmt scherzhaft von dir gemeint.;D oder nicht?*suspect*

Wenn nicht dann ist das schon etwas strange.

Umweltbewusst wäre die alte Karte weiter zu verwenden. Alles andre ist sich selbst zu belügen.

Umweltbewusstsein fängt da an gar keinen Rechner zu besitzen, kostet doch nur Strom.8)
 
Zuletzt bearbeitet:
es geht hier um das umweltbewusstsein und nicht um den schnöden mammon. wenn ich bei verwendung einer nvidia grafikkarte weiß, dass irgendwo wieder ein atomkraftwerk abgeschaltet werden kann, dann kann ich besser schlafen. ;)

Es ist ok wen alte Meiler abgeschalten werden, aber lasst doch Bitte die Modernen AKW laufen, bisher gibt es keine Fusion.
Ein AKW weniger sind wie viel neue Kohlekraftwerke für die selbe Leistung?
Aha, eine Grad Wanderung: Bildqualität / Leistung / Preis

Jetzt kann ich besser schlafen. *wegpenn*
 
es geht hier um das umweltbewusstsein und nicht um den schnöden mammon. wenn ich bei verwendung einer nvidia grafikkarte weiß, dass irgendwo wieder ein atomkraftwerk abgeschaltet werden kann, dann kann ich besser schlafen. ;)
Nein, es geht um Strohalme und Scheinargumente, um irgendwelche Gründe zurechtzuphantasieren, warum es unbedingt eine nVidia Karte sein muss und es keine andere sein darf.
Denn in der Verganenheit waren idR eher die nVidia KArten die ineffizienteren...

Und momentan ist die Architektur von nVidia auch ziemlich rückständig, etwa vergleichbar mit der Situation zu Radeon X1x00 und der 6k bzw 7k Serie und den bei nVidia nicht unabhängigen Renderpipelines.
Hier hat AMD einige Dinge voraus, die Architektur ist wesentlich frischer/moderner als der 10 Jahre alte Klotz, den nVidia mit sich rum schleppt...

Dazu kommt, dass AMD den Druck auf nVidia enorm erhöht hat, durch Mantle und den Folgen davon (Vulkan und DX12)...
Sieht man ganz schön bei DOOM momentan....

Aber um es noch mal deutlich zu sagen
wem es wirklich auf Stromverbrauch ankommt, der verwendet einen fps Limiter auf 30fps!
Damit spart man mehr als man denken würde...
 
[3DC]Payne;5105446 schrieb:
Nein, es geht um Strohalme und Scheinargumente, um irgendwelche Gründe zurechtzuphantasieren, warum es unbedingt eine nVidia Karte sein muss und es keine andere sein darf....

Strombedarf ist aber nunmal eine Bewertungsgrundlage von mehreren die bei dem Kauf einer Karte eine Rolle spielt.
Weder wird die zu wichtig genommen, noch wird sie als Bewertungsgrundlage nicht zugelassen.
Gibt ja schließlich noch andere Dinge die auch wichtig sind, vor allem Preisleistung, die eben durch einen höheren Strombedarf dann auf Dauer schlechter ausfällt.

Denn in der Verganenheit waren idR eher die nVidia KArten die ineffizienteren...

Und wurden dafür dementsprechend kritisiert, genauso wie jetzt AMD kritisiert wird und das eben beider Male zurecht, wenn man es nicht gleichermaßen tut
und die schlechtere Effizienz bei AMD unter den Tisch fallen lässt, wie es hier einige inkl. dir offenbar machen und fordern, dann ist man eben parteiisch.

Aber um es noch mal deutlich zu sagen
wem es wirklich auf Stromverbrauch ankommt, der verwendet einen fps Limiter auf 30fps!

Lustig was hier an Argumenten aufgefahren wird die gar keinen Sinn ergeben.
Kauf dir doch eine Konsole, da kannst du mit 30 FPS spielen.
Wem es auf den Stromverbrauch und deren Nachteile ankommt, der konnte damals eine 5870 kaufen, statt der GTX 480.
Oder eben eine GTX 970 statt der 390, oder eben bald eine GTX 1060 statt der rx480, also kann doch jeder Käufer das für sich gewichten wie er möchte.

Damit spart man mehr als man denken würde...

Und fährt damit die Diskussion ob ein höherer Verbrauch überhaupt benannt werden darf an die Wand, inkl. den wie auch immer zustandegekommenen 50 Watt eines anderen Users, was nicht mal der Hälfte der TDP Differenz zwischen GTX 970 und r9 390 entspricht.
Ich hoffe du verfällst genauso dem hoffnungslosen Aktionismus, falls Nvidia ein Produkt herausbringt, das deutlich ineffizienter ist und wirbst dann, auch wenn es noch so sinnfrei ist, mit einem 30 FPS Limit für denjenigen der effizienter einkaufen möchte, aus bereits genannten Gründen.
Wie mir aber scheint ist dir Neutralität und Objektivität ein Fremdwort.

Sry, aber bei teils über 50 oder gar 100 Euro höheren Preisen für eine Geforce *( GTX 980 )* zieht das Argument Stromkosten mal überhaupt nicht.

Die einzige teure Karte die unter deine benannte Kategorie fällt war die Geforce GTX 980. Ich habe das mal ergänzt.
Alle anderen Nvidiakarten der Maxwellgeneration hatten ein sehr ähnliches Preisleistungsverhältnis bei Kauf.

Hier kannst du es überprüfen:

https://www.computerbase.de/thema/grafikkarte/rangliste/

Aus der Reihe tanzt nur die Geforce GTX 980, übrigens genauso wie die AMD Nano, der einzigen Karte die es auf Nvidias Effizienzniveau schaffte.
Wie man sieht zieht das Argument Stromkosten sehr wohl und es wäre doch fair wenn man es auch als Kenngröße zulassen würde, anstatt hier einen Firlefanz zu veranstalten und so zu tun als ob das irrelevant wäre, wenn ich mich erinnere hattest du die Effizienz genauso unbegründet als irrelevant für OEMs im Falle der rx480 erklärt.

Also ich wills mal so sagen, deine Beiträge scheinen irgendwo ein System zu haben um AMD Nachteile entweder komplett zu ignorieren oder sie mit falschen Darstellungen auf ein Minimum zu reduzieren, um das Minimum dann wiederum zu ignorieren.
Ich hoffe diese Strategie wird gleichermaßen auch auf Nvidia Produkte angewendet, sofern diese für den gleichen Ertrag mehr Energie benötigen.

Mit Nvidias GP100 und satten 300 Watt TDP könnte so ein Fall eintreten.

Tante Edith:

Ich hab mal etwas in alten Beiträgen gekramt und da ganz interessante Aussagen von dir gefunden, wo du nur so gegen die GTX 480 abgeledert hast was den Stromverbrauch und überhaupt alles anging, dagegen ist mein Benennen der höheren Leistungsaufnahme ein Witz dagegen.:D

Dabei hat die GTX 480 gegenüber der HD 5870 sogar noch rund 20% mehr Leistung gebracht, vor allem in Diretx11, während die 390x langsamer ist als eine GTX 980. Beide Karten brauchen etwa 150 Watt mehr Strom als die Konkurrenzkarte und hier reduzierst du den Strombedarf von 150 Watt auf 50 Watt und sagst das interessiert niemanden, damals sagst du:
"Für mich ist Fermi ein Fehlschlag auf ganzer Linie und technologisch ein Desaster, was entfernt an Netburst erinnert. Viel zu hohe Leistungsaufnahme, relativ zur Leistungsaufnahme zu wenig Performance, schlichtweg zu ineffizient, zu heiss, zu laut, zu hohe Produktionskosten
http://www.planet3dnow.de/vbulletin/archive/index.php/t-377940.html

Ich fixe das für dich mal kurz:

"Für mich ist Grenada ein Fehlschlag auf ganzer Linie und technologisch ein Desaster, was entfernt an Netburst erinnert. Viel zu hohe Leistungsaufnahme, relativ zur Leistungsaufnahme zu wenig Performance, schlichtweg zu ineffizient, zu heiss, zu laut, zu hohe Produktionskosten.
Da die GTX 480 vor allem in Directx11 ihre stärken hatte, lasse ich das technologisch mal stehen, schließlich ist Grenada ja ach in Directx12 stärker.

*suspect* Wirst du für diese Tendenziösität bezahlt, oder bist du einfach privat ein Troll/Wendehals aus Überzeugung?
Jedenfalls ist mir jetzt klar, dass es nichts bringt auf deine Beiträge zu antworten und Payne ist wohl die gleiche Type.

[3DC]Payne;5105446 schrieb:
Nein, es geht um Strohalme und Scheinargumente, um irgendwelche Gründe zurechtzuphantasieren,

Ja, genau darum geht es*buck*, Wendehälse wie sie im Buche stehen, deine Beiträge muss ich glaube ich nicht anschauen oder?:[
 
Zuletzt bearbeitet:
Strombedarf ist aber nunmal eine Bewertungsgrundlage von mehreren die bei dem Kauf einer Karte eine Rolle spielt.
Weder wird die zu wichtig genommen, noch wird sie als Bewertungsgrundlage nicht zugelassen.
Gibt ja schließlich noch andere Dinge die auch wichtig sind, vor allem Preisleistung, die eben durch einen höheren Strombedarf dann auf Dauer schlechter ausfällt.
Strom spielt schon eine Rolle, aber es wird zu gerne die Bildqualität in der Formel vergessen.
Den ohne könnte man auch eine iGPU verwenden dann spart man sogar die Strom kosten der Herstellung für ein extra PCB.

Daher Strom Verbrauch ja, aber auch entsprechend mehr auf dem Schirm haben! ;)
 
es geht hier um das umweltbewusstsein und nicht um den schnöden mammon. wenn ich bei verwendung einer nvidia grafikkarte weiß, dass irgendwo wieder ein atomkraftwerk abgeschaltet werden kann, dann kann ich besser schlafen.
Und ich kann besser schlafen, wenn ich nichts mehr von einer "Drecksfirma" wie Nvidia kaufe. Das gesparte Geld spende ich dann lieber für was sinnvolles. Mir ist mittlerweile selbst Intel weitaus sympathischer. Und das will was heissen. ;)

Umweltbewusstsein schön und gut. Aber ich glaube einige bringen das lediglich als Alibiargument. Wenn man sich deren restliches Konsum- und Alltagsverhalten mal genauer anschauen würde, geht's vermutlich schnell dahin mit dem Umweltbewusstsein. Kauf dir doch einfach 'ne APU. Ist sparsamer als eine CPU + dGPU Kombo und schont die Umwelt mehr als alles was Nvidia im Angebot hat.


Es kostet wirklich keine Minute das gegen zu prüfen.??? Alleine an der TDP der Karten wird man doch schon darüber informiert, dass es gar keine ~50 Watt sein können.
Ja, und der Osterhase ist der Weihnachtsmann. Oder hast du beide schon mal gemeinsam auf einem Bild gesehen?

Kannst du lesen? Ich sage es gerne nochmal:
Ist zwar ein schönes Märchen, was von Reviews gerne so dargestellt wird. Ist und bleibt aber ein Märchen. Die Unterschiede sind in der Praxis weit weniger drastisch. Stichwort Partnerkarten, Stichwort Nvidias PT Schummelei.
Da helfen dir deine Diagramme eben jener Reviews nicht weiter. Die zeigen nämlich herzlich wenig von der Praxis. Sie zeigen maximal ein ganz spezifisches Szenario, dessen Relevanz überschaubar ist.

Alle anderen Nvidiakarten der Maxwellgeneration hatten ein sehr ähnliches Preisleistungsverhältnis bei Kauf.

Hier kannst du es überprüfen
Nein, kann ich nicht. Da sind nur Preisbereiche angegeben und keine konkreten Preise. Die GTX 980 war vielleicht das extremste Beispiel. Aber zu behaupten, alle anderen Maxwell Karten hätten ein ähnlich P/L-Verhältnis gehabt wie Radeons, ist Quatsch. Den Nvidia typischen Aufpreis gab es in jeder Klasse.

Wie man sieht zieht das Argument Stromkosten sehr wohl und es wäre doch fair wenn man es auch als Kenngröße zulassen würde
Was Gegenteiliges hat doch auch keiner getan. Aber die Nvidia Jünger wollen es jetzt darauf reduzieren. Und das ist einfach lächerlich und an der Realität vorbei. Das sind vermutlich genau die selben Nvidia Jünger, die seinerzeit 'ne Fermi Stromschleuder gekauft haben, damit sie ganze 10-15% mehr FPS als die wesentlich sparsamere, kühlere, leisere und günstigere HD 5870 haben. Die Nvidia Jünger sollten im Moment vielleicht besser mal der fragwürdigen BQ der Geforces nachgehen, anstatt sich über die Leistungsaufnahme der RX 480 zu echauffieren. Beim "AF-Flimmern" der Radeons war das anscheinend noch en vogue. *faehnchenimwind* :]

wenn ich mich erinnere hattest du die Effizienz genauso unbegründet als irrelevant für OEMs im Falle der rx480 erklärt.
Das ist falsch. Ich habe sehr wohl begründet, warum die Leistungsaufnahme bzw die letztendliche Effizienz eine sehr begrenzte Relevanz für OEMs hat.

Also ich wills mal so sagen, deine Beiträge scheinen irgendwo ein System zu haben um AMD Nachteile entweder komplett zu ignorieren oder sie mit falschen Darstellungen auf ein Minimum zu reduzieren, um das Minimum dann wiederum zu ignorieren.
Weder ignoriere ich Nachteile von AMD, noch stelle ich etwas falsch dar. Mir kommt es eher so vor, und das geht anderen sicherlich genauso, dass du Nachteile von Nvidia und Vorteile von AMD komplett ignorierst bzw nur das siehst was du sehen willst. Man fragt sich bei solchen Leuten dann immer nur, der wievielte Fake Account von Schaffe das ist. :]

Ich hab mal etwas in alten Beiträgen gekramt und da ganz interessante Aussagen von dir gefunden, wo du nur so gegen die GTX 480 abgeledert hast was den Stromverbrauch und überhaupt alles anging
"Alles" ist das entscheidende Wort. ;) Wenn's nur die Leistungsaufnahme gewesen wäre, hätte man durchaus darüber diskutieren können. Fermi war aber als Gesamtpaket eine einzige Katastrophe. Das kann man der RX 480 nun wirklich nicht nachsagen. Denn abgesehen von den Unstimmigkeiten bezüglich Leistungsaufnahme ist die Karte ein absolut gelungenes Gesamtpaket.

Ich fixe das für dich mal kurz
Da muss nix gefixt werden. Das stimmt so wie es dasteht.
Für mich ist Fermi ein Fehlschlag auf ganzer Linie und technologisch ein Desaster, was entfernt an Netburst erinnert. Viel zu hohe Leistungsaufnahme, relativ zur Leistungsaufnahme zu wenig Performance, schlichtweg zu ineffizient, zu heiss, zu laut, zu hohe Produktionskosten ...
Auch wenn's die Nvidia Jünger nicht wahrhaben wollten, es ist nun mal nicht zu leugnen. Aus Sicht von Nvidia muss man sagen, glücklicherweise haben die das genauso gesehen und mit Kepler den grössten radikalen Architekturwechsel seit G80 hingelegt, womit sie wieder einigermassen zurück in die Spur gefunden haben. Auch wenn sie nach wie vor architektonisch einiges gegenüber GCN aufholen müssen. Und das betrifft nicht nur Async Compute.
 
Zuletzt bearbeitet:
Umweltbewusstsein schön und gut. Aber ich glaube einige bringen das lediglich als Alibiargument. Wenn man sich deren restliches Konsum- und Alltagsverhalten mal genauer anschauen würde, geht's vermutlich schnell dahin mit dem Umweltbewusstsein. Kauf dir doch einfach 'ne APU. Ist sparsamer als eine CPU + dGPU Kombo und schont die Umwelt mehr als alles was Nvidia im Angebot hat.
du hast die ironie schon verstanden? ;)
 
So, und nun wieder zurück zum Eigentlichen Thema, nämlich der GPU "Pascal", ja?
Sonst müssen wir hier noch mit dem ganz großen Besteck dran, und das wollen wir ja alle nicht, oder? :)

Wenn Ihr wollt können wir die Diskussion des "Nebenschauplatzes" auch auslagern.
 
Zuletzt bearbeitet:
also langsam reicht es mir mit dem ewigen runtergemache von nvidia hier, vor allem auf welche art und weise.
für alle diejenigen welche nvidia jünger fanboys etc in den mund nehmen oder wie jetzt auch noch drecksfirma... ..... was soll das ? werdet ihr bezahlt dafür oder was ? wenn ich das hier so lese dann scheint ein teil der amd kartenbesitzer regelrecht fanatisch zu sein.



...
Weder ignoriere ich Nachteile von AMD, noch stelle ich etwas falsch dar. Mir kommt es eher so vor, und das geht anderen sicherlich genauso, dass du Nachteile von Nvidia und Vorteile von AMD komplett ignorierst bzw nur das siehst was du sehen willst. Man fragt sich bei solchen Leuten dann immer nur, der wievielte Fake Account von Schaffe das ist. :]
...

kommt mir eigentlich überwiegend genau anders herum vor.



also kritik kann man anbringen, dafür ist es ein forum .... ABER überlegt doch bitte eure wortwahl.


das forum hat sowas von gelitten und der grund sind diese penetranten diskussionen (1)..... das ist weder positiv für den planet noch hebt es das ansehen von amd.


1-das gilt natürlich im zweifelsfalle für beiden fronten wenn die objektivität verloren geht



edit:
@riddler

danke ... hab zu spät abgeschickt
 
Aus Sicht von Nvidia muss man sagen, glücklicherweise haben die das genauso gesehen und mit Kepler den grössten radikalen Architekturwechsel seit G80 hingelegt, womit sie wieder einigermassen zurück in die Spur gefunden haben. Auch wenn sie nach wie vor architektonisch einiges gegenüber GCN aufholen müssen. Und das betrifft nicht nur Async Compute.

Was hat sich denn da großartig geändert?!
Außer dass man die 'Hot Clocks' für die Shader entsorgt hat und dafür 'nen paar mehr eingebaut hat, ist das auch kaum mehr als 'ne Evolution von Fermi...
 
auch noch drecksfirma...
Naja, jetzt aber mal Hand aufs Herz:
Wie würdest du eine Firma bezeichnen, die dich bei den Spezifikationen der Hardware nach Strich und Faden belogen hat (GTX 970), sehr viel Energie darauf verwendet, Proprietäre Dinge auf den Markt zu schmeißen, zum Teil das aus Standardisierungsgremien rausträgt, dazu Entwickler überredet, einerseits nicht mit 'den anderen' zu reden, dafür aber irgendwelche Effekte einzubauen, die den ineffizientesten möglichsten Weg gehen, dass auf jeder Hardware einfach nur grottig läuft, auf der Hardware 'der anderen' aber noch schlechter, Jahrelang die low Level APIs verhindert haben und insbesondere auf Standards 'nen Haufen setzen bzw sie einfach nicht mehr Unterstützen, wenn 'die anderen' mal die bessere Hardware haben (OpenCL)...
Habe ich bei der Aufzählung noch was vergessen?

@Riddler
Ich denke auch, dass der Nebenkriegschauplatz rausgesplitet werden sollte, wenn möglich, ggF der Thread geschlossen...
 
der thread HIER wird NICHT geschlossen. manchmal hab ich das gefühl diese diskussion ist absicht damit das passiert. und dann reiben sich die verursacher die hände...



es geht hier um nvidia pascal und nicht um wie mache ich nvidia am besten runter.


das heisst fakten , blabla meinungen zum thema .... meintwegen auch ein vergleich aber kein ständiges rumgenörgel. und @drecksfirma .... man kann die firmenpolitik von nvidia anzweifeln, aber das kann man auch anders rüberbringen.


wenn ich mich für nvidia und eine deren karten interessiere dann will ich infos haben und dafür ist der thread gemacht. er steht für die ganze generation von pascal bis die nächste eingeläutet wird und ist halt nicht so spezifisch wie der gtx 1060/1070/1080 etc thread.

es sollte doch möglich sein neben den ganzen amd threads hier diesen zu "dulden" oder ist das etwa zuviel verlangt ?
 
Man muss hier nur kurz reinblicken um zu wissen das dieses Forum die falsche Anlaufstelle für Informationen und objektive Diskussionen abseits von AMDs Hardware ist.
Entsprechende Kandidaten scheinen immer wieder durch ihre persönliche Agenda durch.
 
Mit dem neuen Treiber der immer noch knapp die PCIe Spezifikation nicht schafft verliert AMD aber auch Leistung gegenüber den Reviews. Mir ist auch vielen Gründen bei den GPU´s AMD sympathischer aber so völlig unbedarft und nur das Opfer sind die auch nicht.

Und sicher spielt Energie und Kühlung eine Rolle. Für meinen kleinen Haushalt ist das bei der GPU irrelevant solange es nicht zu laut wird.

Aber das Argument das es selbst bei Rechenzentren egal wäre? Na dann bauen die in Schweden wohl weil man da schöner spazieren gehen kann und Köttbullar besser sind als Süd spanische Tapas.
http://www.heise.de/ix/meldung/Facebook-nimmt-schwedisches-Rechenzentrum-in-Betrieb-1886765.html
 
Zuletzt bearbeitet:
Nur mit dem Kompatibilitätsmodus, welcher keine Default-Einstellung ist und vermutlich von keinem Reviewer in der Zukunft getestet wird.
Das Thema darum ist abseits von vorerst negativer PR und Übertreibungen sowieso gegessen.
Aus Unternehmenssicht ist aber die Perf/Watt sehr wichtig, was die konkurrenzfähigkeit anbelangt.
Einzelhandelskunden wird das in der Regel kaum interessieren, aber es grenzt die Unternehmen selber ein, welche Angebote sie für welches Energie-Budget anbieten können.
 
der thread HIER wird NICHT geschlossen. manchmal hab ich das gefühl diese diskussion ist absicht damit das passiert. und dann reiben sich die verursacher die hände...

Auf Deutsch,Nörgelt nicht über nVidia,sondern weiter über AMD.
Was anderes lese ich aus deinem Beitrag nicht raus.:]
 
booo.... es soll weder über den einen noch den anderen genörgelt werden und wenn ich das mit nvidia schreibe dann schreibe ich es deswegen weil der thread hier nvidia pascal (!!!) heisst und damit logischerweise nvidia das thema ist.
 
[3DC]Payne;5105593 schrieb:
Was hat sich denn da großartig geändert?!
Mit Kepler sind sie den Weg AMDs gegangen. Also weg von wenigen komplexen Shadern mit eigener Taktdomain, hin zu vielen weniger komplexen Shadern die mit Kerntakt laufen. Das war schon ein gravierender architektonischer Sprung. Eben der grösste seit dem G80.


Damit wäre Nvidia dann vermutlich in jedem Feld vorne, wird vermutlich auch nicht mehr so lange dauern.
Ab Volta? *noahnung*
Aufholen heisst aber noch lange nicht vorne sein. ;) AMD ist Nvidia im Moment architektonisch fast überall überlegen. Das wird sich auch erst mal nicht so schnell ändern. Das kuriose ist ja, selbst bei Nvidias einstigen Stärken, wie Computing, ist AMD mittlerweile überlegen. Vorne ist Nvidia eigentlich nur bei Sachen, die keiner wirklich braucht, wie Übertessellierung. Und wenn Volta kommt, dann hat AMD auch schon wieder Neues am Start. Sollte man auch nicht vergessen.


kommt mir eigentlich überwiegend genau anders herum vor.
Das ist aber halt nur deine Meinung. Mir kommt es eben nicht andersrum vor. Ständig versuchen irgendwelche vermutlichen Trolle, die noch keine Woche lang hier aktiv sind, AMD mit hanebüchenen und weltfremden Behauptungen runterzumachen. Und wenn man mit ihnen vernünftig mit Argumenten zu diskutieren versucht, dann werden diese einfach ignoriert und weiter dreist die gleichen hanebüchenen und weltfremden Behauptungen wiederholt. Nur mal als Beispiel, auf der einen Seite sind die Mehrkosten für G-Sync natürlich völlig in Ordnung, weil es ja vom "Marktführer" kommt. Auf der anderen Seite sind höhere Stromkosten natürlich Teufelswerk und müssen in jedem Beitrag kritisiert werden, weil es ja AMD betrifft. Findest du das objektiv? Ich nicht. Für mich ist das Heuchelei, billiger Populismus gegen AMD, was auch in einem Pascal Thread nichts zu suchen hat. MickFoley ist da nur ein weiterer Kandidat. Wie es eben auch schon andere gab, siehe Schaffe. Zumal man die Leistungsaufnahme nicht pauschal kritisieren kann, auch nicht bei der RX 480. Es gibt ja durchaus Reviews, die 110-120W zeigen. In etwa das, was man auch erwartet hatte. Hier sollte man auch erst mal Partnerkarten und die RX 470 abwarten, die laut AMD mehr auf Effizienz getrimmt sein soll. Mal abgesehen davon gibt es in diesem Leistungsbereich auch keine sparsamere Geforce im Moment. Wie da die GTX 1060 abschneidet, bleibt abzuwarten.

Auch wenn ich hier so Sachen lese wie:
aber passt zu dieser Witzfigur
Gemeint war damit Roy Taylor von AMD. Wieso kritisierst du sowas nicht, wenn es dir angeblich um "Objektivität an beiden Fronten" geht?

Ich habe ehrlich gesagt überhaupt kein Interesse daran, Nvidia schlecht zu reden. Dafür ist mir meine wenige Freizeit zu kostbar. Aber wenn es einige darauf anlegen, das Spiel kann ich eben auch spielen.

Ach ja, und "Dreckfirma" habe ich nicht grundlos in Anführungszeichen geschrieben. Eine passendere Umschreibung ist mir im Moment nicht eingefallen. Das ist nun mal meine Meinung und dazu stehe ich auch. Gründe dafür gibt's genügend. Überzogene Preise, Werbung mit falschen Specs, PT-Schummelei, absichtlich schlechter OpenCL und CPU-PhysX Support, überteuerte überflüssige proprietäre Lösungen ala G-Sync, GameWorks, Zu-früh-auf-den Markt-geworfene-weil-Fertigung-noch-nicht-bereit-und-die-Kunden-dafür-bezahlen-lassen-Editionen (a.k.a Founders Editions), und und und. Die Liste ist lang und wird traurigerweise immer länger. Deswegen musst du dich nicht gleich angegriffen fühlen. Oder hast du eine persönliche Beziehung zu Nvidia? Wenn du willst, dass ich das öfters wiederhole, dann kritisiere mich ruhig weiter dafür. Falls nicht, dann lass es einfach gut sein und akzeptiere das als meine persönliche Meinung. ;)
 
Zuletzt bearbeitet:
Das sind natürlich dann wieder die absolut fundierten Totschlagargumente. Da könnte ich genauso in den Raum werfen, wenn Nvidia so toll sein soll, dann hätten sie jetzt wenigstens einen wichtigen Konsolendeal. :] Mit unlauteren Mitteln erobert man durchaus Marktanteile. Frag mal Intel und deren Verurteilungen auf nahezu allen möglichen Kontinenten, u.a. durch die FTC und die EU.

Nvidia hat auch keinen 80% GPU-Marktanteil. Laut JPR (Q1 2016) sind die GPU-Marktanteile wie folgt: AMD 13,2%, Intel 70,1%, Nvidia 16,7%. Aber da sind keine x86 basierten Konsolen, Server und Tablets enthalten. Gerade mit den Konsolen dürfte der GPU-Marktanteil von AMD höher ausfallen, mindestens verlgeichbar mit Nvidia oder gar höher. Und selbst wenn man nur dGPUs betrachtet, liegt Nvidia bei ~70%, nicht bei 80%.
 
Zuletzt bearbeitet:
Zurück
Oben Unten