nVidia GTX 970 hat ein Problem mit Speicherbelegung ab 3,x GB / geänderte Spezifikationen (Links in Post1)

Status
Für weitere Antworten geschlossen.
Und was ändert das daran das mit zweierlei Maß gemessen wird?
Bei der GeForce GTX 480 haben es doch alle Testseiten den exorbitanten Verbrauch bemängelt. Wer soll die Ausnahme gemacht haben?
Einfach den Bildschirm aus und schon ist die Karte ein Stück sparsamer.
Das klappt aber leider nur über DVI zuverlässig. Bei HDMI und DP schaut man teils in die Röhre, wie ich mit einer Radeon HD 7870 und einem HP w2207h.
Im übrigen hatte ht4u die GTX 580 in Idle mit 30 W (also mindestens 50% mehr als die 290X)
Die Partnerkarten haben sich später (ob durch andere VRM oder Treiberupdates?) bei 20 Watt eingependelt: Klick
 
Der Idle-Verbrauch ist schon sehr wichtig. Das war bei vielen GeForce GTX 970/980 Käufern bestimmt ein Punkt auf der Habenseite. Beide verbrauchen auf dem Windows Desktop schließlich nur ~11 Watt und diesen Wert können sie bei Dual-Head und BD-Wiedergabe weitgehend halten. AMD bietet zwar vergleichbare Verbrauchswerte (ausgenommen die BD-Wiedergabe), aber leider erst zwei Leistungsklassen niedriger mit der Radeon R9 285.

Zum Thema multi Monitor Strom Bedarf:
http://ht4u.net/reviews/2014/asus_geforce_gtx_980_strix_im_test/index16.php

Die Radeons bleiben bei 2 Monitoren offensichtlich ebenfalls im Idle Modus und ab dem dritten Monitor (vermutlich für Spieler deutlich relevanter) fressen alle deutlich mehr. Das die Radeons bei der Video Wiedergabe deutlich zu viel fressen steht aber außer Frage und wird oft genug kritisiert.

Was man bei dem Test allerdings auch sehen kann ist das man beim Strombedarf der referenz Karten beim besten Willen nicht auf den der Custom Karten schließen kann.

--- Update ---

Bei der GeForce GTX 480 haben es doch alle Testseiten den exorbitanten Verbrauch bemängelt. Wer soll die Ausnahme gemacht haben?
Das klappt aber leider nur über DVI zuverlässig. Bei HDMI und DP schaut man teils in die Röhre, wie ich mit einer Radeon HD 7870 und einem HP w2207h.
Die Partnerkarten haben sich später (ob durch andere VRM oder Treiberupdates?) bei 20 Watt eingependelt: Klick

Und wurde der Strombedarf bei der GTX580 ebenfalls bemängelt? Der stand dem der 480 außer in Idle schließlich in nichts nach.
Was hindert einen denn daran den primären Monitor am DVI anzuschließen und die zusätzlichen z.B. per DisplayPort zu nutzen? Das hat nebenbei auch noch den Vorteil das die Abschaltung der Monitore registriert und der Desktop entsprechend verkleinert wird, wodurch sich auch der Mehrverbrauch ab dem dritten Monitor egalisiert solange er nicht eingeschaltet ist. (eigene Erfahrung)
Handhabt die Geforce das ebenfalls so?
 
Was hindert einen denn daran den primären Monitor am DVI anzuschließen...
Ich kann nur für mich sprechen, aber bei mir sprechen zwei Gründe dagegen. Erstens hat mein Monitor gar keinen DVI Eingang mehr und zweitens werden über HDMI die Lautsprecher im Monitor angesprochen. Beim Einsatz eines DVI auf HDMI Adapters hätte ich keinen Ton mehr. Dann müsste ich erst wieder eine analoge Audioverkabelung über 3,5mm Klinkenstecker herstellen und dafür den OnBoard Sound im BIOS des Mainboards reaktivieren. Komplizierter wird es noch dadurch, dass ich einen KVM-Switch (USB/HDMI) verwende, um meinen Haupt- und Zweitrechner an einem Monitor und einem Satz Eingabegeräte betreiben zu können. Über HDMI fällt meine Verkabelung sehr platzsparend aus. Über DVI und separate Audioverkabelung wäre das Kabelwirrwarr deutlich größer. Der KVM Switch ist übrigens nicht die Ursache dafür, dass ZeroCore Power nicht funktioniert. Ich habe es gleichfalls mit einer Direktverkabelung versucht und meine USV hat denselben Idle Verbrauch angezeigt, gleich ob der Monitor aktiv war oder sich im StandBy befand.

PS: Selbst mit dem neuen Catalyst 14.12 Omega hat sich nichts getan.
 
Der Idle-Verbrauch ist schon sehr wichtig. Das war bei vielen GeForce GTX 970/980 Käufern bestimmt ein Punkt auf der Habenseite. Beide verbrauchen auf dem Windows Desktop schließlich nur ~11 Watt und diesen Wert können sie bei Dual-Head und BD-Wiedergabe weitgehend halten. AMD bietet zwar vergleichbare Verbrauchswerte (ausgenommen die BD-Wiedergabe), aber leider erst zwei Leistungsklassen niedriger mit der Radeon R9 285.

Ja klar gibt es auch im Idle einen Unterschied, aber die Radeon 290 oder 290X ist mit 20 Watt nun keine Welten von 12 Watt entfernt.

Abgesehen davon hast du geschrieben, dass eine R290/X im Lastszenario genauso viel verbraucht wie eine GTX480. Das ist wie ich geschrieben habe aber falsch. Darauf bist du leider nicht eingegangen.
 
@ k.schweder
Die Speichermenge ist doch bei den Radeons schon lange kein Problem mehr.
Als die GTX680 mit 2GB Grafikspeicher raus kam war die HD7970 mit ihren 3 GB schon seit 3 Monaten auf dem Markt, Versionen mit doppelt so viel Speicher gab es letztendlich von beiden.
Erst die Titan kam dann mit 6GB daher, was man sich auch fürstlich entlohnen ließ.
Die GTX780(Ti) startete mit 3 GB Speicher. Die R9 290X kam ca. 5 Monate nach der GTX780 raus und die GTX780 Ti gute 2 Wochen nach der Radeon. Von der R9 290X und der GTX780 gab es im laufe der Zeit auch wieder Versionen mit doppelt so viel Speicher. Von der GTX780 Ti ist mir keine solche Version bekannt.
Von der GTX980 gibt es bislang nur Versionen mit 4GB und kam nicht ganz ein Jahr nach der R9 290x auf den Markt.

Wie gesagt, ginge es nur um den Speicher dann haben eher die Geforce Karten ein Problem allerdings kann ich nicht sagen wann die Varianten mit aufgestocktem Speicher raus kamen. *noahnung*

Was soll mir das sagen, ich hatte eine GTX 680 mit 4 GB, was interessieren mich also 2 GB Karten.

Als ich mich zum kauf der 680 entschieden hatte, gab es diese mit 4 GB und das AMD zu dem Zeitpunkt ebenfalls 4 GB-Karten hatte, war mir egal.

Ich habe nichts gg. AMD...
 
Zuletzt bearbeitet:
Und genau deshalb ist es sinnvoll sich vorher über den Aufbau Gedanken zu machen.
Mein primärer Monitor (PVA Display) hängt am DVI, die seitlichen Displays (IPS) hängen am DisplayPort und alle Stromsparfunktionen sind nutzbar.
Willst du also Zero-Core-Power für irrelevant erklären und es deshalb ignorieren weil es bei deinem Aufbau nicht nutzbar ist?
Das Zero-Core-Power am HDMI und DisplayPort Anschluss nicht funktioniert steht übrigens auch schon im ht4u test der Karte.

HDMI ist in meinen Augen schon aufgrund der fehlenden Arretierungsmöglichkeiten vom Stecker für einen PC Monitor ganz einfach Mist, als Krücke für den Anschluss des TV allerdings vollkommen OK.

Und nochmal bevor du dich an sonstwas hoch ziehst.
Es geht nicht um die Energieeffizienz sondern um den Strombedarf an sich.
 
Die Radeon R9 290X verkauft sich doch ebenfalls gut
Hat jmd. Zahlen dazu? Es hieß doch, dass nach dem Coin-Mining-Wettlauf die ge-/verbrauchten Karten in so großer Anzahl bei Ebay und Co. reingestellt oder anders gebraucht verkauft wurden, dass die Neukäufe sehr zurückgingen und nie wieder sonderlich zunahmen?


SPINA schrieb:
Die Partnerkarten haben sich später (ob durch andere VRM oder Treiberupdates?) bei 20 Watt eingependelt: Klick
Das zeigt eines der Probleme: Falls wirklich die Verbesserung des Idle-Verbauches durch spätere Boardpartneranpassungen zum Wohlwollen ggü. der 580 beigetragen hat - was ich nicht glaube -, so haben wir hier wieder die Situation, dass niemand einen zweiten Blick auf AMDs Produkte wirft. Bei der 290X haben Asus und Gigabyte mit den 1:1 von der 780 Ti übernommenen Kühllösungen ein schlechtes Bild geschaffen, dazu kam das misslungene Referenzdesign. Und wenn du heute zur 970-Problematik in die Foren siehst, bemerkst du, dass dort sämtlichen 290X gewaltige Lautstärke und Hitzeentwicklung unterstellt werden. Dass selbst ein offensichtlicher Nvidia-Fan wie TobiWahnKenobi in seinem persönlichen Test aussagt, dass seine Sapphirekarte ziemlich genau so laut ist wie die erheblich teurere GTX Titan, deren Kühllösung vielerorts übermäßig gelobt wurde, interessiert die meisten Nvidia-Käufer eben nicht. Das ist dann sofort "von ATI-Fanboys kolporiert".

Auch an anderen Dingen sieht man, wie gut informiert viele Nvidia-only-Käufer sind: Die Meldung, dass Club 3D sich entschieden hat, AMD-Exklusivpartner zu werden, wird damit kommentiert, dass AMD so dumm ist, dass es sich einen komplett unbekannten Boardpartner "kauft", der demzufolge nicht gut sein kann.
Bucket_Monster schrieb:
Congrats AMD, you have the worst GPU manufacturer in your corner! They can't be good if nobody has even heard of them.
Bean Bandit schrieb:
Never even heard of these guys. Not at least for nVidia cards.
jgottberg schrieb:
Von der eigenen Unwissenheit auf die Dummheit Anderer schließen - eine hohe Kunst.


SPINA schrieb:
Allein hier im Forum müssen hunderte Radeon R9 290X ihr Unwesen treiben.
Meinst du? Und wie viele, schätzt du, sind außerhalb des DC-Bereichs in diesem Forum am Werkeln?
Selbst ein Enthusiast wie WindHund hat anscheinend keine. Mir fallen auf Anhieb nur CappuAndy und TobiWahnKenobi als Besitzer je einer ein.
In letzter Zeit habe ich sehr viel Zeit in fremden Foren verbracht und muss sagen, dass ich auch dort erheblich mehr GTx-48x- und -58x-Einträge gesehen habe als HD-79xx- und R9-29x-Angaben.


Nachtrag: @sompe
sompe schrieb:
Wo bleibt bei dem idle Strombedarf die Erwähnung von Zero-Core-Power was ich beispielsweise beim Laden von Spielen über Steam oder bei größeren Updates schätzen weiss und dabei locker die Geforce Karten aussticht. (5,13 W/ca. 20W vs. 11-15W)
Müsste der Verbrauch im ZCP-Zustand nicht bei max. 3 Watt liegen? HT4U hatte 2,x W bei einer 7970 gemessen.


@k.schweder
k.schweder schrieb:
Wo ist das Problem, wenn ich mir nun im Nachgang eine GTX 980 und dann auch noch die schnellste am Markt kaufe?
Es gibt kein Problem. (Obwohl die 980 nicht die schnellste Karte auf dem Markt ist, höchstens Single-GPU-Karte, und das nur, wenn man Mantle weglässt.)
Auf mich wirkt das nur so, als würde man seinem Hund, nachdem der in die Wohnung geschissen hat, das Hinterteil massieren - um es bildhaft auszudrücken.
 
Zuletzt bearbeitet:
Was soll mir das sagen, ich hatte eine GTX 680 mit 4 GB, was interessieren mich also 2 GB Karten.

Nicht falsch verstehen denn ich kann nur allso gut verstehen das du wert auf einen ausreichend großen Speicher Puffer legst, es ging vielmehr darum das die GTX680 mit 4 GB genau so wie die Tahiti Modelle mit 6 GB nachgeschoben wurde und es bereits heute Hawaii Modelle mit 8 GB Speicher gibt.
Da aber der Seicherausbau dein Argument für den Punkt "bis AMD vernünftige Karten auf den Markt bringt" zu sein scheint ist es für mich irgendwie unlogisch denn gerade hier stehen die Radeons doch deutlich besser da und brechen beim Maxwell - Hawaii Vergleich (aufgrund der höheren Speicherbandbreite?) in hohen Auflösungen deutlich geringer ein.
 
Zuletzt bearbeitet:
Hm, du schreibst hier über mich!

Wo ist das Problem, wenn ich mir nun im Nachgang eine GTX 980 und dann auch noch die schnellste am Markt kaufe?

Ich hatte zuvor, wie du ja augenscheinlich richtig verstanden hast, auch eine Highend-Karte, nämlich die GTX 680.

Hätte Nvidia die Spezifikationen der GTX 970 richtig angegeben, hätte ich niemals eine 970 besessen.

Und das Nvidia im Moment die besten Karten baut, ändert nichts daran, das sie bei der 970 lügen uns bescheißen.

Bei den Abstimmungen habe ich auch angegeben, dass ich weiterhin Nvidia kaufen werde...und das mache ich solange, bis AMD vernünftige Karten auf den Markt bringt.

Sollte das so sein, wird entschieden was ich mir später zulege.

Im Moment jedenfalls kommt an Nvidia niemand vorbei.

Man kann einen Markenhersteller nicht aus dem Rennen werfen, nur weil er bei einem Produkt Mist gemacht hat, die anderen Produkte aber top sind.

Autohersteller wären ja pleite bei so einem Denken.

Wenn Nvidia in den USA zu einer Millionenstrafe verknackt werden würde, würde ich dieses jedoch begrüßen ;)

Ich habe die neue Karte übrigens bei einem anderen Händler gekauft, Mindf-WHV.

Dieser Laden nutzt das Dilemma für sich übrigens augenscheinlich gnadenlos aus, denke ich.

Es werden GTX 980 Angebote rausgehauen und die Karten auf "auf Lager" gesetzt, obwohl das so nicht zu sein scheint.

Das war bei der 970 so und jetzt auch bei der 980, jedenfalls bei mir ;)

Es gäbe Möglichkeiten, auch wenn einem AMD nicht zusagt. Und zwar zu warten. Oder die Karten nur noch gebraucht zu erwerben. Davon hat Nvidi nämlich nix.

Und wieso redet man hier von Übertreibungen? So funktioniert der freie Markt in der Theorie. Firma bescheißt den Kunden, Firma wird vom Kunden durch Boykott bestraft.

Da du übrigens Autos erwähnst.

http://de.wikipedia.org/wiki/Ford_Pinto#Sicherheitsprobleme

Ja wäre schlimm gewesen, wenn Ford dadurch in die Pleite getrieben wäre.
 
Es gäbe Möglichkeiten, auch wenn einem AMD nicht zusagt. Und zwar zu warten. Oder die Karten nur noch gebraucht zu erwerben. Davon hat Nvidi nämlich nix.

Und wieso redet man hier von Übertreibungen? So funktioniert der freie Markt in der Theorie. Firma bescheißt den Kunden, Firma wird vom Kunden durch Boykott bestraft.

Wo habe ich von Übertreibung geschrieben?

Warum sollte ich warten, wenn ich die Karte nun haben möchte und zu einem ziemlich guten Preis noch dazu?

Das kann doch jeder machen, wie er möchte ;)
 
Zuletzt bearbeitet:
Ich finde diese Diskussionen immer wieder erstaunlich, wenn in Foren vor allem diejenigen die große Welle schieben, die offenbar gar nicht von NVIDIAs Speicherproblematik betroffen sind, und bei denen man den Eindruck haben kann, dass sie überhaupt noch nie eine NVIDIA-Grafikkarte gehabt haben.

Und wieso redet man hier von Übertreibungen? So funktioniert der freie Markt in der Theorie. Firma bescheißt den Kunden, Firma wird vom Kunden durch Boykott bestraft.
Hört sich in der Theorie gut an. Schaut man dann aber in die System-Anzeigen der großen Kritiker, dann sieht man da Produkte von ganz seriösen und skandalfreien Firmen wie Microsoft, Samsung, Apple, LG usw. Das ist dann ein sehr konsequentes Boykott-Verhalten. :]

Das Zero-Core-Power am HDMI und DisplayPort Anschluss nicht funktioniert steht übrigens auch schon im ht4u test der Karte.
Irgendwo am Anfang des Threads wurde mal kolpotiert, dass AMD auf die Einschränkungen bei ZeroCore hingewiesen habe. Das mag an der ein oder anderen Stelle ja zutreffen. Ich hab jetzt aber mal rückblickend geschaut und festgestellt, dass weder auf den Verpackungen meiner AMD-Grafikkarten ein entsprechender Hinweis zu finden ist, noch beim Verkäufer.

Und wenn man googlet, dann landet man hier, auch kein Hinweis auf die Einschränkungen. Auch auf diversen Präsentationsfolien kein Hinweis.

Und funktioniert hat ZeroCore ohnehin nie richtig.

http://www.planet3dnow.de/vbulletin/showthread.php/418393-Radeon-7870-Luefter-Probleme-mit-Zero-Core

Da es teils auf dem Zufallsprinzip basiert, ob man nun die störende Anwendung findet oder nicht, hab ich meine Monitore nun dauerhaft per HDMI bzw. Displayport angeschlossen. Macht wenigstens keinen Ärger. Die Alternative wäre, entweder jede neue Anwendung auf die Verträglichkeit mit ZeroCore zu testen oder aber immer alle Anwendungen vorsichtshalber zu schließen. Super Technik.

Wen darf ich jetzt eigentlich verklagen?
 
@k.schweder

Es gibt kein Problem. (Obwohl die 980 nicht die schnellste Karte auf dem Markt ist, höchstens Single-GPU-Karte, und das nur, wenn man Mantle weglässt.)
Auf mich wirkt das nur so, als würde man seinem Hund, nachdem der in die Wohnung geschissen hat, das Hinterteil massieren - um es bildhaft auszudrücken.

Das wir von Singel-GPU sprechen, dachte ich jedenfalls, sei klar, wenn man nicht verstehen möchte oder kann, ist das natürlich etwas anderes.

Die 980 ist die schnellste Karte am Markt, wenn man nicht Äpfel mit Birnen vergleichen will ;)

Was du alles mit (d)einem Hund machen würdest möchte ich nicht wirklich wissen. ;D

--- Update ---

...Ja wäre schlimm gewesen, wenn Ford dadurch in die Pleite getrieben wäre.

Eben :P
 
Darauf bist du leider nicht eingegangen.
Ich hatte nie eine GeForce GTX 480, also kann ich nicht sagen wieviel sie gedrosselt verbraucht.

Ich schätze es wird ein Stück weit mehr als bei deiner Radeon R9 290X mit "PowerTune -50%".
 
Ich finde diese Diskussionen immer wieder erstaunlich, wenn in Foren vor allem diejenigen die große Welle schieben, die offenbar gar nicht von NVIDIAs Speicherproblematik betroffen sind, und bei denen man den Eindruck haben kann, dass sie überhaupt noch nie eine NVIDIA-Grafikkarte gehabt haben.


Ach so. Interessant. Dann hab ich mir wohl folgende Karten nur eingebildet: 4 Ti, 5900 XT, 6800 LE, 7900 GS, 8880 GTS 320, 8800 GTS 512, GTX 260 und 560 Ti.

Und was die anderen Firmen angeht. Ich versuche zumindest, wenn wieder Skandale aufkommen die Firmen zu meiden. Ja auch ich bin da nicht so konsequent sie für immer zu meiden.
 
Zuletzt bearbeitet:
@Cleric
Cleric schrieb:
Und funktioniert hat ZeroCore ohnehin nie richtig.
Das ist schlicht nicht wahr. Wenn es bei dir nicht funktioniert, ist das alles andere als schön. Anders als bei der 970-Speicher- und Betrugsproblematik bist aber erst einmal nur du betroffen. Es könnte übrigens sein, dass der Boardpartner beim Design, BIOS oder der Firmware Mist gebaut hat. Weiterhin könnte der Catalyst Omega dein Problem lösen. Dann wäre da noch die Frage, ob das gleiche Verhalten unter einem anderen OS oder in einem anderen System zu beobachten ist.
Allerdings habe ich nicht das Gefühl, dass du wirklich etwas am Status quo ändern willst, allein schon wegen der zitierten Aussage.


Cleric schrieb:
und bei denen man den Eindruck haben kann, dass sie überhaupt noch nie eine NVIDIA-Grafikkarte gehabt haben.
Das ist erheblich weniger wahrscheinlich, als dass all jene schon einmal eine AMD(!)-GPU benutzt haben, die gebetsmühlenartig ATIs schlechte Treiber verdammen. Woher soll der Marktanteil denn kommen?


Wenn du mir zu guter Letzt noch erklärst, wie AMD sämtliche Hardware- und Software-Kombinationen auf ZCP-Kompatibilität testen soll, kann ich das Ganze mal übersetzt in das Catalyst-Feedback-Formular hacken.
Dass das Funktionieren der deaktivierten ROPs, des Caches und die Geschwindigkeit der langsam angebundenen von anderen Komponenten, BIOS oder Firmware beeinflusst werden, habe ich auch noch nicht gehört.


@Oi!Olli
Nicht persönlich nehmen oder werden. Schön sachlich bleiben.
 

Ok ich mach es noch mal deutlich. Ich war sarkastisch. Die Firma hat den Tod von menschen in Kauf genommen und wurde dafür nicht einmal bestraft.

Es wäre nur fair gewesen, wenn Ford jetzt pleite wäre.
 
@Cleric
Wie gesagt, bei mir funktioniert es bestens denn die Auswirkungen sieht man mit einer kurzen Verzögerung auf dem Messgerät, allerdings haben die DVI Anschlüsse so ihre eingenarten weshalb ich keinen zweiten Monitor per DVI anschließe, sofern ich wert darauf lege das erkannt wird das er aus ist.
Bei meinen Monitoren wird dann eben nicht der Desktop automatisch verkleinert wenn er abgeschaltet ist, selbst wenn er per Adapter am HDMI Port hängt.
Wenn es bei anderen funktioniert kann es allerdings auch sein das nicht jeder Monitor eine entsprechende Statusmeldung über den DVI Anschluss ausgibt. Vielleicht beißt sich ja auch damit Zero-Core-Power.

Da in deinem Link aber davon die Rede ist das Zero-Core-Power dann nicht greift wenn irgendwelche Programme immer wieder auf die GPU zugreifen, beispielsweise die Hardwarebeschleunigung des Browsers denn das dürfte eine längere idle Zeit verhindern und entzieht lt. der Abbildung damit diesem Feature die Funktionsgrundlage.
 
Das ist schlicht nicht wahr. Wenn es bei dir nicht funktioniert, ist das alles andere als schön. Anders als bei der 970-Speicher- und Betrugsproblematik bist aber erst einmal nur du betroffen. Es könnte übrigens sein, dass der Boardpartner beim Design, BIOS oder der Firmware Mist gebaut hat.
Da drei verschiedene "Boardpartner" betroffen sind, Sapphire, XFX und irgendein NoName-Anbieter, glaube ich nicht, dass es an der Implementierung seitens des Boardpartners liegt. Und dass ZeroCore in ganz vielen Fällen nicht zuverlässig funktioniert, kannst Du gerne in vielen (auch US-amerikanischen) Foren nachlesen.

Allerdings habe ich nicht das Gefühl, dass du wirklich etwas am Status quo ändern willst, allein schon wegen der zitierten Aussage.
Was genau? Soll ich meine kostbare Zeit opfern und für AMD Beta-Tester spielen?

Wenn du mir zu guter Letzt noch erklärst, wie AMD sämtliche Hardware- und Software-Kombinationen auf ZCP-Kompatibilität testen soll, kann ich das Ganze mal übersetzt in das Catalyst-Feedback-Formular hacken.
Ich gehe einfach davon aus, dass vom Hersteller beworbene Features genau so funktionieren, wie sie beworben wurden. Ansonsten ist das ein Sachmangel und Gewährleistungsfall. Aber klar, speziell in der IT-Branche reift die Banane gerne mal beim Kunden. Das nehmen die meisten ja inzwischen schulterzuckend hin, siehe jetzt NVIDIA.

Da in deinem Link aber davon die Rede ist das Zero-Core-Power dann nicht greift wenn irgendwelche Programme immer wieder auf die GPU zugreifen, beispielsweise die Hardwarebeschleunigung des Browsers denn das dürfte eine längere idle Zeit verhindern und entzieht lt. der Abbildung damit diesem Feature die Funktionsgrundlage.
Das habe ich mir auch schon zusammengereimt. Nur habe ich irgendwann keine Lust mehr gehabt, nach den verantwortlichen Anwendungen zu suchen. Bei mir sind privat wie beruflich halt sehr viele Anwendungen parallel offen. Und die Systeme werden in der Regel nur seltenst mal runtergefahren oder neugestartet. In meinem Fall ist ZeroCore ziemlich wertlos, außer man schließt grundsätzlich alle Anwendungen, wenn man den Arbeitsplatz verlässt. Und das kann nicht Sinn der Sache sein.

Ärgern tut mich das insbesondere deshalb, weil ZeroCore für mich der ausschlaggebende Grund für den Kauf diverser AMD-Grafikkarten war. Nur hat sich die Funktion leider als wenig praxistauglich herausgestellt.
 
Nur hat sich die Funktion leider als wenig praxistauglich herausgestellt.
Tritt der Fehler auch bei Rx-200er- und vllt. sogar 285er-Karten auf? Vllt. wurde ja noch eine Hardwareänderung vorgenommen, die das Problem wenigstens schmälert.
 
@Cleric
Die Klassiker sind wohl die Browser-, Video- und Flash Hardwarebeschleunigung.
Letztendlich sind diese Feature aber abschaltbar und wenn der Prozessor nicht allso schwachbrüstig ist auch oftmas verzichtbar.....vor allem beim Flash Player.
 
Ok ich mach es noch mal deutlich. Ich war sarkastisch. Die Firma hat den Tod von menschen in Kauf genommen und wurde dafür nicht einmal bestraft.

Es wäre nur fair gewesen, wenn Ford jetzt pleite wäre.

Schlimme Sache sowas, doch sind nicht alle Fordprodukte fehlerhaft bzw. schlecht gewesen und wurden darum auch noch gekauft, weshalb das Unternehmen überlebt hat.

Bei Nvidia ist es genauso, GTX 970 fehlerhaft, GTX 980 nicht.

Ich wiederhole mich gerne nochmals, wenn Nvidia als Konsequenz eine Millionenstrafe bekommen würde, würde ich dieses begrüßen.

Macht es euch doch mit den Kaufentscheidungen der Leute nicht so schwer und akzeptiert schlicht die Situation, weil sie legitim ist :)
 
Meinst du? Und wie viele, schätzt du, sind außerhalb des DC-Bereichs in diesem Forum am Werkeln?
Selbst ein Enthusiast wie WindHund hat anscheinend keine. Mir fallen auf Anhieb nur CappuAndy und TobiWahnKenobi als Besitzer je einer ein.
Außerhalb von DC, ebenfalls GPGPU nutzen vor allem die TressFX user z.B. bei Tomb Raider. ;D
http://www.mindfactory.de/product_i...-Aktiv-PCIe-3-0-x16--Full-Retail-_946304.html
Über 3290 mal verkauft.
Das ist ein Modell in einem Online Shop, wie viele Modelle und Shops gibt es denn allein in Deutschland?

Bezüglich ZCP, es ist immer der Systembauer Verantwortlich, Danke liebe Hersteller für euren Support!
 
WindHund, es ging um 290X-Besitzer hier im Forum. Mindfactory verkauft ja nicht bloß an P3D-Mitglieder.
MF dürfte einer der größten deutschsprachigen Shops sein.

Zum Vergleich: Dieses Mistding (~ iGPUs anyone?) soll sich schon 2.284-mal verkauft haben und zurzeit 1477 Beobachter haben, allein bei diesem einen Ebay-Händler. Oder dieses noch schlimmere 3140-mal, dieses uralte 897-mal.
 
Zuletzt bearbeitet:
Was bei den billig Modellen auch kein Wunder ist. Der Bereich wird bei AMD primär von den APUs abgedeckt und fällt damit aus der Grafikkarten Statistik raus.
 
Du hast mich missverstanden: Wieso kauft überhaupt irgendjemand solche mehrfach umgelabelten und in x gleichnamigen Ausführungen (DDR3 vs. GDDR3 vs. GDDR5 u.a.) erhältlichen Lowest-End-Karten irgendeines Herstellers, wo selbst jede Onboard-Grafik, geschweige denn iGPU, die Zwecke erfüllen kann, die man mit so einer dGPU ins Auge fassen kann? Das können doch nur Leute sein, die stur das kaufen, was sie kennen, und von modernen Mini-GPUs keine Ahnung haben. Oder übersehe ich etwas?
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten