Zurück zu Nvidia - Endlich wieder zuhause!

Letztendlich kommt es auf den Einsatzzweck an, aber der Trend ist für mich auch knackig die falsche Richtung. 450W Standard und 600 maximaler TDP sind schon krank.

Wie auch immer: bevor die 7900XT nicht draußen ist... ich hätte wohl noch die 3 Wochen gewartet und dann über einen Kauf nachgedacht, bevor ich den Unsympathen von NVidia vorab das Geld in den Rachen werfe.
 
Letztendlich kommt es auf den Einsatzzweck an, aber der Trend ist für mich auch knackig die falsche Richtung. 450W Standard und 600 maximaler TDP sind schon krank.

Wie auch immer: bevor die 7900XT nicht draußen ist... ich hätte wohl noch die 3 Wochen gewartet und dann über einen Kauf nachgedacht, bevor ich den Unsympathen von NVidia vorab das Geld in den Rachen werfe.
Puh, Tobis Blog seit 2012...
Daher mal Glühstrumpf für die 10 Jahre Posting hier ! :o

Das hier waren auch schon über 600W @ 230V : https://abload.de/img/night_raid_custom_cfxn5ku9.jpg

Edit: Heute sieht es so aus:

hwinfo64_desktopx7fiq.jpg
 
Zuletzt bearbeitet:
danke windhund.

ich kann die denkweise zum energieverbrauch gut verstehen. ich denke ja im grunde nicht anders. allerdings ist es dieses mal hardware, die total überzeugt.
die 3090Ti ist gewiss nicht langsam gewesen, aber war in der spitze auch nur 40% schneller als die RTX2080Ti, die vor ihr im slot steckte.

im slot steckte.. gutes stichwort.. da steckte schon so einiges.. mein i9900k ist inzwischen ein opa.. das z370 auf dem er steckt rostet langsam. dass ich darauf überhaupt noch lagfrei spielen kann, liegt nicht zuletzt darin begründet, dass ich immer karten mit zuviel dediziertem speicher kaufe.. *gg* anyway.. plötzlich kommen neue karten auf den markt.. man liest von 600w und kriegt mit blick auf die kosten in heutigen tagen das kotzen - völlig falsche richtung.. wir hatten das thema ja schon.. AAAAAAAABER -> das mistding überzeugt mit 70-80% mehr doppelwumms on top.. auf die 3090.. die in der spitze auch 480W verbraten hat (ROG STRIX OC).. wäre ich zocker würde ich jetzt den witcher mit 200+ fps durch die 4K gegend jagen oder die auflösung auf 8K hochdrehen und hätte immernoch über 60fps. das waren vorhin 1000MHz mehr als ampere drückt.. unter luft.

tsezncz3.jpg


so und nicht anders muss es sich anfühlen, wenn ich die graka update!

aber das ist für einen ersten eindruck genug weihrauch. warten wir auf die dinge, die mich nerven.. früher oder später.


(..)

mfg
tobi
 
Eigentlich sinds ja nur 885MHz und 48% mehr beim TimeSpy in deinem Screenshot. Da fehlt einiges bis 70-80%
 
Eigentlich sinds ja nur 885MHz und 48% mehr beim TimeSpy in deinem Screenshot. Da fehlt einiges bis 70-80%
den 3Dmark score darfst du ignorieren. guck auf die grafik-score und auf die fps..


1962 vs 2920 sind 1000.

tsebc7fqj.jpg



(..)

mfg
tobi
 
@stromverbrauch

wenn man die karte mit ihren standardeinstellungen betreibt ist der verbrauch recht moderat und sie boostet out-of-the-box auf 2.7GHz.
ne runde far cry 6 mit 100fps in 4K auflösung und voll aufgerotzt.. unter 300W. dass die gpu nicht richtig ausgelastet wird, spart strom :)
mit der 3090 brauchte ich mehr saft für weniger bilder.




(..)

mfg
tobi
 
ich kann die denkweise zum energieverbrauch gut verstehen. ich denke ja im grunde nicht anders. allerdings ist es dieses mal hardware, die total überzeugt
Das Problem ist ja auch weniger die Leistung an sich sondernum welchen Preis die Karten darauf kommen.
EIn schöner Anhaltspunkt ist hier die Messungen mit 300W, 350W und 450W Limit bei Computerbase.
Zwischen 300W und 350W laben immerhin noch 7% Mehrleistung aber zwischen 350W und 450W kommen nur noch 3% bei rum. Ich will garnicht wissen um wieviel es dann bei den 600W Monstern geht aber schon aufgrund dieser Zahlen sieht man recht deutlich das man die 350W Grenze @ default hätte nicht überschreiten sollen denn eine doppelt so viel Mehrverbrauch bei nur halb so großen Leistungszuwachs sprechen hier eine sehr deutliche Sprache.
 
Mal schauen, was die 7900XT bringt - die sollte im Normalbetrieb ja nicht so viel ziehen und ähnlich Leistungsfähig sein.
Wie gesagt hätte ich die paar Tage noch gewartet - dass die dann über 2k Euro kostet wage ich auch zu bezweifeln.
 
den 3Dmark score darfst du ignorieren. guck auf die grafik-score und auf die fps..
Jup, da bremst dann eher die CPU.

voll aufgerotzt.. unter 300W. dass die gpu nicht richtig ausgelastet wird, spart strom :)
mit der 3090 brauchte ich mehr saft für weniger bilder.
Ich war davon auch etwas überrascht, aber da sich die Ausführungseinheiten fast verdoppelt haben und der Treiber die gut ausgelastet bekommt, ist sowas gut drin.

das waren vorhin 1000MHz mehr als ampere drückt.
Wäre ja mal interessant, wie es bei Taktgleichheit auschaut, ob da nur die Mehrzahl an Ausführungseinheiten "drückt" oder ob es signifikante IPC-Verbesserungen gab.

Wie gesagt hätte ich die paar Tage noch gewartet - dass die dann über 2k Euro kostet wage ich auch zu bezweifeln.
Das ist das Problem, wenn man bei einem Team "verhaftet" ist. Ich würd sogar wetten, dass Tobi 10k für einen grüne Karte hinblättert, auch wenn er vorher viel gemeckert hat.
 
Jetzt bräuchten wir nur noch paar Boinc Testergebnisse *elch2*
 
Kann ich mir lebhaft vorstellen: Dann labert sie nur rum, statt zu liefern. Und in jedem Interview zählt sie alle 42 Spiele auf, die sie in den letzten 12 Monaten beschleunigt hat, weil sie glaubt, "der Trick" bestünde darin, immer wieder das Selbe zu sagen?

die auflösung auf 8K hochdrehen
Deine Augen können das nicht unterscheiden, deshalb siehst du davon nichts.

Auch 4K ist doch eine Art "hausgemachtes Problem". Dafür würde ich niemals solche abartigen Summen für eine Grafikkarte ausgeben.
 
Zuletzt bearbeitet:
ich sehe davon ne ganze menge.. mein bildschirm ist ein 55" OLED mit 120Hz und nativer 4K auflösung ;)


(..)

mfg
tobi
 
Habe letztens ein 8K Video mit einer 4090 von Red Dead Redemption 2 gesehen, ohne Kantenglättung. Fand ich nicht schön. Immer noch sichtbare Pixel und Kantenflimmern.
4K oder selbst niedrigere Auflösungen mit vernünftiger Kantengättung sieht deutlich schöner aus. Die Auflösung immer weiter hoch zu prügeln ist meiner Meinung nach deshalb komplett sinnlos, viel zu uneffizient. Da schießt man mit Kanonen auf Spatzen.
Bei 4K sind wir bereits bei einer Auflösung angelangt, bei der man mit entsprechender Kantenglättung in Sachen Schärfe keinen Unterschied zur Realität mehr wahrnimmt (siehe im Filmbereich UHD Blu-Ray, wo ist da noch ein Unterschied zur Realität wahrnehmbar?).
Ich bezweifle, dass man zwischen 4K mit Kantenglättung und nativem 8K mit Kantenglättung noch irgendeinen Unterschied wahrnehmen kann.

Die TV-Hersteller wollen uns das natürlch verkaufen mit ihrem tollen 8K-Marketing. Aber auf Seite der Medien wird 4K mit Sicherheit noch SEHR lange der Standard bleiben. Einfach weil noch mehr Auflösung kaum noch Vorteile hat und sehr viele Nachteile. Um Computerspiele noch mehr Richtung Realität zu bekommen, wird Rechenleistung eher für andere Sachen gebraucht, nicht für noch mehr Pixel.

Just my 2 cents
 

charmante 3.1GHz im neuesten 3DMark aufguss.


(..)

mfg
tobi
 
Habe letztens ein 8K Video mit einer 4090 von Red Dead Redemption 2 gesehen, ohne Kantenglättung. Fand ich nicht schön. Immer noch sichtbare Pixel und Kantenflimmern.
4K oder selbst niedrigere Auflösungen mit vernünftiger Kantengättung sieht deutlich schöner aus. Die Auflösung immer weiter hoch zu prügeln ist meiner Meinung nach deshalb komplett sinnlos, viel zu uneffizient. Da schießt man mit Kanonen auf Spatzen.
Bei 4K sind wir bereits bei einer Auflösung angelangt, bei der man mit entsprechender Kantenglättung in Sachen Schärfe keinen Unterschied zur Realität mehr wahrnimmt (siehe im Filmbereich UHD Blu-Ray, wo ist da noch ein Unterschied zur Realität wahrnehmbar?).
Ich bezweifle, dass man zwischen 4K mit Kantenglättung und nativem 8K mit Kantenglättung noch irgendeinen Unterschied wahrnehmen kann.

Die TV-Hersteller wollen uns das natürlch verkaufen mit ihrem tollen 8K-Marketing. Aber auf Seite der Medien wird 4K mit Sicherheit noch SEHR lange der Standard bleiben. Einfach weil noch mehr Auflösung kaum noch Vorteile hat und sehr viele Nachteile. Um Computerspiele noch mehr Richtung Realität zu bekommen, wird Rechenleistung eher für andere Sachen gebraucht, nicht für noch mehr Pixel.

Just my 2 cents
Soweit kann ich dir folgen, aber:

4K ist Natürlich viel Holz, also in der Länge und Breite doppelt so viel wie Full HD (1080p)
Dasselbe gilt auch Analog zu 8K, doppelt so viel wie 4K...

Aber ohne Hz, Farbtiefe und Pixel pro m² ist das alles Schall und Rauch.
Von der Bit Rate des Quell Material mal abgesehen. :)

AA oder AF braucht man freilich nicht mit 8K !

@TobiWahnKenobi
Mein Neid, sei dir gegönnt. :)
 
Raptor Lake & Ada Lovelace.. Nostalgiebenches in 4K :P

3DMark2001
3dm20018gc41.png

3dm2001res_nosyncg4iwl.png


3DMark2003
3dm2003s1izc.jpg

3dm2003_resd2djq.jpg


3DMark2006
3dm20063tcbg.jpg

3dm2006_reszwfx3.jpg



3DMarkVantage
3dmvantage05dwz.jpg

3dmvantage_resldi60.jpg


Aquamark 3

default



3840x2160



..das sah früher alles viel besser aus..


(..)

mfg
tobi
 
Zuletzt bearbeitet:
Zurück
Oben Unten