Der aktuelle Grafikkartenmarkt.

Ich stichel mit diesem Kunstwort ganz bewusst in die Richtung der hardcore Fanboys, die geradezu wie Lemminge Lederjacke hinterher laufen und alles was von grün kommt bedingungslos lieben, koste es was es wolle.
Das ist kein Kunstwort, dass ist einfach nur respektlos, dumm und Humor auf dem geistigen Niveau eines Kleinkindes

Was die Chips angeht, sind wir wohl schon nahe dem angelangt was technisch möglich ist. Das konnte nicht ewig so weiter gehen mit weiter und schneller. Erstmal abwarten was AMD abliefern wird, dass wird sicher auch keine Revolution.
 
Laut MLID soll AMD warten bis NVIDIA sich mit dem Launch der 5000er Karten total blamiert hat. Die 5090 soll eine Vollkatastrophe sein was Raster Leistung, Ray Tracing und Stromverbrauch angeht (im Vergleich zur 4090). Verfügbarkeit soll auch sehr niedrig sein (vermutlich ist der Prozess bei TSMC zu gut, so daß fast alle Chip als AI Karten verkauft werden können und nur wenig teildefekte für die Gamer abfallen).
 
@ghostadmin

Blablabla Laberei ohne jegliche Belege.
 
Laut MLID soll AMD warten bis NVIDIA sich mit dem Launch der 5000er Karten total blamiert hat. Die 5090 soll eine Vollkatastrophe sein was Raster Leistung, Ray Tracing und Stromverbrauch angeht (im Vergleich zur 4090).

Unsinn, weder wird NVIDIA sich bei den 5000er Karten blamieren (wie auch, es gibt ja keine Konkurrenz), noch ist die 5090 eine Vollkatastrophe.

KI-gerenderte Pixel sind nunmal die Zukunft, da geht die Reise jetzt hin. Ob es einem passt, oder nicht. Alle Graka-Hersteller machen es so. Reine Rastering-Leistung wird zwangsläufig immer unwichtiger werden.
Siehe Golem Artikel:

Eine neue Ära der 3D-Grafik beginnt​



Aber selbst, wenn man Frame-Generation mal außen vor lässt:
Hier ein Review:
Bei Cyberpunk mit RT @4K sind es 60 vs 42 fps (RTX4090), also mal eben ein Plus von 42% gegenüber der RTX4090. Vollkatastrophe sieht anders aus.
 
Zuletzt bearbeitet:
So wie ich das sehe hat sich nvidia bereits mit der Vorstellung der 5090 blamiert denn die Einschränkungen bezüglich Grundframerate bei vom Frame Generator bleiben wodurch MFG um so mehr zum Benchmark Feature wird und angesichts der geringen Leistungszuwächse in geringen Auflösungen (Spiele rennen ins CPU Limit) dürfte auch DLSS als Upskaler ein ziemliches Problem haben, welches ja erst dadurch die FPS Zuwächse generiert. Dazu noch die PCIe Probleme des 5090 FE Modells, der Idle Verbrauch von 30W und mehr und andere Kleinigkeiten.
Das war übrigens das Modell bei dem die höchsten Performancezuwächse erwartet wurden....
 
Ich finde es geil wie fast alle Reviewer das Ding einfach 4090 Ti nennen ;D - der minimale Leistungszuwachs für das viele Geld und die hohe Stromaufnahme ist echt ein schlechter Witz. Bei den kleineren Karten wird der Zuwachs noch kleiner ausfallen. 5080 = 4080 Super 2.0 *lol*
 
Ich fand es auch faszinierend wie bei Analysen zur Performanceentwicklung der Top Modelle die Titan Varianten unterschlagen wurden. *oink*
 
Ich finde es geil wie fast alle Reviewer das Ding einfach 4090 Ti nennen ;D - der minimale Leistungszuwachs für das viele Geld und die hohe Stromaufnahme ist echt ein schlechter Witz. Bei den kleineren Karten wird der Zuwachs noch kleiner ausfallen. 5080 = 4080 Super 2.0 *lol*
Wie hoch ist denn der "minimale Leistungszuwachs"? Ich hab jetzt eine Zahl aus dem verlinkten Review genannt. 42% Leistungszuwachs ohne Framegen in Cyberpunk. Hast du andere Zahlen?

Aber selbst, wenn es im Durchschnitt über alle Spiele nur 20% sein sollten: Warum sollten sie auch mehr machen, wenn es keine Konkurrenz gibt? Alles andere würde wohl aus unternehmerischer Sicht wenig Sinn machen. Ein gutes Pferd springt nur so hoch, wie es muss.

Und wie schon im Golem Artikel steht: Großere Sprünge kann man erst mit einem neuen Herstellungsverfahren erwarten.
 
KI-gerenderte Pixel sind nunmal die Zukunft, da geht die Reise jetzt hin.

Das mag durchaus so sein. Bis man aber das Problem gelöst hat, dass die dazugenerierten Frames nicht zu einer Verbesserung der Eingabelatenz führen, wird Frame Generation nur ein Bonus sein - und kein Ersatz für "herkömmlich" erzeugte Frames.

Wie hoch ist denn der "minimale Leistungszuwachs"?

Ich meine, bei Computerbase ein Szenario gesehen zu haben, wo es nur 9 Prozent waren. Bezogen auf 1440p in einem Spiel.
 
Hier habt ihr es:
Im Durchschnitt über die Spiele in 4K ein Performance-Plus von 27% im Vergleich zur RTX4090.

Also ich denke die Diskussion um einen "minimalen Leistungszuwachs" kann man hiermit einstellen. Zu beanstanden ist natürlich der Preissprung, das steht außer Frage.


Das mag durchaus so sein. Bis man aber das Problem gelöst hat, dass die dazugenerierten Frames nicht zu einer Verbesserung der Eingabelatenz führen, wird Frame Generation nur ein Bonus sein - und kein Ersatz für "herkömmlich" erzeugte Frames.

Sehe ich etwas anders, da es auch durchaus viele Spiele gibt, bei denen die Eingabelatenz nicht so wichtig ist. In Shootern ist das wichtig. In einem Flight Simulator z. B. nicht. Da reicht mir die Eingabelatenz von 30fps, wenn ich visuell die "Flüssigkeit" von 60fps habe.

Ich würde sogar so weit gehen und sagen, dass das für die meisten Spiele gilt, wenn es nicht gerade Shooter sind oder andere Spiele, wo es auf sehr schnelle Reaktionszeit ankommt wie Kampfspiele.
Ein anderes Einsatz-Szenario wäre halt auch, dass man z. B. nativ 60fps hat (das reicht selbst für Shooter, wenn's nicht gerade um Online-PvP geht), aber dann per Framegen auf 120fps oder 240fps aufbläst, damit es auf dem Bildschirm noch flüssiger aussieht. Wenn es gut funktioniert, why not?!

EDIT:
Techtesters kommen zu einem fast identischen Ergebnis wie Hardware Unboxed: 27,5% Unterschied zwischen 4090 und 5090 in 4K.
 
Zuletzt bearbeitet:
Überall da wo hohe Frameraten wegen der EIngabelatenz benötigt werden kann man FG an die Wand klatschen weil sich die Eingabelatenz nur auf die Basisframes beziehen kann. FG bastelt nur weitere mit dem wahrscheinlichsten Verlauf hinzu.
Mit einer geringen Basisframerate und schnellen Richtungswechseln bringt man das zwangsläufig aus dem tritt und je mehr hinzu erfunden werden desto stärker fallen die Grafikfehler aus.
 
Wie hoch ist denn der "minimale Leistungszuwachs"? Ich hab jetzt eine Zahl aus dem verlinkten Review genannt. 42% Leistungszuwachs ohne Framegen in Cyberpunk. Hast du andere Zahlen?

Aber selbst, wenn es im Durchschnitt über alle Spiele nur 20% sein sollten: Warum sollten sie auch mehr machen, wenn es keine Konkurrenz gibt? Alles andere würde wohl aus unternehmerischer Sicht wenig Sinn machen. Ein gutes Pferd springt nur so hoch, wie es muss.

Und wie schon im Golem Artikel steht: Großere Sprünge kann man erst mit einem neuen Herstellungsverfahren erwarten.

Guck doch mal in den RTX 5000 Thread, da gibt es genug verlinkte Tests. Unter 1080P und 1440P rennt das Ding im reinen Rasterbetrieb selbst mit einer 9800X3D ins CPU Limit und ist nur Messungenaugkeitsbereich schneller als die 4090, in einigen Fällen sogar langsamer! Im 4K Betrieb ist sie dann im Schnitt 25 - 30% schneller, frisst dann plötzlich aber auch über 600 Watt und hat Leistungsspitzen von über 800 Watt. Netzteile unter 1000 Watt sind bei fast jedem Tester ausgefallen. Mit Ray Tracing sieht es minimal besser aus. MFG ist Dummenfang von NVIDIA, das verschlechtert die Latenz (ist somit für kompetive Spieler unbrauchbar) und funktioniert nur ab Frameraten > 60 FPS brauchbar, also dann wenn die Bildfolge eh schon flüssig ist. Wenn es nicht zum flüssigen Spielen reicht, dann ist Auflösung oder Details runterschrauben die bessere Lösung. Normales DLSS Upscaling ist mittlerweile auch so gut, daß es der MFG Krücke vorzuziehen ist. Die Karte macht nur für Typen von Personen Sinn: Leute die sie beruflich für AI nutzen können, sowie Leute bei denen irgendwelche Körperteile zu kurz gekommen sind und die meine dieses mit unnötigen Luxus Produkten kompensieren zu können ;)
Wenn man dann noch die Hitze Probleme bedenkt (gegrillte SSDs, aufgeheizte CPU Kühler) - Ich persönlich würde das Ding noch nicht mal geschenkt nehmen.
 
Eben, bei 1400p rennt es in's CPU-Limit. Ist ja auch logisch, in solchen Auflösungen ist solch eine Grafikkarte absolut unterfordert. In 1080 oder 1440p überhaupt zu testen ist eigentlich schon Schwachsinn. Niemand kauft sich solch eine Karte für 1440p.

27% Leistungsplus in 4K, hatte ich ja schon geschrieben. Kann man gut oder schlecht finden. Je nachdem, was man erwartet hat. Aber angesichts des immer noch gleichen Herstellungsverfahrens und dem nicht vorhandenen Wettbewerb hat wohl niemand ernsthaft mehr erwartet.
Preis ist natürlich lächerlich, brauchen wir nicht drüber sprechen. Ist halt ein Luxus-High-End Produkt für eine winzige Zielgruppe und es gibt keine Konkurrenz. Also war ebenfalls zu erwarten.

Was MFG betrifft: Ich bin da mal sehr gespannt, wie das wirklich aussieht in den ersten Spielen. Erst ab 60fps brauchbar? Ist das wirklich so?
Ich sage mal so: Im Flight Simulator in VR habe ich weitestgehend stabile 45fps. Das ist das Ziel, nativ 45fps zu erreichen bei 90Hz, damit das flüssig ist. Wenn man nun die Framerate per Framegen auf 90fps hochblasen könnte, damit die Framerate 1:1 der Bildfwiederholfrequenz der Bildschirme entspricht, wäre das sicherlich nochmal visuell ein krasser Sprung, könnte ich mir vorstellen. Eingabelatenz spielt da wie gesagt weniger eine Rolle.
Also ich könnte mir durchaus vorstellen, dass MFG je nach Spiel und Einsatz-Szenario schon einen krassen Vorteil bringen kann. Wenn ich visuell 90fps statt 45fps haben kann und die Eingabelatenz ausreichend ist, dann wäre das schon ein ziemlicher Knaller, würde ich sagen.
 
Interessant waren z.B. die RT Tests wo die neue Karte bei den FullRT Tests, also da wo man die Mehrleistung am meisten bräuchte, deutlich weniger profitierte als bei den normalen RT Einstellungen. Treiberproblem oder aardwarebedingte Limitierung?

Die MFG Probleme sind relativ logisch, je mehr Zwischenframes generiert werden desto größer der Bildfehler wenn der nächste berechnete Frame einen anderen Verlauf genommen hat als angenommen. Je geringer die Unterschiede zwischen den gerenderten Frames desto weniger fallen solche Fehler auf.
Bei langsamen und gleichmäßigen Bewegungen kann auch weniger reichen weil die Unterschiede zwischen den gerenderten Frames einfach so gering und deutlich vorhersehbarer sind als z.B. bei hektischen Shootern.
 
Die MFG Probleme sind relativ logisch, je mehr Zwischenframes generiert werden desto größer der Bildfehler wenn der nächste berechnete Frame einen anderen Verlauf genommen hat als angenommen. Je geringer die Unterschiede zwischen den gerenderten Frames desto weniger fallen solche Fehler auf.
Bei langsamen und gleichmäßigen Bewegungen kann auch weniger reichen weil die Unterschiede zwischen den gerenderten Frames einfach so gering und deutlich vorhersehbarer sind als z.B. bei hektischen Shootern.
Deswegen würde ich das Beispiel mit dem Flight Simulator, einem Spiel mit eher langsamen Bewegungen und dem Bedarf, aus 45fps 90fps zu machen, als perfektes Einsatz-Szenario für Frame-Generation sehen. Gibt sicher auch diverse andere gut geeignete Beispiele wie Echtzeit-Strategie und sowas.

Wobei die einfache Verdoppelung der Framerate ja auch schon mit RTX4000 und der normalen Frame-Generation möglich ist. Wurde nur leider von MS noch nicht implementiert für VR im Flight Simulator. Hoffe, das DLSS4 und MFG jetzt den Druck erhöht, den neuen Kram für VR zu implementieren. Vielleicht erübrigt sich dann schon der Bedarf nach einer schnelleren Grafikkarte. Also ich habe da generell schon einige Hoffnungen bzgl. Frame-Generation.
 
@Thunderbird 1400
Echtzeitstrategie kann man wohl getrost knicken denn da scrollt man über die Karte, was ebenfalls schnellen Bewegungen mit Richtungswechseln entspricht und damit die besagten Bildfehler provoziert.
An der Stelle ist es auch recht egal wie gut es mit einem generierten Zwischenframe lief. Das Problem verschärft sich mit jedem weiteren Zwischenframe denn was bei der Framerate flüssiger als flüssig ist ist überflüssig und größere Abstände zwischen den gerenderten Frames verschlechtern die EIngabelatenz und vergrößern die Bildunterschiede die für den Framegenerator zum Problem werden..
 
in den USA wurden erste Teilzeit-Obdachlose gesichtet, die sich ein Stück vom “Glück” sichern wollen.

Man möchte hoffen dass diese Abenteurer am Ende alle die Möglichkeit haben das Geld dann auch loszuwerden um wieder in geregelten Verhältnissen mit Stromanschluss weiterleben zu können.
 
VollNvidioten. Ob das jetzt gewissen Leuten hier passt oder nicht.
 
Diese Leute sind nicht dümmer oder klüger als die Leute die wegen anderen Dingen vor Läden campen ... hört doch einfach mal auf damit ...
 
Es wird auch nicht eine Person mehr Karten von AMD kaufen, nur weil man die Konkurrenz beleidigt.

Eher weniger.
 
Es gibt viele Hersteller die eine Fangemeinde mit teils hysterischen Mitgliedern hat. (hallooooo Apple.....)
Auf der anderen Seite ist bereits jetzt spätere die Preisexplosion absehbar. Bekommen diese sie noch annähernd zur UVP könnten man das Teil immernoch zum deutlich höheren Preis weiterverkaufen. Ich behaupte mal ganz frech dass die aufgrund der angekündigten Unterlieferung recht schnell bei meinen ursprünglich spekulierten 3000€ landen wird.
 
Vermutlich ist die hälfte der Menschen dort aus rein wirtschaftlichen Interessen und wollen das Zeug garnicht haben :P
 
Zurück
Oben Unten