Der aktuelle Grafikkartenmarkt.

Wird alles nur noch teurer, was ohnehin schon teuer ist.

Huang verkauft ja sein hypa-hypa Zeugs für 70k oder 80k pro GPU. Für die Firmen ist das ein Alptraum, zumal du deine Kohle schon reingesteckt hast und kein Produkt bekommst.

Hast aber auch keine Kohle mehr für bspw. AMD GPUs übrig, weil Huang schon deine ganze Kohle kassiert hat.

Benchmarks gewinnst du auch nicht mehr, weil dir die Server abfackeln.

Als Mittelgroße KI-Firma, die KI Anfragen nimmt, ein absoluter Alptraum.

Der kleine Mann bezahlt asbald 10.000€ für ne cutted-down Grafikkarte fürs Gaming. Das ist die Zukunft des Grafikkartenmarkt(es).

Wir rennen stur und strunzendumm in das nächste Monopol und währen uns gegenseitig glücklich und schlau.

An dieser Entwicklung sind Nvidioten schuld.
 
Für mich klingt das einfach nach einer zu hohen Energiedichte, entweder weil der so grenzwertig designt ist das nicht mehr genug Spielraum für Hotspots ist oder weil die Bump Flächen für den Stromfluss zu klein sind und sich zu stark aufheizen.
Klar, bei Systemen mit einer geringeren Packungsdichte kann sich die Abwärme besser verteilen aber hockt die Hardware zu dicht auf einander heizen sie sich gegenseitig stärker auf, was den berühmten Tropfen im vollen Fass durchaus ausmachen kann.
 
Oh bitte nicht wieder diese alte Leier von der Endkunde müsse seine Kaufentscheidung nach irgendwelchen ideologischen Aspekten treffen, um Monopolbildungen zu vermeiden. So funktioniert das nicht. Das darf in einer freien Marktwirtschaft immer noch jeder selbst für sich entscheiden, was für ihn das beste Produkt ist. Ideologische Gründe sind da für viele nicht entscheidend, und das ist auch völlig legitim. Dafür haben wir zur Vermeidung von Monopolen Institutionen wie das Bundeskartellamt oder die EU Wettbewerbsbehörde, weil der Verbraucher es generell eben nicht regeln kann.

Wie dem auch sei, hier sollte mal ein Moderator eingreifen, wenn wiederholt ganze Käufergruppen pauschal als Idioten bezeichnet werden. Das ist wirklich Kindergarten-Niveau.
 
Melden und den Moderator seinen "Job" machen lassen.

PS.: ich bin keiner.
 
Das darf in einer freien Marktwirtschaft immer noch jeder selbst für sich entscheiden, was für ihn das beste Produkt ist.
Grundsätzlich schon, aber selten entscheiden die Leute für sich selbst, sondern werden beeinflusst von ihrem Umfeld das meist auch nur aus nv Fans besteht - was die dann für eine Karte empfehlen kann sich jeder selbst ausdenken...
Ich habe jeweils alle Hände zu tun, damit sie sich die Leute auch mal für eine AMD Karte entscheiden und muss erstmal alle Vorurteile aus der Welt schaffen die sich fest in ihr Hirn eingebrannt haben...
Schlussendlich sind sie dann fast geschockt wie gut die Radeons abgehen und was sie alles im Treiber direkt einstellen können und vorallem des überlegenen Adrenalin Layout.
Bis jetzt wollte auf jeden Fall keiner wieder zurück zu nv, das ich ihnen natürlich immer anbiete falls sie wirklich nicht zufrieden sind. ;)
 
Ja, ist ja immer so. Jeder ist immer von irgendwas beeinflusst bei Kaufentscheidungen. Ob vom Marketing/ Werbeversprechen, Empfehlungen, Reviews/ Influencern (die auch nicht unbedingt immer neutral berichten) oder was auch immer.
Es hat halt auch nicht immer jeder Mensch die Zeit und die Muße, sich bei jedem Produkt, dass er kauft, erstmal ausgiebig zu informieren. Ist ja auch unmöglich, soviel Lebenszeit hat niemand. Da wird dann einfach auch mal nach Marke gekauft, die man kennt, und fertig. Muss man akzeptieren und ist auch absolut legitim, das so zu tun. Deswegen ist niemand ein Idiot. Jeder setzt eben andere Prioritäten.

Letztens war mein AV-Receiver kaputt. Hatte keine Lust, mich tagelang zu informieren. Einfach einen Denon gekauft nach Markenname, und gut ist. Funktioniert, bin zufrieden. Wahrscheinlich würden jetzt im Hifi-Forum auch Leute lamentieren, wie idiotisch das ist und Marke XY ja viel besser sei aus den Gründen YZ und Denon aus irgendwelchen Gründen eine ganz furchtbare Marke sei, die man auf gar keinen Fall kaufen dürfe und man bei Marke XY viel mehr Leistung für's Geld bekommt usw. usw... Ganz ehrlich, manchmal ist einem das auch einfach wurscht, weil man Wichtigeres zu tun hat.

Also ich kann jeden verstehen, der einfach seine bekannte Marke kauft und fertig. Aber wie gesagt, gerade die PC-Gamer halte ich für mündiger, als man denkt.

PS: Überlegenes Adrenalin Layout? Ganz ehrlich, ich fand die AMD Oberfläche richtig furchtbar, da sind viele Sachen ziemlich versteckt. Nach einer Weile weiß man, wo man was suchen muss, aber es ist unübersichtlich, verschachtelt und nicht wirklich logisch. Ich fand's jedenfalls immer grausam, teilweise hab ich die selben Sachen immer wieder gesucht. Die neue nVidia App finde ich da sehr viel einfacher und übersichtlicher, auch wenn sie noch recht neu ist und noch nicht alle Funktionen drin sind. Nicht, dass solch eine Oberfläche kaufentscheidend für mich wäre.
 
Zuletzt bearbeitet:
Ich habe immer AMD empfohlen Aufgrund der überlegenen Qualität und des besseren Preises.

Viele meiner Freunde und Bekannte sind Nvidioten, die nicht auf mich hören wollen, aber was hat das mit mir zu tun? Gar nichts, weil ich kein Nvidiot bin und dem Huang seit 20 Jahren kein Geld gebe.

Die Nvidioten unter meinen Freunden und Bekannten Fragen aber immer wieder nach was ich benutze und empfehle und ich sage denen ganz klar was Sache ist.

Meisten frage ich diese Leute was die so haben und naja, da siehts meistens düster aus.
Alter OEM Rechner, wo Shintel-Schrott mit ner Nvidioten-Karte eingebaut wurde.

Von da an geht die Arbeit dann los.
 
Ein aktueller Artikel von PCGH greift das Thema 8GB vs. 16GB auf.

Die Empfehlung nur noch 16GB VRAM für neue Gaming-Karten zu akzeptieren gilt eigentlich schon länger, vor allem wenn man 4k beabsichtigte. Das gilt heute schon für einzelne Spieletitel in FullHD.

Der Artikel zeigt zumindest nochmals die Problematik zu dynamischer Reduktion und Leistungseinbruch individueller Spielesoftware schlicht durch zu wenig VRAM auf. Tatsächlich hat sich das Problem mit mehr PCIe-Leistung und mit DirectStorage bei so einigen Entwicklern nicht lösen lassen.
Unschön bis unprofessionell ist die Betonung auf AMD, weil damit die Tests gemacht wurden. Die Problemeatik sehe ich allerdings bei Nvidiakarten mit relativ höherer Computeleistung bei kleinerem VRAM noch gravierender.
 
Das wissen die auch schon sehr lange
wo siehst du eine Betonung auf AMD?
was man auch nicht wegdiskutieren kann ist der minimal höhere VRAM Bedarf bei AMD Karten
 
Unschön bis unprofessionell ist die Betonung auf AMD, weil damit die Tests gemacht wurden. Die Problemeatik sehe ich allerdings bei Nvidiakarten mit relativ höherer Computeleistung bei kleinerem VRAM noch gravierender.
Es liegt wohl nahe, dass Nv solche Vergleiche mit Nv Hardware gar nicht mag.
 
wo siehst du eine Betonung auf AMD?
im Titel und im Fazit
  • Bei Radeon RX 9000 und 7000 unverzichtbar
  • AMD-Grafikkarten profitieren stark von mehr als 8 GiByte Grafikspeicher, vor allem beim Raytracing.
  • AMD ist gut damit beraten, keine Radeon RX 9060 (XT) mit 8 GiByte zu veröffentlichen
aber man weiss eigentlich spätestens seit Hogwarts Legacy, dass üble dynamische Detailreduktion auch bei der Konkurrenz auftritt.
Das Fazit dort dürfte nicht anders werden, wenngleich ich erwarte dass man dann dort mit DLSS arguementieren könnte um dem Leser alle Angst zu nehmen.
 
Nein, du warst nicht gemeint. Damit war vinacis_vivids gemeint, da er immer wieder den Begriff "die Nvidioten" verwendet hat, was ohne nähere Erklärung erstmal einer pauschalen Beleidigung aller Nvidia-Käufer als Idioten gleichkommt. Ungefähr so, als wenn ich hier von AMD-Affen sprechen würde. Würde vermutlich (zurecht) nicht so gut ankommen hier im Forum.
Für mich immer wieder erstaunlich, wie emptional manche scheinbar das Thema Grafikkarten sehen, sodass Menschen mit einer anderen Präferenz bei der Kaufentscheidung erstmal pauschal beleidigt werden müssen. So als gliche die Wahl der richtigen Grafikkarte und die Unterstützung der richtigen Firma einer Lebenseinstellung *lol* *noahnung*
 
Ich stichel mit diesem Kunstwort ganz bewusst in die Richtung der hardcore Fanboys, die geradezu wie Lemminge Lederjacke hinterher laufen und alles was von grün kommt bedingungslos lieben, koste es was es wolle.
 
Ja, solche Hardcore-Fanboys gibt's ja bei vielen Marken wie Apple & Co., und denen braucht man sowieso nicht mit Argumenten kommen. Aber wenn sie mit den Produkten nunmal zufrieden sind und bereit sind, dafür lächerliche Summen zu bezahlen.... go for it. Sollen sie doch machen.

Wenn ein Unternehmen es geschafft hat, viele solcher Fanboys zu haben, die blind kaufen und freudig absurde Preise bezahlen, dann hat es offensichtlich verdammt gutes Marketing gemacht und auch die Produkte am Start, die die Leute haben wollen. Muss man neidlos anerkennen.
 
Muss man neidlos anerkennen.
Ja, das sehe ich auch so.

Um mal wieder ein wenig in Richtung Technik zurückzukommen und nicht den Review-Thread vollzuspammen: sehe das nur ich so, oder wird die Werbetrommel kurz vor Release nochmal richtig angeworfen? Hat es diese Vorabberichterstattung mit Architekturanalyse bei "ausgewählten Onlinemagazinen" bei den vorherigen Generationen schon in diesem Umfang gegeben? Entweder hat man die Lager voll und will möglichst viel gleich zum Start weg verkaufen, oder das Produkt ist technisch zwar ein Fortschritt, aber nicht der Überflieger, der es hätte werden können oder den die Kundschaft erwartet.

Finde es nur befremdlich, dass nicht ein Tag ohne neue Folienschlacht vorbei geht...
 
ich denke dieser Artikel sagt eigentlich alles. Die 5090 ist nativ 15% schneller als die 4090, verbrennt allerdings dafür satte 575 statt 450 Watt. Das ergibt für mich eine 4090 Ti, die um €2400 verkauft wird. Die Nvidioten wird’s freuen, hatten ja 2 Jahre Zeit zum Sparen.
Die 15% beziehen sich aber nur auf Raytracing und nicht auf Rasterization Performance, so wie ich das verstehe...
Abwarten, was die ersten unabhängigen Tests tatsächlich zeigen werden...
 
@Maverick-F1
laut Tabelle natives Rendering mit RT. Ich denke ohne RT ist der Vorsprung sogar noch kleiner. Aber mal abwarten.
 
Also wenn eine 5090 wirklich nur 15% schneller sein sollte als eine 4090, bei 28% höherer Leistungsaufnahme, wäre das ein absolutes Armutszeugnis. Dann werden das nur sehr sehr wenige Leute kaufen. Wer um jeden Preis absolutes High-End für VR haben will und dem das Geld völlig egal ist (und davon gibt's in der VR Szene wie gesagt einige), der kauft sowas. Aber relativ gesehen zum Gesamtmarkt ist das natürlich eine kleine Nische. Selbst der normale Enthusiasten-Gamer macht da nicht mehr mit, so blöd sind die Leute nicht.

Aber ich hoffe, dass der Abstand größer wird. Sonst schwinden meine Chancen, in absehbarer Zeit eine gebrauchte 4090 für einen habwegs vernünftigen Preis zu bekommen. Aber ich mache mir keine allzu großen Hoffnungen. Vermutlich bleibt die 4090 auch gebraucht sehr hoch im Kurs. Und 1.500€ für eine gebrauchte Grafikkarte.... nee.
 
Zuletzt bearbeitet:
Ich denke der Fokus liegt ganz klar auf dem neuronalen Rendering und auf erste für Nvidia umprogrammierte Spiele mit mega Strukturen für deren proprietäres Raytracing bei Tesselation ähnlichen Substrukturen. Dann auch mit der doppelten Framegeneration. Für VR wird da bis auf plus 10-20% nichts dabei sein. Man wird Cyberpunk, Alan Wake 2 und Indiana Jones mit neuen Effekten in höherer Framerate spielen können.
 
Das überteuerte proprietäre Zeugs von Nvidia braucht doch keiner mehr. Keine Ahnung was die da rauchen und verkaufen wollen.

AMD Nitro Diffusion: One-Step Text-to-Image Generation Models​


Während die meisten Nvidianer 20-50 Steps brauchen, geht das jetzt mit 1-8 steps bei AMD Hardware. Eine Reduktion von 90-95% Tflop/s per image.

Der Nvidianer verballert 1KW Strom während AMD 0,1 KW Strom für die gleiche Qualität bei Generative AI braucht. Ciao Nvidioten, bezahlt mal schön eure Stromrechnungen in den dicken Kraftwerken.

"Importantly, to help more developers accelerate their innovation through AMD open software ecosystem, AMD is releasing the models and code to the open-source community, which we believe will contribute to the advancement in generative AI."
 
Zurück
Oben Unten