Der aktuelle Grafikkartenmarkt.

Es gibt einfach mehrere Gründe einen solchen Quatsch mitzumachen. Lustig wird es allerdings wenn solche sich z.B. über die Camper des nächsten iPhones auslassen würden. *oink*
 
Vermutlich ist die hälfte der Menschen dort aus rein wirtschaftlichen Interessen und wollen das Zeug garnicht haben :P
dann verstehe ich nicht warum du solche Individuen auch noch verteidigst. Das wären dann nämlich Scalper. Und von denen halte ich persönlich: NICHTS.

Wie auch immer, ich werde mich jetzt wieder dem Thema dieses Threads zuwenden.
 
Solange die niemand anderen damit nennenswert schaden ist mir das ehrlich gesagt ziemlich egal. Das muss jeder für sich selbst entscheiden ob er den Zirkus mitmachen will und hat sich anschließend nicht über das Ergebnis zu beklagen.
 
Es gehören immer 2 zu sowas, derjenige der das Zeug überteuert verkauft und derjenige der es kauft ... die Frage ist nur wer der klügere von den beiden ist ;)
Ich habe auch bei den ganzen Drops damals mitgemacht und durchaus einiges an GPUs abbekommen, damit habe ich einige bekannte glücklich gemacht, hier ist auch die eine oder andere Karte für UVP+ Versand gelandet, ich habe aber auch Karten für mehr verkauft wenn ich sie niemandem bekannten geben konnte.
Habe ich mich deswegen schlecht gefühlt? Nein, Angebot und Nachfrag halt und jedem steht bzw stand es frei sich da hin zu setzen und selber zu versuchen eine Karte zu bekommen ;)
 
Ich hätte mich schlecht gefühlt.
 
Ich mich nicht, du hast ja manchmal nur eingeschränkte Auswahl gehabt und hast dann die Karten genommen die du bekommen hast und ich habe auch bei der 4000er Serie nicht mitgespielt sondern nur bei den 3000er.
Ich habe bei NBB zum Beispiel RTX3090 bekommen statt der gewünschten 3060 oder 3080 aber die wollte keiner haben von meinen bekannten also sind die beim Luxx für 100er Aufpreis reingewandert, ich habe da eben auch gesessen und den Stress gehabt das Ding zu bekommen ...
Aber als alle bekannten und ich selbst versorgt waren habe ich damit auch wieder aufgehört aber ich hätte das Spiel durchaus weiter treiben können, die AMD Karten die ich bekommen habe sind alle hier für 1zu1 + 2x Versand weg gegangen, minus machen wollte ich ja auch nicht aber auch da war es ja so das man genommen hat was man bekommen hat und das war halt nicht unbedingt das was man haben wollte.
 
ich habe aber auch Karten für mehr verkauft wenn ich sie niemandem bekannten geben konnte.
wenn das "mehr" über eine Zeitaufwandsentschädigung hinausgeht bist du ein Scalper.

Auch ich habe es damals geschafft durch die F5-Drückerei die aktuelle 6900 XT zum MSRP zu kaufen. War eben Glück. Aber ich hätte niemals vor irgendeinem Shop ein Zelt aufgeschlagen um dort unter den ersten NVidioten (ODER AMDummen) zu sein, die 3000 € für eine neue Grafikkarte auf den Tisch knallen.
 
Nö ich sicherlich auch nicht aber ich hatte halt Zeit auf der Arbeit oder war zuhause wenn der Drop kam ich habe auch nich durchgängig immer mitgemacht.
Scalper :P von mir aus auch das, ich habe die Überschüssigen GPUs halt mit Gewinn verkauft mal 20€ mal 100€ und ob du das als zuviel oder ok empfindest ist mir ehrlich gesagt egal, andere Karten habe ich so durchgeschoben *noahnung*
Vllt mache ich heute auch mit und zwar einfach nur weil ich es kann und nicht weil ich eine Karte davon haben will ;)
 
Möchte mal kurz den GPU-Anwendungsaspekt "KI im Bereich LifeSciences" ansprechen, da sich in der Öffentlichkeit sonst gefühlt alles um FrameRates, Rendering & Co zu drehen scheint und ja auch die meisten Benchmarks primär auf Gaming ausgerichtet sind.
Es gibt aber noch ganz andere Anwendungsbereiche, die meines Erachtens überhaupt nicht berücksichtigt werden.
Kann vielleicht auch etwas die Augen für ergänzende Bewertungskriterien öffnen und wo Herausforderungen liegen.

Für jemanden, der computergestützte Proteinmodelle baut und für PeptidDesigns mit generativer A"I" herumfummelt, spielt derzeit leider einzig eine Rolle, wieviel VRAM eine Karte hat (bestimmt die Größe der modellierbaren Proteinstruktur, bzw. die Komplexität eines Proteinaggregats), wieviel TFLOPS sie bringt (= Wartezeit bis das Ergebnis auf der SSD landet) und - vor allem - ob sie CUDA-fähig ist.
Auf letzteres ist sämtliche relevante Software in diesem Bereich ausgelegt.
AMD ist somit raus.
nVidias Monopolbestreben also erfolgsgekrönt.

Das frisst mich als beinahe "AMD-only" User etwas an (vor Jahren hatte ich mal - einzig für die Teilnahme an GPUGRID - von einem US-Team zwei ausgemusterte GTX960 gebraucht "nachgworfen" bekommen *lol*) und so war ich extrem gespannt, als ich von ROCm/ZLUDA hörte.
Und siehe da: Ein Supercomputing Center in Texas hat neuerdings nicht etwa nur einen nVidia GPU-Cluster am Start sondern jetzt auch einen von AMD - und tut damit Dinge, die man zumindest nach meinem Kenntnisstand sonst nicht findet.

Darüber hinaus sah ich kürzlich bei GPUGRID einen User, dessen GPU als "NVIDIA AMD Radeon RX 7900 XTX [ZLUDA (), [24560MB] 1 (0), AMD AMD Radeon RX 7900 XTX (24560MB)" ausgewiesen wurde. ;D

Nachdem wir nun am vergangenen Samstag beim P3D-Wintergrillen mit RKN unter euren Leuten neue Mitstreiter für die Wiederaufnahme der Entwicklung des Rechenkraft.net DC-Projekts "RNA World" fanden, kommen wir nun gemeinsam einem meiner Ziele näher, dass wir vielleicht endlich eine neue CUDA-benötigende GPU App im Hochleistungsrechenbereich auf AMD Karten ans Laufen bekommen.

Was hat das mit dem aktuellen Grafikkartenmarkt zu tun?
Wer glaubt, an Unis stünden HPCs, wo man alles tun könnte, sitzt einem Irrtum auf. Es ist sogar eine Herausforderung, für Forschungsprojekte Rechner finanziert zu bekommen, die lokal in einer AG einsetzbar sind. Von GPUs aus dem Profisegment spreche ich dabei gar nicht - die sind komplett unfinanzierbar, würden für Einzelprojekte, AGs, ja selbst Fachbereiche erfahrungsgemäß kaum genehmigt werden.

Also darf ich in der Praxis letztlich schauen, dass ich meinen Privatrechner bei Anschaffungen möglichst so ausstatte, dass ich mit dem nebenbei auch diese Dinge noch geschaukelt bekomme - wenn ich etwas erreichen möchte.
DAS ist Forschen im "Elfenbeinturm" in der BRD heutzutage.
Und insofern ist es für unsereins sehr interessant, was da im "Consumer"-Bereich an Entwicklungen und Preisgestaltungen abgeht. Und wenn AMD plötzlich einsatzfähig wird, bei dem stets besseren Preis-Leistungsverhältnis, dann ist das sehr, sehr spannend.
Ich fürchte, AMD hat das Potential noch nicht erkannt - oder es erscheint zu nischenhaft?
Inwieweit KI im LifeScience Bereich in wenigen Jahren noch nischenhaft ist, kann ich jetzt schon beantworten.
Stichwort Nobelreis letztes Jahr.
Manchmal wäre es vielleicht wünschenswert, dass Manager von Firmen auch mal Dinge in der Sache verstünden - zeitnah...

P.S.: 16 GB VRAM sind für obige Späßchen übrigens das absolute Minimum, damit irgendwas läuft - bei gen. AI im Bereich PeptidDesign sind es inzwischen ab 32 GB.
 
Zuletzt bearbeitet:
Aber ZLUDA wurde doch eingestampft, wenn mich nicht alles täuscht. :( AMD hat zumindest für den public Quellcode den Stecker gezogen.
 
Nee, ging Silvester wieder los. Hatte hier auch was dazu gepostet.
 
Wer glaubt, an Unis stünden HPCs, wo man alles tun könnte, sitzt einem Irrtum auf. Es ist sogar eine Herausforderung, für Forschungsprojekte Rechner finanziert zu bekommen, die lokal in einer AG einsetzbar sind. Von GPUs aus dem Profisegment spreche ich dabei gar nicht - die sind komplett unfinanzierbar, würden für Einzelprojekte, AGs, ja selbst Fachbereiche erfahrungsgemäß kaum genehmigt werden.
Ja, glaube ich. Da müssen wir schon aus Europa raus (von der EU kannst du generell erst Initiativen erwarten, wenn man schon längst den Anschluss verloren hat). Ich wette die amerikanische Ivy League hat schon an mehreren Standorten Systeme für genau diesen Einsatzzweck in Planung bzw. in Betrieb.

P.S.: 16 GB VRAM sind für obige Späßchen übrigens das absolute Minimum, damit irgendwas läuft - bei gen. AI im Bereich PeptidDesign sind es inzwischen ab 32 GB
Es gibt mehrere Gründe warum ich mir bsp. für eine 9070 Serie 32 GB gewünscht hätte. RDNA 3 performt mit wissenschaftlichen Algos z.T. recht gut wie hier gerade erwähnt. Würde mich interessieren was mit RDNA 4 möglich ist - ganz zu schweigen mit UDNA nächstes Jahr.
 

Elon Musk Said China Will Crash Nvidia 80% | Big Warning By Elon Musk​

 
Gut, dass ich nVidia vor Kurzem verkauft habe, wurde mir zu heiß. Hab mein Geld verdient.
 
Keine Aktie steigt ewig :)
Ob das aber wirklich passieren wird bleibt abzuwarten und ich glaube auch nicht wirklich dran ehrlich gesagt leider *noahnung*
 
Absolut herrlich diese MIMIMI-Anfälle in diversen Computerbase Foren weil die Leute dort nicht an die Nv Grafikkarten rankommen, auch nicht um 3000 €…. es wurde einfach alles von Bots und ihren Scalpern weggefressen *rofl*
 
Und so angekündigt überraschend.....
 
Absolut herrlich diese MIMIMI-Anfälle in diversen Computerbase Foren weil die Leute dort nicht an die Nv Grafikkarten rankommen, auch nicht um 3000 €…. es wurde einfach alles von Bots und ihren Scalpern weggefressen *rofl*


Und wenn dann die Radeons ausverkauft sind, wird das Gemecker hier los gehen.
 
scalper sind nicht lustig....

also wenn ich mir die preise für die 5090 anschaue bei ebay... die FE ist ja noch geradezu "günstig", aber die preisvorstellungen für custom versionen.... an die 5000 euro oder gar 6000 ... lächerlich.
 
Zum Thema DLSS4:

Die Flight Sim Community ist ja schon seit einigen Wochen in hellem Aufruhr wegen DLSS4, weil es angeblich für VR ein Gamechanger ist.

Ich hab's jetzt selbst ausprobiert im MFS2024 in VR (ohne Framegen) und ich muss sagen: WOW, das ist wirklich ein Gamechanger. Mit dem neuen nVidia Treiber, der die Tage raus kam und einfach nur mit dem DLSS-Swapper die aktuellsten Files ausgetauscht (also ohne dass DLSS4 überhaupt offiziell schon im FlightSim implementiert und dieser dafür optimiert wurde), ist das Ergebnis schon ein heftiger Unterschied.
Es springt einem sofort in's Auge, dass alles deutlich klarer und schärfer ist, so als wenn man die Auflösung nochmal deutlich erhöht hätte. Die Landschaft, die Instrumente im Cockpit, alles nochmal klarer und schärfer. Selbst mit DLSS-Setting auf ausgewogen. Ist schon geil.

Und mit den RTX5000 Karten soll die DLSS4-Performance ja nochmal besser sein, da geht sicher noch einiges mehr, selbst mit einer ollen 16GB RTX5080. Also mich würd's da definitiv in den Fingern jucken, wenn ich sie irgendwann mal für 1.000€ kriegen sollte.

Also die Technik ist schon echt faszinierend und sie macht halt auch immer wieder Sprünge. Bin gespannt, wie das in 5 Jahren aussieht.
 
da wird doch wirklich mit allen mitteln versucht geld zu machen : ebay link
:]
 
Ist den Vögeln heute bereits die Verpackung zu teuer um auf eine "künstlerische Darstellung" zurückzugreifen? *lol*
 
Zurück
Oben Unten