R1000 Spekulationsthread

Ich wette gegen den Trend auf XDR2.
Begründung: NextGeneration Chipsatz braucht NextGeneration RAM. Zwei Euro mehr pro 512 MByte (Wert aus der hohlen Hand geholt) machen den Kohl nicht fett.
 
Ich wette gegen den Trend auf XDR2.
Begründung: NextGeneration Chipsatz braucht NextGeneration RAM. Zwei Euro mehr pro 512 MByte (Wert aus der hohlen Hand geholt) machen den Kohl nicht fett.

2 Euro unterschied werden es sicher nicht sein! Beim Wechsel von GDDR3 zu GDDR5 war der 5er doppelt so teuer. Zur zeit sind die RAM Preise niedrig, vielleicht kostet XDR2 sogar das 3-fache von GDDR5. Sollte sich aber dennoch lohnen für AMD auf XDR2 zu setzten.
 
Ich wette gegen den Trend auf XDR2.
Begründung: NextGeneration Chipsatz braucht NextGeneration RAM. Zwei Euro mehr pro 512 MByte (Wert aus der hohlen Hand geholt) machen den Kohl nicht fett.

Ich auch.

Die aktuellen Grafikchips werden bei vielen Anwendungen jetzt schon vom Speicherinterface ausgebremst. Eine weitere Beschleunigung von GDDR bringt da wahrscheinlich etwas Abhilfe; zukunftsträchtiger, da besser mit den Zugriffsmustern der GPUs harmonierend scheint allerdings das Micro-Threading von XDR2 zu sein. Sollten die Stromverbrauchsvorteile von XDR gegenüber GDDR stimmen, kann auch das ein Beweggrund sein, da zur Zeit bei den HighEnd Grafikkarten ein beträchtlicher Teil der Leistungsaufnahme in den Speicherchips verheizt wird.

Ich glaube AMD wird das Risiko eingehen und eine neue Speichertechnologie im Hochpreissegment ausprobieren. Und vll. hat AMD wirklich schon ein Double-Sourcing der Speicherchips bei Samsung und GloFo in der Hinterhand, da werden wir uns überraschen lassen müssen.
 
Ich frage mich, ob sich das wirklich lohnt? Du zahlst dann für 2gb statt 20 dollar wahrscheinlich 40 dollar( bei doppeltem Preis) oder mehr eher mehr, da bei XDR wahrscheinlich noch ordentliche Lizenzzahlungen an Rambus dazukommen. Und wo ist deine ersparnis? 2 dollar beim PCB und vll 5dollar durch minimal kleinere Chipgröße als, wenn du den chip mit 320 oder 384bit baust. Ich setze immernoch auf Gddr5 mit wahrscheinlich breiterem Interface.
 
Ich gehe davon aus, dass die HD79xx deutlich nach den anderen GPUs kommt, so ca. Q2/12. Bis dahin hat sich wieder etwas getan. Zudem muss auch Rambus schauen, dass sie ihre XDR2 in dem Markt bekommen. Von daher könnte ich mir durchaus vorstellen, dass AMD einigermaßen ordentliche Preise ausverhandlt haben dürfte, andernfalls würde sich AMD kaum auf sowas einlassen. Zudem gehe ich auch davon aus, dass das Ding auch GDDR5 nutzen kann. Und bis Q2/12 sollten dann doch endlich die längst angekündigten GDDR5 mit 7000Mhz zu haben sein, sodass Rambus seine Preise dagegen stellen muss, was bedeuten sollte, dass das XDR2 wohl nicht allzuviel teurer sein darf als solche GDDR5-7000Mhz.
 
Ich frage mich, ob sich das wirklich lohnt? Du zahlst dann für 2gb statt 20 dollar wahrscheinlich 40 dollar( bei doppeltem Preis) oder mehr eher mehr, da bei XDR wahrscheinlich noch ordentliche Lizenzzahlungen an Rambus dazukommen. Und wo ist deine ersparnis? 2 dollar beim PCB und vll 5dollar durch minimal kleinere Chipgröße als, wenn du den chip mit 320 oder 384bit baust. Ich setze immernoch auf Gddr5 mit wahrscheinlich breiterem Interface.
aha, lizenzgebühren fallen für eine firma an, die die wahre pruduziert ohne vom erfinder beauftragt worden zu sein. oder zahlst du für dein auto lizensgebühren?

xdr2 dürfte nicht wesentlich teurer sein als gddr, auch wenn anders heißt, ram bleibt ram! vorallem soll das zeug bei gf produziert werden.
 

Da stimmen wir also überein.

Und vll. hat AMD wirklich schon ein Double-Sourcing der Speicherchips bei Samsung und GloFo in der Hinterhand, da werden wir uns überraschen lassen müssen.

Aber hier....? Bei BR oder rklnet würde ich jetzt Bullshit schreien, bei Dir fällt mir das natürlich nicht ein :-)

Aber ich verstehe es nicht. AMD ist kein Speicherhersteller. GF hat keinerlei Rechte an XDR.
Wie könnten Samsung und GloFo eine Quelle von Speicherchips für AMD sein?
 
aha, lizenzgebühren fallen für eine firma an, die die wahre pruduziert ohne vom erfinder beauftragt worden zu sein. oder zahlst du für dein auto lizensgebühren?

xdr2 dürfte nicht wesentlich teurer sein als gddr, auch wenn anders heißt, ram bleibt ram! vorallem soll das zeug bei gf produziert werden.

Rambus verkauft IP, der Hersteller z.B. Samsung lizensiert diese und produziert daraufhin die Speichersteine. Rambus Geschäftsmodell ist ähnlich dem von ARM, nur dass Rambus alles und jeden verklagt;-). Dies ist im übrigen schon der erste Grund der dafür spricht, dass XDR2 nicht eingesetzt wird in nächster Zeit, denn sonst hätte Rambus sicher in einer Pressemitteilung bekanntgegeben, dass XDR2 lizensiert wurde und von irgendwem produziert werden soll oder zumindest in ihren Conference Calls etwas zu den weiteren Aussichten in diese Richtung.
Im gegensatz zu XDR ist GDDR5 eine kooperative Entwicklung der Unternehmen bei der auch AMD mitgemacht hat.

Bisher war Rambus auch überall wo es eingesetzt wurde teuer, beim P4 damals, wohl wegen Lizenzkosten sowie der höheren Diearea der Speicherchips als bei DDR Bausteinen. Ebenso bei der PS3 solls einer der Preistreiber gewesen sein.
 
den kostenfaktor kann man nicht bringen. der einfache grund ist: wir wissen nicht was es kostet. dollte amd sdr einsetzten wäre das ein zimlich großer beitrag zum gewinn von rambus. auch wenn diese sich wie apple versuchen nach oben zu klagen, sie sind dennoch nict dumm.

auch wenn ich selber nicht dran glaube, dass xdr je einen durchbruch haben wird, wäre es dennoch wünschenswert. xdr hat nunmal die bessere performance.
 
Zuletzt bearbeitet:
Aber hier....? Bei BR oder rklnet würde ich jetzt Bullshit schreien, bei Dir fällt mir das natürlich nicht ein :-)

Aber ich verstehe es nicht. AMD ist kein Speicherhersteller. GF hat keinerlei Rechte an XDR.
Wie könnten Samsung und GloFo eine Quelle von Speicherchips für AMD sein?

Ist bisher nur ein Gedankenfunke, der sich aus verschiedenen Quellen zusammensetzt. Da es allerdings hochspekulativ ist habe ich auch geschrieben, dass ich mich da doch sehr gern überraschen lasse.

Denn dafür das AMD kein Speicherhersteller ist, haben sie eine ganz schön prominente Seite zu Grafikspeicherprodukten und halten darüber hinaus auch noch eine Patentlizenz für Rambusprodukte bis zum Q3 2015. Viellicht möchte man dann ja doch eigenen Grafikspeicher an die OEMs verticken, welcher wahlweise von Samsung oder GloFo stammen könnte, da diese beiden ja ziemlich ähnliche 28nm LowPower Prozesse haben.

Wie gesagt alles hochspekulativ, aber doch so nachvollziehbar, dass mich mein eigener Bullshitfilter mich nicht daran gehindert hat es hier im Forum anzubringen.
 
Wie ist das zu verstehen "AMD Radeon™ GPU On Board memory" Partner?

AMD kauft den Memory ein und vertickt den an die Partner weiter und verdient ein wenig daran und die Hersteller bekommen das Gesammtpaket (GPU/(G)DDR3/5 RAM) günstiger als wenn sie es einzel kaufen würde oder was?

Edit: steht da ja mehr oder wenig so da auf Englisch. :-[ Mann sollte zuerst lesen bevor man einen Kommentar schreibt. Wieso sollte AMD da nicht auch XDR2 an ihre Partner verkaufen. Lizenz haben sie ja, wie Lynxeye gepostet hat. Ob der dann von Samsung oder GF oder einer kombination aus beiden (GF produziert die Chip für Samsung und diese verpacken) sie kommt ist irrelevant.
 
Das hört sich nicht gut an:

http://semiaccurate.com/2011/09/08/exclusive-tsmc-raises-prices-on-amd-and-nvidia/


Charlie behauptet, TSMC würde die 28nm Wafer-Preise erhöhen, um die 20%.

Warum?

Apple.

Und yields.

One more thing to add, moles, ehem sources, say that TSMC’s yields on 28nm are not all that great. While we don’t know if the contracts with Apple specify a minimum number of wafers or minimum good die, either way, the initial guesstimates are unlikely to match the parts coming out. This means Apple will want, nay need, more wafers. What Apple wants, Apple gets. When Apple gets, everyone else looses.
 
Charlie behauptet, TSMC würde die 28nm Wafer-Preise erhöhen, um die 20%.
Warum?
Apple.
Und yields.

Naja, das würde dann heissen das Samsungs Kapazitäten welche im Moment für Apple gebucht sind wohl mittelfristig an andere gehen könnten wie z.b. AMD da Samsung und GF ihre prozesse zusammen entwickeln sollten ja eigentlich ein designe für beide Fabriken ausreichen oder nicht?
 
Wäre es nicht denkbar das XDR2 direkt auf der GPU als Puffer verbaut wird??? Designtechnisch finde ich das nicht abwegig. Bei CPUs hat man seit längerem 4 Stufen (RAM, L1, L2&L3)
 
Wäre es nicht denkbar das XDR2 direkt auf der GPU als Puffer verbaut wird??? Designtechnisch finde ich das nicht abwegig. Bei CPUs hat man seit längerem 4 Stufen (RAM, L1, L2&L3)

XDR2 müsste bei deiner Logik den L3 ersetzen, den L1 &L2 hat eine GPU bereits. Der L3 Dient zum Austausch von Daten unterschiedlicher Recheneinheiten/CPUs.
Das das macht bei GPUs aber keinen Sinn, da die Berechnungen die eine GPU durchführt absolut unabhängig sind und somit ein Vergleich zur CPU nicht gezogen werden sollte.

Die höhere Bandbreite die XDR2 liefert würde, würde durch die höhere Latenz um GDDR5 Speicher wieder aufgefressen werden, sobald der kleine XDR2 Speicher voll ist. Des weiteren bräuchte man dann sehr viele kleinere XDR2 Chips, um die benötigten Bandbreiten zu erreichen, was es wiederum teuer ist als ein XDR2 Chip für einen Zwischenpuffer.
 
Tschuldige wenn ich zwischenfrage:
Gab es nicht mal zu Zeiten wo der PCI-Slot noch für Grafik verwendet wurde einen speziellen Cache für den PCI-Slot? Das müsste doch der Idee von XDR als Cache ähnlich kommen. Davon abgesehen sind Grafikkarten ja heute oft im GPGPU-Bereich via OpenCL und CUDA in benutzung. Wenn ich mich recht entsinne hat NVIDIA seine zweite? Cachestufe deutlich vergrößert/überarbeitet im Fermi.
 
XDR2 müsste bei deiner Logik den L3 ersetzen, den L1 &L2 hat eine GPU bereits. Der L3 Dient zum Austausch von Daten unterschiedlicher Recheneinheiten/CPUs.
Das das macht bei GPUs aber keinen Sinn, da die Berechnungen die eine GPU durchführt absolut unabhängig sind und somit ein Vergleich zur CPU nicht gezogen werden sollte.

Die höhere Bandbreite die XDR2 liefert würde, würde durch die höhere Latenz um GDDR5 Speicher wieder aufgefressen werden, sobald der kleine XDR2 Speicher voll ist. Des weiteren bräuchte man dann sehr viele kleinere XDR2 Chips, um die benötigten Bandbreiten zu erreichen, was es wiederum teuer ist als ein XDR2 Chip für einen Zwischenpuffer.

Ich dachte eher an die zweite Stufe. Dafür ist er dann wieder zu langsam oder wie?
@Onkel_Dithmeyer: Wenn du diese RAM-ähnlichen Steckkarte meinst: ja das gab es und war durchaus sinnvoll. Fermi hat aber auch nur zwei Stufen.
 
Der L2 bei NVIDIA ist aber shared zwischen allen Clustern. Bei den Radeon hat jeder Cluster einen eigenen L2. Also schon ein unterschied. Korrigiert mich bitte wenn ich auf dem Holzweg bin, ist eigentlich nicht mein Thema ^^
 
XDR2 als Cache ist ne verdammt schlechte Idee, die Latenzen sind eher höher. Micro Threading mag was helfen, aber naja...

Wie auch immer, als Cache nicht geeignet, da will man schließlich niedrige Latenzen haben.

@Onkel_Dithmeyer:
Keine Ahung, was Du meinst. Es gab früher mal beim Pentium1 oder P-MMX, noch L2 Cachesteckkarten mit "Piplined Burst Cache", oder wie das damals hieß, aber das hatte nichts mit PCI am Hut.
PCI und Cache sagt mir nichts, das einzige was damals möglich war, war das VRAM nachzurüsten, da einige Karten freie RAM Sockel hatten. Außerdem gabs damals auch Karten mit RAMBUS, wenn auch nicht von ATi oder nVidia ^^ Glaube das waren Chips von Cirrus Logic oder wie die Firma hieß.
 
Ok, ich hab mal in alten BIOS-Screenshots gewühlt und nicht das gefunden, was ich im Kopf hatte, ich muss mich also geirrt haben, ist ja auch schon ein paar Jahre her ^^

also sry für OT ;)
 
XDR2 als Cache ist ne verdammt schlechte Idee, die Latenzen sind eher höher. Micro Threading mag was helfen, aber naja...

Wie auch immer, als Cache nicht geeignet, da will man schließlich niedrige Latenzen haben.

Okay. Das war nämlich mein Anliegen. XDR2 als VRAM halte ich jedenfalls (noch) für unwahrscheinlich. Über die timings hält sich RAMBUS jedoch sehr bedeckt.
 
Okay. Das war nämlich mein Anliegen. XDR2 als VRAM halte ich jedenfalls (noch) für unwahrscheinlich. Über die timings hält sich RAMBUS jedoch sehr bedeckt.
Die Timings sollen recht schlecht sein, aber Latenzen waren bei GPUs noch nie ein Thema. Würde mich wundern, wenn das jetzt wichtig wäre. Außerdem werden gleichzeitig ja die L2 Cache Puffer ausgebaut, dann sollte das bei GPGPU auch nicht groß ins Gewicht fallen.
 
Hab auch mal gelesen das XDR2 dynamische timings haben soll... Oder spielt mir mein Hirn einen Streich?

Edit: Charlie, der Admin von semiaccurate.com hat das Gerücht bzgl XDR2 wohl beendet. Er galt ja auch in der Vergangenheit als recht gut informiert ;) Weiter hinten im Thread schreibt er das jede Verzögerung fertigungsbedingt, nicht designbedingt ist und das die Highendkarte (vermutlich HD 7970???) an die HD 6990 heranreicht.
 
Zuletzt bearbeitet:
Zurück
Oben Unten