Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

d) Woher deine Zweifel zu Fiji? HBM ist bei Nvidia 1 Jahr hinter AMD. Und das nur wenn Pascal tatsächlich in Q2 2016 kommt - was ich wiederum bezweifle.

Schreib doch mal über diesen Satz. Daraus lese ich:
a) Nvidia ist weit zurück bei HBM
Naja NV hat erst einen Pascal Tape-out hinter sich. Ist also jetzt schon an HBM2 dran - einer ganzen Serie - bevor das bei AMD der Fall sein wird.
 
Zuletzt bearbeitet:
Wie kommst du darauf, dass eine ganze Serie von Pascal GPUs HBM2 bekommt? Und wie kommst du darauf, dass AMD als Mit-Erfinder von HBM da später dran kommt?
Hat denn Nvidia bisher irgendetwas gebaut das auf einem Interposer gesessen ist? Also wie viel Erfahrung haben sie dann mit HBM+Interposer+16nm+Neue Architektur? Also ich sehe da eher Schwarz für Nvidia, da sie auf zu vielen Baustellen zurück liegen und dies nun alles unter einen Hut bringen müssen.

Schauen wir uns mal Nvidias Maxwell-Serie an:
GM 107 - 29.02.2014
GM 204 - 18.9.2014
GM 200 - 17.03.2015
GM 108 - 13.03.2015 (Refresh des GM 107)

Bei Pascal kommt nun der große GP200 erst einmal in den Profisektor um dort nicht zu viele Kunden zu verlieren, da Maxwell da gar nichts Aufbieten konnte. Die DP-Einheiten die Pascal nun bieten wird müssen, werden der Effizienz wiederum einen Dämpfer bereiten.
 
In einem Interview sagt Lisa Su, dass der Grossteil der zur Verfügung stehenden Mittel für Forschung und Entwicklung in Zen fließt.
Das bedeutet, dass Zen zum Erfolg verdammt ist und Stillstand bei den GPUs.
Wieso soll das Stillstand bei den GPUs bedeuten? Die Entwicklung von CPUs ist generell aufwändiger, gerade bei einer komplett neuen Architektur wie Zen. Mit GCN hat man bereits eine starke Basis. Da reichen inkrementelle Weiterentwicklungen, die natürlich weniger Ressourcen fressen. Nicht nur Fiji, sondern vor allem Arctic Islands im kommenden Jahr sollte ein richtiges Brett werden. Keine Sorge, da werden schon genügend Ressourcen eingeflossen sein.
 
Seit der ersten GCN Version hat sich doch bei der GPU Shader Peformance so gut wie nichts getan, man hat bei Hawaii das Frontent erweitert und Features wie in der Audio Präsentation eingebaut, das ist natürlich ein Stillstand, genau wie in der CPU Abteilung keine Fortschritte, Fiji hat lediglich mehr Einheiten & lächerliche 4GB HBM was gegenüber der GTX980 Ti ein nogo ist, Nvidia konnte beim selben Prozess die Effizienz um 50% steigern, kein Wunder das AMD nur 5% Gewinn in der GPU Abteilung macht :]
Bei den nächsten Quartals Ergebnissen wird man sehen wie weit Nvidia nach oben geklettert ist während AMD sich immer noch im Sinkflug befindet.
 
Naja NV hat erst einen Pascal Tape-out hinter sich. Ist also jetzt schon an HBM2 dran - einer ganzen Serie - bevor das bei AMD der Fall sein wird.

Ich glaube übrigens nicht, dass das Zitat von mir ist?
 
Aber dir ist bekannt, dass andere seit Jahren Interposer-Designs bauen und ebenfalls fabless sind?
Also welche Logik steckt nun dahinter, dass man eine Fab braucht für eine solche Architektur und um Erfahrungen dabei zu sammeln?
AMD hat sowohl MCM-Packages in Produkten gehabt, als auch einen schnellen Interconnect um Chips mit Speicher zu verbinden und nun eben auch das erste Interposerdesign in einem Produkt für Consumer.

Mich würde eher mal interessieren ob AMD ausser am eigenen GPU-Speicher, auch am HBM-Speicher von Nvidia etwas mit verdient als Co-Entwickler.
 
Bei den nächsten Quartals Ergebnissen wird man sehen wie weit Nvidia nach oben geklettert ist während AMD sich immer noch im Sinkflug befindet.
Dumm nur, dass insgesamt immer weniger dGPUs verkauft werden und immer mehr an Bedeutung verlieren. Und im professionellen Markt verliert Nvidia auch immer mehr Anteile. Genauso wie sie den Apple Deal und die wichtigen Konsolendeals verloren haben. Tegra zieht auch keinem die Butter vom Brot. Nvidia ist dann ja noch viel mehr im Sinkflug. :]
 
Bei den CPUs hat man in der Vergangenheit nie ein Bein an die Erden bekommen, egal wie gut die Produkte waren.

Zum Teil hast du sicher Recht - man konnte nie die Marktanteile dazugewinnen, wie es eigentlich aus technischer Sicht zu erwarten gewesen wäre. Wie wir alle wissen, kaufen "wir" ja nicht das was wir brauchen, sondern was uns eingeredet wird.
Trotzdem sah die Umsatzsituation schon anders aus als heute. Mit den aktuellen Zahlen wäre das auf Dauer schwer vorstellbar, dass das weiter einigermaßen gut gehen kann. Wie ich schon länger schreibe, bin ich, wie einige andere auch, der Meinung, dass man alleine aus Marketing/Prestigegründen im rund 200 bis 300 Euro Bereich, also im oberen Mainstream-Consumersegement, mitmischen muss. Denn das bekommt man immer wieder mit, wie so manche Celeron Prozessoren hochstilisiert werden, obwohl das schon wirklich keine Raketen mehr sind. Das richtige Mainstreamsegement, also dort wo die meisten Umsätze generiert werden, scheint einfach vom Prestige von i7 und Co. zu leben...

LG
 
Wie kommst du darauf, dass eine ganze Serie von Pascal GPUs HBM2 bekommt? Und wie kommst du darauf, dass AMD als Mit-Erfinder von HBM da später dran kommt?
Hat denn Nvidia bisher irgendetwas gebaut das auf einem Interposer gesessen ist? Also wie viel Erfahrung haben sie dann mit HBM+Interposer+16nm+Neue Architektur? Also ich sehe da eher Schwarz für Nvidia, da sie auf zu vielen Baustellen zurück liegen und dies nun alles unter einen Hut bringen müssen.
Ja, bis hinunter werden die sicher nicht HBM bestücken, aber wer weiß?
Was gibt es denn daran zu diskutieren, ob NVidia so was schwieriges schafft? Tape-out bedeutet, doch dass das komplette Design fertig ist. Und wenn das mit HBM2 gemacht wird, dann muss es das auch jetzt schon sein.
Außerdem haben sie nun wirklich wesentlich mehr Gelder für Forschung und Entwicklung.

Ich glaube übrigens nicht, dass das Zitat von mir ist?
Weiß nicht wie das dazwischen kommen konnte, ist berichtigt.

Seit der ersten GCN Version hat sich doch bei der GPU Shader Peformance so gut wie nichts getan, man hat bei Hawaii das Frontent erweitert und Features wie in der Audio Präsentation eingebaut, das ist natürlich ein Stillstand, genau wie in der CPU Abteilung keine Fortschritte, Fiji hat lediglich mehr Einheiten & lächerliche 4GB HBM was gegenüber der GTX980 Ti ein nogo ist, Nvidia konnte beim selben Prozess die Effizienz um 50% steigern, kein Wunder das AMD nur 5% Gewinn in der GPU Abteilung macht :]
Bei den nächsten Quartals Ergebnissen wird man sehen wie weit Nvidia nach oben geklettert ist während AMD sich immer noch im Sinkflug befindet.
Wie kann man denn immer wieder den selben Unsinn wiederholen ohne Ende?
Natürlich kann AMD als (momentan) zweitgrößter GPU Entwickler keine GPUs bauen, die machen nur absoluten Schrott, mit dem gefälligst niemand etwas anfangen können sollte. Ist doch logisch, weiß auch jeder.

Es ist schon bekannt, dass AMD seit den letzten Jahren auf ZEN und anderes, was erst weit nach 2016 kommen soll, drauf hin gearbeitet hat - sich also bis da hin nicht allzu viel tun kann?
 
Was gibt es denn daran zu diskutieren, ob NVidia so was schwieriges schafft? Tape-out bedeutet, doch dass das komplette Design fertig ist. Und wenn das mit HBM2 gemacht wird, dann muss es das auch jetzt schon sein.
Tape out bedeutet, dass ein Chip fertiggestellt wurde. Das bedeutet noch lange nicht dass dieser die Anforderungen erfüllt. Bei 40 nm hat Nvidia erst das zweite tapeout verwenden können und das ist dann immer noch gnadenlos stromhungrig gewesen. Der Spitzname "Thermi" kam nicht unbegründet. 6 Monate Verspätung hat dies bedeutet für Fermi.

Edit: Es war sogar erst das 4. tapeout, das einigermaßen funktionierte.
When Nvidia got its first Fermi GF100 silicon back in early September, and you can read about the dates and steppings on the chips in this story, clock speeds were hovering around 500MHz and yields were in single digit percentages. These numbers were shockingly low, but on the first batch of silicon, rushed through the fab hence the name hot lot, problems are quite common.

The second spin, A2, did up the clock speeds a bit, but yields remained stubbornly low. It was a month or so overdue, so you can be pretty sure the problems that were being worked on were fairly difficult. This is not a process that you tolerate any unnecessary delays on.

SemiAccurate has heard that the A3 silicon hot lots that came back just before Christmas didn’t improve clock speeds at all, or not enough to be considered a fix. That isn’t a surprise because Nvidia was using the wrong tool, metal layer changes, to fix a clock speed and power problem. Yields on A3 hot lots also were in the toilet. As we have been saying since we first heard about the design last March, it is unmanufacturable, and the changes that might possibly fix things will take a full re-layout.

Why are things this bad? The simple answer is that Nvidia didn’t do its homework. Just like the failures that lead to the bad bumps, Nvidia simply didn’t do test, instead it tried to brute force things that require nuance and methodical forethought. ATI did test. ATI put out a full production run of HD4770 (RV740 silicon) GPUs and used that as a test of TSMC’s 40nm process. TSMC looks to have failed, badly, but crucially, ATI learned why and how the parts failed to yield. That learning was fed back in to the Evergreen 5000 series GPUs, and those come off the line at perfectly acceptable yield rates now.

Der GPU Die ist in 16 nm. Die HBM Dies sind das nicht (28nm). Sie werden erst anschließend in einem eigenen Verfahren mit Hilfe der TSVs verbunden, sofern Nvidia überhaupt das deutlich fehleranfälligere 3D-Stacking macht. Das muss nicht zwangsläufig sein nur weil HBM2 verwendet wird. Viel wahrscheinlicher ist ein 2.5D Design auf einem Interposer, was deutlich weniger kostet und auch weniger Hitzeprobleme bereitet.

Und Nvidia hat gerade mal ein 30% höheres Budget für R&D. Warum dies immer wieder als Argument für technische Fähigkeiten angeführt wird ist auch etwas schleierhaft. Für mich bedeuten diese Vergleiche lediglich, dass Nvidia deutlich mehr Geld verbrennen muss um mit AMD Schritt zu halten - denn die ersten sind immer wieder AMD bei neuen Fertigungs-Prozessen. In der Vergangenheit hat Nvidia jedes mal davon profitiert, dass AMD beim Fertiger das Risiko des ersten Chips getragen hat - dies ist das erst mal nicht mehr der Fall, da AMD 16 nm nicht nutzen wird. Mal sehen ob Nvidia nicht doch noch auf den Samsung 14nm Zug aufspringt, denn eine kleine Charge haben sie dort zum fertigen in Auftrag gegeben. Vielleicht gibt es in einigen Monaten ein 14nm tapeout, weil das 16nm tapeout einfach Schrott war. Das zumindest war die Einschätzung für den 16nm Prozess seitens Apple und AMD und sie haben darauf verzichtet.
 
Zuletzt bearbeitet:
Tapeout heißt auch nicht, dass der Chip zufriedenstellend läuft. Sondern nur, dass man ein A0-Silizium hat. Wieviel Arbeit da jetzt noch nötig ist, wird sich zeigen. Fiji mit HBM und Interposer hat jedenfalls in einem absolut reifen Fertigungsprozess trotzdem 1,5Jahre Entwicklung in Silizium gebraucht, bis er jetzt kaufbar ist. Diese Ersterfahrung des Zusammenspiels verschiedener Unternehmen braucht NV ja noch. Ich glaube, dass Fiji da sehr wertvoll war, zumal es ein einfacher Prozess aber ein anspruchsvolles Interposerdesign war. Da braucht man sich keine Illusionen machen, dass NV das ohne Interposer-Erfahrung mit einem nagelneuen, sicher nicht einfach handzuhabenden 16nm-Prozess auch mal eben so schafft.
Das Tapeout war absolut nötig, damit die überhaupt was zustande bringen in 2016, so siehts nämlich aus. Mich wundert eher, dass er so spät kommt - aber gut, das mag an dem unfertigen 16FF+ liegen. Das ganze Projekt kann auch schief gehen und wie Fermi 1/2 Jahr oder mehr Verspätung haben. Deshalb wohl auch nur ein Chip.
Selbst bei Maxwell hat NV über 1/2 Jahr vom Tapeout des A1 Silizium bis zur fertigen Karte gebraucht, bei GM200 sogar noch länger.
Ich würde so aus dem Bauch heraus sagen, GP100 kommt so im Herbst 2016 - wenn alles gut geht und dann kommt auch nur der. Weitere Chips dauern länger, wenn die später erst in Silizium gegeben werden. Aber ich vermute, dass man GP100 einfach überhalb des GM200 ansetzt und direkt so früh wie möglich die Mainstreamchips von Volta fertigstellt.

Ich hab erst gedacht, AMD würde so agieren, aber mit der Lebenverlängerung der alten GCN-Chips arbeitet man wohl doch an einer ganzen 14nm-Serie. Auf den 2.Blick gar nicht so blöd, weil man arbeitet auf einem Prozess der schon läuft (14LPP Samsung), hat viele weitere Projekte in dem Prozess am Laufen (Zen, K12) und schon dank Fiji Erfharungen mit Amkor und SKHynix gesammelt. Schön an den alten AMD-Chips ist ja, dass man sich keine Sorgen um das Featureset machen braucht. Die sind alle DX12-fähig, die meisten relevanten sogar 12_0.
 
Zuletzt bearbeitet:
Hier auch mal ein paar Infos um mit der R&D Mär mal aufzuräumen:
http://www.bloomberg.com/bw/article...ors-love-tech-companies-that-skimp-on-r-and-d
Bernstein divided the technology companies into High, Medium, and Low R&D spenders. Roughly speaking, the high group tended to spend 18 percent to 35 percent of revenue on R&D; the medium group spent 11 percent to 17 percent; and the low group 10 percent or less. Members of the high-spending group tended to be heavy on hardware companies with names such as Nvidia (NVDA) and Intel (INTC), the middle range encompassed big names like Google (GOOG) and Microsoft (MSFT), and the low-end group included HP, IBM (IBM), and Apple (AAPL). Some companies changed groups depending on which time period Bernstein examined.

If we focus on results from the past five years, the biggest R&D spenders underperformed the other technology companies by 15 percent on average when it came to gains in share price. The middle R&D spenders outperformed the rest of the companies by 23 percent on average, while the lowest spenders outperformed the rest by 19 percent. And the majority of the low spenders—63 percent—outperformed their peers; from the middle and high spenders, only 43 percent and 40 percent, respectively, bested their peers.
weiterführend:
The research firm’s other big realization is that large companies can spend less but make more of their R&D investments through what it calls high R&D productivity:

“Within our coverage universe, Apple and IBM have relatively low R&D to sales ratios (2.9 percent and 6.2 percent respectively) and their stocks have been significant long-term outperformers. While they both benefit from scale, we also believe that have strong R&D productivity. For example, we note that Apple and Dell both spent the same dollar amount on R&D through 2004/2005 (roughly $500 million per year), yet Apple at the time owned its own operating system (OSX), had developed a digital music ecosystem (iTunes) and was generally considered to have superior and more innovative product design.

--- Update ---

Hier könnte Steam das entscheidende Mosaik-Steinchen gebracht haben um Nvidias GameworX zu begegnen mit dem Rückgaberecht für Spiele. Ich schätze mal die hatten einiges an Anfragen im Support wegen Project Cars:
http://www.computerbase.de/2015-06/steam-indie-entwickler-sehen-neues-rueckgaberecht-kritisch/
Tom Francis (Gunpoint) hebt die Möglichkeit hervor, durch die einfache Rückgabe auf technische Schwierigkeiten reagieren zu können: Wenn ein Nutzer Probleme mit einem Titel habe, könne er nun auf einfachem Wege sein Geld zurückerhalten und müsse nicht an den Steam-Kundendienst verwiesen werden. Andere Entwickler heben das (Selbst-)Vertrauen hervor, das durch das Wissen generiert wird, dass Spieler, die den Titel in ihrer Bibliothek besitzen, ihn auch spielen und mögen, also mit der Qualität zufrieden sind.
 
Es wird wirklich Zeit für Direct3D12/Vulkan sowie neue Speichertechnologien (HBM, ect). Ich habe vor nicht allzu langer Zeit spaßeshalber Bioshock Infinite und Tomb Raider auf einer APU gestartet, die ich an dieser Stelle nicht näher benennen möchte, um sie nicht schlecht zu machen. Bis die genannten Spiele auch nur annährend flüssig liefen, musste man die Details soweit reduzieren, dass sie optisch keine Freude mehr waren. Dabei sind beides leicht angestaubte Titel, die nicht übermäßig viel Leistung abrufen. Teilweise hatte ich sogar den Eindruck, als käme meine betagte Radeon HD 4830 besser mit den Spielen zurecht.

Es wurden zwar schon große Fortschritte bei den APUs erzielt, aber in meinen Augen fehlt noch ein ganzes Stück bis man auf dedizierte Grafikkarten in PCs verzichten kann, die nur gelegentlich zum Spielen dienen.

Ist zwar OT, aber trotzdem mal ganz kurz: Mit meinem A10-6700 läuft der Witcher Teil1 in FHD und vollen Details absolut flüssig. Und das mit DDR3-1600 RAM. Werde evtl. dasselbe mit Pillars of Eternity versuchen. Hindernis ist nur meine Internetverbindung.
 
@Complicated
War nicht auch bei Evergreen vs. Fermi Nvidia derjenige, der das Risiko einer neuen Fertigung einging, während AMD, Blödsinn, ATI auf Zuverlässigkeit setzte? Oder bring ich was durcheinander?
 
Beide haben vorher einen Testballon steigen lassen. nVidia mit der GeForce GT 240 und AMD mit der Radeon HD 4770.
 
Die neue Fertigung in 40nm ist Ati zuerst angegangen ein halbes Jahr vor Cypress mit dem 4770. AMD hat die Schwächen besser erkannt und ist auf Nummer sicher gegangen mit doppelten "vias". Das hat natürlich Die-Fläche gekostet, dafür die defekte im Zaum gehalten durch die Redundanzen. Anand hat das sehr ausführlich damals in einer Nachbetrachtung ausgeführt:
Nvidia war 1/2 Jahr nach dem 4770 mit einem 40nm Chip auf dem Markt. Wegen der vielen tapeouts wie oben beschrieben.

Hier der Link zur Cypress-Story:
http://www.anandtech.com/show/2937/9
Sehr lesenswert, vor allem.weil das Verhalten von TSMC etwas beleuchtet wird und mit welchen Informationen die GPU-Hersteller dann ihre Architekturen optimieren müssen.
 
Ich glaube nicht - die würden sich damit eigentlich übernehmen. Für AMD muss man immer noch mind. 2-4 Milliarden auf den Tisch legen. Wobei Geld im Moment natürlich auch nichts kostet.
 
Es ging doch eher darum, dass AMD die Firma Xilinx übernimmt - nicht andersrum !
 
Auch AMD kann sich eigentlich keine 5 Milliarden für Xilinx leisten.
 
Naja, da geht es um M&A. Es stellt sich meist weniger die Frage, woher das Geld kommt, sondern eher, ob die beiden Firmen zusammen mehr wert sind als allein, grob gesagt. Dabei werden sie in der Regel seziert, filetiert, Teile separiert, entrümpelt und dergleichen. Wer wieviele geldwerte Einlagen einerseits und Schulden andererseits mit einbringt, bestimmt dann, wer wem was zu zahlen hat, ob in Aktien, in bar oder umgekehrt in Schulden - da geht alles.
Eine Übernahme ist sozusagen die einfachste Form einer M&A Transaktion, die ich bei AMD kaum für durchführbar halte.
MfG
 
Neuer Name im Karussell, wer AMD übernehmen könnte. Realistisch?
http://www.fudzilla.com/news/37973-analysts-predict-an-amd-xilinx-merger
Solche "News" kann man direkt in die Mülltonne werfen. Da wollen sich nur wieder irgendwelche planlosen Analysten wichtig machen. So wie sie es schon unzählige Male vorher gemacht haben. Passiert ist bisher nie was. Und da wird so schnell auch nichts passieren. Dafür ist AMD nach wie vor zu solide aufgestellt.
 
Zurück
Oben Unten