Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Alle gängigen Browser können inzwischen auch OpenCL, ImageMagick kanns auch (und das merke ich zumindest sehr deutlich)
Das ist mir total entgangen.
Es wird also noch Jahre dauern, bis dann endlich HSA mal aufschlägt. Das sollte doch noch bessere Chancen haben als nur OpenCL.
 
Ein Gedanke zu AMDs 14nm/16nm-Strategie:
http://www.planet3dnow.de/vbulletin/threads/424130-NVIDIA-Pascal?p=5110952&viewfull=1#post5110952
Solange Nvidia bei einem Marktanteil von 3:1 nicht dreimal so viele Pascal GPUs verkauft als AMD Polaris GPUs, wird AMD auch im kommenden Quartal Marktanteile dazu gewinnen.
Das widerspricht allerdings nicht einem steigenden Umsatz oder Gewinn bei Nvidia - es spricht für geringere Kosten (28nm) und hohe Preise (14nm). Auch das ist unternehmerisch klug diesen Gewinn zuerst mitzunehmen, bevor man fallende Preise an den Kunden weitergibt. Allerdings denke ich wird Nvidia ab 2017 auch in den Preiskampf einsteigen müssen wenn Vega erscheint. Aber das ist eben was AMD als "Tradeoff" für den Angriff auf Marktanteile in Kauf nehmen muss. AMD produziert derzeit doppelt so viele GPUs als ihren Marktanteilen von 25% entspricht und kommt dennoch nicht nach mit der Nachfrage für Polaris. Nvidia kann wegen hoher Preise die Nachfrage unter dem Marktanteil von 75% bedienen und kann den Preis der Produktiongeschwindigkeit anpassen (niedriger wenn die Yields steigen).
AMD scheint hier der Verknappung bei 16nm sehr frühzeitig aus dem Weg gegangen zu sein. Nvidia wird mit ihrem hohen Marktanteil bei 80% einen großen Anteil der 16nm Produktion gebucht haben zu dem damaligen Zeitpunkt. Aus zwei Gründen - klar um die Nachfrage zu befriedigen, aber auch um AMD keine zu hohen Stückzahlen zu ermöglichen. AMDs ausweichen auf 14nm für die Massenprodukte hat sicherlich zu niedrigeren Kosten geführt als ein Preiskampf bei TSMC und bietet jetzt auch mehr Reaktionsmöglichkeiten auf eine höher als erwartete Nachfrage zu reagieren mit den bereit stehenden 14nm-Samsung Foundries, falls es nötig wird.
Globalfoundries hat hingegen 2014 eine strategische Allianz mit Samsung geschlossen, in deren Rahmen das arabische Unternehmen die von Samsung entwickelten Fertigungsverfahren 14LPP und 14LPE offeriert. Welches genau für die aktuellen Polaris-GPUs etwa auf der Radeon RX 480 oder die kommenden Zen-CPUs zum Einsatz kommt, verrät AMD wiederum nicht.


In einem Artikel für Forbes.com hat der ehemalige AMD-Marketingchef und heute als Analyst und Berater tätige Patrick (Pat) Moorhead nun die Bestätigung von AMD veröffentlicht, dass das Unternehmen 14-nm-FinFET-Chips auch bei Samsung Semiconductor fertigen lassen könne, "if needed" (falls nötig).

Über die genauen Hintergründe schweigt sich AMD aus. Die Fertigungskapazität bei Globalfoundries müsste jedenfalls locker ausreichen: Bei der Vorstellung der jüngsten Quartalszahlen hatte AMD-CFO Devinder Kumar erklärt, dass sein Unternehmen mit weniger Globalfoundries-Wafern als im Quartal zuvor ausgekommen sei.
Der deutlich spätere Einstieg in 16nm wird wohl ebenfalls deutliche Kostenvorteile für die Vega-Generation bieten.
 
Wobei bisher immer noch nicht klar ist, dass man überhaupt irgendwas in 16nm/TSMC fertigen wird...

Es besteht ja auch die Möglichkeit, dass man auf 22FDX gehen wird oder 14nm bei Samsung nutzen wird...
 
JPR veröffentlicht jedes Jahr eine umfangreiche Marktforschungsstudie über den Markt für Spiele-Grafikkarten.

Dort gab es in den letzten Jahren einen anhaltenden und sich verstärkenden Trend, dass der Markt sich immer deutlicher in Richtung Enthusiasten-Produkte verschiebt. Und zwar nicht nur in Form von generiertem Umsatz, sondern auch in bei den reinen Stückzahlen. Damit sind bei JPR Grafikkarten > 300 Euro als Einstieg in dieses Segment gemeint.

Von diesem Trend hat NVIDIA seit Maxwell zuletzt überdurchschnittlich profitiert.

Wenn AMD daran partizipieren will, dann brauchen sie Vega lieber früher als später. Und wenn Vega auch nur ansatzweise konkurrenzfähig ist, könnte sich das für AMD mehr noch als Polaris als Gamechanger erweisen.

Der Report ist wie immer kostenpflichtig, aber aus der kurzen Vorschau des H2-2015 Reports.

https://jonpeddie.com/download/PC_g...-Enthusiast-PC-Gaming-Market-TOC-Exec-sum.pdf

  • The total Enthusiast market grows to over $14 billion by 2018 with a CAGR of 11.7%.
  • We estimate the Enthusiast gamer population is 16.4 million users worldwide.
  • There will be just over 21 million Enthusiast PC Gamers worldwide by 2018.
  • Enthusiast gaming PC market is totally dominated by the United States with over 25% of the world market on a dollar basis.
  • Enthusiast level in good shape with recent arrival of mass market 4K and other UHD display resolutions stimulating growth.
  • Enthusiast PC Gaming Hardware is the strongest growth area of the market in both people and dollars.

--- Update ---

AMD-NVIDIA-AIB-GPU-Market-Share-Q4-2015.png


2015_gaming_chart.JPG
 
Wenn AMD daran partizipieren will, dann brauchen sie Vega lieber früher als später. Und wenn Vega auch nur ansatzweise konkurrenzfähig ist, könnte sich das für AMD mehr noch als Polaris als Gamechanger erweisen.
Was du hier verschweigst ist, dass die rasant Verdoppelung auf der Annahme basiert, dass VR sich durchsetzt. Da hat AMD 85% des Marktes der dieses Wachstum ausmacht unter Kontrolle. Die Frage ist eher womit Nvidia an VR und DX12 partizipieren will wenn wir schon in die Zukunft schauen. Pascal ist da noch keine Lösung die GCN Paroli bieten kann. DX11 Benches haben ein Haltbarkeit von vielleicht noch 6 Monaten.
 
Ich sehe in der Studie im Moment auch noch eine Schwäche. Hier wird eine Leistungsklasse alleine am Preis fest gemacht. Noch immer ist Full HD die meist genutzte Auflösung, und da ist von der Leistung her heute ne 480 mehr als ausreichend...
 
Was du hier verschweigst ist, dass die rasant Verdoppelung auf der Annahme basiert, dass VR sich durchsetzt. Da hat AMD 85% des Marktes der dieses Wachstum ausmacht unter Kontrolle. Die Frage ist eher womit Nvidia an VR und DX12 partizipieren will wenn wir schon in die Zukunft schauen. Pascal ist da noch keine Lösung die GCN Paroli bieten kann. DX11 Benches haben ein Haltbarkeit von vielleicht noch 6 Monaten.

Wieso ist Pascal keine Lösung für VR? Gerade bei VR scheint es mir eher so, dass Pascal Vorteile gegenüber GCN hat. Simultaneous Multi-Projection ist doch genau für den VR Anwendungsfall gedacht. M.E. werden die EPIC Engines das Feature beispielsweise einsetzen. Bei HardOCP hat man auch aktuell ein paar VR Tests gemacht. Das ist zwar alles noch sehr frühes Stadium in Punkto VR aber da siehts schon mal nicht so schlecht für Pascal aus.

--- Update ---

Der deutlich spätere Einstieg in 16nm wird wohl ebenfalls deutliche Kostenvorteile für die Vega-Generation bieten.

Ja also kein Produkt zu haben bietet natürlich immer Kostenvorteile. Nur fehlen dann eben auch die Einnahmen aus dem Produkt :) Ich weiß nicht ob es für so eine Strategie einen Namen gibt. Ich halte das aber eher auch nicht für eine Strategie sondern einem Resultat aus anderen Zwängen.

--- Update ---

Ich sehe in der Studie im Moment auch noch eine Schwäche. Hier wird eine Leistungsklasse alleine am Preis fest gemacht. Noch immer ist Full HD die meist genutzte Auflösung, und da ist von der Leistung her heute ne 480 mehr als ausreichend...
Zum Leidwesen für AMD aber eben auch eine GTX1060 und die ist sogar billiger herzustellen als die 480 auf Grund diverser Einsparungen am Design die sich Nvidia offenbar erlauben kann. Gibt zu der besseren Effizienz seit Maxwell ja bei Beyond3D einen Thread was dafür die Ursache sein kannn.

--- Update ---

[3DC]Payne;5111074 schrieb:
Wobei bisher immer noch nicht klar ist, dass man überhaupt irgendwas in 16nm/TSMC fertigen wird...

Es besteht ja auch die Möglichkeit, dass man auf 22FDX gehen wird oder 14nm bei Samsung nutzen wird...

Nvidia wird Samsung für den Low End nutzen wie es jetzt aussieht.
 
Vega wird allem Anschein nach auch bei GloFo gefertigt, also nix TSMC (außer die nutzen beide Prozesse, was sehr unwahrscheinlich ist). Das einzige was bisher bei TSMC in 16nm gefertigt wird ist wohl die neue Xbone APU, und eventuell weitere APUs. Wobei selbst das schon sehr verwunderlich war.
 
Zum Leidwesen für AMD aber eben auch eine GTX1060 und die ist sogar billiger herzustellen als die 480 auf Grund diverser Einsparungen am Design die sich Nvidia offenbar erlauben kann. Gibt zu der besseren Effizienz seit Maxwell ja bei Beyond3D einen Thread was dafür die Ursache sein kannn.

Eine auf DX11 optimierte und stupide Architektur von nVidia auf der einen Seite und eine (mMn. zu) hohe Packungsdichte und schlechte Auslastung durch die Treiber auf der anderen Seite bei AMD.

Nvidia wird Samsung für den Low End nutzen wie es jetzt aussieht.

Prima, dann kann man ja endlich Effizienzvergleiche zwischen Samsung und TSMC durchführen. Die Smartphone SoCs von Apple waren ja ein erster Hinweis aber eben schlecht überprüfbar.
 

Die Beschreibung ist schon ein wenig lustig........DIE Lüfter,ich sehe nur nen CPU Lüfter....... Wenn Die Lüfter lauter sind ,dann dreht der Netzteillüfter schon bei geringer Last recht schnell hoch was normal nicht sein müsste.Auch die Spiele Leistung......logisch das ich mit ner APU nicht alles auf Max stellen kann.Der Ram wird 100% auch nicht mit 2133MHz laufen,so daß dieser die GPU zu dem noch ausbremst.
ABER wenigstens bekommt man endlich mal was halbwegs anständiges beim ALDI zu kaufen.
 
Zuletzt bearbeitet:
Ich sehe in der Studie im Moment auch noch eine Schwäche. Hier wird eine Leistungsklasse alleine am Preis fest gemacht.
Korrekt. Das ist vermutlich dem Umstand geschuldet, dass die Vergleichbarkeit so eher gegeben ist, als jedes Jahr eine neue Leistungsklasse zu bestimmen, die für den jeweiligen Zeitpunkt der Studie angemessen wäre. Und wonach richten? Nach der theoretischen Leistung? Nach einem oder mehreren Benchmarks? Ich kenne nun die Gründe für die Preis-Kategorisierung nicht, aber solche Zahlen sind normalerweise nicht ausgewürftelt. Und in der Rückschau kann man durchaus erkennen, dass der Preispunkt normalerweise passt.

Noch immer ist Full HD die meist genutzte Auflösung, und da ist von der Leistung her heute ne 480 mehr als ausreichend...
Was reicht und was nicht reicht, spielt keine Rolle. Es ist eine Betrachtung und Beschreibung des Kaufverhaltens. Und keine Wertung. Und dort findet dieser Wandel hin zu hochpreisigen Karten seit einer Weile statt. Ob das nun rational begründet oder eher irrational ist, ist für diese Art der Marktforschung nicht relevant.
 
Eine auf DX11 optimierte und stupide Architektur von nVidia auf der einen Seite und eine (mMn. zu) hohe Packungsdichte und schlechte Auslastung durch die Treiber auf der anderen Seite bei AMD.

Das allem Anschein nach implementierte Tiling hat nichts mit DX11 oder 12 zu tun. Das hat immer Vorteile und erlaubt weniger Recheneinheiten bei gleicher oder mehr Leistung.

Prima, dann kann man ja endlich Effizienzvergleiche zwischen Samsung und TSMC durchführen. Die Smartphone SoCs von Apple waren ja ein erster Hinweis aber eben schlecht überprüfbar.

Ich denke TSMC ist besser als Samsung oder GF, wobei wie gesagt AMD derzeit auch m.E. Architekturbedingte Nachteile hat. Es ist also nicht alles nur GF.
Wegen der Prozessunterschiede ist es m.E. seitens Nvidia auch nicht besonders unklug bei absehbaren Kapazitätsengpässen eher die Low-End Teile bei Samsung unterzubringen. Falls der Prozess schlechter ist, juckt das dort keine Sau bzw. tritt nicht so zu Tage wie im Performance, High End oder Enthusiast Segment.

--- Update ---

Was reicht und was nicht reicht, spielt keine Rolle. Es ist eine Betrachtung und Beschreibung des Kaufverhaltens. Und keine Wertung. Und dort findet dieser Wandel hin zu hochpreisigen Karten seit einer Weile statt. Ob das nun rational begründet oder eher irrational ist, ist für diese Art der Marktforschung nicht relevant.

Erstens das und zweitens nützt der Trostpreis Full-HD eben auch nichts, wenn die Konkurrenz dort genauso am Start ist man selber aber in den anderen Segmenten abwesend.
 
Zum Leidwesen für AMD aber eben auch eine GTX1060 und die ist sogar billiger herzustellen als die 480 auf Grund diverser Einsparungen am Design die sich Nvidia offenbar erlauben kann. Gibt zu der besseren Effizienz seit Maxwell ja bei Beyond3D einen Thread was dafür die Ursache sein kannn.

Woher kennst du denn die Herstellungskosten beider Hersteller? Ich vermute, da lehnst du dich etwas weit aus dem Fenster.

Wenn ich heute einen Rechner mit Monitor aus dem Mainstreamsegment kaufen möchte, bekomme ich bei AMD das bessere Gesamtpaket mit größerer Auswahl. Die GTX1060 ist nur eine Option wenn ich auf Features wie Adaptive Sync verzichten will. Aber wer will das noch?
 
Was du hier verschweigst ist
Aha, ich wusste gar nicht, dass ich etwas verschweige. :]

dass die rasant Verdoppelung auf der Annahme basiert, dass VR sich durchsetzt.
Ein ganze Menge an Zahlenmaterial zu 2015 ist retrospektiv. Dieser Teil hat nichts mit Annahmen zu tun. Also Umsatz, Stückzahlen, Marktanteile, ASP usw.

Für 2016 kann man anhand der bisherigen Quartalsergebnisse auch extrapolieren, dass der beschriebene Trend vollkommen in Takt ist. Wie das allerdings über 2016 hinaus aussehen wird, bleibt fraglich. Da haben solche Studien selbstverständlich mit zunehmender zeitlicher Vorhersage auch eine immer größer werdende Unschärfe.

Da hat AMD 85% des Marktes der dieses Wachstum ausmacht unter Kontrolle.
Interessant. Darf man fragen, woher Du die Zahl hast?

Die Frage ist eher womit Nvidia an VR und DX12 partizipieren will wenn wir schon in die Zukunft schauen.
Funktionieren NVIDIA-Grafikkarten nicht mit DX12 und VR?

Pascal ist da noch keine Lösung die GCN Paroli bieten kann. DX11 Benches haben ein Haltbarkeit von vielleicht noch 6 Monaten.
Kannst Du in etwa die durschnittliche Nutzungsdauer einer Grafikkarte benennen?
Wie schätzt Du den Umstand einer über Jahre andauernden Marktführerschaft ein, wodurch die installierte Basis eines bestimmten Herstellers sehr groß sein dürfte?
Glaubst Du, dass gewinnorientierte Spiele-Hersteller es sich leisten können oder werden, die zahlreichen NVIDIA-Nutzer zu verprellen?
Glaubst Du, dass es genügend attraktive DX12-Exklusiv-Titel geben wird, die Kunden zum Wechsel animieren, bevor NVIDIA in Sachen DX12 nachziehen kann?
Glaubst Du, dass NVIDIA überhaupt irgendwann mal in der Lage sein wird, auf AMD aufzuholen?
 
Aldi hängt ma wieder hinterher mit seinem Angebot - ein Godavari ? Warum kein AM4-Bristol Ridge ?
 
Glaubst Du, dass gewinnorientierte Spiele-Hersteller es sich leisten können oder werden, die zahlreichen NVIDIA-Nutzer zu verprellen?
Glaubst Du, dass es genügend attraktive DX12-Exklusiv-Titel geben wird, die Kunden zum Wechsel animieren, bevor NVIDIA in Sachen DX12 nachziehen kann?

Die Spiele funktionieren ja auch mit nVidia Hardware. AMD reizt das nur etwas besser aus.
DX12/Vulkan ist ein ernstes Problem für nVidia. Nicht kurzfristig, sondern langfristig. Über die Tragweite scheinen viele noch nicht im klaren zu sein.
Besonders, wenn man sieht, wie viele Partnerschaften in dem Bereich mit AMD und wie wenig mit nVidia eingegangen werden. Das Verhältnis ist für nVidia besorgniserregend. AMD wird viel Feedback und Anregungen für künftige Produkte bekommen und kann seine Ideen besser in den Markt bringen.
nVidia lebt im Moment von den Leistungen der Vergangenheit.
 
--- Update ---

Zum Leidwesen für AMD aber eben auch eine GTX1060 und die ist sogar billiger herzustellen als die 480 auf Grund diverser Einsparungen am Design die sich Nvidia offenbar erlauben kann. Gibt zu der besseren Effizienz seit Maxwell ja bei Beyond3D einen Thread was dafür die Ursache sein kannn.

--- Update ---

Die 1060 ist nur leider keine Konkurrenz für die 480. Wenn ich heute eine Grafikkarte kaufen müsste, dann muss sie auch wenn ich nur Full Hd nutzen würde auch in DX12 und Vulkan performen.
 
Zuletzt bearbeitet:
Was reicht und was nicht reicht, spielt keine Rolle. Es ist eine Betrachtung und Beschreibung des Kaufverhaltens. Und keine Wertung. Und dort findet dieser Wandel hin zu hochpreisigen Karten seit einer Weile statt. Ob das nun rational begründet oder eher irrational ist, ist für diese Art der Marktforschung nicht relevant.

Wo ist es bitte schön eine Beschreibung des Kaufverhaltens, wenn man Performance per se an einer 300$/€? Grenze fest macht? Viele kaufen auch Ihre diskrete GPU nicht als Einzelhardware sondern im fertig gebauten PC. Was da die dann wirklich Ihn gekostet hat bekommt der Kunde doch so gar nicht mit.. Hinzu kommt das ja gerade NV z.B. die Preise tendenziell nach oben zieht. Damit wird die 300er Grenze noch mehr zur Farce... Denn damit wird es dann zur selbst erfüllenden Prophezeiung was die Studie angeblich herausgefunden haben will. Mich überzeugt das leider nicht.

Auch seltsam das die Zahlen von 2011 bis 2014 stabil waren. Und 2015 plötzlich deutlich mehr Enthusias AIB`s wollen. Da muss 2015 aber was seltsames passiert sein...
Was ich nicht bestreiten will, der Mainstream Markt, wird immer kleiner was dezidierte GPU`s betrifft. Und daran sind AMD und Intel mit Ihren APU`s schuld.
 
DX12/Vulkan ist ein ernstes Problem für nVidia. Nicht kurzfristig, sondern langfristig.
Glaube ich nicht. AMD wird davon profitieren, weil die hohe Rohleistung besser auf den Monitor gebracht wird, Nvidia kann ja auch Chips mit hoher Rohleistung bauen, nur müssen sie dann mit dem Preis runterkommen, sobald sich DX12/Vulkan durchgesetzt hat. Oder AMD geht mit dem Preis rauf, die Kunden sind ja bereit, solche Preis zu zahlen.
 
Woher kennst du denn die Herstellungskosten beider Hersteller? Ich vermute, da lehnst du dich etwas weit aus dem Fenster.

Da kann man 1:1 leicht zusammenzählen.

1) Chip-Fläche kleiner
2) RAM Interface kleiner
3) 2GB RAM weniger
4) Platinenlayout und Kühlung vermutlich simpler wegen besserer Effizienz

Nie und nimmer hat Polaris 10 mit allem Drumm und Drann die gleichen Fertigungskosten wie eine GTX1060. Selbst unter der Annahme das ein GF Wafer günstiger als ein TSMC Wafer ist wird das die Punkte 2, 3 und 4) nicht komplett ausgleichen. Den Rest werden wir dann in den Quartalszahlen sehen. Ich gehe davon aus, dass AMD zumindest mit P10 die Hände in Sachen Preissenkungen gebunden sind, da sie wissen dass die Konkurrenz den Kampf gewinnt. Die werden eher versuchen mitzuschwimmen.

Wenn ich heute einen Rechner mit Monitor aus dem Mainstreamsegment kaufen möchte, bekomme ich bei AMD das bessere Gesamtpaket mit größerer Auswahl. Die GTX1060 ist nur eine Option wenn ich auf Features wie Adaptive Sync verzichten will. Aber wer will das noch?

Spielt für die von mir angesprochenen Kosten keine Rolle und ein viel größerer Teil der Kunden sieht es eben nicht wie Du :)

--- Update ---

Die Spiele funktionieren ja auch mit nVidia Hardware. AMD reizt das nur etwas besser aus.
DX12/Vulkan ist ein ernstes Problem für nVidia. Nicht kurzfristig, sondern langfristig. Über die Tragweite scheinen viele noch nicht im klaren zu sein.
Besonders, wenn man sieht, wie viele Partnerschaften in dem Bereich mit AMD und wie wenig mit nVidia eingegangen werden. Das Verhältnis ist für nVidia besorgniserregend. AMD wird viel Feedback und Anregungen für künftige Produkte bekommen und kann seine Ideen besser in den Markt bringen.
nVidia lebt im Moment von den Leistungen der Vergangenheit.

1) Nvidia liefert derzeit die mit Abstand schnellsten DX12 Karten.
2) Nvidia hat und wird auch weiterhin eine Reihe von Partnerschaften eingehen um die Vorteile der eigenen Hardware herauszustellen. Hierfür gibt es wie gehabt das TWIMTP Programm und Gameworks. Darüber hinaus wird Nvidia auch dafür sorgen dass die eigenen VR Features in die Software kommen. Die vielen Millionen auf dem Konto, der deutlich größere Marktanteil im PC Gaming Segment werden dafür auch weiterhin sorgen.
3) Nvidia wird, sofern die Spekulationen dazu stimmen, aller Voraussicht nach Nintento als Kunden bei AMD abgraben.
4) Es müssen erstmal genügend DX12 Spiele auf den Markt kommen. Bis jetzt werden die Karten primär an DX11 Leistung gemessen und das wird sich auch nicht so schnell ändern
5) Die Historie zeigt, dass grundsätzlich das finanziell überlegene Unternehmen den Markt sich am Ende so hinbiegen wird wie es ihn braucht. Ich teile daher Deinen Optimismus dahingehend in Bezug auf AMD überhaupt nicht
 
Punkt 1und 2 Spielen auf das selbe Chip Fläche die nur minimal Größe ist

Punkt 4 noch billiger als AMD ref geht ja kaum :) ist ja net mal Kupfer drin und seit wan haben platinkosten was mit Effizienz zu tuen
 
Zurück
Oben Unten