Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Der Schlüssel für den Erfolg dieses sehr ehrgeizigen Projekts wird sein, wie schnell man aktualisiert und wie man auf "Kundenwünsche" reagiert. CUDA hat sich festgebissen wie eine Zecke. Die meisten Devs sind auch nach wie vor zufrieden, also muss da eine Mauer durchbrochen werden. Am meisten freuen werden sich natürlich die Jünger, welche schon seit eh und je mit AMD und somit OpenCL entwickeln.
Ich hoffe hier hat man nicht einfach eine weitere Baustelle eröffnet die nicht beendet wird. In der nahen Vergangenheit hat man sich diesbezüglich ja definitiv gebessert. Es wird jedenfalls wieder spannend am Markt. Ich denke dass Raja Koduri da auch positiv mitgewirkt hat, dass es jetzt schneller voran geht.*great*

Eines ist jedoch klar: es wird nicht einfach werden und erfordert viel Man-Power vor Ort und reaktives Handeln.
 
Wo wären dann die neuen GPUs mit 2x perf/W. Ist die Zahl da oben in SP oder DP?

Ich bin jetzt von SP ausgegangen, da die idr. immer für solche Angaben genutzt wird, außer man heißt Nvidia und bewirbt nen Tegra K1.

Wo die doppelte Perf/W bleibt frag ich mich dann allerdings auch, bzw. auf was die sich bezieht.
 
Der Schlüssel für den Erfolg dieses sehr ehrgeizigen Projekts wird sein, wie schnell man aktualisiert und wie man auf "Kundenwünsche" reagiert. CUDA hat sich festgebissen wie eine Zecke.

CUDA ist ausgereift und macht was es soll. OpenCL muss da erst mal gegen anstinken. Entwickler sind wie alle Menschen Gewohnheitstiere. Dort ändert man nur etwas wenn der Druck groß genug ist.
Der Vorteil von OpenCL ist die breite Basis. Solange die aber von vielen Herstellern nur halbherzig unterstützt wird, ist die Motivation zu OpenCL zu greifen nicht besonders ausgeprägt. Das wird sich auch nur langsam ändern, wenn jüngere Jahrgänge nachrutschen.

Der neue Compiler soll aber an OpenCL vorbei HSA-Code erzeugen mit Unterstützung von OpenMP 4.x
 
Zuletzt bearbeitet:
Entwickler sind vor allem eins - bequem.

Sieht man auch schön an der Historie von DirectX. In den Anfängen deutlich schlechter gewesen als OpenGL, hat sich aufgrund der einfacheren Programmierweise aber durchgesetzt. Ist eben leichter, wenn man den Code schon von der IDE zur Hälfte vorgegeben bekommt. Der Entwickler spart Zeit, der Arbeitgeber Geld, alle sind zufrieden.

Deswegen haben wir heute Software mit mieser Performance und Reifung beim Kunden (immer mehr high level, Hauptsache bequem). AMD hat das mit Mantle untergraben, da sie die Schnauze voll hatten für die Bequemlichkeiten der Entwickler ständig im Treiber nachbessern zu müssen. Folge ist, viele Entwickler motzen, weil sie eigentlich keinen Plan haben von dem was sie tun und nichts funktioniert. Ich hoffe inständig, es trennt sich hier die Spreu vom Weizen..

Ähnlich wie bei DX, sehe ich es mit CUDA. Es ist vor allem bequem. Habe so das Gefühl, dass auf Gedeih und Verderb vermieden werden soll, zu viel Hirnschmalz in eine Umsetzung zu stecken. Reichenzeit scheint günstiger zu sein als Entwicklerzeit. Dazu kommt, dass CUDA eine geschlossene Plattform ist und man sich einem Hersteller verpflichtet, der in seinen Tätigkeitsfeldern relativ wenig Umsatz und Gewinn erwirtschaftet (ausgenommen das Zugpferd Gaming).
Bricht bei Nvidia dieses Zugpferd weg, weil AMD Marktanteile wieder zurück erobert, könnten auf nVidia Fastenzeiten zukommen..

Klar sind das viele wenns, aber man sieht, dass AMD in allen Bereichen versucht, die Karten neu zu mischen.
 
Das ist eine etwas einseitige Betrachtung. Schau dir mal an, welche Projekte in Kooperation mit nVidias Leute direkt enstehen. Der Viruloge hat nun mal eine begrenzte Kenntnis von Programmierung und soll sich entsprechend nicht wie ein Informatiker aufführen. Du musst einfach mehrere Disziplinen vereinen.

Und nicht AMD hatte die Schnauze voll, sondern Johan Andersson. Er ging zu den drei großen (wobei Intel ihn glaub ich nicht mal eingeladen hatte) und nur von AMD kam wirklich das "Okay, wir ziehen das Ding durch".

CUDA hat auch den Vorteil dass es schnell aktualisiert wird wenn eine Architektur erscheint und du über eine API auch Zugriff auf Hardware-Parameter hast. Des weiteren sind die Angestellten von nVidia sehr kooperativ, wenn man ein Projekt vorantreiben möchte. Wichtig ist den Leitsatz "With great power comes greater responsibilities" zu beherzigen. Will sagen, dass sich die Entwickler an der Basis entsprechend reinhängen und sehr guten Code liefern müssen. Diese Richtung schlug Mantle zuerst ein und diese Richtung gehen die Devs, welche CUDA programmieren ebenso.
 
Da gehe ich völlig d'accord. Allerdings hat dieses "reinhängen" dafür gesorgt, dass wir derzeit unter DX11 viele mies laufende Spiele vorgesetzt bekommen. Die Spieleentwickler bzw. Engine-Schreiberlinge scheinen ihren Code von nVidia schreiben zu lassen und testen hinterher teils nicht mal auf anderer Hardware (zumal die nVidia Treiber eh viel Murks durchgehen lassen). Siehe Slightly Mad Studios oder auch Größen wie Rockstar (GTA4).

AMD hat nicht die Ressourcen mit jedem Spielestudio eine so enge Kooperation einzugehen und für sie zu optimieren. Daher wird diese Arbeit mit DX12/Vulkan den Entwicklern wieder aufgebürdet (wo sie meiner Meinung nach auch hin gehört). Die aktuelle Schieflage kommt ja nicht von ungefähr. Mit der systematischen Manipulation der Software zugunsten von nVidia in Form von proprietären Erweiterungen und die gegenseitige in-den-Hintern-Kriecherei (Epic <-> nVidia z.B., oder auch Blizzard) schadet AMD seit Jahren. Wenn das weiterhin so exzessiv läuft, sehe ich für den Konsumenten schwarz. Ich hoffe, die generelle Kompetenz und das Know How der Spielestudios steigt wieder (ein paar Eier wären teils auch nicht schlecht) und wir bleiben von vendorspezifischen (proprietären) Optimierungen in Zukunft verschont.
 
Es gibt durchaus Fälle wo Gameworks eine GeForce prozentual mehr einknicken lässt als eine Radeon ;) Und wie man aktuell an Battlefront sieht, lohnt sich eine enge Zusammenarbeit für AMD ebenfalls. Fury X steht sehr gut da und nun stelle dir mal vor zum Release von Fiji hätte es schon drei, vier Titel gegeben die ebenfalls in enger Zusammenarbeit entstanden sind. Der Launch hätte völlig anders ausgesehen.

Ich stimme dir aber völlig zu, dass die Entwicklung in die Hände der Softwareschmieden gehört und nicht in die der IHVs (schon gar nicht als black box).
 
AMD hat nicht die Ressourcen mit jedem Spielestudio eine so enge Kooperation einzugehen und für sie zu optimieren. Daher wird diese Arbeit mit DX12/Vulkan den Entwicklern wieder aufgebürdet (wo sie meiner Meinung nach auch hin gehört).

Man muss diese Dienstleistungen ja nicht kostenlos anbieten. In DX12/Vulkan steckt viel Vorarbeit. Da wäre es nur legitim wenn AMD sich die Beratungsleistung auch bezahlen lässt. Und in dem Moment wo man mit dieser Dienstleistung Geld verdient, kann man auch Ressourcen aufstocken.
 
Okay. Und dein Konkurrent macht es gratis. Nun kommst du :P
 
Den größten Wert in der Entwicklung hat der Faktor Zeit. Wenn die Qualität stimmt, werden sie zahlen.
AMD hat bei den neuen Schnittstellen schon etwas zu bieten.

NOT! :D

Nein wirklich; dass ist ein Fass ohne Boden. Kannst dich mal mit nVidia unterhalten. Hier kann man halt nicht direkt gegenrechnen wie viel sich davon auszahlt, daher ist es eine reine Kostenstelle im internen Rewe. Dass es sich auszahlt kann man halt nur korrelieren.

Und ja: Wenn ich mir TressFX 3.0 ansehe kapier ich nicht, weshalb man noch Hairschrott nutzen muss / will.
 
Intel hat scheinbar Probleme mit seinem neuen 14 nm Prozess. Die CPUs selbst sind ja ganz gut, jedoch ist die Ausbeute schlecht, was insbesondere den Bau von großen Dies treffen dürfte. Implizit steigert dies auch die Wahrscheinlichkeit von weiteren Verzögerungen für den Nachfolgeprozess mit 10 nm.
http://www.golem.de/news/fertigungs...oblemen-vor-samsung-und-tsmc-1511-117550.html
Aaufgrund der gestiegenen Erträge im Serverbereich (und der gesunkenen im PC/Notebook-Bereich) wird zudem das Investitionsvolumen zwischen den Sparten umgeschichtet. Es soll mehr in Server investiert werden, weniger in den Client-PC-Bereich. Den Smartphone-Markt hat man scheinbar völlig aufgegeben.

Von der Fertigungsseite ist dies in gewisser Weise auch sinnvoll. Die 14 nm haben in Punkto Geschwindigkeite defakto nichts mehr gebracht, lediglich die Energieeffizienz der Chips beim Rechnen wurde gesteigert.
Nun ist bei einem Server oder Großrechner mit weit über 8000 Betriebsstunden im Jahr bei oft guter Auslastung der Lastverbrauch wirklich eine ökonomisch relevante Größe, so dass sich dort auch kleine Einsparungen pro Chip in deutlichen Kosteneinsparungen für den Kunden nieder schlagen, der ein Teil derer an Intel weiter reicht.
Im Allerwelts-PC-Bereich für Unternehmen ist der Volllast-Verbrauch eines Mikrochips jedoch ziemlich irrelevant, da die Rechner eh die meiste Zeit nichts tun. Und für einen klasse Idle-Verbrauch benötigt man keinen hochaufwändigen 14 nm Prozess. Das ginge auch in 28, 45 nm oder 65 nm, sofern die Plattform dahinter passt. Eine Ausnahme sind sicher PC-Spieler, dort ist es bei den GPUs dann aber auch weniger relevant.
 
Die 14 nm haben in Punkto Geschwindigkeite defakto nichts mehr gebracht, lediglich die Energieeffizienz der Chips beim Rechnen wurde gesteigert.
Einerseits hat Skylake diverse µArch-Optimirungen, d.h. die IPC ging verglichen mit Broadwell weiter hoch. Zudem: Wenn bei gleichem Power Budget, sagen wir 15W in einem Ultrabook, die Effizienz steigt, erhöht sich automatisch die praktische Leistung. Sehr schön zu sehen am Surface Pro 4 verglichen mit dem Surface Pro 3. Beide haben 15W-Chips (HSW-U vs SKL-U), das SP4 ist aber CPU-/iGPU-seitig viel flotter.
 
Die 14 nm haben in Punkto Geschwindigkeite defakto nichts mehr gebracht, lediglich die Energieeffizienz der Chips beim Rechnen wurde gesteigert.

Du wiedersprichst dir streng genommen selbst. Es mag sein das in der ersten 14nm Generation unterm Strich "nur" die Energieeffizienz gesteigert wurde. Im Umkehrschluss bedeutet dass aber auch, mehr Leistung ist durchaus drin. Bei gleichem Energieverbrauch zur Vorgängergeneration muss ja dann mehr Leistung hinten raus kommen.

Intel hat einfach nur den Fokus anders gelegt. Hinzu kommt die Architektur ist in meinen Augen gefühlt schon ganz schön ausgereizt. Sie müssen sich nicht besonders ins Zeug legen... (kommt es mir nur so vor? wenn AMD nichts konkurenzfähiges bringt legt sich Intel "schlafen")...

Meistens ist auch das ändern der Strukturbreite im Kern nur ein Shrink der Vorgängergeneration - im nächsten Schritt wird dann wieder an der Architektur gebastelt..
Wobei AMD gerade beides in einem Schritt macht - hoffen wir mal das alles gut geht...
 
Die Chiptechnik ist einigermaßen ausgelutscht, die Steigerungsraten der letzten Jahrzehnte wird es nicht mehr geben falls nicht irgendwas komplett neues kommen sollte. Und paralleles programmieren rechnet sich nur in wenigen Fällen.
 
Ein Großteil der Leistungssteigerung wurde doch ohnehin durch einen höheren Strombedarf erkauft. Wie waren seinerzeit die ersten Modelle mit Kühlkörper, Lüfter oder extra Strom Anschluss als Strom Fresser verschrieen. Inzwischen sind wir bei einer GPU in der 300W Liga angelangt und es gibt noch nicht einmal mehr lowend Modelle die ohne Kühlkörper auskommen.
 
@y33H+Novasun: Das stimmt. Im Mobilbereich ist es ein Widerspruch. Sofern die TDP jedoch nicht wirklich limitiert, wie in einem Desktop-Rechner oder einem 'richtigen' Notebook mit 35, 28 oder 15 W (letztere nur SingleThreaded), bringt 14 nm aber wirklich nicht viel. Es ist jedenfalls weit weniger, als früher ein Schritt von 65 auf 45 nm brachte.
 
Selbst wenn: KabyLake ist CPU-technisch so wie Skylake, du erwartest doch nicht ernsthaft irgendwelche Unterschiede im CPU-Bereich? Ich seh das sogar so: Selbst wenn Intel auf 10nm springt, wird man da keine große Mehrperformance mehr rausbekommen.

y33H@ Skylake ist breiter ausgelegt als Broadwell, ohne dabei die internen Latenzen weiter zu erhöhen. Das ist der eigentliche Vorteil von 14nm ggü. 22nm. Jedoch braucht man das eben nur in ganz bestimmten Bereichen, eben da, wo viel AVX(2)+FMA in Gebrauch ist.

Wenn Intel die 14nm-Probleme gelöst hat und der Yield stimmt, wie man den 10nm-Ramp vorbereiten, das wird dann also ziemlich sicher 2017 sein. Und dann werden wir sehen, was 10nm da noch für Überraschungen bereit hält für Intel.
 
Zuletzt bearbeitet:
Skylake ist breiter ausgelegt als Broadwell, ohne dabei die internen Latenzen weiter zu erhöhen. Das ist der eigentliche Vorteil von 14nm ggü. 22nm.
Meinst du eventuell Haswell? Skylake und Broadwell sind doch beide 14nm.
 
Laut WCCFtech senkt AMD die GPU-Preise über komplette Palette. Zum Teil 10% oder mehr.
 
Schön zu hören. Auch wenn es mir unbegreiflich ist, wie man aus so wenig Information einen so langen Text zusammenschwurbeln kann.
 
Zurück
Oben Unten