Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Piledriver wird im Server mit durchgezogen weil es eben dort einen größeren Wechsel geben wird mit SR B und Excavator.
Seh ich im aktuell nicht, dass da noch neue CPUs kommen. 32nm Warshaw wird nur ein Taktupgrade sein, entsprechend Richland. Da sehen wir vielleicht auch noch FX-x5xx.
Kommt halt darauf an, welchen Gewinn sich AMD bei solchen CPUs ausrechnet. Momentan sieht das wohl nicht so dolle aus weshalb eher in anderen Bereichen investiert wird.

Ansonsten will AMD ja auch mit APUs in die Server. Bei entsprechender Verschaltung dürften ein paar Berlin mit Huma effektiver sein als ein paar CPUs + GPUs.
 
Im Desktop Markt verkauft AMD die Chips aber nur zu billig Preisen.
Broadwell kommt auch als Xeon auf den Markt.
Und Kaveri auch als Berlin für Server.
.
EDIT :
.

neine, solltest einfach mal länger darüber nachdenken warum sie aktuell nicht merh verlangen können...
Bin auch schon auf die Kaveri Preise gespannt. Da läßt sich noch am ehesten einschätzen wie konkurrenzfähig sie sind.
 
Darüber lässt sich spekulieren Uwe, ich denke es wird noch dedizierte CPUS für Server geben. Ich denke ich jedoch das alles mit HSA kommt und geht, schaffen sie es den Nutzen zu überbringen und den Entwicklern klar zu machen (auch mit Tools etc) was sie da für ein Potenziall haben sehen wir mehr APUs im Server (aber auch die basieren dann auf SRB und Excavator), klappt das nicht so bzw brauchen sie einfach andere Anforderungen sehen wir auch reine CPUs.

Die Frage ist ja auch in welchen Markt der Server sie dann wollen, da gibt es unterschiedlichste Anforderungen wie die meisten hier wissen.

Meiner Erfahrung nach schlagen sich selbst die aktuellen FX gut im Desktop Markt, vor allem sogar dann wenn die Systeme mal eine Weile laufen und zugemüllt wurden sind sie imho weniger am Einbrechen als vergleichbar teure Pendants. Ist natürlich schwer zu messen, aber nach dem was wir in den Läden so erleben kommt das schon hin.
 
Kaveri hat doch nur 512 GCN Shader, wird nicht einfach gegen 14nm Broadwell.
Im Desktop Markt verkauft AMD die Chips aber nur zu billig Preisen.
Broadwell kommt auch als Xeon auf den Markt.
Das gleiche gedöns wie vor Haswell - da wurde auch schon Intel GPU gleichstand verkündet um dann festzustellen dass nicht mal Trinity überholt werden konnte. Nur weil die Fertigung kleiner wird, werden die GPU Einheiten der Intel CPUs nicht schneller. Ich wage mal zu Behaupten, dass Intel ohne diese Shrinks nicht annähernd die GPU Leistung kompensieren könnte. Auch der Rückstand beim Speicherinterface ist so gravierend, dass nur die stacked RAM Modelle auf den Performancelevel der TOP AMD APUs kommen. Das wird bei Broadwell nicht viel anderst sein. Die Lösung des SpeicherInterfaces hat Intel noch nicht gezeigt, wo AMD mit Kaveri jetzt eine voll Funktionsfähige Lösung mit hUMA bringt.
 
Die Frage ist ja auch in welchen Markt der Server sie dann wollen, da gibt es unterschiedlichste Anforderungen wie die meisten hier wissen.
Zu welchem Markt würdest du tendieren? Ich würd den mit den besten Gewinnaussichten anstreben.
FX schlägt sich sicher nicht schlecht. Leider wurde der Bedarf an 8 Kernen überschätzt. Für den Massenmarkt reichen 2 Kerne für Internet und Medienkonsum.

Ich halte Rory für einen Erbsenzähler. Da wird geschaut, was kann AMD und in welche Richtung tendiert der Markt. Der Bereich, der den meisten Gewinn verspricht wandert halt ganz nach oben in der ToDo Liste. Rory hat auch schon mehrfach erwähnt, dass er Großaufträge will. Verspricht mehr Gewinn bei gleichem Entwicklungsaufwand.
Da sind die XBox1 und PS4 Deals fast Gold. Einmaliger Aufwand, dann nur noch Jahrelange Produktion, Selektion nach einem Kriterium ( erfüllt Spezifikation oder Müll ), kein Aufwand für Verpackung und Werbung, definierte Abnahmemenge also minimales Risiko für Überproduktion, die sich nicht mehr absetzen läßt, ein Kunde.
Und dann vergleich die erwarteten ca. 5 Millionen Konsolen APUs pro Quartal mit den 500 000 / Quartal verkauften 8 und 6 Kern CPUs für Desktop und Server zusammen.
http://www.investorvillage.com/smbd.asp?mb=476&mn=251550&pt=msg&mid=12243936 ( Hat jemand aktuellere Daten? )
Viel Selektion, viele Kunden, viel Verpackung, also viel Aufwand pro Chip und wenns Geschäft nicht läuft sitzt man auf Lagerware.
AMD spricht jetzt schon von 40% - 50% zukünftigen Umsatzanteil für den Semicustom Bereich.
Ich frage mich, wo die weiteren 20% - 30% herkommen, da PS4 und XBox1 nur 20% auszumachen scheinen.
 
Die Konsolendeals sind Gold Wert ohne Frage, aber sie müssen nun auch den nächsten Schritt gehen und ihre LP Chips massiv in Tablets und von mir aus auch Smartphones stecken. Der Markt bringt Geld und wenn sie diese Modelle dann auch noch lange supporten könnten sie sich einen guten Ruf erarbeiten.

Ja das zielt auf Qualcomm ab, ist aber offtopic ;)

Tja der Servermarkt, das ist schwierig. Es gibt ja Prognosen das wir kaum noch teure Server brauchen weil ARM das alles auch kann xD, nur ist das eben nicht so. Ich behaupte sie brauchen tatsächlich ein dickes Eisen und die bisherige LP Schiene weiterhin. Nehmen wir an SR B oder Excavator werden so gut wie wir das erwarten/glauben wollen, dann färbt das auf andere Produkte ab. Außerdem brauchen die APUs auch eine Basis, nur LowPower genügt da nicht.

Der Nachteil den sie im Moment haben ist die leidige PR, von APUs weiß kaum jemand was außer den Informierten. Von Firmen brauchen wir gar nicht reden, da sind die IT Abteilungen entweder beim BX Ruf von Intel stehen geblieben oder außgelagert. Es gibt gaaaanz wenige die AMD auch mal außerhalb der MSI OEM Schiene verbauen.

Wenn du aber z.B wie wir den Kunden erklärst das er einen 4Kern APU a la A10-5700 oder jetzt A10-6700 haben kann und dazu keine extra Grafikkarte braucht für nur gelegentliche Spiele und das lieber in eine SSD investiert funktioniert das. Es muss halt kein i3/i5 für das Wohnzimmer oder Facebook Games sein. Es ist eben Überzeugungsarbeit, die leisten sie aber selber nicht sondern wälzen das ab bzw ignorieren es.

Das ist z.B auch so ein Punkt das wenn man bei AMD als Geschäft Marketingmaterial wie Poster, Flyer, Handouts oder Giveaways anfordert man eine Kiste bekommt wo ganze 5 mal das gleiche Prospekt drin liegt, ein Kalender, ein Thermosbecher (der zugegeben nett ist) und 5 Kugelschreiber. Nicht für Ungut das ist nett, aber es geht da um Werbung. Was soll ich da mit 5 Prospekten, die sind nach einem Tag weg.

Vor allem wenn man in Zeiten von Richland noch Produktflyer von Trinity schickt.............
 
amdfanuwe schrieb:
Wer, außer ein paar Gamer, interessiert sich denn noch für CPUs ( Prozessoren ohne IGP)?

Der Servermarkt? Hier dauert es sicherlich noch Jahre bis sich HSA etablieren könnte und da braucht man gute Produkte, auch im klassischen Gamermarkt, denn von diesem Markt werden traditionell Kaufentscheidungen und Stimmungen verbreitet, ob AMD kaufen oder nicht, ganz so uninteressant dürfte das nicht sein, vor allem weil AMD´s Kaveri ja nur 2 Module haben wird, mehr als gegen Intels i3´s und Pentiums wird man nicht ausrichten können, da braucht man also sicherlich noch die schnelleren CPU´s.

Bevor AMD ATI kaufte, lief das Geschäft gut und ATI war bezahlbar. Dumm nur, dass kurz nach dem ATI Kauf eine Wirtschaftskrise einsetzte und damit die für den Kauf kalkulierten Gewinne wegbrachen. Hat nicht nur AMD eine Menge Geld gekostet.

Du erklärst AMD´s Misere also nur durch die Wirtschaftskrise? Aha..

Also, hätte, hätte Fahradkette bringt uns nicht weiter. Macht mehr Sinn, darüber zu spekulieren wie die Welt in ein paar Jahren aussieht und ob AMD dafür in die richtige Richtung arbeitet.

Ganz genau und ich habe das hätte Fahradkette genommen um den Bulldozerfail zu beschreiben.
Ich habe die Verträge die mit Globalfoundries genommen und daraus geschlossen, dass das ein riesen Problem für AMD´s Zukunft ist und bin der Meinung der Bulldozer Weg ist der klar falsche.

Also alles Hätte Fahradlkette stimmt ja wohl nicht mal Ansatzweise.

amdfanuwe schrieb:
AMD investiert doch in HSA, Huma, unterstützt Entwicklerfirmen. Also es wird schon in Software investiert.

Kann man die Bemühungen von AMD in diese Richtung irgendwie verifizieren? Hast du da genauere Infos, was AMD macht?

Sefegiru schrieb:
Ich könnte auch so Textmonster ohne Inhalt loslassen, aber Richlands 65W Modelle sind schneller als die Llanos mit 65W TDP. Die VCore und Co juckt da keinen außer die 3% NErds die sich damit beschäftigen

Der Richland 6700 zieht mehr als 65 Watt und lässt sich fast gar nicht undervolten.
Hier ist die Fertigung lediglich soweit, dass man die Spannungen bis kurz auf knapp optimieren kann.
Dasselbe könnte man auch mit llano, siehe HT4U 58 Watt Verbrauch, bei 3,0ghz.

http://www.computerbase.de/artikel/prozessoren/2012/alle-desktop-trinity-im-cpu-vergleichstest/8/

Und nun kam da also Trinity, mit ganzen 10% mehr Performance in einem Mix aus Anwendungsleistung und Grafikleistung und keiner Besserung der Effizienz, vor allem weil Trinity hier lediglich von den Befehlen profitiert wie AES, das Design selbst ist nicht besser eher schlechter als Vorgänger und das gegen Llano, welcher mittlerweile Efizienter gewesen wäre und mit 3,3ghz effizienter den gleichen Performancesprung gemacht hätte mit etwas weniger Spannung.

Sefegiru schrieb:
Piledriver wird im Server mit durchgezogen weil es eben dort einen größeren Wechsel geben wird mit SR B und Excavator. Das wird jetzt nicht wegen lausigen 12 Monaten nochmal viel evaluiert und ja das ist arg teuer und man spart es sich für den Wechsel auf eine Plattform die PCIe3 und DDR4 tauglich ist.

Es gibt keine Server Steamroller ohne IGP, lediglich die Berlin APU´s und ob die erfolgreich sein sollen bezweifle ich sehr stark, mangels aktuellen Wissen über HSA und was HSA überhaupt werden soll und wo es eingesetzt wird, das muss sich erstmal etablieren und dann stellt sich die Frage wieso sollte es sich etablieren, wenn der Markt sich auf die schnelle Intel Server CPU´s eingeschossen hat, da wird man erstmal dabei bleiben wollen.
Apropos lausige 12 Monate, wahrscheinlich werden das eher 24 bis 30 Monate von Vishera 3 Quartal 2012 bis Excavator mit DDR4 usw. usw.. ich tippe mal der kommt vielleicht Q2 2015.

Am Anfang meintest du noch der ATI Kauf war der schlimmste Fehler, jetzt behauptest du Jaguar und dere GPU ist das einzigst gute. Das ist, naja ich lasse anderen das werten.

Ich habe nie gesagt, dass deren GPU das "Gute" ist, liest du überhaupt meine Beiträge?

Das meiner Meinung nach einzig gute Produkt ist sind die Jaguar Kerne

Die Jaguar IGP ist viel zu schwach, um AMD´s Argumente der besseren Spieleleistung mehr Kraft verleihen zu können und hätte deutlich früher kommen müssen, man liegt zwischen HD 3000 und HD 4000, gegen die Sandy Bridge Pentiums liegt man aber sicherlich gut, abgesehen von der CPU Leistung.

SR wird als Kaveri mit GCN ein Riesenschritt und die ganze Industrie wartet auf die Umsetzung weil es die erste ihrer Art im Massenmarkt sein wird. Eine potente multithreaded optimierte CPU + eine GCN GPU sin nicht mal eben zusammengeklatscht wenn man das erreichen möchte das AMD vorhat. Sie sind in diesem Punkt Vorreiter, so wie sie es bei 64 bit waren, beim IMC und vielen anderen Dingen ohne die wir womöglich heute noch beim P4 10Ghz wären.

Was ist denn eine multithreaded optimierte CPU mit lediglich 2 Modulen? Du weißt schon dass AMD primär den 1P Markt anpeilt?

Klar sind sie Vorreiter und ich hoffe auch dass das gut klappen wird, ich habe da aber ehrlich so meine Zweifel, den die Verschiebung nähert sich einem ganzen Jahr.

Was den Redaktionsstatus betrifft, P3D ist eine der letzten privaten Seiten im deutschen Raum deren KEIN großer Hersteller das Geld in den Pöppes ballert. Nein im Ernst wir sind da Stolz drauf und ich glaube Nero macht den Laden eher dicht als das er die Seele der Unabhängigkeit verkauft!

Ja das ist ja auch super so! Unter diesem Gesichtspunkt nur weiter so!

Wer glaubt das es in der Industrie immer nach Moral und Ethik geht ist eh verloren und da kommt es dann auf den Kunden an, nur leider sind die auch nur eine manipulierte Herde.

Ich finde das mit der manipulierten Herde etwas abgedroschen, außer den APU´s kann man doch nicht wirklich AMD empfehlen, höchstens über das Preisargument, damals als AMD noch den Phenom hatte gab es auch deutlich mehr AMD Rechner.

Elkinator schrieb:
14nm broadwell kommt doch eh nur für mobile geräte, im desktop bleibt haswell mit 22nm der gegner.

Hoffen wir, dass Kaveri noch vor Broadwell kommt, gegen Broadwell ist im mobilen Bereich was GRafikleistung angeht kein Stich möglich, man liegt aktuell nicht mal ganz gleichauf mit Intels HD 4600, was den mobilen Bereich angeht.
Und der Grund warum es keine Richland mobos gibt, dürfte wohl daran liegen dass Trinity erst abverkauft werden muss.

Sefegiru schrieb:
Meiner Erfahrung nach schlagen sich selbst die aktuellen FX gut im Desktop Markt, vor allem sogar dann wenn die Systeme mal eine Weile laufen und zugemüllt wurden sind sie imho weniger am Einbrechen als vergleichbar teure Pendants. Ist natürlich schwer zu messen, aber nach dem was wir in den Läden so erleben kommt das schon hin.

Zugemüllte Systeme bringen in erster Linie die Festplatten zum schwitzen und nicht die CPU. Was du meinst sind Hintergrundlasten, hier kann der FX aber auch nur bei Streaming+ Spielen oder decodieren + Spielen wirklich glänzen, das andere ist doch gar nicht reproduzierbar messbar.

Complicated schrieb:
Das gleiche gedöns wie vor Haswell - da wurde auch schon Intel GPU gleichstand verkündet um dann festzustellen dass nicht mal Trinity überholt werden konnte.

Hä? http://www.computerbase.de/artikel/grafikkarten/2013/intel-iris-pro-5200-grafik-im-test/3/

Im mobilen Bereich ist selbst die HD 4600 schneller als Trinity, im Desktop Bereich fehlen ~25%.

Auch der Rückstand beim Speicherinterface ist so gravierend, dass nur die stacked RAM Modelle auf den Performancelevel der TOP AMD APUs kommen.

Also die HD 5100 wurde doch noch gar nicht getestet, oder?

Die Lösung des SpeicherInterfaces hat Intel noch nicht gezeigt, wo AMD mit Kaveri jetzt eine voll Funktionsfähige Lösung mit hUMA bringt.

Woher soll Huma denn bitte mehr Bandbreite herzaubern, auf diese Erklärung bin ich ja jetzt besonders gespannt.

Das als Lösung zu sehen, ist ja wirklich völliger Humbug und entbehrt jedem technischen Verständnis.
 
Zuletzt bearbeitet:
Hä? http://www.computerbase.de/artikel/grafikkarten/2013/intel-iris-pro-5200-grafik-im-test/3/

Im mobilen Bereich ist selbst die HD 4600 schneller als Trinity, im Desktop Bereich fehlen ~25%.



Also die HD 5100 wurde doch noch gar nicht getestet, oder?



Woher soll Huma denn bitte mehr Bandbreite herzaubern, auf diese Erklärung bin ich ja jetzt besonders gespannt.

Das als Lösung zu sehen, ist ja wirklich völliger Humbug.
Also in deinem Link ist die HD4600 25% langsamer als die HD 7660D des Trinity, weiss nicht wo du da eine schnellere Intel GPU siehst.

Und wenn du noch immer nicht begriffen hast wie hUMA das Bandbreiten Problem der iGPU löst dann solltest du aufhören hier so ein Zeug zu verzapfen. Dieses Forum ist voll von Artikeln, News und technischen Papieren wo das bis ins letzte Details diskutiert wurde.
.
EDIT :
.

Also die HD 5100 wurde doch noch gar nicht getestet, oder?
Nein, aber die HD 5200 Iris Pro mit stacked RAM ist gerade mal gleichauf mit dem Richland HD 8670D. Die HD5100 ist deutlich langsamer.
 
Complicated schrieb:
Also in deinem Link ist die HD4600 25% langsamer als die HD 7660D des Trinity, weiss nicht wo du da eine schnellere Intel GPU siehst.

Die mobile HD 4600 ist 20% schneller, die HD 5200 über 60% schneller mobil, im Desktop sinds 10% vor Richland, wer weiß warum Computerbase Richland hier mit DDR 2400 vermisst und nicht mit DDR2133, jedenfalls ist das gegenüber Intel unfair.

Und wenn du noch immer nicht begriffen hast wie hUMA das Bandbreiten Problem der iGPU löst dann solltest du aufhören hier so ein Zeug zu verzapfen. Dieses Forum ist voll von Artikeln, News und technischen Papieren wo das bis ins letzte Details diskutiert wurde.

Nein sowas ist für mich nicht zu begreifen, denn die Bandbreite steigt nicht, nur weil CPU und GPU einen gemeinsamen Adressraum haben, der mach wie vor im Arbeitsspeicher liegt.

Complicated schrieb:
Nein, aber die HD 5200 Iris Pro mit stacked RAM ist gerade mal gleichauf mit dem Richland HD 8670D. Die HD5100 ist deutlich langsamer.

Nö, sie ist schneller, siehe Anandtech, CB vermisst die IGP mit DDR 2400, außerdem hast du mit Trinity verglichen und nicht mit Richland.
Intel hat AMD schon eingeholt und überholt, sowohl obil als auch im Desktop Markt und wird wohl mit Broadwell den Vorsprung weiter ausbauen, da hilft auch dein mimimi und negiere von Fakten nicht.
 
Zuletzt bearbeitet:
Naja, wirklich gelöst wird der Flaschenhals der begrenzten Bandbreite (aus meiner Sicht) durch huma nicht. Grafik-intensive Anwendungen benötigen weiterhin einen ausreichend guten Draht zum Hauptspeicher. Durch das Wegfallen redundanter Kopien zu bearbeitender Speicherbereiche sollte die vorhandene Bandbreite effizienter genutzt werden können - ob und zu welchem Ausmaß das in der Praxis (Gaming) zu spüren sein wird, müssen erste Tests zeigen. Möglicherweise kann auch die GCN-Architektur in ihrer nächsten Reinkarnation (GCN 2.0?) darauf getrimmt werden, die vorhandene Bandbreite effizienter zu nutzen. GPGPU-Operationen stellen sich dagegen ohnehin als weit anspruchsloser bzgl. der Speicherbandbreite dar als - nennen wir es mal - Textur-Fresser. Meine persönliche Einschätzung (aus dem Kaveri-Thread) bleibt jedoch, dass selbst mit hohen RAM-Takten (z.B. DDR3-2400) der Dual-Channel MC Kaveris bei Spielen zur Engstelle werden könnte - wenn auch nur knapp. Die Evolution auf DDR4 kommt für den Nachfolger wie gerufen - umgekehrt wären für Kaveri deutlich mehr als 512 GCN-Shader vermutlich nicht sinnvoll gewesen. Dass Intel vor dem gleichen Problem steht, zeigt deren Lösung mit dem Holzhammer (Crystalwell), was übrigens auch für Broadwell zutreffen müsste, d.h. das Bandbreitenlimit würde umso härter greifen.
 
Sag mal bist du blind? Dein Link enthält nichts von einer mobilen HD4600 die 20% schneller sein soll.
Nein sowas ist für mich nicht zu begreifen, denn die Bandbreite steigt nicht, nur weil CPU und GPU einen gemeinsamen Adressraum haben, der mach wie vor im Arbeitsspeicher liegt.
Ja natürlich begreifst du es nicht. Weil die Lösung der Bandbreiten-Problematik bei hUMA dariin besteht, dass einfach WENIGER Daten durch das Speicherinterface geschickt werden. Nicht dadurch dass die Bandbreite grösser wird - niemand hat behauptet dass die Bandbreite steigt. Dadurch dass CPU und GPU auf den selben RAM zugreifen muss man eben nichts mehr durch die Gegend kopieren.
 
@Schaffe, was soll eigentlich Dein Trollalarm seit gestern hier? -Leider kann ich aus Deinen postings nichts herauslesen, bringst keine konkreten Argumentationen, außer Luft?!?

-Llano wäre besser als Richlandarchitektur? -Dann schaue Dir mal die Grafik alleine zwischen Trinity und Richland schon mal genauer an.
http://www.brightsideofnews.com/new...ir-apus-with-richland---a10-6800k-review.aspx
-Alleine hier sieht man wie effizient Richland geworden ist. -Nur weil man vorher bei der APU die Vcore per Hand noch mehr Reduzieren konnte, ist immer noch nicht ein Argument dass die vorherige Generation besser war, eher das Gegenteil.
-Es ist ein Pluspunkt für AMD, da man näher am unteren Limit der Vcore Spannung ist und somit von Werk aus effizienter. -Und das ist das Hauptargument.
-Die OEM Hersteller sind nämlich die größten Kunden, danach kommen die Leute die ganz einfach die Hardware Verbauen möchten und keine Ahnung von Übertatken/Untertakten(volten) haben -und am Ende kommen wir, -die hier die Hand Anlegen und stundenlang Prüfen anschl. ob das System noch stabil arbeitet.
-Außerdem sieht man auch hier an dieser Grafik dass die Richland APU eine noch sehr gute Herabsenkung der Vcore zulässt.

-Llano war die erste APU, die VCore war viel zu hoch meistens, da duch undervolting meist deutlich darunter möglich war/ist(AMD hat aber bestimmt nicht umsonst die Vcore so hoch geschraubt, aber die Streuung hat es wohl nicht zu gelassen)
-Dazu muß man noch sagen dass sich bei AMD´s Herstellungverfahren noch nicht so viel getan hat, Llano 32nm, heute wird Richland weiterhin in 32nm hergestellt. -Möchte gar nicht daran Denken wenn Globalfoundries jetzt wie Intel auch bei 22nm wären :]

-ATI ist ein Fehlkauf? -Warum? -AMD hat die 2 größten Spilekonsolenhersteller für sich Gewinnen können, und damit Intel und Nvidia gleichzeitig abgeschaltet, -zumindest in diesen Bereich. -Und nur als Denkanstoss für Dich: Hätte Intel in der Grafikperformance zu AMD aufgeschlossen, dann wären die bestimmt auch der Lieferant der neuen Konsolen,da Ihre CPU Leistung immer noch die beste z.Z. ist
-Warum sind Sie es doch nicht geworden? -Erkläre uns das mal bitte. *noahnung*

-Im Gegensatz zu Dir sehe ich AMD viel besser aufgestellt für die Zukunft als früher. Warum? -Da man sich schon viel früher gezwungen sah neue Wege zu gehen und die "normale" CPU Schlacht mit Intel verlassen hat. Die Konsolen werden mit 8 Cores ausgestattet, es liegt die Wahrscheinlichkeit sehr nahe dass spätestens jetzt die Spielehersteller auf Multicore mehr Programmieren. -Dadurch werden die ursrpunglichen Benchmarks zwischen Intel und AMD NEU gemischt.
-Eine AMD Piledriver CPU kann schließlich nicht Ihre 100% Leistung zeigen wenn nur ca. 30-40% Kerne/Module in Spielen abverlangt werden, -dass die Leistung stimmt, zeigen zumindest die h264 Benchmarks zumindest.
http://www.behardware.com/articles/880-10/amd-fx-8350-review-is-amd-back.html

Bin ich jetzt ein AMD Fanboy, weil ich meine Meinung pro AMD geschrieben habe, aber diese auch begründet habe-im Gegensatz zu Dir? *lol*
 
Zuletzt bearbeitet:
Complicated schrieb:
Sag mal bist du blind? Dein Link enthält nichts von einer mobilen HD4600 die 20% schneller sein soll.

Der Link zeigt, dass Intels HD 5200 schneller ist als Trinity, das alleine reicht um deine Aussage zu widerlegen, selbst Richland ist mit DDR 2133 langsamer, weil CB hier mit DDR3 2400 misst.
Im mobilen Bereich sieht es für Intel viel besser aus, hier ist die HD 5200 50% vor AMD´s Richland und dort ist auch die HD 4600 so flott wie Richland, weil bei AMD die 35 Watt TDP der limitierende Faktor ist und auch sehr oft die deutlich langsamere CPU.

Deine Aussage war halt falsch, ich verstehe nicht wieso du da so rumeierst.

Complicated schrieb:
a natürlich begreifst du es nicht. Weil die Lösung der Bandbreiten-Problematik bei hUMA dariin besteht, dass einfach WENIGER Daten durch das Speicherinterface geschickt werden. Nicht dadurch dass die Bandbreite grösser wird - niemand hat behauptet dass die Bandbreite steigt. Dadurch dass CPU und GPU auf den selben RAM zugreifen muss man eben nichts mehr durch die Gegend kopieren.

Um hiervon zu profitieren muss erstmal der Spielecode umgeschrieben werden, solche ungelegte Eier sind doch einfach Käse, siehe den Kommentar von FRedD und selbst dann ist es mir nicht ersichtlich warum Spiele hier profitieren sollen, dazu müsste erst mal massiv die Software angepasst werden.

Also eine Lösung dieses Problems hat man definitiv nicht in der Hand, auch wenn du das ( ich weiß wirklich nicht warum) als gegeben ansiehst.

WENIGER Daten durch das Speicherinterface geschickt werden.

Das Speicherinterface ist doch dasselbe, die GPU weiß lediglich jetzt welche Daten die CPU berechnet und umgekehrt, ein gemeinsamer Adressraum mit Pointern, ohne hin und herkopieren.

Eventuell kann AMD durch die Playstation 4 profitieren, da dort auch Huma möglich ist, das ist aber nicht gesichert. Das hier als gegebene Lösung zu verkaufen ist sehr ins Blaue geraten.

Nicht dadurch dass die Bandbreite grösser wird - niemand hat behauptet dass die Bandbreite steigt.

Dann wird wahrscheinlich auch nicht die Spieleleistung profitieren, oder gibt es irgendwo einen fähigen Coder der hier mal Rede und Antwort stehen kann?

Amando schrieb:
Alleine hier sieht man wie effizient Richland geworden ist. -Nur weil man vorher bei der APU die Vcore per Hand noch mehr Reduzieren konnte, ist immer noch nicht ein Argument dass die vorherige Generation besser war, eher das Gegenteil.

Natürlich ist das ein Argument, Llano lief Anno 2011 bereits mit ~ 60 Watt stabil bei 3ghz, ein weiteres Stepping und die Verbesserungen des Prozesses hätten recht wahrscheinlich die gleichen Verbesserungen wie bei Richland gebracht, man hat sich immer näher an die möglichst geringste Spannung herangekämpft und den Takt erhöht.

Und Apropos Spieleleistung, für die eine APU ja konstruiert wird. Richland ist dort nicht effizienter als ein Llano von 2011, ganze 5% schneller ist man laut CB bei fast gleichem Strombedarf, das ist fast Messungenauigkeit, ein anderes Richland oder Llano Modell könnte den Ausschlag in die eine als auch in die andere Richtung geben, ergo vergleichbar.

Meiner Ansicht nach war die Entwicklung von Trinity und Richland komplett für die Katz, ich kapiere wirklich nicht warum man Llano nicht verbesserte, wahrscheinlich weil man Bulldozer irgendwie querfinanzieren musste und das Design sogut wie fertig war.

-Es ein Pluspunkt für AMD, da man näher am unteren Limit der Vcore Spannung ist und somit von Werk aus effizienter. -Und das ist das Hauptargument.

Ahja und nach 2 Jahren wäre das mit Llano natürlich nicht gegangen, was damals schon bei jedem mir bekannten Modell möglich war, ein sehr dünnes Hauptargument von dir, das ist ja grade der Widerspruch, warum man überhaupt Faildozer mit in den APU Bereich brachte, als die Zeit noch gar nicht reif war.

Also bei CB war das undervoltingergebnis bei 20 Watt beim ersten Llano bei 30 Watt Ersparnis, später bei HT4u haben wir mit dem A8 3870 38 Watt Ersparnis, ich konnte selbst 45 Watt einsparen mit 0,2 Volt weniger.

Richland bei CB hat nurnoch 7 Watt beim Topmodell eingespart, also wenn man mal die Ergebnisse undervoltet betrachtet, bessert sich in der Effizienz nichts, in der Spieleeffizienz verliert man sogar recht deutlich und das ohne weitere Steppings bei Llano.

Also da liegt doch eindeutig eine fragwürdige Weiterentwicklung vor. Hier hätte man Ressourcen sparen können und in Bulldozer stecken oder in Kaveri oder sonstwo, aber sicherlich nicht in Trinity.

Llano war die erste APU, die VCore war viel zu hoch meistens, da duch undervolting meist deutlich darunter möglich war/ist(AMD hat aber bestimmt nicht umsonst die Vcore so hoch geschraubt, aber die Streuung hat es wohl nicht zu gelassen)

Ja der Prozess war ganz frisch, vielleicht hat man für die 3850ger und die 3870ger nur die besten Chips bereit gehalten, kann sein. Trotzdem war Trinity mehr als unnötig, er war ja auch nicht schneller.

-Dazu muß man noch sagen dass sich bei AMD´s Herstellungverfahren noch nicht so viel getan hat, Llano 32nm, heute wird Richland in 28nm hergestellt. -Möchte gar nicht daran Denken wenn Globalfoundries jetzt wie Intel auch bei 22nm wären

Richland wird in 32nm hergestellt, nicht in 28nm, woher haste denn den Käse?
Wenn AMD bei 22nm wäre, wären sie trotzdem recht weit zurück, aufgrund des ineffizienten Designs, welches ja nicht effizienter ist als der Phenom oder der Llano.

-ATI ist ein Fehlkauf? -Warum? -AMD hat die 2 größten Spilekonsolenhersteller für sich Gewinnen können, und damit Intel und Nvidia gleichzeitig abgeschaltet, -zumindest in diesen Bereich. -Und nur als Denkanstoss für Dich: Hätte Intel in der Grafikperformance zu AMD aufgeschlossen, dann wären die bestimmt auch der Lieferant der neuen Konsolen,da Ihre CPU Leistung immer noch die beste z.Z. ist
-Warum sind Sie es doch nicht geworden? -Erkläre uns das mal bitte.

Weil AMD viel billiger anbietet und evtl. weil sie eine Lösung aus einer Hand anbieten?
Wenn AMD ATI nicht aufgekauft hätte, dann könnte AMD genausogut mit ATI zusamenarbeiten und evtl GPU Technik für APU´s lizenzieren, oder halt von Nvidia, die machen das ja jetzt sowieso.

Ich denke viele finanzielle Probleme haben dazu geführt, dass man jetzt in Puncto CPU´s nicht mehr kompetetiv ist.

Im Gegensatz zu Dir sehe ich AMD viel besser aufgestellt für die Zukunft als früher. Warum? -Da man sich schon viel früher gezwungen sah neue Wege zu gehen und die "normale" CPU Schlacht mit Intel verlassen hat.

Also bisher hat man noch gar nichts verlassen, aktuell hat man lediglich bis jetzt eine neue Schlacht angefangen und zwar die der IGP´s.

Wahrscheinlichkeit sehr nahe dass spätestens jetzt die Spielehersteller auf Multicore mehr Programmieren. -Dadurch werden die ursrpunglichen Benchmarks zwischen Intel und AMD NEU gemischt.

Das ist doch wurscht. Nur weil AMD bei Spielen da vielleicht ein paar Prozentpunkte aufholt.
Intel hat die weit bessere Multithreaded Performance und wil mit Haswell 16 Threader auf den Markt loslassen.

dass die Leistung stimmt, zeigen zumindest die h264 Benchmarks zumindest.

Das ist mit C Ray, zumindest der einzige Strohalm, ja. Vergleiche aber Spiele nicht mit H264.

Bin ich jetzt ein AMD Fanboy, weil ich meine Meinung pro AMD geschrieben habe, aber diese auch begründet habe-im Gegensatz zu Dir?

Wo habe ich denn bitte meine Meinung nicht begründet?? Was soll der Blödsinn immer?
Es ist ja schön, dass man von dir nicht dauernd keifend angefahren wird, aber die Aussage hätte ich jetzt gerne mal begründet.

Bin ich jetzt ein AMD Fanboy, weil ich meine Meinung pro AMD geschrieben habe, aber diese auch begründet habe-im Gegensatz zu Dir?

Erzähl mir doch mal warum es sich gelohnt haben soll an einen lahmen Piledriver ohne L3 eine IGP anzuflanschen, wenn Llano die gleiche Spieleleistung bietet, bei Spielen effizienter ist und weniger Saft benötigt, weil der Takt weniger aggressiv ist?
Nur wegen fast unbedeutender neuer Instruktionen? Man hätte mit dem 20 Watt Spielraum genausogut die IGP höher takten können und die CPU auf 3,3ghz mit neuem Stepping hochtakten und sich Trinity sparen können.
 
Zuletzt bearbeitet:
Um hiervon zu profitieren muss erstmal der Spielecode umgeschrieben werden, solche ungelegte Eier sind doch einfach Käse, siehe den Kommentar von FRedD und selbst dann ist es mir nicht ersichtlich warum Spiele hier profitieren sollen, dazu müsste erst mal massiv die Software angepasst werden.

Also eine Lösung dieses Problems hat man definitiv nicht in der Hand, auch wenn du das ( ich weiß wirklich nicht warum) als gegeben ansiehst.

vermutlich reicht auch schon ein angepasster Treiber, der das ganze kopieren unterbindet. Muss aber zugeben, dass ich mich mit der Materie nicht all zu sehr auskenne.

Ahja und nach 2 Jahren wäre das mit Llano natürlich nicht gegangen, was damals schon bei jedem mir bekannten Modell möglich war, ein sehr dünnes Hauptargument von dir, das ist ja grade der Widerspruch, warum man überhaupt Faildozer mit in den APU Bereich brachte, als die Zeit noch gar nicht reif war.

Also bei CB war das undervoltingergebnis bei 20 Watt beim ersten Llano bei 30 Watt Ersparnis, später bei HT4u haben wir mit dem A8 3870 38 Watt Ersparnis, ich konnte selbst 45 Watt einsparen mit 0,2 Volt weniger.

Richland bei CB hat nurnoch 7 Watt beim Topmodell eingespart, also wenn man mal die Ergebnisse undervoltet betrachtet, bessert sich in der Effizienz nichts, in der Spieleeffizienz verliert man sogar recht deutlich und das ohne weitere Steppings bei Llano.

Also da liegt doch eindeutig eine fragwürdige Weiterentwicklung vor. Hier hätte man Ressourcen sparen können und in Bulldozer stecken oder in Kaveri oder sonstwo, aber sicherlich nicht in Trinity.
Du solltest doch selber sehen, was für eine Streuung hier vorhanden ist. Ersparnis zwischen 20-45W und genau deswegen hat Llano wohl den hohen V-Core ;)




Weil AMD viel billiger anbietet und evtl. weil sie eine Lösung aus einer Hand anbieten?
Wenn AMD ATI nicht aufgekauft hätte, dann könnte AMD genausogut mit ATI zusamenarbeiten und evtl GPU Technik für APU´s lizenzieren, oder halt von Nvidia, die machen das ja jetzt sowieso.

Ich denke viele finanzielle Probleme haben dazu geführt, dass man jetzt in Puncto CPU´s nicht mehr kompetetiv ist.

Hätte man sich nicht "verkalkuliert" und seine Fabs verkaufen müssen, wäre AMD durch den Deal weitestgehend Unabhängig gewesen.
Kein zukauf von Chipsätzen, GPUs, ... ist leider anders gekommen.

Die Frage ist doch, wie teuer wäre diese Zusammen arbeit geworden? Zu den kosten der GPU Lizenzen hätte man noch die Chipsätze dazu kaufen müssen, etc. Ob sich das für einen Lowcost Chip wie Bobcat/Jaguar bzw. sogar Llano/Trinity/.. gelohnt hätte? (Ok zugegeben der Kauf von ATI war bestimmt nicht billiger)

Eine Weitere offene Frage ist auch, hätte sich ATI oder Nvidia auf HSA eingelassen? Hierfür reicht es ja nicht einfach nur ein GPU daneben zu "löten", sondern es sind mehr und vor allem große eingriffe nötig.

Erzähl mir doch mal warum es sich gelohnt haben soll an einen lahmen Piledriver ohne L3 eine IGP anzuflanschen, wenn Llano die gleiche Spieleleistung bietet, bei Spielen effizienter ist und weniger Saft benötigt, weil der Takt weniger aggressiv ist?
Nur wegen fast unbedeutender neuer Instruktionen? Man hätte mit dem 20 Watt Spielraum genausogut die IGP höher takten können und die CPU auf 3,3ghz mit neuem Stepping hochtakten und sich Trinity sparen können.

Erfahrungen sammeln, wie die Bulldozer-Architektur mit GPUs harmoniert, wo Flaschenhälse entstehen, ... Um nicht später mit Kaveri wie die Kuh auf Glatteis dazustehen?
 
@Schaffe
Ich will Dir nichts vorschreiben, aber es wäre von Vorteil, wenn Du versuchen würdest, Dich etwas kürzer zu fassen. Ich weiß, Du willst auf alles antworten und mehrere Leute hier gehen auf deine Beiträge ein, aber auf Dauer zerstören diese Monster-Posts mMn die Threads. Das gilt auch für die anderen. Möglicherweise hilft es wenn ihr bei so langen Posts den zitierten Text in einen Spoiler packt.

Zu AMDs Strategie:
1. Man hat ja wohl bei AMD selbst erkannt, dass Bulldozer nicht der Wurf geworden ist, den man sich erwartet hatte. Das liegt wohl einerseits am Prozess, andererseits an den finanziellen Schwierigkeiten, die größere Experimente und längerfristige Optimierungen nicht zulassen.
Ein großes Problem für AMD ist aber auch die träge Entwicklung im Windows-Bereich, wodurch viel von der Bulldozer-Leistung verschenkt wurde. Das wurde alles schon in anderen Threads diskutiert und muss hier wahrscheinlich nicht nochmal komplett durchgekaut werden.

2. Nach dem Seamicro-Kauf ist klar, dass sich AMD auf den Bereich Micro-Server konzentrieren wird. Da braucht man keine Monster-CPUs, sondern sparsame, aber dennoch leistungsfähige Chips. Und das lässt sich am Besten mit HSA verwirklichen, weil man so die massiv-parallelen Ressourcen des GPU-Parts optimal nutzen kann. Dass HSA ein gutes Konzept ist, zeigt sich schon in der hohen Zahl von Mitgliedern der Foundation. Intel kann daran kein Interesse haben, weil damit x86 weiter an Bedeutung verliert und das ist nun mal ihre Festung.
Für AMD macht es daher keinen Sinn, zu viele Ressourcen in Dickschiffe zu investieren. Es ist ein bisschen der Strategie Klassiker à la Salamis oder "England gegen die Armada".

3. Die langfristige Strategie beinhaltet auch die Konsolen, weil dadurch viele technische Optimierungen bei den Spieleschmieden auch in den PC-Bereich herüberwandern könnten/sollen. Dazu zählt Multicore Optimierung ebenso, wie HSA/OpenCL/DirectCompute etc. Alles von Vorteil, um die hohen Singlethread-Vorteile von Intel abzumildern.
Dadurch manövriert man sich zumindest ein wenig aus der Sackgasse, in der Intel alles dominiert und Innovation abseits von Intels Pfaden immens erschwert wird.
 
Sehen wir doch mal den Fakten ins Gesicht:
- Intels aktuellen Cores haben weit überlegene IPC, auch Steamroller wird da nicht annähernd ran kommen
- Intel ist bald zwei ganze Nodes im Prozess vor AMD, wenn sie mit 14nm kommen. Und Intel wird mit den 14nm kaum nach AMDs erster 28nm-APU von GF auf den Markt kommen
==> AMD hat im Highend/Performance-Segment so gut wie keine Chancen mehr. Es wäre meines Erachtens völliger Unfug, hier noch weiter mitspielen zu wollen. Es wäre wohl nur vernünftig, dass man die "normalen" CPUs und Plattformen einstellt.

Kaveri könnte eine ordentliche Mainstream-APU mit guter Grafik-Performance werden. Dessen Hauptsegment dürfte aber das Notebook-Segment - hier vor allem auch wieder Ultralow-Power. Wird das Ding effizient genug, wird es auch weiter leben. Kann es in keinem Punkt überzeugen, wird AMD auch dort weiter an Marktanteilen verlieren. Dann würde es meines Erachtens nur einen Ausstieg aus dem ganzen Segment geben. AMD dürfte dann zu einer Custom-SoC-Schmiede auf Basis von Mini-x86-Cores (Jaguar) und ARM64 werden. Zudem wird man wenigstens versuchen, wenigstens im Lowend/Ultralow-Power-Segment mit Jaguar zu bleiben zu können.
 
Das AMD zu einer reinen Custom-SoC-Schmiede wird, bezweifel ich stark. Zum einen, sind sie erstmal aufgrund schlechter Produkte in diese Position gedrengt worden, wer kauf dann bitte noch AMD?

Auf der anderen Seite, zeigen sie nicht, was sie Leisten können (mit verkaufsfähigen APU/CPUs) wird auch keiner wissen, was man bei AMD bekommen kann und diesen Weg womöglich erst gar nicht in Betracht ziehen.
 
(hUMA)
Um hiervon zu profitieren muss erstmal der Spielecode umgeschrieben werden, solche ungelegte Eier sind doch einfach Käse, siehe den Kommentar von FRedD und selbst dann ist es mir nicht ersichtlich warum Spiele hier profitieren sollen, dazu müsste erst mal massiv die Software angepasst werden.

Also eine Lösung dieses Problems hat man definitiv nicht in der Hand, auch wenn du das ( ich weiß wirklich nicht warum) als gegeben ansiehst.

Das Speicherinterface ist doch dasselbe, die GPU weiß lediglich jetzt welche Daten die CPU berechnet und umgekehrt, ein gemeinsamer Adressraum mit Pointern, ohne hin und herkopieren.

Eventuell kann AMD durch die Playstation 4 profitieren, da dort auch Huma möglich ist, das ist aber nicht gesichert. Das hier als gegebene Lösung zu verkaufen ist sehr ins Blaue geraten.
Bevor du noch anfängst (oder weitermachst), mir das Wort im digitalen Mund herumzudrehen: von Spielcode umschreiben für hUMA war in meinen Aussagen nicht die Rede. Das technisch Elegante an einem zusammengefassten Speicherbereich besteht doch darin, dass der Memory Controller (MC) bereits von Beginn an für Ordnung sorgt, d.h. für mehr "Ordnung" als es je ein GPU MC und ein CPU MC in getrennten Speicherbereichen tun würden. Daran, dass große, hochauflösende Texturen (und der Trend wird mit den wachsenden Möglichkeiten vermutlich weiter in Richtung größere Texturen gehen) weiterhin sehr bandbreiten-intensiv sind, kann hUMA wenig ändern. Jedoch dürfte die vorhandene Bandbreite effizienter genutzt werden - und zusätzlich geradliniger gestrickte Spielcodes erlauben. Technisch belegen oder widerlegen können wir derartige Aussagen erst, wenn AMD weitere Details herausrückt und das eine oder andere Testergebnis auf diese Fragestellung veröffentlicht wird, schätzungsweise der Zeitraum nach der APU'13 (Mitte November des Jahres).

EDIT:
Dass bei der PS4 und dem XBox-Chip ein MC zum Einsatz kommt, der den vollen Umfang von HSA insbesondere 'unified adress space' ermöglicht, ist sehr wahrscheinlich, und wird in den veröffentlichten Präsentationen zum zentralen Punkt. Es wird nicht konkret hUMA genannt, beschreibt aber genau dies;
 
Zuletzt bearbeitet:
wer kauf dann bitte noch AMD?

Leute mit Verantwortung und Weitblick. Ich kaufe nur von Firmen, die nicht gegen elementare Bedingungen des freien Wettbewerbes verstoßen. Und da gibt es derzeit wenige Alternativen zu AMD. Die jetzigen Alternativen sind einfach nicht leistungsfähig genug. Bei AMD bekomme ich nach wie vor Leistung satt für wenig Geld. Was interessiert mich da Intel? Ich werde nicht mal SSDs von Intel kaufen, obwohl die Samsung-SSDs teurer sind.
 
Sehen wir doch mal den Fakten ins Gesicht:
- Intels aktuellen Cores haben weit überlegene IPC, auch Steamroller wird da nicht annähernd ran kommen
- Intel ist bald zwei ganze Nodes im Prozess vor AMD, wenn sie mit 14nm kommen. Und Intel wird mit den 14nm kaum nach AMDs erster 28nm-APU von GF auf den Markt kommen
==> AMD hat im Highend/Performance-Segment so gut wie keine Chancen mehr. Es wäre meines Erachtens völliger Unfug, hier noch weiter mitspielen zu wollen. Es wäre wohl nur vernünftig, dass man die "normalen" CPUs und Plattformen einstellt.
Man könnte den Fertigungsvorsprung auch mit dem Bild zweier Radrennfahrer vergleichen: Der Radler von Team Blau hat zwei Längen Vorsprung vor dem Radler von Team Pfeilchen. Jetzt fahren beide Radler auf einen Berg mit anfänglich 30% Steigung und schließlich 44% Steigung zu (Aufwand für Double/Triple-Patterning, abnehmende Transistor-"Effizienz", Zunahme von widrigen Quanten-Effekten und der Schwierigkeiten bei der Wärmeabführung, abnehmender Grenznutzen von Fertigungs R&D in einem stark gesättigten Markt). Der blaue Radler ist jetzt mitten auf dem Teilstück mit 30% Steigung. Wie lässt sich wohl der zukünftige Abstand zwischen den beiden Radlern einschätzen?

EDIT:
Man müsste noch klarstellen, dass beide Radrennfahrer etwa mit gleicher Geschwindigkeit und gleicher Ausdauer unterwegs sind; Team Pfeilchen bzw. Global Foundries wird ebenso kräftig von Mubadala unterstützt wie sich Team Blau auf sein dickes Finanzpolster verlassen kann.
 
Zuletzt bearbeitet:
Um hiervon zu profitieren muss erstmal der Spielecode umgeschrieben werden, solche ungelegte Eier sind doch einfach Käse, siehe den Kommentar von FRedD und selbst dann ist es mir nicht ersichtlich warum Spiele hier profitieren sollen, dazu müsste erst mal massiv die Software angepasst werden.

Also eine Lösung dieses Problems hat man definitiv nicht in der Hand, auch wenn du das ( ich weiß wirklich nicht warum) als gegeben ansiehst.



Das Speicherinterface ist doch dasselbe, die GPU weiß lediglich jetzt welche Daten die CPU berechnet und umgekehrt, ein gemeinsamer Adressraum mit Pointern, ohne hin und herkopieren.

Eventuell kann AMD durch die Playstation 4 profitieren, da dort auch Huma möglich ist, das ist aber nicht gesichert. Das hier als gegebene Lösung zu verkaufen ist sehr ins Blaue geraten.
ROFL... Du hast wirklich nicht den Schimmer was hUMA ist.
Und wen interessiert Spielcode?
Und die PS4 profitiert von AMDs APUs mit hUMA und nicht ungekehrt.
 
Zurück
Oben Unten