Kaveri - der Trinity Nachfolger

Ein (für den Endkunden erwerblicher) Kaveri H1/2014 reiht sich schlicht ein in die Historie bisheriger Produktverschiebungen dieser an sich recht sympatischen Firma. Solange es sich nur um ein paar Monate handelt (und nicht um Jahre), ist das definitv keinen Akt in einem Drama wert. Bei der Komplexität derartiger Produkte und dem beschränkten Entwicklungs- und Produktionsbudget (u.a. Masken) durchaus verständlich. Nicht verständlich (für mich) sind da die kindlich-überraschten Augen von Artikelschreiberlingen und Foristen gleicherseits, als wäre dies die erste Produktverschiebung in ihrem digital auf Kurzfristigkeit konditioniertem Leben, und zugleich die letzte Produktverschiebung, da ein solches Ereignis ausschließlich escatologischen Ausmaßes sein kann.
 
Vielleicht machen sie es so wie bei der 7970. Launch im alten Jahr, lieferbar 2-3 Wochen später.
Solange es keine mehr als 2 maximal 3 Monatige Verschiebung gibt, sehe ich kein Problem.

Intel verschiebt auch Launches(letztens Haswell um ein paar Wochen) nach hinten, ist doch ne altbekannte Praktik.
 
Launches werden auch gerne mal verschoben, weil die (OEM-) Kunden ihre Lager noch voll haben von den Vorgängerprodukten, bzw. noch nicht gänzlich erfüllte Lieferverträge offen sind. Wenn man dann trotzdem launcht, vergräzt man seine Kunden, weil die Endkunden keine veraltete Ware mehr kaufen wollen.
Alternativ kann man seinen Kunden die veraltete Ware wieder abnehmen und teuer abschreiben.

M.E. ist die AMD Historie voll von Launchverschiebungen nach derartigen Modellen.
MfG
 
boxleitnerb: Du kannst die Meldung ja lächerlich machen, aber was, wenn es dann doch stimmt?

Dann verliert AMD mit einem Schlag alle reinen CPU Käufer, mich eingeschlossen. :-/
 
Würdest du ein reiner CPU-Käufer bleiben wollen, wenn Anwendungen auf breiter Basis durch eine GPU eine nennenswerte Beschleunigung erfahren würden?
Ich will damit nicht sagen, dass dies mittelfristig tatsächlich zu erwarten ist, aber wenn ich solche Aussagen lese, bekomme ich immer das Gefühl, dass die integrierte GPU als reine Bildausgabequelle und/oder 3D Beschleuniger gesehen wird. Heute ist das ja (leider) tatsächlich der Fall, aber das ist ja nicht der schlussendliche Sinn von Kaveri und Co.
 
Würdest du ein reiner CPU-Käufer bleiben wollen, wenn Anwendungen auf breiter Basis durch eine GPU eine nennenswerte Beschleunigung erfahren würden?
Ich will damit nicht sagen, dass dies mittelfristig tatsächlich zu erwarten ist, aber wenn ich solche Aussagen lese, bekomme ich immer das Gefühl, dass die integrierte GPU als reine Bildausgabequelle und/oder 3D Beschleuniger gesehen wird. Heute ist das ja (leider) tatsächlich der Fall, aber das ist ja nicht der schlussendliche Sinn von Kaveri und Co.
Das ist mir schon klar.
Allerdings nutze ich keine Anwendungen, die in absehbarer Zeit den GPU Part nutzen werden, bzw. sind mit z.B. openCL langsamer als ohne.
Oder sind zwar schneller, aber qualitativ indiskutabel.
Das mag sich mit hUMA ändern, allerdings fallen da ja dann auch sofort 2 Module weg im Kaveri, da fehlen dann gleich mal 50% Leistung.
Somit ist der GPU Part für mich verschwendeter Platz, so gut er auch immer ist.
Ich brauch Integer Leistung.

Bisher rechnet sich das einfach mit dem AMD, weil die Plattform gerade mal ein Drittel eines ca. 15% schnelleren Intels kostet. Zur Not stell ich mir da eben zwei davon hin, ist immer noch günstiger aber dann sogar signifikant schneller.
Wenn es keinen Nachfolger eines 4M/8T CPU oder besser gibt, dann besteht eben einfach keine Wahl mehr. Oder ist irgendwie ein 5Ghz Quadsockel Kaveri in Sicht?
 
Zuletzt bearbeitet:
@Atombossler:
Vor noch nicht langer Zeit hatten wir über die geleakte KAveri-Info mit 3 Modulen/6Threads diskutiert.
Sollten sie sowas mit nem externen L3-Cache-Modul kombinieren, wärs aus CPU-Sicht sicherlich annehmbar.
Natürlich nicht optimal, nur 6 Threads statt 8 und mit Grafik, aber die Grafik kann man abschalten und die IPC steigt ja auch.

Nicht perfekt, aber wie besagt fände ichs annehmbar - solange der Preis stimmt, würde es passen.
 
Dann verliert AMD mit einem Schlag alle reinen CPU Käufer, mich eingeschlossen. :-/
Wegen, sagen wir, 3 Monaten Produktverschiebung? Schließt du da nicht etwas voreilig von deinem eigenen Konsumverhalten auf "alle" anderen?
Allerdings nutze ich keine Anwendungen, die in absehbarer Zeit den GPU Part nutzen werden, bzw. sind mit z.B. openCL langsamer als ohne.
Oder sind zwar schneller, aber qualitativ indiskutabel.
Das mag sich mit hUMA ändern, allerdings fallen da ja dann auch sofort 2 Module weg im Kaveri, da fehlen dann gleich mal 50% Leistung.
Somit ist der GPU Part für mich verschwendeter Platz, so gut er auch immer ist.
Dir sind die Verhältnisse bewusst? Wie auf der letzten Seite bereits erwähnt, dass bereits 2 GCN CUs (128 Shader) bei etwa 800 MHz etwa so viel Rohrechenleistung in Gflops erbringen, wie 4 Piledriver-Module? In diesem Apfel-Birnen-Vergleich schlagen die 2 Äpfel (CUs) mit etwa 50mm² ins Gewicht, die 4 Birnen hingegen mit gut 120mm² (ohne L3).

Die langsamere Ausführung des OpenCL Codes mit GPU sollte sich durch einerseits hUMA und andererseits vernünftige OpenCL Kodierung beheben. Persönlich hoffe ich, dass wir bereits Mitte November erste gute Praxisbeispiele sehen werden, die auch den geschilderten Verhältnissen der jeweiligen Rohleistung entsprechen.

Die nächste Adobe Creative Suite CS7 soll übrigens verstärkt auf OpenCL umgeschrieben werden. Die Spiele der nächsten Konsolen sollten diesen Trend anstoßen, und Parallelisierung auf möglichst viele kleine Kerne im Gegensatz zu reiner Single-Thread-Leistung zum Maßstab machen. Zugegeben, das sind langfristige technologische Strategien und Entwicklungen - aber wenn die Strategie von AMD aufgeht, würdest du (als kurzfristig orientierter Käufer) in sagen wir 3 bis 4 Jahren, diese deine Aussage so vermutlich nicht mehr machen. Es wird mit den ersten voll-HSA-fähigen APUs regelrecht ein Paradigmenwechsel angestoßen, der gelingen kann, oder auch nicht.
 
Zuletzt bearbeitet:
Opteron: @Atombossler:
Vor noch nicht langer Zeit hatten wir über die geleakte KAveri-Info mit 3 Modulen/6Threads diskutiert.
Sollten sie sowas mit nem externen L3-Cache-Modul kombinieren, wärs aus CPU-Sicht sicherlich annehmbar.
Natürlich nicht optimal, nur 6 Threads statt 8 und mit Grafik, aber die Grafik kann man abschalten und die IPC steigt ja auch.

Nicht perfekt, aber wie besagt fände ichs annehmbar - solange der Preis stimmt, würde es passen.

Na ja, aber darauf rüstet man ja nicht "auf".
Selbst wenn es günstiger ist als die jetzige Plattform, müsste man ja Geld ausgeben um dann im optimal Fall genauso schnell zu sein.
Wozu? :]

FredD: Wegen, sagen wir, 3 Monaten Produktverschiebung? Schließt du da nicht etwas voreilig von deinem eigenen Konsumverhalten auf "alle" anderen?

Sorry, ist ein wenig OT hier, aber ging um die FX und deren ausstehende Nachfolger.
Kaveri interessiert nicht.

FredD: Dir sind die Verhältnisse bewusst?

Sicher, aber eine serielle Anwendung lässt sich nur bedingt parallelisieren.
Adobe nutze ich nicht, viel CAD/CAM/CAE und Simulationen, sowie Encoding.
Wenn AMD z.B. statt der Grafik einen H264/HEVC ASIC implantiert ist es gekauft. ;D
Wär doch mal was für die Custom SOC Sparte. *buck*

FredD: Die Spiele der nächsten Konsolen ...

Spiele, Konsolen ... ?? Sorry, dieser Anwendungsfall existiert in meinem Universum nicht.
 
Zuletzt bearbeitet:
Sicher, aber eine serielle Anwendung lässt sich nur bedingt parallelisieren.
Adobe nutze ich nicht, viel CAD/CAM/CAE und Simulationen, sowie Encoding.

Es lässt sich fast immer etwas parallelisieren. Die OpenCL-Lösungen scheitern zur Zeit meist am Overhead. Es bleibt am Ende zu wenig übrig. Lediglich wenn der Code die meiste Zeit "im eigenen Saft" rennt, also Daten einmal laden und dann abarbeiten, führt dies zu signifikanten Gewinnen, wie z.B. beim Rendering. Kommt hinzu, das OpenCL zur Zeit den Entwicklern einiges abverlangt, Tools und Frameworks noch nicht das bieten was sie anderswo gewohnt sind.

Die Spezifikation von OpenCL 2.0, die zur Zeit in Arbeit ist, wird am Speichermanagement einiges verbessern und Limitierungen aufheben. Durch bessere Tools die Entwicklung sehr viel vereinfacht. Der Entwickler wird nicht mehr explizit für eine GPU entwickeln müssen! Wo der Code später ausgeführt wird, entscheidet die Zielumgebung.
So kann es sein das auf der GPU bald viel mehr läuft als man heute vermutet.
 
Schön langsam frage ich mich wie die GPU in Zukunft noch ihre primäre Aufgabe, nämlich die Grafik darstellen, machen soll, wenn hier so locker alles auf die GPU ausgelagert wird.
Brauche ich dann bald zur GPU noch ne GPU damit dies funktioniert?
Ihr tut so als wären unendliche Resourcen auf der GPU vorhanden.
Dem ist nicht so.
 
Warum sollte es ein Problem sein eine dGPU in einen Rechner mit APU zu stecken? ;)
 
mariahellwig
Zitat:
So kann es sein das auf der GPU bald viel mehr läuft als man heute vermutet.

Das ist klar.
Mir ist auch der ganze Sinn und Zweck von APU, openCL und hUMA etc. eingängig.
Nur mit "was irgendwann einmal sein wird" und "es wird auf jeden Fall ganz toll" kann man nicht konkret wirtschaften.
Mit den Profis verdient man Geld, das sollte AMD wissen, die können nicht mal eben auf Tablets umsteigen. Aber eben jene werden schon fast klassisch von AMD stiefmütterlich behandelt (mit wenigen Ausnahmen). 11,6" WUXGA Notebook mit 8h Laufzeit ist da auch so eine Sache. Gibt es einfach mit AMD Hardware nicht. Nur diesen DAU Plunder.
So wird das einfach nichts.
Aber das ist jetzt schon doppelt OT. :-[
 
Na ja, aber darauf rüstet man ja nicht "auf".
Selbst wenn es günstiger ist als die jetzige Plattform, müsste man ja Geld ausgeben um dann im optimal Fall genauso schnell zu sein.
Wozu?
Hmm ok, von nem 8350 ist das schon ne gute Frage. Als Pluspunkte bleiben bei nem hypothetischen Kaveri 6core halt:
+ GPU (wird sicherlich auch bei Spielen wichtiger, siehe die Konsolendeals. Da hoffe ich darauf, dass die interne GPU für die OpenCL-Berechnungen hergenommen wird und sich die dezidierte GPU allein der Grafik widmen kann)

+ Mehr IPC -> mehr single-thread Leistung

+ geringerer Stromverbrauch

+ integriertes PCIe3

So das Riesensuperupgrade wärs sicherlich nicht, aber viel hängt da auch vom L3 ab. Wenn das wie bei Intel ein dickes Teil mit 64 MB oder gar mehr werden würde, wäre das sicherlich nicht sooo verkehrt ;-)
 
@tomturbo
Das Ressourcenpotenzial ist vorhanden, nicht unendlich, aber weitestgehend ungenutzt. Der extensiven Nutzung dieser Ressourcen, dieser Strategie hat sich AMD verschworen. Setzt man im Gegenzug dazu das mögliche Potenzial in der CPU-Performance pro Thread an, zeigen sich unter der aktuellen Fertigungs-Technologie bereits erste Grenzen auf (vergleichbar komplexe Schaltungen mit den z.B. auf Graphen möglichen 100 GHz erscheinen noch als ferne Zukunft). Den Grenzen in der Performance pro Thread auf der einen Seite stehen auf der anderen Seite gewaltige ungenutzte Potenziale in der Nutzung massiger paralleler GPU-Recheneinheiten gegenüber. Ich sehe da keinen Widerspruch.
 
+ Mehr IPC -> mehr single-thread Leistung

Ob der Folgepfeil tatsächlich zutrifft, bleibt abzuwarten. Wie wir ja wissen, ist IPC und ein Teil der Gleichung und bei Kabini ist man eher auch nicht davon ausgegangen, dass der Takt (bei gestiegener IPC) verringert wird, sodass bei manchen vergleichbaren Modellen, also z.B. die Dualcore Topmodelle, (wenn auch bei gesunkener Leistungsaufnahme) keine nennenswerte Mehrleistung hinten ankommt.
 
Ob der Folgepfeil tatsächlich zutrifft, bleibt abzuwarten. Wie wir ja wissen, ist IPC und ein Teil der Gleichung und bei Kabini ist man eher auch nicht davon ausgegangen, dass der Takt (bei gestiegener IPC) verringert wird, sodass bei manchen vergleichbaren Modellen, also z.B. die Dualcore Topmodelle, (wenn auch bei gesunkener Leistungsaufnahme) keine nennenswerte Mehrleistung hinten ankommt.
Ja im Mobilbereich wird gerne die Taktfrequenz begrenzt, aber hier gehts ja um ne Desktop-Spiele-Kiste, da seh ich die Gefahr nicht.
 
Schön langsam frage ich mich wie die GPU in Zukunft noch ihre primäre Aufgabe, nämlich die Grafik darstellen, machen soll, wenn hier so locker alles auf die GPU ausgelagert wird.
Brauche ich dann bald zur GPU noch ne GPU damit dies funktioniert?
Ihr tut so als wären unendliche Resourcen auf der GPU vorhanden.
Dem ist nicht so.
Ähnlich wie beim Power Management u. entsprechender Umverteilung zw. CPU u. GPU gibt es auch bei der Codeausführung die Aufgabe, die Last entspr. zu verteilen, dass auf keiner Seite zu viel Leerlauf entsteht. Hier kann auch noch nach Performance, Latenz (Reaktionszeit, da Parallelcode meist mit mehr Durchsatz und höheren Latenzen einhergeht) oder auch Energieverbrauch optimieren.
 
Ähnlich wie beim Power Management u. entsprechender Umverteilung zw. CPU u. GPU gibt es auch bei der Codeausführung die Aufgabe, die Last entspr. zu verteilen, dass auf keiner Seite zu viel Leerlauf entsteht. Hier kann auch noch nach Performance, Latenz (Reaktionszeit, da Parallelcode meist mit mehr Durchsatz und höheren Latenzen einhergeht) oder auch Energieverbrauch optimieren.
Naja alles schön und gut.

ABER ABER Theorie und Praxis ist ein gewaltiger Unterschied!

Also wenn man von der jetzigen Kompetenz des Schedulers bekannter MS$$$ Betriebsysteme ausgeht, können wir in Zukunft mit einer Ruckelorgie beim Fensterbewegen rechnen sobald nur irgenwas im HIntergrund läuft :P *buck*
 
Laufzeit ist da auch so eine Sache. Gibt es einfach mit AMD Hardware nicht. Nur diesen DAU Plunder.

Das bemängeln wir doch schon seit längerem. Die beste Idee ist wertlos wenn sie es nicht in Produkte schafft.
AMD glänzt schon seit längerem mit tollen Ansätzen, den Profit machen dann andere damit.
Für die Hersteller ist es nicht lohnend Produkte mit AMD zu entwickeln. Wir sehen es gerade bei der Jaguar-Architektur, man greift lieber zum schlechteren Atom.
 
Ein Seitenhieb als OT Post ist ganz OK, aber die OT-Diskussion weiterreiten nicht -

Diskutiert diesen vermeintlichen Kausalzusammenhang bitte im Jaguar-Thread weiter!
 
Ein weiteres Beispiel dafür, wie ein haltloses Gerücht (geheime Geheimdokumente) mit einem ähnlich haltlosen Gerücht (warum wird kein Name genannt? Z.B. "AMD PR spokesperson Alfred Muster") gekontert werden kann:
AMD's PR department responded and stated that "Kaveri is still on track for 2013 ..."

Aus AMD responds to Kaveri delays

Berechtigten Halt zur Spekulation, d.h. die bisherige Historie von Produktverschiebungen gibt es natürlich, um nicht zu sagen über die reine Möglichkeit einer Verschiebung hinaus berechtigte Gründe, dem eine höhere Wahrscheinlichkeit zuzuweisen - aber bitte auch als solche gekennzeichnet!
 
... aber das Ende des FX haben Sie nicht dementiert.
 
Zurück
Oben Unten