Kaveri - der Trinity Nachfolger

FredD

Gesperrt
★ Themenstarter ★
Mitglied seit
25.01.2011
Beiträge
2.472
Renomée
43
Ein (für den Endkunden erwerblicher) Kaveri H1/2014 reiht sich schlicht ein in die Historie bisheriger Produktverschiebungen dieser an sich recht sympatischen Firma. Solange es sich nur um ein paar Monate handelt (und nicht um Jahre), ist das definitv keinen Akt in einem Drama wert. Bei der Komplexität derartiger Produkte und dem beschränkten Entwicklungs- und Produktionsbudget (u.a. Masken) durchaus verständlich. Nicht verständlich (für mich) sind da die kindlich-überraschten Augen von Artikelschreiberlingen und Foristen gleicherseits, als wäre dies die erste Produktverschiebung in ihrem digital auf Kurzfristigkeit konditioniertem Leben, und zugleich die letzte Produktverschiebung, da ein solches Ereignis ausschließlich escatologischen Ausmaßes sein kann.
 

Effe

Redaktion
☆☆☆☆☆☆
Mitglied seit
17.02.2011
Beiträge
3.183
Renomée
163
Standort
Im Havelland
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2021
Vielleicht machen sie es so wie bei der 7970. Launch im alten Jahr, lieferbar 2-3 Wochen später.
Solange es keine mehr als 2 maximal 3 Monatige Verschiebung gibt, sehe ich kein Problem.

Intel verschiebt auch Launches(letztens Haswell um ein paar Wochen) nach hinten, ist doch ne altbekannte Praktik.
 

Woerns

Grand Admiral Special
Mitglied seit
05.02.2003
Beiträge
2.888
Renomée
161
Launches werden auch gerne mal verschoben, weil die (OEM-) Kunden ihre Lager noch voll haben von den Vorgängerprodukten, bzw. noch nicht gänzlich erfüllte Lieferverträge offen sind. Wenn man dann trotzdem launcht, vergräzt man seine Kunden, weil die Endkunden keine veraltete Ware mehr kaufen wollen.
Alternativ kann man seinen Kunden die veraltete Ware wieder abnehmen und teuer abschreiben.

M.E. ist die AMD Historie voll von Launchverschiebungen nach derartigen Modellen.
MfG
 

Atombossler

Admiral Special
Mitglied seit
28.04.2013
Beiträge
1.425
Renomée
65
Standort
Andere Sphären
boxleitnerb: Du kannst die Meldung ja lächerlich machen, aber was, wenn es dann doch stimmt?

Dann verliert AMD mit einem Schlag alle reinen CPU Käufer, mich eingeschlossen. :-/
 

LoRDxRaVeN

Grand Admiral Special
Mitglied seit
20.01.2009
Beiträge
4.169
Renomée
64
Standort
Oberösterreich - Studium in Wien
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2013
Würdest du ein reiner CPU-Käufer bleiben wollen, wenn Anwendungen auf breiter Basis durch eine GPU eine nennenswerte Beschleunigung erfahren würden?
Ich will damit nicht sagen, dass dies mittelfristig tatsächlich zu erwarten ist, aber wenn ich solche Aussagen lese, bekomme ich immer das Gefühl, dass die integrierte GPU als reine Bildausgabequelle und/oder 3D Beschleuniger gesehen wird. Heute ist das ja (leider) tatsächlich der Fall, aber das ist ja nicht der schlussendliche Sinn von Kaveri und Co.
 

Atombossler

Admiral Special
Mitglied seit
28.04.2013
Beiträge
1.425
Renomée
65
Standort
Andere Sphären
Würdest du ein reiner CPU-Käufer bleiben wollen, wenn Anwendungen auf breiter Basis durch eine GPU eine nennenswerte Beschleunigung erfahren würden?
Ich will damit nicht sagen, dass dies mittelfristig tatsächlich zu erwarten ist, aber wenn ich solche Aussagen lese, bekomme ich immer das Gefühl, dass die integrierte GPU als reine Bildausgabequelle und/oder 3D Beschleuniger gesehen wird. Heute ist das ja (leider) tatsächlich der Fall, aber das ist ja nicht der schlussendliche Sinn von Kaveri und Co.
Das ist mir schon klar.
Allerdings nutze ich keine Anwendungen, die in absehbarer Zeit den GPU Part nutzen werden, bzw. sind mit z.B. openCL langsamer als ohne.
Oder sind zwar schneller, aber qualitativ indiskutabel.
Das mag sich mit hUMA ändern, allerdings fallen da ja dann auch sofort 2 Module weg im Kaveri, da fehlen dann gleich mal 50% Leistung.
Somit ist der GPU Part für mich verschwendeter Platz, so gut er auch immer ist.
Ich brauch Integer Leistung.

Bisher rechnet sich das einfach mit dem AMD, weil die Plattform gerade mal ein Drittel eines ca. 15% schnelleren Intels kostet. Zur Not stell ich mir da eben zwei davon hin, ist immer noch günstiger aber dann sogar signifikant schneller.
Wenn es keinen Nachfolger eines 4M/8T CPU oder besser gibt, dann besteht eben einfach keine Wahl mehr. Oder ist irgendwie ein 5Ghz Quadsockel Kaveri in Sicht?
 
Zuletzt bearbeitet:

Opteron

Redaktion
☆☆☆☆☆☆
Mitglied seit
13.08.2002
Beiträge
23.644
Renomée
2.252
  • SIMAP Race
  • Spinhenge ESL
  • BOINC Pentathlon 2012
@Atombossler:
Vor noch nicht langer Zeit hatten wir über die geleakte KAveri-Info mit 3 Modulen/6Threads diskutiert.
Sollten sie sowas mit nem externen L3-Cache-Modul kombinieren, wärs aus CPU-Sicht sicherlich annehmbar.
Natürlich nicht optimal, nur 6 Threads statt 8 und mit Grafik, aber die Grafik kann man abschalten und die IPC steigt ja auch.

Nicht perfekt, aber wie besagt fände ichs annehmbar - solange der Preis stimmt, würde es passen.
 

FredD

Gesperrt
★ Themenstarter ★
Mitglied seit
25.01.2011
Beiträge
2.472
Renomée
43
Dann verliert AMD mit einem Schlag alle reinen CPU Käufer, mich eingeschlossen. :-/
Wegen, sagen wir, 3 Monaten Produktverschiebung? Schließt du da nicht etwas voreilig von deinem eigenen Konsumverhalten auf "alle" anderen?
Allerdings nutze ich keine Anwendungen, die in absehbarer Zeit den GPU Part nutzen werden, bzw. sind mit z.B. openCL langsamer als ohne.
Oder sind zwar schneller, aber qualitativ indiskutabel.
Das mag sich mit hUMA ändern, allerdings fallen da ja dann auch sofort 2 Module weg im Kaveri, da fehlen dann gleich mal 50% Leistung.
Somit ist der GPU Part für mich verschwendeter Platz, so gut er auch immer ist.
Dir sind die Verhältnisse bewusst? Wie auf der letzten Seite bereits erwähnt, dass bereits 2 GCN CUs (128 Shader) bei etwa 800 MHz etwa so viel Rohrechenleistung in Gflops erbringen, wie 4 Piledriver-Module? In diesem Apfel-Birnen-Vergleich schlagen die 2 Äpfel (CUs) mit etwa 50mm² ins Gewicht, die 4 Birnen hingegen mit gut 120mm² (ohne L3).

Die langsamere Ausführung des OpenCL Codes mit GPU sollte sich durch einerseits hUMA und andererseits vernünftige OpenCL Kodierung beheben. Persönlich hoffe ich, dass wir bereits Mitte November erste gute Praxisbeispiele sehen werden, die auch den geschilderten Verhältnissen der jeweiligen Rohleistung entsprechen.

Die nächste Adobe Creative Suite CS7 soll übrigens verstärkt auf OpenCL umgeschrieben werden. Die Spiele der nächsten Konsolen sollten diesen Trend anstoßen, und Parallelisierung auf möglichst viele kleine Kerne im Gegensatz zu reiner Single-Thread-Leistung zum Maßstab machen. Zugegeben, das sind langfristige technologische Strategien und Entwicklungen - aber wenn die Strategie von AMD aufgeht, würdest du (als kurzfristig orientierter Käufer) in sagen wir 3 bis 4 Jahren, diese deine Aussage so vermutlich nicht mehr machen. Es wird mit den ersten voll-HSA-fähigen APUs regelrecht ein Paradigmenwechsel angestoßen, der gelingen kann, oder auch nicht.
 
Zuletzt bearbeitet:

Atombossler

Admiral Special
Mitglied seit
28.04.2013
Beiträge
1.425
Renomée
65
Standort
Andere Sphären
Opteron: @Atombossler:
Vor noch nicht langer Zeit hatten wir über die geleakte KAveri-Info mit 3 Modulen/6Threads diskutiert.
Sollten sie sowas mit nem externen L3-Cache-Modul kombinieren, wärs aus CPU-Sicht sicherlich annehmbar.
Natürlich nicht optimal, nur 6 Threads statt 8 und mit Grafik, aber die Grafik kann man abschalten und die IPC steigt ja auch.

Nicht perfekt, aber wie besagt fände ichs annehmbar - solange der Preis stimmt, würde es passen.

Na ja, aber darauf rüstet man ja nicht "auf".
Selbst wenn es günstiger ist als die jetzige Plattform, müsste man ja Geld ausgeben um dann im optimal Fall genauso schnell zu sein.
Wozu? :]

FredD: Wegen, sagen wir, 3 Monaten Produktverschiebung? Schließt du da nicht etwas voreilig von deinem eigenen Konsumverhalten auf "alle" anderen?

Sorry, ist ein wenig OT hier, aber ging um die FX und deren ausstehende Nachfolger.
Kaveri interessiert nicht.

FredD: Dir sind die Verhältnisse bewusst?

Sicher, aber eine serielle Anwendung lässt sich nur bedingt parallelisieren.
Adobe nutze ich nicht, viel CAD/CAM/CAE und Simulationen, sowie Encoding.
Wenn AMD z.B. statt der Grafik einen H264/HEVC ASIC implantiert ist es gekauft. ;D
Wär doch mal was für die Custom SOC Sparte. *buck*

FredD: Die Spiele der nächsten Konsolen ...

Spiele, Konsolen ... ?? Sorry, dieser Anwendungsfall existiert in meinem Universum nicht.
 
Zuletzt bearbeitet:

mariahellwig

Grand Admiral Special
Mitglied seit
28.08.2008
Beiträge
2.084
Renomée
27
Standort
Bielefeld
Sicher, aber eine serielle Anwendung lässt sich nur bedingt parallelisieren.
Adobe nutze ich nicht, viel CAD/CAM/CAE und Simulationen, sowie Encoding.

Es lässt sich fast immer etwas parallelisieren. Die OpenCL-Lösungen scheitern zur Zeit meist am Overhead. Es bleibt am Ende zu wenig übrig. Lediglich wenn der Code die meiste Zeit "im eigenen Saft" rennt, also Daten einmal laden und dann abarbeiten, führt dies zu signifikanten Gewinnen, wie z.B. beim Rendering. Kommt hinzu, das OpenCL zur Zeit den Entwicklern einiges abverlangt, Tools und Frameworks noch nicht das bieten was sie anderswo gewohnt sind.

Die Spezifikation von OpenCL 2.0, die zur Zeit in Arbeit ist, wird am Speichermanagement einiges verbessern und Limitierungen aufheben. Durch bessere Tools die Entwicklung sehr viel vereinfacht. Der Entwickler wird nicht mehr explizit für eine GPU entwickeln müssen! Wo der Code später ausgeführt wird, entscheidet die Zielumgebung.
So kann es sein das auf der GPU bald viel mehr läuft als man heute vermutet.
 

tomturbo

Technische Administration, Dinosaurier
Mitglied seit
30.11.2005
Beiträge
9.361
Renomée
614
Standort
Österreich
  • SIMAP Race
  • QMC Race
  • Spinhenge ESL
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2019
  • SETI@Home Wow!-Event 2019
  • BOINC Pentathlon 2021
Schön langsam frage ich mich wie die GPU in Zukunft noch ihre primäre Aufgabe, nämlich die Grafik darstellen, machen soll, wenn hier so locker alles auf die GPU ausgelagert wird.
Brauche ich dann bald zur GPU noch ne GPU damit dies funktioniert?
Ihr tut so als wären unendliche Resourcen auf der GPU vorhanden.
Dem ist nicht so.
 

Complicated

Grand Admiral Special
Mitglied seit
08.10.2010
Beiträge
4.618
Renomée
344
Warum sollte es ein Problem sein eine dGPU in einen Rechner mit APU zu stecken? ;)
 

Atombossler

Admiral Special
Mitglied seit
28.04.2013
Beiträge
1.425
Renomée
65
Standort
Andere Sphären
mariahellwig
Zitat:
So kann es sein das auf der GPU bald viel mehr läuft als man heute vermutet.

Das ist klar.
Mir ist auch der ganze Sinn und Zweck von APU, openCL und hUMA etc. eingängig.
Nur mit "was irgendwann einmal sein wird" und "es wird auf jeden Fall ganz toll" kann man nicht konkret wirtschaften.
Mit den Profis verdient man Geld, das sollte AMD wissen, die können nicht mal eben auf Tablets umsteigen. Aber eben jene werden schon fast klassisch von AMD stiefmütterlich behandelt (mit wenigen Ausnahmen). 11,6" WUXGA Notebook mit 8h Laufzeit ist da auch so eine Sache. Gibt es einfach mit AMD Hardware nicht. Nur diesen DAU Plunder.
So wird das einfach nichts.
Aber das ist jetzt schon doppelt OT. :-[
 

Opteron

Redaktion
☆☆☆☆☆☆
Mitglied seit
13.08.2002
Beiträge
23.644
Renomée
2.252
  • SIMAP Race
  • Spinhenge ESL
  • BOINC Pentathlon 2012
Na ja, aber darauf rüstet man ja nicht "auf".
Selbst wenn es günstiger ist als die jetzige Plattform, müsste man ja Geld ausgeben um dann im optimal Fall genauso schnell zu sein.
Wozu?
Hmm ok, von nem 8350 ist das schon ne gute Frage. Als Pluspunkte bleiben bei nem hypothetischen Kaveri 6core halt:
+ GPU (wird sicherlich auch bei Spielen wichtiger, siehe die Konsolendeals. Da hoffe ich darauf, dass die interne GPU für die OpenCL-Berechnungen hergenommen wird und sich die dezidierte GPU allein der Grafik widmen kann)

+ Mehr IPC -> mehr single-thread Leistung

+ geringerer Stromverbrauch

+ integriertes PCIe3

So das Riesensuperupgrade wärs sicherlich nicht, aber viel hängt da auch vom L3 ab. Wenn das wie bei Intel ein dickes Teil mit 64 MB oder gar mehr werden würde, wäre das sicherlich nicht sooo verkehrt ;-)
 

FredD

Gesperrt
★ Themenstarter ★
Mitglied seit
25.01.2011
Beiträge
2.472
Renomée
43
@tomturbo
Das Ressourcenpotenzial ist vorhanden, nicht unendlich, aber weitestgehend ungenutzt. Der extensiven Nutzung dieser Ressourcen, dieser Strategie hat sich AMD verschworen. Setzt man im Gegenzug dazu das mögliche Potenzial in der CPU-Performance pro Thread an, zeigen sich unter der aktuellen Fertigungs-Technologie bereits erste Grenzen auf (vergleichbar komplexe Schaltungen mit den z.B. auf Graphen möglichen 100 GHz erscheinen noch als ferne Zukunft). Den Grenzen in der Performance pro Thread auf der einen Seite stehen auf der anderen Seite gewaltige ungenutzte Potenziale in der Nutzung massiger paralleler GPU-Recheneinheiten gegenüber. Ich sehe da keinen Widerspruch.
 

LoRDxRaVeN

Grand Admiral Special
Mitglied seit
20.01.2009
Beiträge
4.169
Renomée
64
Standort
Oberösterreich - Studium in Wien
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2013
+ Mehr IPC -> mehr single-thread Leistung

Ob der Folgepfeil tatsächlich zutrifft, bleibt abzuwarten. Wie wir ja wissen, ist IPC und ein Teil der Gleichung und bei Kabini ist man eher auch nicht davon ausgegangen, dass der Takt (bei gestiegener IPC) verringert wird, sodass bei manchen vergleichbaren Modellen, also z.B. die Dualcore Topmodelle, (wenn auch bei gesunkener Leistungsaufnahme) keine nennenswerte Mehrleistung hinten ankommt.
 

Opteron

Redaktion
☆☆☆☆☆☆
Mitglied seit
13.08.2002
Beiträge
23.644
Renomée
2.252
  • SIMAP Race
  • Spinhenge ESL
  • BOINC Pentathlon 2012
Ob der Folgepfeil tatsächlich zutrifft, bleibt abzuwarten. Wie wir ja wissen, ist IPC und ein Teil der Gleichung und bei Kabini ist man eher auch nicht davon ausgegangen, dass der Takt (bei gestiegener IPC) verringert wird, sodass bei manchen vergleichbaren Modellen, also z.B. die Dualcore Topmodelle, (wenn auch bei gesunkener Leistungsaufnahme) keine nennenswerte Mehrleistung hinten ankommt.
Ja im Mobilbereich wird gerne die Taktfrequenz begrenzt, aber hier gehts ja um ne Desktop-Spiele-Kiste, da seh ich die Gefahr nicht.
 

Dresdenboy

Redaktion
☆☆☆☆☆☆
Mitglied seit
28.10.2003
Beiträge
3.090
Renomée
203
Standort
Berlin
Schön langsam frage ich mich wie die GPU in Zukunft noch ihre primäre Aufgabe, nämlich die Grafik darstellen, machen soll, wenn hier so locker alles auf die GPU ausgelagert wird.
Brauche ich dann bald zur GPU noch ne GPU damit dies funktioniert?
Ihr tut so als wären unendliche Resourcen auf der GPU vorhanden.
Dem ist nicht so.
Ähnlich wie beim Power Management u. entsprechender Umverteilung zw. CPU u. GPU gibt es auch bei der Codeausführung die Aufgabe, die Last entspr. zu verteilen, dass auf keiner Seite zu viel Leerlauf entsteht. Hier kann auch noch nach Performance, Latenz (Reaktionszeit, da Parallelcode meist mit mehr Durchsatz und höheren Latenzen einhergeht) oder auch Energieverbrauch optimieren.
 

tomturbo

Technische Administration, Dinosaurier
Mitglied seit
30.11.2005
Beiträge
9.361
Renomée
614
Standort
Österreich
  • SIMAP Race
  • QMC Race
  • Spinhenge ESL
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2019
  • SETI@Home Wow!-Event 2019
  • BOINC Pentathlon 2021
Ähnlich wie beim Power Management u. entsprechender Umverteilung zw. CPU u. GPU gibt es auch bei der Codeausführung die Aufgabe, die Last entspr. zu verteilen, dass auf keiner Seite zu viel Leerlauf entsteht. Hier kann auch noch nach Performance, Latenz (Reaktionszeit, da Parallelcode meist mit mehr Durchsatz und höheren Latenzen einhergeht) oder auch Energieverbrauch optimieren.
Naja alles schön und gut.

ABER ABER Theorie und Praxis ist ein gewaltiger Unterschied!

Also wenn man von der jetzigen Kompetenz des Schedulers bekannter MS$$$ Betriebsysteme ausgeht, können wir in Zukunft mit einer Ruckelorgie beim Fensterbewegen rechnen sobald nur irgenwas im HIntergrund läuft :P *buck*
 

mariahellwig

Grand Admiral Special
Mitglied seit
28.08.2008
Beiträge
2.084
Renomée
27
Standort
Bielefeld
Laufzeit ist da auch so eine Sache. Gibt es einfach mit AMD Hardware nicht. Nur diesen DAU Plunder.

Das bemängeln wir doch schon seit längerem. Die beste Idee ist wertlos wenn sie es nicht in Produkte schafft.
AMD glänzt schon seit längerem mit tollen Ansätzen, den Profit machen dann andere damit.
Für die Hersteller ist es nicht lohnend Produkte mit AMD zu entwickeln. Wir sehen es gerade bei der Jaguar-Architektur, man greift lieber zum schlechteren Atom.
 

FredD

Gesperrt
★ Themenstarter ★
Mitglied seit
25.01.2011
Beiträge
2.472
Renomée
43
Ein Seitenhieb als OT Post ist ganz OK, aber die OT-Diskussion weiterreiten nicht -

Diskutiert diesen vermeintlichen Kausalzusammenhang bitte im Jaguar-Thread weiter!
 

FredD

Gesperrt
★ Themenstarter ★
Mitglied seit
25.01.2011
Beiträge
2.472
Renomée
43
Ein weiteres Beispiel dafür, wie ein haltloses Gerücht (geheime Geheimdokumente) mit einem ähnlich haltlosen Gerücht (warum wird kein Name genannt? Z.B. "AMD PR spokesperson Alfred Muster") gekontert werden kann:
AMD's PR department responded and stated that "Kaveri is still on track for 2013 ..."

Aus AMD responds to Kaveri delays

Berechtigten Halt zur Spekulation, d.h. die bisherige Historie von Produktverschiebungen gibt es natürlich, um nicht zu sagen über die reine Möglichkeit einer Verschiebung hinaus berechtigte Gründe, dem eine höhere Wahrscheinlichkeit zuzuweisen - aber bitte auch als solche gekennzeichnet!
 

Atombossler

Admiral Special
Mitglied seit
28.04.2013
Beiträge
1.425
Renomée
65
Standort
Andere Sphären
... aber das Ende des FX haben Sie nicht dementiert.
 

nazgul99

Grand Admiral Special
Mitglied seit
01.05.2005
Beiträge
3.592
Renomée
224
Standort
Irgendwo in der Nähe
Oben Unten