Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Ist Free-Sync in displayPort nicht längst durch? Ich erinnere mich, dass das schon vor Monaten Thema war.
Ich schau mal, ob ich einen Link finde...
MfG

---------- Beitrag hinzugefügt um 13:19 ---------- Vorheriger Beitrag um 13:14 ----------

z.B. hier
MfG
 
Die nVidia Jünger, weil nVidia aus trotz FreeSync nicht implementiert?
 
Das ist eine Frage der Zeit. FreeSync ist quasi umsonst, aber derzeit noch nicht verfügbar. Es müssen ja erst noch Monitore mit DisplayPort 1.3 auf den Markt kommen, die zudem FreeSync implementiert haben müssen. Bis das soweit ist, dauert es vielleicht noch ein bis zwei Jährchen, wie lange genau, wird der Markt entscheiden.
Aber in jedem Fall arbeitet die Zeit für FreeSync, was sich m.E. als Standard durchsetzen wird.
MfG
 
Würde mich nicht wundern, wenn demnächst schon ein paar Laptops mit FreeSync kommen. Durch die direkte Ansteuerung des Displays soll da doch jetzt schon was machbar sein.
 
Geht nicht:

Anhang anzeigen 30337

man beachte die Anzeige oben links und die CPU-Last.

Testsystem: A10-7850K unter Windows 8.1 64 Bit mit aktuellstem Firefox und Flash-Player. Es geht im übrigen auch laut AMD nicht.

Chrome liefert ein vergleichbares Ergebnis, den IE kann ich derzeit nicht zur Nutzung des Flash Players auf YouTube überreden. Mit HTML5 gibt es bei AMD derzeit sowieso keine Hardwarebeschleunigung.

FALSCH geht 1a, mit Win 7 + FireFox :p



Da ich Videos parallel Codiert habe ich die CPU Auslastung mal weg gelassen ;-)
 
Wenn ich einfach nur kurz umschalte, bekomme ich auch diese Anzeige, das Video wird aber noch eine ganze Weile in minderwertiger Qualität angezeigt. Bist Du sicher, dass da 4K angezeigt wurde? Der YouTube-Player ist da etwas zickig. Ohne CPU-Last ist Dein "Beweis" wertlos.

Auf dem Screenshot sieht es zumindest nach miserabler Bildqualität des Videos aus.
 
Ich hatte es eigendlich neu gestartet, in dem ich die Zeitleiste auf null zurückgesetzt hatte, aber beim erneuten Testen kam er dann auch bei mir nicht mehr in den HW-Beschleunigungs-Modus :-(
Bei mir kommt erschwerend hinzu das die 5Mbit Download nicht ausreichen, auch lädt er nicht das komplette File herunter sondern nur Bruchteile und Springen usw. wird unmöglich.

Deswegen habe ich es heruntergeladen und um den Browser aus der Gleichung herauszunehmen, da dieser schon immer Probleme gemacht hat insbesondere Flash!

Also ich komme mit VLC mit meinem X6 1090t auf folgende CPU-Lasten (min - avg(geschätzt) - max) (1920x800 vs 4096x1706)

1080p: 7% - 10% - 15%

4k: 20% - 25% - 32%


Quelle: youtube.com - Surf NYC (4K resolution)


Da eigendlich der Rechenaufwand bei Video-Decodierung (h.264) Linear steigt, sollte die CPU-Last unter 4k nicht nur etwa doppelt sondern viermal so hoch sein, selbst mit UVD 2.0 Beschleunigung kann ich mir diese Ergebnisse (noch) nicht erklären.

 
Gerade eben das hier gefunden:
http://wccftech.com/amds-high-performance-processor-cores-coming-2015-giving-modular-architecture/
(Original könnte entweder das hier sein: http://www.bitsandchips.it/9-hardwa...tettura-x86-post-bulldozer-pronta-nel-2016-17 oder die Chinesische Seite)

Also im Prinzip soll AMD an einer neuen Architektur arbeiten, die auf SMT setzten soll. Was als klassischer Multithreading-Ansatz bezeichnet wird (dachte das wäre CMP). Und das AMD eben zu diesem Ansatzt zurück kehren würde, was AMD ja noch nie für die Kerne genutzt hat.

Wenn das stimmen sollte, also eine "komplett" neue Architektur, die dann irgendwann 2016-17 auf den Markt kommen soll, sehe ich irgendwie schwarz. Das wären 2 Jahre ohne neue CPUs nach Excavator, was in meinen Augen ein zu großer Abstand ist.

Was haltet ihr davon? kann man das glauben, ist da was dran? oder ist das auch nur herumstochern im Dunkeln, in der Hoffnung, dass es vllt. doch zutrifft (Spekulation :D )?
 
Wie will man zum SMT zurückkehren wenn man es nie besessen bzw. genutzt hat?! Wenn dann ist es höchstens die Abkehr von CMT. Das SMT nicht wirklich was bringt sieh man auch bei Intel, der Mehrwert hält sich stark in Grenzen. Auch löst SMT nicht AMDs Problem der mangelhaft Singel-Thread Leistung im Vergleich zu Intel. Ich sehe immer noch nicht die schwächte im CMT Konzept. Zumal doch vor ~2 Jahren auch Gerüchte aufgetaucht waren das Intel an einer "besseren" CMT Variante arbeiten würden.
 
Naja, möglich ist Vieles. Ich halte ebenfalls den CMT Ansatz für lange noch nicht am Ende. Aber das Einzige was mir für die Firma AMD als essentiell erscheint ist, so wie es auch einige andere hier sehen, dass man eben auch weiterhin (bzw. mittelfristig wieder) im 200 bis 300 Euro Segement mitspielen muss, also dass die Konzentration rein auf das (untere) Mainstreamsegement nicht völlig ausreichend ist. Ich will damit sagen, dass ich hoffe, dass AMD weiterhin eine Architektur über den Cats haben wird - welche das nun dann sein wird, irgendwas SMT oder weiterhin CMT, ist eine viel schwierige Frage.

Wie will man zum SMT zurückkehren wenn man es nie besessen bzw. genutzt hat?!
Kommt drauf an, wie man's sieht :) Lt. einigen hier im Forum ist das SMT, wie die FPU in den Bulldozerprozessoren betrieben wird...

LG
 
Heute um 18(?) gibt es die "AMD Hosts Core Innovation Update News Conference"
http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-EventDetails&EventId=5139088

AMDs PR Manager James Prior dazu:
It's not hot chips or a tech day presentation so don't expect an architecture deep dive and performance numbers. Think of it as strategic direction and get a feel for how the new AMD management is acting to address the market problems.

http://semiaccurate.com/forums/showpost.php?p=212012&postcount=2

Bezüglich der neuen Architektur:
Da in der News schon eigenartig geschrieben wird, dass AMD zu SMT zurückkehrt traue ich dem ganzen sowieso nicht und warte die offizielle Konferenz ab.
Aus Endleistungssicht wäre es mir natürlich total egal für welches grobe Konzept sich AMD entscheidet, da es letztendlich nur auf eine gute Architektur ankommt.
Befürchten tue ich aber eher das was dem klassischem PC-Gamer weniger gefallen dürfte, Fokus auf hohe Perf/Watt, geringe TPD-Klassen, Dense-Server, keine Fat-Cores, kleine effiziente Dinger.
Also ARM ein großes Stichwort.
 
Zuletzt bearbeitet:
Auch löst SMT nicht AMDs Problem der mangelhaft Singel-Thread Leistung im Vergleich zu Intel.
Ja, aber SMT würde zumindest eine etwas fetteren µArch rentabel machen. Wenn man nen Sandy z.B. auf 3way aufbohrte, rentiert sich das nach alten K8-Aussagen nur in sehr wenigen Prozent der Fälle (ich glaub es waren 3%), aber wenn da noch ein 2. Thread liefe, sähe es ganz anders aus. Da könnte sich eventuell sogar 4way rentieren.
Genausogut könnte man SMT aber auch nur für den "Bodensatz" verwenden und bei aktuellen 2way-µArchs nur den Vorteil bei Speicherwartezeiten abschöpfen.

Heute um 18(?) gibt es die "AMD Hosts Core Innovation Update News Conference"
http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-EventDetails&EventId=5139088

Aus Endleistungssicht wäre es mir natürlich total egal für welches grobe Konzept sich AMD entscheidet, da es letztendlich nur auf eine gute Architektur ankommt.
Befürchten tue ich aber eher das was dem klassischem PC-Gamer weniger gefallen dürfte, Fokus auf hohe Perf/Watt, geringe TPD-Klassen, Dense-Server, keine Fat-Cores, kleine effiziente Dinger.
Jupp, aber immerhin könnte es heute auch Klartext zu BD geben. Entweder man präsentiert nun nen µArch-Nachfolger oder man lässts bleiben. Wenns nichts zu Bulldozer gibt, aber dafür nen "Ozelot"-Plan hätte man auch schon 99% Gewissheit.
 
Wenn ich mir die Roadmap der kommenden Jahre bezüglich verfügbarer Prozesse für AMD so ansehe, halte ich es jetzt für den richtigen Zeitpunkt, über solche Entscheidungen nach zu denken...und das wird womöglich bei AMD gerade (zu laut) gemacht?

Für 2014 und 15 sehe ich aktuell nur 28nm-Prozesse für AMD-APUs bwz. SoCs. Der 20nm-Prozess von TSMC dürfte hierfür ausfallen, weil zu wenig Vorteile und zudem das WSA mit GF dem nicht dient. Und ab 2016 läuft hoffentlich dann auch 14XM von Samsung bei GF.

Warum also nicht das alte K10.5-Core wieder beleben? In 28nm dürfte es relativ klein sein, sodass man es auch zu einem synthetisierbaren, alternativen Building-Block anstatt der Puma-Cores auf 28nm entwickeln könnte. Zwei K10.5-Cores waren leistungsfähiger als ein BD-Modul aber nur minimal größer. Wie aufwändig wäre eine Portierung der alten K10.5 auf 28nm? Einige Befehle wären zu ergänzen. Aber am Ende kommt womöglich was deutlich besseres als mit BD raus. Und sofern man die Dinger auch synthetiserbar hin bekommt, wäre man damit flexibler für die Zukunft.
 
Zuletzt bearbeitet:
Ich halte den Artikel für Schwachsinn. SMT bringt im Client Markt gar nichts. Warum also sollte AMD eine neue Architektur darauf aufbauen? Die interessantesten Intel Prozessoren sind die i5, welche ironischerweise auf HTT verzichten. Die neueren OoO Atoms nutzen auch kein HTT mehr. WCCFTech hat wohl noch nicht mitbekommen, dass selbst Bulldozer teilweise schon SMT nutzt.

Der Kern für 2015 heisst jedenfalls Excavator und wird weiterhin auf Bulldozer basieren. Was danach kommt, wird man sehen. Ich bin mir aber sicher, AMD wird entweder den clusterbasierten Ansatz weiterverfolgen oder zu klassischen singlethreaded Kernen wie in Family 10h oder 16h zurückkehren.


Warum also nicht das alte K10.5-Core wieder beleben?
Weil selbst Jaguar/Puma besser sind? Lasst doch endlich mal diese K10 Phantasien bleiben. K10 ist Geschichte und das ist auch gut so.

Zwei K10.5-Cores waren leistungsfähiger als ein BD-Modul
Nein, wären und sind sie nicht.
 
Zuletzt bearbeitet:
Ich halte den Artikel für Schwachsinn. SMT bringt im Client Markt gar nichts. Warum also sollte AMD eine neue Architektur darauf aufbauen? Die interessantesten Intel Prozessoren sind die i5, welche ironischerweise auf HTT verzichten. Die neueren OoO Atoms nutzen auch kein HTT mehr. WCCFTech hat wohl noch nicht mitbekommen, dass selbst Bulldozer teilweise schon SMT nutzt.
Natürlich bringts im Clientmarkt nicht viel, aber AMD hat auch noch die Denseserver. Da wäre SMT wie bei den Xeon und i7 nett, im Desktop kann mans dann wie bei den i5 abschalten.

Weil selbst Jaguar/Puma besser sind? Lasst doch endlich mal diese K10 Phantasien bleiben. K10 ist Geschichte und das ist auch gut so.
Jupp, K10 ist nunmal wirklich veraltet, keine physikalischen Register, kein AVX oder AES, schlecht portierbar und und und. Wenn, dann bohrt man Jaguar auf.
 
Natürlich bringts im Clientmarkt nicht viel, aber AMD hat auch noch die Denseserver.
Gerade bei Servern erscheinen mir vollständige Kerne pro Thread plausibler. Sie müssen nur schlank und energieeffizient genug sein. Dann lassen sich davon auch genügend implementieren. Da braucht's keine fetten Kerne, sondern gute Threadskalierung. Also das genaue Gegenteil von SMT. Mittlerweile erscheint es mir auch fast egal, ob ARM oder x86 für solche schlanken Kerne genutzt wird. Beide Architekturen haben gezeigt, dass man in diesem Bereich nicht so weit voneinander entfernt ist. Ausserdem hoffe ich darauf, dass AMD aus der Vergangenheit gelernt hat und die Entwicklung auf den Client Markt ausrichtet. Server Derivate kann man davon immer noch machen. Umgekehrt ist das halt weniger gut umsetzbar, wie man an Orochi gesehen hat.
 
Es bleibt die Frage, warum AMD bisher:

- kein 16 Kern Steamroller oder Excavator Opteron
- kein 16 Kern Jaguar Opteron
- oder ein Hybriden (Steamroller & Jaguar ala bigLittle)

gebracht hat .... ES gibts alle 3 Varianten ...
 
Ich halte den Artikel für Schwachsinn. SMT bringt im Client Markt gar nichts. Warum also sollte AMD eine neue Architektur darauf aufbauen? Die interessantesten Intel Prozessoren sind die i5, welche ironischerweise auf HTT verzichten. Die neueren OoO Atoms nutzen auch kein HTT mehr. WCCFTech hat wohl noch nicht mitbekommen, dass selbst Bulldozer teilweise schon SMT nutzt.....
Erstaunlich finde ich, dass sich HT bei den I3 ziemlich gut macht, verglichen mit den Pentiums (HT-losen I3).
Besonders bei Games: z.B. F1 2012 Pentium G2130 (2x3.2Ghz) vs. i3-3220 (4x3.3Ghz) => + 81% bei +3% Takt
 
Gerade bei Servern erscheinen mir vollständige Kerne pro Thread plausibler. Sie müssen nur schlank und energieeffizient genug sein. Dann lassen sich davon auch genügend implementieren. Da braucht's keine fetten Kerne, sondern gute Threadskalierung. Also das genaue Gegenteil von SMT.
Bei "normalen" dicken Servern, wo die Latenz im Vordergrund steht, würde ich Dir recht geben, aber bei Denseserver sehe ich eher den Durchsatz als Hauptaugenmerk, da würde sich dann SMT schon anbieten. Allein schon die Effizienzsteigerung durch die Speicherlatenzen kann man damit ja mitnehmen. Das Kosten-/Nutzen-Verhältnis von SMT sollte schon gut sein. Bringt nicht immer was, aber manchmal, kostet aber nicht viel -> deshalb macht mans.

Ausserdem hoffe ich darauf, dass AMD aus der Vergangenheit gelernt hat und die Entwicklung auf den Client Markt ausrichtet. Server Derivate kann man davon immer noch machen. Umgekehrt ist das halt weniger gut umsetzbar, wie man an Orochi gesehen hat.
Jupp so siehts aus.

Es bleibt die Frage, warum AMD bisher:

- kein 16 Kern Steamroller oder Excavator Opteron
- kein 16 Kern Jaguar Opteron
- oder ein Hybriden (Steamroller & Jaguar ala bigLittle)

gebracht hat .... ES gibts alle 3 Varianten ...
Tja, einfache Antwort: Weil sie gestrichen wurden? Das oder sie kommen in ein paar Stunden ^^

Erstaunlich finde ich, dass sich HT bei den I3 ziemlich gut macht, verglichen mit den Pentiums (HT-losen I3).
Besonders bei Games: z.B. F1 2012 Pentium G2130 (2x3.2Ghz) vs. i3-3220 (4x3.3Ghz) => + 81% bei +3% Takt
Das ist doch nichts Neues. Viele Spiele sind heute schon auf QuadCore bzw. 4 Threads optimiert, deshalb bringt SMT bei nem Dualcore ziemlich viel, da die CPU dann auch 4 Threads anbieten kann.
 
Das ist doch nichts Neues. Viele Spiele sind heute schon auf QuadCore bzw. 4 Threads optimiert, deshalb bringt SMT bei nem Dualcore ziemlich viel, da die CPU dann auch 4 Threads anbieten kann.
Ergo bring hier SMT etwas. So ein DualCore I3 ist schön schlank und Dank HT nicht lahm in MT-Anwendungen.
 
Ergo bring hier SMT etwas. So ein DualCore I3 ist schön schlank und Dank HT nicht lahm in MT-Anwendungen.
Ja kann man schon so sagen, aber welcher Spielefreak kauft heutzutage noch Dualcores? ;-)
Seit 4 echte Kerne billig genug sind, braucht man in dem Segment kein SMT (mehr), auch ist ein Jaguarkern noch schlanker ;-)


SMT bei mehr als 4 Kernen wird jetzt höchstens wieder mit Mantle und stark multithreaded Engines interessant. Aber da der Grenzertrag sinkt, wird man natürlich keine so hohe Steigerung mehr sehen.
Aber wenns nicht viel kostet .. wieso nicht mitnehmen wollen.

Frag mich nur, auf welchem Stand ein AMD SMT sein wird, Intel hat das in letzter Zeit ziemlich verfeinert, wenn ich mich recht erinnere. Waren da nicht mal 1-2 Sun Ingenieure, die zu AMD wechselten? Glaube damals hatten wir das SMT@AMD auch schon mal diskutiert.
 
Erstaunlich finde ich, dass sich HT bei den I3 ziemlich gut macht, verglichen mit den Pentiums (HT-losen I3).
Besonders bei Games: z.B. F1 2012 Pentium G2130 (2x3.2Ghz) vs. i3-3220 (4x3.3Ghz) => + 81% bei +3% Takt

Das sind extreme Ausnahmen in denen Anwendungen mit vier Threads eine zwei Kern CPU ständig zwischen den Threads switchen lässt und dank HTT wird wohl das unnötige rum schieben von Code im Cache verhindert.

HT kann niemals so viel aus der CPUs heraus holen, wenn das Programm mit zwei Kernen ordentlich umgehen würde ;-)
 
Hi, I'm the writer of the italian news. ;)

About the "returning to SMT", I didn't write that. I wrote that AMD will return to a more classical design, like the SMT (A good example is the Power7+ of IBM: one core can handle 4 threads).

Bye!
 
Wenn die Software ordentlich mit der Hardware umgehen würde.... ;-) dann wäre auch ein Turbo-Modus überflüssig und AMD müsste bei GPGPU 90% Marktanteil haben,die Realität ist eine andere. Irgendwelche Hilfskonstruktionen wird man immer benötigen und I3 und HTT ist eine funktionierende. Eher der relativ geringe preisliche Abstand spielt eine Rolle und das die GPU Leistung schneller zunimmt ist das Argument für den I5 als Zocker.
Abgesehen von den ganzen Argumenten gegen K10.5 fehlt auch noch der Chipsatz als Baustelle da spricht wirklich zu viel dagegen.

Mir würde ja ein 16 Kern Kätzchen gut gefallen für den Desktop erwarte ich erst mit DDR4 mehr als Produktpflege und das pushen von HSA und Mantle (Das sind eh Pflichtaufgaben).
 
Zurück
Oben Unten