Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte

Das bestimmte Elemente der Vorgänger übernommen und optimiert werden bei neuen Architekturen ist doch völlig logisch. Wie viel Bulldozer am Ende übrig bleibt ist eine Geschichte, dem Ding vom Marketing her einen völlig neuen Namen geben eine andere.
ich zumindest nehme die BD-Architektur von Namen als verbrannt wahr also muss das Kind egal wie neu benannt werden.

Exakt so sehe ich das auch. Wirklich von Bulldozer kann man natürlich keinesfalls mehr reden (insbesondere dann, wenn es kein CMT Design wird), wieviel aber dann doch mehr oder weniger eindeutig seine Wurzeln bei Bulldozer hat, kann man erst im Nachhinein genauer durchleuchten.

LG
 
Vergleiche mit Pentiums oder Celerons? Wer weiss was da Intel alles beschnitten hat bzw wie die Software solche Prozessoren behandelt. Ich würde dann schon eher i3/i7 Vergleichen mit HTT on/off vertrauen.
Damit wir bei der Diskussion mit Fakten bleiben: http://ark.intel.com/compare/77777,77480
Beim Pentium wurde (abgesehen vom Takt) folgendes beschnitten:
- kein HT
- kein AVX(2)
- kein AES
- Features der iGPU

Die Software sollte diese CPU ganz normal behandeln, muss halt auf AVX(2) verzichten.
 
Sollte heisst nicht, dass wir es zweifelsfrei wissen, richtig?
Ich behaupte, dass Software die das nicht macht entweder von inkompetenten Entwicklern oder mit dem Ziel gewisse CPUs zu benachteiligen entwickelt wurde. Das ist natürlich eine böse Unterstellung, aber es gibt keinen vernünftigen Grund Pentium/Celeron CPUs gezielt zu benachteiligen. Das gilt natürlich auch für CPUs die nicht den Vendor ID String "GenuineIntel" haben ;)
 
Das ist natürlich eine böse Unterstellung, aber es gibt keinen vernünftigen Grund Pentium/Celeron CPUs gezielt zu benachteiligen.
Das hat auch keiner behauptet. Aber unterschiedliche Codepfade bei fehlenden Befehlssatzerweiterungen sind nix ungewöhnliches. Selbst MT Techniken wie SMT können dazu führen, dass unterschiedlicher Code ausgeführt wird.
 
apu140ejup.jpg


Ausgewählte Folien:






Alle Folien:
http://news.mydrivers.com/1/304/304724.htm

Soweit ich abseits meiner fehlenden Chinesisch-Kenntnisse etwas herauslesen kann, geht es um die grobe AMD-Strategie, insbesondere HSA im Einsatz zur Verarbeitung von JAVA, H.265, uvm. sowohl mit X86 als auch mit ARM. Viele Bunte Bildchen, etwas dünner Inhalt. Das eigentlich Interessante, wie ich schätze, ist die möglicherweise schon höhere Bedeutung des asiatischen Wirtschaftsraums gegenüber dem amero-europäischen für AMD.
 
Ich denke dass AMD mit GPUs in den nächsten Monaten mehr verdient als mit APUs. Allein der Trend zu den 4K-Monitoren wir da einiges bewirken, wo ein Crossfire-Gespann fast Pflicht ist.
 
Trend zu 4k? Wir sind ja nicht mal bei durchgehend FHD angekommen bei NB. Die 2-3% die 4k kaufen werden noch ein paar Jahre nicht auschlaggebend sein, für GPU verkäufe, mal abgesehen davon davon haben die MB Retina auch kein CF drinn... Die Gpu werden wohl dennoch mehr zum Umsatz beitragen als die APU, wenn dann endlich die FirePro sich besser verkaufen. Vor nächstem Jahr sehe ich da kaum ein Grund das sich da gross was Tun wird wegen UHD/4k.
 
mariahellwig schrieb:
Ich denke dass AMD mit GPUs in den nächsten Monaten mehr verdient als mit APUs. Allein der Trend zu den 4K-Monitoren wir da einiges bewirken, wo ein Crossfire-Gespann fast Pflicht ist.

Derzeit ist kein Trend zu spüren, dafür sind die Preise noch viel zu hoch und die Monitore zu schlecht.
Und wer tut sich Crossfire oder überhaupt Multi GPU freiwillig an? Fehlende Profile bei jedem zweiten Spiel, die Nische einer Nische einer Nische.
 
4K Monitore sind aktuell bei 600 Euro angekommen und haben damit die erste große Hürde für den Massenmarkt genommen. Ich empfehle dir mal einen 4K in der Realität zu betrachten. Danach will man nie wieder etwas anderes haben! Gewiss haben die Dinger noch ihre Kinderkrankheiten, aber die werden schnell behoben sein. Spätetens bis zum Herbst, wenn das Weihnachtsgeschäft vor der Tür steht.
 
Ich empfehle dir mal einen 4K in der Realität zu betrachten. Danach will man nie wieder etwas anderes haben!

Wie wäre das möglich, wo doch diejenigen die sich mal HD in der Realität betrachtet haben nie wieder was anderes haben wollen? Ich empfehle mal einen Blick auf eine DVD guter Qualität die über einen Mittelklasse-Player via Scart an einen guten LCD liefert. Danach lacht jeder nur noch gepflegt wenn ihm jemand erzählt das er unbedingt 4k haben will.
 
Wie wäre das möglich, wo doch diejenigen die sich mal HD in der Realität betrachtet haben nie wieder was anderes haben wollen? Ich empfehle mal einen Blick auf eine DVD guter Qualität die über einen Mittelklasse-Player via Scart an einen guten LCD liefert. Danach lacht jeder nur noch gepflegt wenn ihm jemand erzählt das er unbedingt 4k haben will.

Das Problem ist eher des die Leute die keinen Unterschied zwischen DVD und FullHD sehen zu weit weg vom TV sitzen bzw. zu kleine Bilddiagonalen haben! Also z. B. 4-5m bei 40 Zoll.
Ich habe auch vor kurzem eine DVD geschaut und war erstaunt wie scharf das Bild war (aber Detailarm, geringe Tiefenschärfe), als ich dann mal näher an den TV heran gegangen bin bzw. den Sitzabstand auf die für die TV größte bei FullHD empfohlen Abstand reduziert habe war mit klar das der BluRay Player das Bild total überschärft hatte.
Der-c-t-magazin-Workshop-Sitz-Abstand

Ich kann die Leute nicht mehr hören die DVD mit FullHD gleichsetzen wollen. Wer auf Trick 17 mit selbst Überlistung steht, bitte gerne aber behaltet es für euch.


P.S.:
Das (extreme) Scharfzeichen kann man auch bei einer BluRay und das sieht die auch mehr nach 4k aus und dann liegen wieder Welten zwischen DVD und FullHD.
 
Liegt aber auch an der Qualität des Fernsehers. Auf meinem alten 38" Samsung war der Unterschied auch nur gering. Seit 2 Monaten habe ich einen 55" Philips und jetzt sieht man erst welch ein Fortschritt HD ist, der selbst meiner Frau auffällt("Hase, warum ist das Bild heute so schlecht? ... ").
4K ist da aber nochmal eine gewaltige Steigerung, die auf einem Computermonitor auf Grund der geringen Entfernung viel eindrucksvoller ist.
 
Das Problem ist eher des die Leute die keinen Unterschied zwischen DVD und FullHD sehen zu weit weg vom TV sitzen bzw. zu kleine Bilddiagonalen haben!

Inwiefern soll das ein Problem sein? Außer natürlich für halbstarke Möchtegerns die ihr Selbstwertgefühl daraus beziehen das neueste, coolste und hippste Spielzeug zwei Tage vor ihren Kumpels zu besitzen...

Ich kann die Leute nicht mehr hören die DVD mit FullHD gleichsetzen wollen.

Jeder nach seiner Fasson.

Wer auf Trick 17 mit selbst Überlistung steht, bitte gerne aber behaltet es für euch.

Wer glaubt sein erbärmliches Leben dadurch aufpolieren zu können das er in seine Traummaschine hinein kriecht - bitte sehr. Aber behaltet es für euch.

Bevor das nun wieder einer falsch versteht..(schon der dritte in diesem Quartal): :-)
 
Inwiefern soll das ein Problem sein? Außer natürlich für halbstarke Möchtegerns die ihr Selbstwertgefühl daraus beziehen das neueste, coolste und hippste Spielzeug zwei Tage vor ihren Kumpels zu besitzen...

Was hat das mit möchte Gern zu tun?! Nur weil du scheinbar kein Gerät besitzt um von BluRay Profitieren zu können, muss du anderen BluRay nicht schlecht reden und DVD über den Klee loben.

Wenn du (jetzt) zu geizig bis ein (paar) Euro für BluRay mehr zu bezahlen wirst du dich noch grün und blau ärgern, sobald du einen neuen und größeren TV dir kaufst.
Oder ärgerst du dich weil du deine ganz DVDs jetzt als BluRay noch mal kaufen darfst?

Wer glaubt sein erbärmliches Leben dadurch aufpolieren zu können das er in seine Traummaschine hinein kriecht - bitte sehr. Aber behaltet es für euch.

Bevor das nun wieder einer falsch versteht..(schon der dritte in diesem Quartal): :-)

Ich besitzt weder einen FullHD-TV noch BluRay-Player, aber ich kenne die gigantischen Unterscheide zwischen den beiden und brauch mir deswegen nicht einzureden das X oder Y besser ist :p

Selbst zwischen 576p und 720p liegen Welten, wer dann anderen ein erbärmliches Leben unterstellt... (das Spricht eigendlich schon für sich).


Es gibt nicht umsonst die Empfehlung das man für FullHD mindestens 40" benötigt! Und für 3D sollte es >50" sein, diese Angeben sind nicht aus Jux und Tollerei. Da man auf einem 38er mit DVD Quali aus kommt ist unbestritten, sonst hätte man auch VHS auf einem 80cm Bildschirm vergessen können.
Früher war VHS genauso gut wie DVDs (Ja, die Leute gab es!), heute sind DVDs genauso gut wie BluRay und bald sind BluRay genauso gut die 4k... merkt ihr denn nichts?

Übrigens der (Mindest-)Abstand bei 40" und FullHD ist 1,2 Meter, wer bitteschön sitzt so nahe vor einem TV!

Wenn Ihr euch über 4,5"-5" und 2560x14xx in Smartphones aufregen würde könnte ich das ja verstehe aber so?!
 
Was hat das mit möchte Gern zu tun?! Nur weil du scheinbar kein Gerät besitzt um von BluRay Profitieren zu können, muss du anderen BluRay nicht schlecht reden und DVD über den Klee loben.

Du hast scheinbar nicht verstanden was ich rüber bringen wollte. In meinen Augen ist es kein "Problem" wenn jemand weiter als 7 cm vor seiner Glotze sitzt oder eine Glotze mit weniger als 2Meter50 Diagonale hat. Und in meinen Augen braucht man nicht xx cm Diagonale für Auflösung xy sondern Auflösung xy um bei xx cm Diagonale ein vermutlich brauchbares (weil das ja nun mal subjektiv ist) Bild zu erhalten.

Jetzt klar?
 
Muss man bei UHD nicht dann auch noch eine Doppelt so große Glotze kaufen bzw. doppelt so nah heran rutschen, damit man überhaut einen Unterschied merkt? Weil es gibt ja irgendwo einen Punkt, an dem das Auge die Pixel eben nicht mehr auseinander halten kann. Wobei man in beiden Fällen dann laut dem CT-Link dann vom Bild erschlagen werden müsste, da man ja zu nah dran sitzt. Aber auch dafür wird es wohl irgendwann eine Formel geben, wo der optimale Abstand ist.

Aber jetzt mal zurück zum Thema, denn AMD baut meines wissen noch keine Fernseher, Bluray-Player, ... ;)
 
Ja. Das Interesse an 4k Monitoren ist auf jeden Fall da. Bei Geizhals sind 3 gefragtesten Monitore 4K Modelle. siehe http://geizhals.at/de/?o=10
Nutzt man einen solchen Monitor, ist die GPU die Stelle, an der an meisten investiert werden muss. Die Bedeutung der CPU sinkt dagegen dank Mantle und DX12 eher.
 
Zuletzt bearbeitet:
Ja. Das Interesse an 4k Monitoren ist auf jeden Fall da. Bei Geizhals sind 3 gefragtesten Monitore 4K Modelle.

Nicht wirklich, zumal gh nicht repräsentativ ist und das interesse bei kompakten systemen wie dem nuc steigt und bei allen grösseren CPU sinkt, daneben hätte nach deiner Analyse nach Nv kaum eine Chance und trotzdem steigern sie ihren Marktanteil.
Das Interesse mag da sein, nur ist der Kundenkreis der die kauft klein.
 
Gerade der NUC bekommt bei 4k nur 30HZ hin wenn ich das richtig in Erinnerung habe. Toll Aussehen tut es keine Frage aber meine Erfahrungen lehrt mich das ich lieber noch etwas warte damit bis die Kinderkrankheiten weg sind und alle Standards stehen.
 
@OHN
Natürlich ist das nicht repräsentativ. Aber übersehen würde ich es auch nicht. 3 Modell auf 1-3 ist schon nicht von Pappe.

Im übrigen rede ich auch von der Zukunft, nicht von der Gegenwart und schon garnicht von der Vergangenheit. Meine ursprüngliche Aussage war, dass AMD künftig mit GPUs mehr Geld verdienen wird als mit APUs. Der Markt wird wachsen, während x86 CPUs maximal stagnieren.
 
Hmmm also diese neue Speicher-Technology von Micron scheint mir ja wie geschaffen für HSA basierende APUs zu sein mit Stacked Memory dieser Form: Prozessorgeflüster in der c't
http://www.heise.de/ct/heft/2014-13-Von-alten-Ideen-und-neuen-Chips-2198876.html
Yukon 2.0

Wer aber kann besser irgendwelche Recheneinheiten direkt im Speicher-Chip unterbringen als ein Speicherhersteller? So hatte Micron schon 2002 – natürlich auf dem Microprocessor Forum – sein Active Memory unter dem Codenamen Yukon vorgestellt, welcher sich zudem als Coprozessor etwa für FFT-Berechnungen anbieten sollte. Ist aber nix draus geworden. Doch nun will Micron einen zweiten Versuch unternehmen. Schließlich geht’s der Firma nach dem günstigen Zukauf von Elpida im letzten Jahr wieder recht gut, der Aktienkurs hat sich seitdem verdoppelt, man mischt ordentlich bei den NANDs und SSDs mit, da kann man mal was Neues riskieren.

In wenigen Wochen soll nun Yukon 2.0 Realität werden und die ersten Prototypen des Automata-Entwicklungssystems an die Entwickler herausgehen. Der im letzten Jahr auf der Supercomputer 2013 vorgestellte Automata-Prozessor startet mit 49 152 Processing Elements – Yukon hatte gerade mal derer 256. Die PEs sitzen, versehen mit einem kleinen Vektor-Cache, direkt am Speicher und werden über das DDR3-Protokoll angesprochen. Der Clou ist: Man kann sie mit regulären Ausdrücken füttern, die dann massiv parallel abgearbeitet werden. Die Verknüpfungsmöglichkeiten, die man mit der Automata Network Markup Language programmieren kann, sind sogar noch weit vielfältiger. 6,6 Billionen Entscheidungen pro Sekunde bei etwa 4 Watt TDP, das lässt aufhorchen. Erste Benchmarks mit 48 AP-Chips gegen einen Xeon-Cluster mit 48 Kernen auf Basis des verbreiteten Bioinformatik-Benchmarks Planted Motif Search gab bei den sehr herausfordernden Parametern (26,11) ein Laufzeitverhältnis von 14 Minuten zu 47 Stunden, bei hier 315, da über 2000 Watt CPU-Leistung. Das sieht gut aus für den Automata-Prozessor sagen bekannte Analysten – und Microns Aktienkurse steigen weiter.
Da war doch etwas in der Gerüchteküche für AMDs Excavator Kerne, das nicht auf der Von-Neumann-Architektur basiert und massiv parallele Verarbeitung zulässt. Siehe: http://www.planet3dnow.de/vbulletin...-Generation-Spekulation?p=4806853#post4806853

http://www.techradar.com/news/compu...pgpu-fpga-and-classic-co-processors-1238086/1
http://www.techradar.com/news/world...mata-micron-s-revolutionary-processor-1237982
TR Pro: How would Automata work as part of a Heterogeneous System?

To be clear, the Automata Processor is not a standalone processor. The first generation Automata Processor requires some type of CPU in the system. This CPU is required to manage data streams flowing into and from the Automata Processor array. Keep in mind that the first generation Automata Processor uses a physical interface based on the DDR3 protocol specification.

This means that the way an Automata Processor interfaces to a 'controller' is very similar to how a DDR3 memory component (or DIMM module) would interface to a CPU. The Automata Processor array must have information streamed to it (DDR3 writes) and periodically, the Automata Processor must provide analytic results (DDR3 reads). In a complete system, some type of CPU/NPU or perhaps FPGA must implement these read write operations.
[...]
For example, consider the application of video analytics where pattern recognition if often a critical part of the processing pipeline. The Automata Processor would may provide an ideal solution for this part of the processing pipeline.

Video analytics, however, often involves floating point operations to be performed on the video (pixel) stream. In this case, a CPU or GPU might be tasked with the floating point operations while the Automata Processor is used for massively parallel pattern recognition. You can think of this as a CPU/GPGPU performing pre and post processing of the information fed to and from the Automata Processor.

Das ganze in einem Charizo mit 8GB onDie 3D RAM mit hUMA garniert :D.
http://www.micron.com/about/innovations/automata-processing
 
Sind echt gute Nachrichten !!!!
 
Zurück
Oben Unten