A(R)MD

....
Andererseits muss man sich mal die Entwicklungsgeschwindigkeit in der ARM-Welt in den letzten Jahren anschauen! :o Ich meine, inzwischen gucken die auf den ARM-Tablets HD-Videos in Echtzeit,...
Wir haben mit den 20Mhz ARMs schon fullVGA Videos mit 25 FPS(wenn auch nur kurze) und TV geschaut, da konnten die meisten IBM kompatiblen x86 noch nicht mal einen VGA Desktop unfall- und ruckelfrei darstellen. *suspect*

Wenn die Plattform nicht so mit Zusatzmüll (ala Linux) verpestet werden würde, aber vielleicht rettet uns dieser Müll ja irgendwann. *noahnung*
 
Mit fällt da zum Thema ARM auch XScale und Intel ein...
 
Server mit ARM64 finde ich gut, schon alleine deshalb, weil hier Intel nicht als Konkurrent auftritt. Kann ARM64 hier irgendwie Stärke zeigen, gibts dann das Zeug von AMD und nicht von Intel.

Zudem gefällt mir die Kombination von ARM64 und AMD64. Das könnte auch in den Gebieten Tablet/Smartphone interessant werden.

Allerdings sieht das nicht nach einer Zukunft von BD aus. Erst werden 15% der Leute entlassen und zudem braucht die neue Technologie ebenfalls Leute/Entwickler. Womöglich werden die restlichen BD-Teams bald mit ARM64 entwickeln

:]
 
Passt gut zum Topic:

http://24hrstech.wordpress.com/2012...64-bit-servers-could-come-by-later-this-year/

http://www.giga.de/unternehmen/arm/news/arm-64-bit-chips-sollen-2014-kommen/

EDIT:
Rettet sich AMD damit in die Zukunft?
*Hast du die andere Alternative schon aufgegeben? Warum sollte sich AMD mit dem Vertrieb von ARM-Prozessoren in Seamicro-Servern die Zukunft sichern?
Wenn es ARM schafft, im Enterprise-Bereich Fuß zu fassen, stehen doch auch andere Hersteller gegenüber der Seamicro Tochter und zwar dann - in direkter Konkurrenz.
AMD ist dann vorerst wohl der erste Anbieter von ARM64 für den Serverbereich.
http://blogs.nvidia.com/2011/11/worlds-first-arm-based-supercomputer-to-launch-in-barcelona/

http://www.nvidia.de/object/bsc-deploys-cpu-gpu-supercomputer-20111114-de.html

EDIT* Die News haben meine Frage beantwortet. SoC integriert - ARM-Opterons. JA! Warum nicht, hört sich gut an.
 
Zuletzt bearbeitet:
Für mich sieht es ganz danach aus, dass Opteron ab 2014 ARM64-based ist. Mal sehen, ob es auch noch Platz für die BD-Cores gibt, oder ob es dann irgendwann dafür aus die Maus sein könnte. Statt weitere Komplexität aufzubauen, muss AMD ja irgendwo was einsparen. Jaguar soll ja schon 2013 in Seamicro-Server Einzug halten.
 
Zuletzt bearbeitet:
Ich bin hin und hergerissen.

Einerseits befürchte ich, dass AMD sich damit überdehnt - wie die deutsche Wehrmacht in Russland und Lücken mit Lücken stopft, was Entwickler-Ressourcen angeht ...

Andererseits, ist das ein schon lange vorbereiteter Schritt und die Eisspitze sehen wir nun. Der schwere Öltanker AMD nimmt nun Fahrt auf und die Richtung ist schon länger darauf ausgerichtet. Eine Entwickler-Knappheit gibt es gar nicht (mehr).

MFG Bobo(2012)
 
Ich denke, ARM64-Server könnten überall dort erfolgreich sein, wo's um reines "serven" geht, also als Dateiserver oder Webserver.

Natürlich können sie das. Das konnten vorher aber auch schon MIPS, Godson, Alpha, Power, Sparc, x64 (AMD,Intel,VIA). Mir fehlt die Überzeugung das ARM64 erfolgreich nach oben skaliert wo doch VIA,Intel und AMD es (angeblich) nicht geschafft haben nach unten zu skalieren.

Dazu kommt die Frage der Ressourcen. AMD hat zwei APU- plus eine CPU-Linie, will dazu noch eine weitere Linie ins Haus holen. Hat aber gerade Leute entlassen statt eingestellt.
Was soll dabei hinten über fallen? Bobcat ist doch angeblich der Goldesel? Die A-Serie ist doch angeblich die Zukunft? Die Server-Linie soll doch angeblich durch ARM ergänzt und nicht abgelöst werden?

Marktanteile - was wäre eine APU mit ARM von AMD mehr als eines unter vielen? Was genau ist es was AMD bei ARM-Servern von den Mitbewerbern abheben könnte?
 
Mit fällt da zum Thema ARM auch XScale und Intel ein...
Welches wieder mal keine Eigenleistung war, sondern von DEC damals als StrongARM gekauft wurde. Weil sie damit aber nicht zurecht kamen verkauften sie die Abteilung wieder.
 
Was ist aus der IBM Softwaresparte (Grundsubstanz) Eigenleistung? Was aus dem Storage-Segment? Gäbe es eine APU ohne den Zukauf von ATI durch AMD?
Clustered-Integer-Core-Architektur? Von DEC entwickelt und 1996 mit der RISC-CPU Alpha 21264 eingeführt, was das Internet alles weiß...
ARM und AMD/ATI - Technology in einen Ein-Chip-System (mit anschließendem Vertrieb) zu bringen, wäre ohne die Eigenleistung durch ARM und Seamicro für AMD nicht möglich?
 
Zuletzt bearbeitet:
Erzähl mir nix von DEC ich war Mitarbeiter und weiß was die technisch leisten konnten ;)
 
Prima. Und den anderen mit drei Buchstaben gibt es heute noch, die sind nicht an oder durch Microsoft gescheitert.
 
Wir haben mit den 20Mhz ARMs schon fullVGA Videos mit 25 FPS(wenn auch nur kurze) und TV geschaut, da konnten die meisten IBM kompatiblen x86 noch nicht mal einen VGA Desktop unfall- und ruckelfrei darstellen. *suspect*


Setzen Sechs, die Videobeschleunigungseinheit berechten zu 100% das Bild und diese ist unabhängig vom CPU Takt ;)

Im x86-Bereich berechnet die CPU immer noch einige Dinge selbst bei ARM ist das nicht der Fall.
 
Setzen Sechs, die Videobeschleunigungseinheit berechten zu 100% das Bild und diese ist unabhängig vom CPU Takt ;)

Im x86-Bereich berechnet die CPU immer noch einige Dinge selbst bei ARM ist das nicht der Fall.
Das ist richtig, aber du hast bestimmt DDR3-Speicher auf deinem Asus M5A99X? ;)
 
Microserver sind im Grunde die direkte Konkurenz zu virtuellen Servern. Ich kann derzeit nicht erkennen, warum man anstatt 100 vServer auf einer dicken x86_64 Maschine 100 kleine ARM Server nehmen sollte. vServer sind größtenteils Software und daher viel flexibler als in Hardware gegossene Mircoserver.

Weil man in der Regel durch die Unausgeglichene Auslastung einzelne Servern mehr Rechenpower zur Verfügung stellen kann, die sonst nur vor sich hin Idlen würde.

Aber du verkennst die Hauptvorteile von VM, z.B. die Migration auf neue Hardware, Snaphots etc.

Hinzu kommt das ARM in etlichen Sachen eben nicht die Performance liefert die ein x86 CPU in fast allen Lebenslagen auch Umsetzt.
 
Ähhh, ich glaube er meinte das auch so? Lieber 100 VMs auf x86 - anstatt der 100 ARM Server? Richtig? Oder habe ich dich falsch verstanden? bbott?
 
Zuletzt bearbeitet:
Setzen Sechs, die Videobeschleunigungseinheit berechten zu 100% das Bild und diese ist unabhängig vom CPU Takt ;)

Im x86-Bereich berechnet die CPU immer noch einige Dinge selbst bei ARM ist das nicht der Fall.
Bist du Lehrer oder warum vergibst du hier Zensuren? Videobescheunigung war zu der Zeit noch gar nicht bekannt und der ARM3 musste dem VIDC sogar ohne FPU alles vorkauen. Aber danke fürs Gespräch.
 
Zuletzt bearbeitet:
Ähhh, ich glaube er meinte das auch so? Lieber 100 VMs auf x86 - anstatt der 100 ARM Server? Richtig? Oder habe ich dich falsch verstanden? bbott?

Sorry, habe mich verlesen.
.
EDIT :
.

Das ist richtig, aber du hast bestimmt DDR3-Speicher auf deinem Asus M5A99X? ;)

Was hat das jetzt mit dem Thema zu tun? Vor allem einen Halbsatz an ein anders Thema anzuküpfen?! Trotzdem danke ist geändert.
 
*Hast du die andere Alternative schon aufgegeben? Warum sollte sich AMD mit dem Vertrieb von ARM-Prozessoren in Seamicro-Servern die Zukunft sichern?
Wenn es ARM schafft, im Enterprise-Bereich Fuß zu fassen, stehen doch auch andere Hersteller gegenüber der Seamicro Tochter und zwar dann - in direkter Konkurrenz.
Aufgegeben noch nicht ganz. Denke aber, auf mehreren Beinen steht sich besser.
Wenn noch mehrere Firemen mit ARM Servern in das Geschäft einsteigen, gibt es direkte Konkurrenz. Aber ehrliche Konkurrenz. Alle haben mit dem ARM-IP und der ARM Software die gleiche Basis, keiner wird bevorzugt und die Herstellungsbedingungen sind auch nahezu gleich. Klar, wenn sich ein Riese wie Samsung oder Apple auf diesen Bereich stürzt, wird es schwer.
Ansonsten hat AMD auch Vorteile. AMD kann gutes GPGPU IP und Ihre Verbindungstechnik von SeaMicro direkt mit auf den Chip integrieren.
 
Wenn man sich anschaut mit welchem geringen Umsatz und Mitarbeiter die ARM Limited in der Lage ist, die zweitwichtigste CPU-Architektur zu entwickeln, dann sollte bei AMD auch keine unüberwindbaren Schwierigkeiten damit haben.

Wäre doch praktisch, wenn ab 2014 dank der synthetisierten Designs seine Wunsch-APU/CPU zusammenklicken kann. Z.B. heute eine ARM64 mit 768 GCN-Cores und breitem Speicherinterface für Grafikberechnungen oder Steamroller-Module mit nur 16 GCN-Cores (rein für die Grafikausgabe) aber mit dem selben Interface.
 
ARM hat lange um AMD gekämpft, weil AMD nicht nur ein Lizenznehmer ist, sondern auch irrsinnig viel KnowHow hat. Der Deal zeigt eigentlich was für ein Juwel AMD in der Branche ist. Der Börsenkurs ein Witz.

Aber ich sehe den Deal auch kritisch. AMD's großes Problem war immer alles bieten zu wollen und scheiterte dann oft an den eigenen Resourcen. Man konnte zwar alles aber nichts richtig. Man rennt in allen Bereichen der Entwicklung hinterher.
Jetzt sein Heil in einer weiteren Diversifizierung zu suchen finde ich merkwürdig.

Ich glaube allerdings, das ARM-Server schon einen Markt haben und AMD dort vom KowHow eine gewichtige Nummer spielen könnte.
 
...Aber ich sehe den Deal auch kritisch. AMD's großes Problem war immer alles bieten zu wollen und scheiterte dann oft an den eigenen Resourcen. Man konnte zwar alles aber nichts richtig. Man rennt in allen Bereichen der Entwicklung hinterher...

Das ist längst mein Reden. Wenn die eigenen Ressourcen knapp sind, muss man diese gewählt einsetzen und nicht an Fronten kämpfen, an denen man längst verloren hat, wie mit BD. AMD darf natürlich jetzt nicht laut ankündigen, dass BD tot ist. Dort wird man vermultich einfach keine Ressourcen mehr einsetzen, sodass er dann leise auslaufen wird. Auch die Llano/Trinity-Plattformen sehe ich am Ende; diese werden wohl von Jaguar-based APUs abgelöst oder ebenfalls auslaufen. Und das wissen womöglich die OEMs längst, sodass sie die geplanten Trinity-Designs gleich gar nicht mehr bringen. Ob Kaveri noch kommt, ist für mich auch längst fraglich. Der erwähnte Trinity-2.0 könnte die letzte Inkarnation von einem BD-Design sein und womöglich wird es gar kein 28nm-Design für BD mehr geben, weil man vielleicht schlichtweg diese Umsetzungen nicht mehr finanzieren will/kann?
 
Zuletzt bearbeitet:
@BavarianRealist: Es ist ja wirklich ok, dass du der Meinung bist, dass BD nicht die Zukunft ist. Dies aber hunderzweiundzwanigtausendvierhundertdreiundfünfzig-mal in zahlreichen Threads und unzähligen Posts (und alleine in diesem Thread schon wieder dreimal) immer und immer wieder herunterzubeten ist nicht notwendig. Ich glaube, es hat jetzt jeder mindestens 21x mal gelesen und es sich somit gemerkt, dass du dieser Meinung bist.
Also ich glaube, du brauchst dies nicht noch einmal (irgendwo in diesem Forum) erwähnen! BITTE nicht nocheinmal :)

LG
 
. Der erwähnte Trinity-2.0 könnte die letzte Inkarnation von einem BD-Design sein und womöglich wird es gar kein 28nm-Design für BD mehr geben,
Womöglich wird Trinity 2.0 aber auch ein 28nm Design. Womöglich haben ein paar Leute den 1Moduler Richland mit 28nm Piledriverkernen als Trinity 2.0 falsch gedeutet, womöglich kommt Kaveri weiterhin pünktlich ;-)
 
Zurück
Oben Unten