Abgesang auf die Alpha-Prozessoren: letzte Runde eingeläutet

@EoR

Mehr als auf den Alphathread verweisen kann man doch nicht oder. ;)

Da sind diverse Links drin, auch zu P3D, Heise und Inquirer und und.

MFG Bokill
 
@bokill:
In der Newsmeldung wird auf das Weiterleben der DEC/Alpha-Technologien eingegangen, dabei fällt dem informierten Leser sofort auf, dass die Information über Intels "Alpha-technologie" Einkauf vor 3 Jahren in der News-Meldung fehlt.
Als Hintergrundinformation zu der Nutzung der DEC-Technologien in AMD und vorallem in Intel Chips ist das doch recht bedeutungsvoll.

Sinn dieser Anmerkung war es die News-meldung besser zu machen als sie schon ist.

Der, doch recht allgemein gehaltene, Verweis auf den DEC/Alpha Thread in den Newskommentaren wird dem kaum gerecht.
 
Dann ist das

Das Alpha EV6 Busprotokoll zum Beispiel war die Grundlage jedes AMD Athlon Prozessors [...] Das ehemals "Lightning Data Transport" Protokoll beflügelt heute als HyperTransport-Protokoll alle AMD Athlon-64- und Opteron-Systeme.

wohl nur etwas unglücklich geraten. Will aber auch nicht meckern, war eher als Anmerkung gedacht ;).

Meines Wissens ist HTr eine Entwicklung ausschließlich von AMD - mag sein, dass da einige Alpha-Leute die Finger mit drinnen hatten, der Großteil kommt aber von AMD selbst.
 
Original geschrieben von intel_hasser
Meines Wissens ist HTr eine Entwicklung ausschließlich von AMD - mag sein, dass da einige Alpha-Leute die Finger mit drinnen hatten, der Großteil kommt aber von AMD selbst.

War aus einer Kooperartion von AMD und API-Networks entstanden, AFAIR.
 
Ok, hab nix gesagt ;).

Klingt eben nur ein bisschen so, als hätten AMD und Intel garnix geleistet sondern nur abgekupfert.
 
Original geschrieben von Nero24
Intern arbeiten alle heutigen Prozessoren praktisch wie RISC-Prozessoren, gaukeln lediglich nach außen hin eine klassische x86-CISC Architektur vor. So lässt sich heute sagen, dass der RISC-Prozessor das Rennen um die bessere Architektur gewonnen hat - allerdings nur, weil er sich als CISC-Prozessor verkleidet hat.
Das verstehe ich nicht so ganz. Eigentlich sind spezielle CISC-Befehle fest in der Hardware verdrahtet, durchlaufen die Pipeline in nur einem Durchgang und halten sich halt länger in der Execute-Stufe der CPU auf, wo sie optimiert und schnell abgearbeitet werden. Das bringt einen Performance-Schub gegenüber der RISC-Variante, bei der man einen komplexen Arbeitsschritt durch eine Aneinanderreihung von vielen kleinen Befehlen erreicht, die dann im Gänsemarsch die Pipeline durchlaufen und dabei womöglich durch Datenabhängigkeiten Wartezyklen einlegen müssen bzw. aus anderen Gründen eben etwas länger brauchen.

Welchen Sinn hätten denn die vielen hinzugefügten CISC-Befehle der letzten Jahre (3DNow!, SSE, MMX) gemacht, wenn man sie der Prozessor dann doch nur als RISC-Befehle ausführt. Spart man dadurch Speicherplatz, weil der Compiler nur noch einen statt zig Befehle in den Code basteln muss *sfg* :] ?

Also, ich glaub der Aussage "RISC im CISC"-Kleid so ohne weiteres nicht. Gibbet dazu ne Eklärung oder nen schönen Link, um mir auf die Sprünge zu helfen? :)
 
Such mal nach dem 128bit Thread, oder nach der ISA Erklärung. Da haben wir uns genug darüber unterhalten.

Heutige CPUs sind unten drunter praktisch RISC bzw. exrem RISC-artig. Trotzdem hat CISC als "Zwischenbefehlssatz" seine Berechtigung.
 
Zurück
Oben Unten