Mehrkernprozessor ist nicht meine Welt

Wu134 schrieb:
Ich hab es gleich bemerkt: das System hat viel weniger Hänger und Denkpausen. Mit einem Single-Core-Prozessor einen Virenscan ausführen und gleichzeitig surfen? Das geht nicht mehr. Ich teste grad die Demo von G-Data Internet Security. Wenn die einen Komplett-Scan macht, hakt sogar mein System beim Surfen. Bei einem Single-Core-Prozessor wäre das System komplett lahmgelegt
Bezweifle ich sehr. Das wäre ein echtes Armutszeugnis für den Scheduler von Windows.

Hi...

hatte mehrere jahre GDATA Internet Security auf meinem Singlecore Laptop installiert. Die Software ist zwar sehr gut bzgl. Sicherheitsfunktionen und komfortabel in der Bedienung - bremst aber das System extrem aus. Früher war es auch so, das GData mit 2 Virenengines parallel gearbeitet hat - soweit mir bekannt als einzige Antivirensoftware...Ich hab erst nach Ablauf meiner Lizenz mal nen anderen Virenscanner installiert und das ist ein unterschied wie Tag und Nacht gewesen. Meiner Meinung nach ist GData InternetSecurity für langsamere CPUs - inbesondere Singlecore CPUs ungeeignet. Evtl bieten sich im Menü der Software auch Optionen an die Performance zu verbessern - hab ich aber nicht ausprobiert. Lief bei mir in Defaulteinstellungen..

>Grüße!
 
Man würde so etwas wie EPIC entwerfen.
http://www.tecchannel.de/server/har...vliw_architekturen_intels_itanium/index5.html

Nanu - das sind doch sogar 64 Bit !? :o

Wenn man sich die 81 Bit für die Befehle ansieht und die vielen Register dann wäre sogar 128 Bit sinnvoll.

Wobei eine x86-128 CPU mit 1:1 Beziehungen zu SSE-Registern wohl heute zeitgemäßer wäre als das x86-64 Konzept.
Weniger Register lassen sich auch parallel handhaben.

Ich tippe mal bei einem (spekulativen) Vergleichstermin AMD - Intel vor vielen Jahre wäre wohl x86-128 mit Direktkombination zur SSE entstanden.
 
Welche Architektur (bzw. Betriebssystem) ist denn "Neu" und wird Flächendeckend eingesetzt? ...
Wobei die Frage "Neu" relativ ist.

ARM hat mit ihrer RISC-Architektur zugleich auch an einem kompakten speichersparenden "Thumb-Instruktionssatz" gedacht.

Würde man heute "was neues" machen, dann wären vermutlich Vektor-Instruktionen (Stichwort SSE) gleich von Anfang an dabei. Das gehört heute zum guten Ton.

Aber schon bei Multicore-Designs gibt es die unterschiedlichsten Ansätze (homogen, heterogen, viele einfache Kerne/DSPs, ... ). Vermutlich machte man sich heute von Anfang an Gedanken, wie gut man Parallelität alleine mit der ISA und Kompilern erzeugen und kontrollieren kann.

Die Entwicklung des Larrabe ist da ein guter Fingerzeig was man heute machen kann. Wäre da nicht die legacy-Kompatibilität mit den Pentium C55-Kernen, dann kann man die neuen Larrabe-Instruktionen (LRBni) als vollständige eigene ISA ansehen.
IBM hat mit dem Cell ja schon vorgelegt, allerdings mit einem Legacy-Power-Kern (PPE Power Processing Element) und entsprechend neu aufgebohrten Power-Befehlen für die Vektoreinheiten (SPE Streaming Processing Element).

Oder man begibt sich auf den VLIW-Weg mit entsprechender ISA, den die Russen mit dem Elbrus-Chips beschritten haben. Andererseits scheinen auch Branchenriesen wie Intel am Beispiel Itanium (-> EPIC ISA) mit derartigen Designs massive Probleme haben.

Würde man wieder exakt das x86 Design wählen, wenn man von Null anfangen würde?
Es gibt ja nicht nur x86.

Den Anfang machte IBM mit einer von der Microarchitektur unabhängigen Befehlssatzsprache zOS auf den IBM 360-Mainframes. Das ist die Mutter aller Computer mit CISC-Instruktionssätzen. Bis dahin wurde für jedes neue Rechnersystem auch eine eigene ISA dazu entwickelt.

Also, wenn man heute mit einem leeren Stück Papier bei 0 anfinge, dann hoffentlich mit den bis dahin gesammelten Erfahrungen. Die IT-Geschte ist voll mit gescheiterten Prozessorenlinien und interessanten Programmieransätzen.

MFG Bobo(2009)
 
Würde man wieder exakt das x86 Design wählen, wenn man von Null anfangen würde?
Es gab ja mehre alternative Neuanfänge (s. teile http://www.bernd-leitenberger.de/intel-outside.shtml)
So der 6800er in 8 Bit mit Varianten 6502 ff.
Oder der 68000er als 16/32 Bit
Oder Power PC
Oder Itanium
Oder jetzt ARM
Oder Transmeta CPUs
Oder Cell

Beim x86 hatten wir:
- 4004 und Nachfolger 8008
- 8080 und Seitenlinien 8085 und Z80
- 8086 als 16 Bit Umsetzung vom Muster 8085
- 80286 mit Erweiterungen
- 80386 als Notlösung 32 Bit von Intel
- 80486 ff- als Evolution von Befehlssatz und Units (MMX, SSE)
- x86-64

Es hat sich abgezeichnet die evolutionäre Linie mehrfach Konkurrenten abgeschüttelt hat.
Hätte Intel statt dem 80386 etwas intelligenter den Übergang zu 32 Bit ausgeführt (gleich virtueller x86 Modus !? ) wäre x86 noch früher durchschlagender erfolgreich gewesen.

Nachdem auch bei 'Neuanfängen' ständig andere 'Neuanfänge' überboten wurden scheint wohl Theorie und spätere Praxis das Hauptproblem bei Neuerfindungen zu sein.
Ich persönlich finde den 68000er immer noch als das ultimative und klare Konzept. Der packte mit knapp 70.000 Transitoren (ARM9 heute 800.000 Trs) alle Aufgaben außer FPU.
Da war viel Microcode dabei und letztlich wäre auch eine FPU in Firmware noch machbar gewesen. Damit wäre eine ultimative Hardware für embedded entstanden. Ein DSL-Modem/Router, ein embedded Linux, Netbooks, ein Mobiltelefon u.s.w. - der 68000er hätte es in ultra low power gepackt.

Wahrscheinlich ist der 68000er eh galaktischer Standard -
und Apple hatte es in Area51 damals geklaut
(und Intel und Billy haben versehentlich dort die Mülltonne geplündert und 1. April - skurile CPU-Designs und OS umgesetzt) ;D
 
Wobei traurigerweise die meisten interessanten ansätze nicht untergehen wei lsie technisch fehlerhaft sind, sondern weil das Marketing und dinge wie kompatibilität etc. bestimmten was gekauft wird... ;)
 
Ja es ist leider so das viele neu Konzepte aufgrund des fehlenden Kapitals wohl zugrunde gehn, und wie soll das auch klappen? Woher soll man das Kapital hohlen um x86 beim Enduser anzugreifen? Die letzte Instanz war Appel mit PowerPC die als eigenständige Plattform den User erreicht hat, und heute? Appel ist auf x86 aufgesprungen. Wenn was neues kommt dann wird es nur durch eine Evolution in x86 selbst kommen, und dessen Entwicklungsgeschwindigkeit bestimmt hauptsächlich Intel.
 
Ja es ist leider so das viele neu Konzepte aufgrund des fehlenden Kapitals wohl zugrunde gehn, und wie soll das auch klappen? Woher soll man das Kapital hohlen um x86 beim Enduser anzugreifen? Die letzte Instanz war Appel mit PowerPC die als eigenständige Plattform den User erreicht hat, und heute? Appel ist auf x86 aufgesprungen.
Du weißt aber auch wieso Apple zu x86 gewechselt ist? Es war bestimmt nicht das überlegene Marketing von Intel gegenüber IBM.
 
Appel ist auf x86 aufgesprungen.
Wenn was neues kommt dann wird es nur durch eine Evolution in x86 selbst kommen, und dessen Entwicklungsgeschwindigkeit bestimmt hauptsächlich Intel.
Mal Microsoft, Win7 und virtuelle XP-Emulation bennant.

Zwar verweist Microsoft auf CPUs mit Hardware-Virualisierung.
Aber Software wie 'VirtualBox' lief lt. Hersteller nur marginal langsamer ohne dieses Hardwarefeature.
Microsft könnte locker ein Win7 für andere CPUs compilieren und per Emulation dann die x86 Umgebung zur Verfügung stellen. Fast wie beim Mac mit div. Emulationen.

Ich spekuliere mal das Intel das 'Problem gerochen hat' und Microsoft daher Hardwarevirtualiserung als einizige Option zur Verfügung stellt.
 
Stop.

Es ist ein fundamentaler unterschied ob man ein paar speicherzugriffe umlenkt und etwas overhead in kauf nimmt um interrupts zu trappen etc. und ggf. etwas code-morphing betriebt für einen Virtualisierer (VMware gabs auch schon lange vor Vanderpool und co.) oder ob man eine CPU-emulation durchführt mit allem drum und dran.
Sowas versucht Qemu z.b. und geschwindigkeit ist da echt was anderes.

Also "mal eben" eine andere architektur zu benutzen und x86 emuliert laufen zu lassen wäre nicht so einfach wie man meint. Die andere Architektur müsste schon doppelt so effizient sein, minimum um das wieder reinzuholen. Und wenn man dann bedenkt wie viel entwicklungsarbeit und monetas in x86 gesteckt wurden, ist das gar nicht so einfach zu toppen.
Von Infrastruktur, Treiberversorgung etc. red ich garnicht. Selbst wenn MS ein non-x86 windoof bringen würde (sowas gibts bestimmt, immerhin lüppt auch was windoof-artiges auf der xbox360) müssten alle treiber angepasst werden etc.
Der Witz bei der x86 dominanz ist schlichtweg die breite soft- und hardwarebasis.

@puckpoltergeist
naja, IBMs marketing hat sich nicht grade mit Ruhm bekleckert... Apple vertrösten sie ewig was energieeffiziente G5 betrifft, haben lieferschwierigkeiten etc.
Aber MS liefert man den triplecore G5 für de Xbox360 auf dem Silbertrablett. Und das wo Apple der Power-Architektur schon viel länger die Stange gehalten hat...
Da wäre ich mir an Apple's stelle auch verarscht vorgekommen. Zudem hat sich IBM die PowerPC-Proozzis in den Jahrne von Apple schön vergolden lassen, dagegen sind die Core2 von intel richtig günstig. Und Apple hat theoretisch die Möglichkeit zu AMD zu wechseln wenn Intel so mit ihnen umspringen sollte, wie IBM das getan hat.... Das Druckmittel zieht.
 
@puckpoltergeist
naja, IBMs marketing hat sich nicht grade mit Ruhm bekleckert... Apple vertrösten sie ewig was energieeffiziente G5 betrifft, haben lieferschwierigkeiten etc.
Aber MS liefert man den triplecore G5 für de Xbox360 auf dem Silbertrablett. Und das wo Apple der Power-Architektur schon viel länger die Stange gehalten hat...
Da wäre ich mir an Apple's stelle auch verarscht vorgekommen. Zudem hat sich IBM die PowerPC-Proozzis in den Jahrne von Apple schön vergolden lassen, dagegen sind die Core2 von intel richtig günstig. Und Apple hat theoretisch die Möglichkeit zu AMD zu wechseln wenn Intel so mit ihnen umspringen sollte, wie IBM das getan hat.... Das Druckmittel zieht.

Es waren ja wirklich technische Probleme. Schau dir die thermischen Probleme der xbox360 doch an. Ist das gleiche Problem, mit dem man beim G5 gekämpft hat. Sicherlich kommt sich Apple verarscht vor, wenn IBM kaum Energie in die Problembehebung zu stecken scheint. Und dass die G5 Prozessoren zu teuer waren, kommt ebenso dazu. IBM war sich da wohl zu sicher, dass Apple den Architekturswitch nicht wagen würden weil wegen Kompatibilität. Dass Apple da weit weniger zimperlich ist als MS, war für IBM womöglich etwas unpraktisch. Auf der anderen Seite, vielleicht wollte IBM ja sogar aus dem Markt raus.*noahnung*
 
Du weißt aber auch wieso Apple zu x86 gewechselt ist? Es war bestimmt nicht das überlegene Marketing von Intel gegenüber IBM.

Es ging mir keineswegs ums Marketing, nur wenn ich jemanden es zugetraut hätte neben x86 wirklich im Endnutzerbereich mitzumischen dann wäre es Apple+IBM mit PowerPC gewesen.

IBM war sich da wohl zu sicher, dass Apple den Architekturswitch nicht wagen würden weil wegen Kompatibilität. Dass Apple da weit weniger zimperlich ist als MS, war für IBM womöglich etwas unpraktisch.

Genau das zeigt aber auch das ein Wechsel von x86 möglich wäre, bzw eine zweite Architektur neben x86 durchaus beim Kunden ankommen könnte, wenn gewisse Konzerne es wollten. Das ärgert mich etwas. x86 tut seinen Dienst und funktioniert, es ist ja nicht so das wir vor grottigen Kisten mit schlechten CPUs sitzen, aber selbst wenn etwas neues kommt das besser ist bleibt alles beim alten aufgrund einiger weniger dominanter Firmen.
 
Genau das zeigt aber auch das ein Wechsel von x86 möglich wäre, bzw eine zweite Architektur neben x86 durchaus beim Kunden ankommen könnte, wenn gewisse Konzerne es wollten. Das ärgert mich etwas. x86 tut seinen Dienst und funktioniert, es ist ja nicht so das wir vor grottigen Kisten mit schlechten CPUs sitzen, aber selbst wenn etwas neues kommt das besser ist bleibt alles beim alten aufgrund einiger weniger dominanter Firmen.

Kosten-Nutzen-Analyse. Die neue Architektur müsste schon gravierend besser sein als x86, um den Bruch zu machen. Die Kosten wären nämlich enorm. Du darfst dabei ja nicht den vorhandenen Softwarebestand vergessen, der dann mit portiert werden müsste.
 
Genau das zeigt aber auch das ein Wechsel von x86 möglich wäre, bzw eine zweite Architektur neben x86 durchaus beim Kunden ankommen könnte, wenn gewisse Konzerne es wollten. Das ärgert mich etwas. x86 tut seinen Dienst und funktioniert, es ist ja nicht so das wir vor grottigen Kisten mit schlechten CPUs sitzen, aber selbst wenn etwas neues kommt das besser ist bleibt alles beim alten aufgrund einiger weniger dominanter Firmen.


Nun ich bin da etwas konservativer. Wenn es was neues gibt wofür ich Nachteile in Kauf nehmen muss (neue Software, neues OS, neuer Speicher, neue Schnittstellen oder auch nur ein neues Board) dann will ich dafür auch Vorteile haben.

Die Ppwer-PC-CPus waren nicht schlecht aber für einen Umstieg gab es doch zu wenige Vorteile. Wirklich schneller als die X86 waren sie ja nicht trotz der ganzen Bremsen die der X86er aufgrund seiner Kompatibilität mit sich rumschleppt.

Den leichten Vorteil den es gab bezahlte man ja durch eine andere Rechnerarchitektur und ein neues OS.
 
Zurück
Oben Unten