News AMD Piledriver vs. Steamroller vs. Excavator - Leistungsvergleich der Architekturen

Sehr aufwändiger und schöner Test, leider ohne Belang, da der Vergleich mit Intel nicht vollzogen wurde.

Darum gings hier ja auch nicht. Was man derzeit grob sagen kann ist, dass AMD zur Zeit die besseren APUs herstellt, Intel jedoch CPUs, gerade was die Leistungsspitze betrifft.
AMD ist günstiger, Intel teurer, dafür aber oft auf dem selben Sockel stark upgradbar, bessere Fertigungstechnik, während du beim AMD öfters mal einen Sockel wechseln darfst.

Nachtrag: Die besten Prozessoren baut aber nach wie vor ...IBM her. (Scherz am Rande. ;))
 
Zuletzt bearbeitet:
Ein guter Test aber aus dem Fazit werde ich nicht schlau.
Auf der einen Seite kritisiert ihr das sie in Funktionen und Produkte abseits des klassischen x86er Marktes investieren und auf der anderen Seite stellt ihr selbst fest das sie gerade dort bei der Software Entwicklung ignoriert werden und Leistungssteigerungen deshalb gering ausfallen.
Was liegt da näher als zu versuchen aus der Sackgasse auszubrechen?

--- Update ---

Darum gings hier ja auch nicht. Was man derzeit grob sagen kann ist, dass AMD zur Zeit die besseren APUs herstellt, Intel jedoch CPUs, gerade was die Leistungsspitze betrifft.
AMD ist günstiger, Intel teurer, dafür aber oft auf dem selben Sockel stark upgradbar, bessere Fertigungstechnik, während du beim AMD öfters mal einen Sockel wechseln darfst.

Nachtrag: Die besten Prozessoren baut aber nach wie vor ...IBM her.

Wo ist Intel auf dem gleichen Sockel besser upgradebar?
Für jede neue Kern Generation gab es nen neuen Sockel und bestenfalls kam der Refresh mit minimalen Änderungen noch dazu. Danach war wieder ein neues Mainboard fällig. Im Verglech zu AMD sehe ich da keine Verbesserung. Im Gegenteil denn AMD hat beim Beispiel FM2/FM2+ zumindest eine Abwärtskompatibilität.
 
Von daher mach ich mir - ausnahmsweise - wegen des Designs keine Sorgen. Die mach ich mir höchstens um AMDs Kontostand. Carrizo ist gut, wird aber nur in Ramschprodukten verbaut und das Tafelsilber (FABs, Firmenzentrale etc.) hat man schon vor ein paar Jahren versilbert.

Untergangsstimmung gabs zwar schon oft bei AMD, aber diesmal gehts wirklich ans Eingemachte...

Ja, Märkte sehe ich mehr in Projekten wie Obamas Exascale Initiative. Da kann man üppige Forschungsgelder abgreifen und muss keine großen Beträge für Vermarktung und Produktplazierung ausgeben. In Consumerprodukten werden wir AMD wahrscheinlich immer weniger sehen. Carrizo ist ein erstklassiger Chip, der alles mitbringt was man in einem kompakten System benötigt. Dazu AMDs erstklassiger Treibersupport. Schade eigentlich.

--- Update ---

AMD ist günstiger, Intel teurer, dafür aber oft auf dem selben Sockel stark upgradbar, bessere Fertigungstechnik, während du beim AMD öfters mal einen Sockel wechseln darfst.

Das Sockelthema kann man vernachlässigen. Intel versorgt dafür in der Regel nur die aktuelle und die letzte Generation mit Treibern, wie man aktuell bei Windows 10 sehen kann. Gen 3 und früher können sehen wie sie klarkommen. Bei AMD ist bis 2009 alles mit einem! Treiberpaket versorgt. Für viele, besondern NurAnwender, ist AMD das pflegeleichtere System.

--- Update ---
 
Auf der einen Seite kritisiert ihr das sie in Funktionen und Produkte abseits des klassischen x86er Marktes investieren und auf der anderen Seite stellt ihr selbst fest das sie gerade dort bei der Software Entwicklung ignoriert werden und Leistungssteigerungen deshalb gering ausfallen.
Was liegt da näher als zu versuchen aus der Sackgasse auszubrechen?
Du hast das Fazit missverstanden! Kernaussage ist dieser Satz:
Von einer feinen Desktop-CPU mit 5 in 28 nm gefertigten Excavator-Modulen ohne iGPU, mit ordentlich Cache und hohem Takt bei gezeigter IPC-Verbesserung dagegen hätte jedwede Software profitiert.
Oder anders formuliert: die Lösung mit GPGPU/HSA zeigt nur gute Performance, wenn die Software es explizit nutzt. Eine schnelle CPU mit hoher IPC dagegen ist immer schnell, egal ob die Software spezielle Features nutzt oder nicht.
 
@Nero: Wir haben ja keinen Zugriff auf ein Carrizo-Produkt. Sofern es nicht zu viel Aufwand ist, könntet ihr vielleicht das Latency-Werkzeug von CPUID Leuten drüber laufen lassen.
http://www.cpuid.com/medias/files/softwares/misc/latency.zip
Vielleicht gibt das Aufschluss über die Diskrepanz zwischen den den realen und den synthetischen Messwerten.
Leider kann ich das momentan nicht. Ich hatte den Carrizo-Laptop gerade mal einen Tag (war ein Kundensystem, das ich kurzerhand für die Artikelrecherche missbraucht habe ;)). Aber wenn ich mal wieder einen da habe, kann ich das gerne nachholen :)
 
Sehr guter Artikel.

Gibt es denn konkrete Pläne für eine Desktop CPU also Nachfolger für den Pilediver ?
Mein 8350 reicht mir zwar völlig aber ich denke ich könnte nicht widerstehen. :)
An einer APU bin ich nicht interessiert.

Gruß
Mike
 
Ja, Zen 2016 soll auch als dicke Multi-Core-CPU kommen, aber natürlich nicht als Aufrüst-CPU für den Sockel AM3+, sondern für den neuen AM4-Sockel.
http://www.planet3dnow.de/cms/14973-amd-investorentag-am4-40-ipc-fuer-zen/
Da bin ich mal gespannt, ob Zen innerhalb von 160W Delta an der Steckdose bleibt, so wie mein fiktiver FX-9590 mit DDR3-2133 ECC Speicher:

cpuz_bench_fx-9590i4pk9.jpg
 
Danke !! :)

So´n schöner Carrizo für FM2+, ohne SB, dafür mit L3 wäre was !
 
Mir würde schon generell ein Carizzo für FM2+ gefallen. Meine Entscheidung ist getroffen, vor Zen kommt auf jeden Fall ein Excavator ins Haus
 
Aha.

[ ] Du hast verstanden um was es bei dem Test geht :]

Ja. Hier wird höchst aufwändig der (theoretische) Leistungszuwachs über die Jahre von Bulldozer zu Excavator festgestellt. Höchst informativ wäre der Vergleich um wieviel Prozent sich die Konkurrenz von Intel unter den gleichen Messbedingungen verbessert hat. Was hilft eine theoretische hochgerechnete Verbesserung eines nicht kaufbaren Produkts wenn der Wettbewerber in der gleichen Zeit prozentual noch mehr zugelegt hat, und das bei im Markt existierenden Produkten ( Highend Desktop CPUs)?
 
ein wirklich sehr guter artikel. fachlich, wie journalistisch. habe ihn geradezu verschlungen.
das thema ist imho aber ziemlich sommerloch mäßig angehaucht.
unterm strich ein guter sumup, der in seinem inhalt einer antiken, griechischen trägodie nicht fern ist.
 
Du hast das Fazit missverstanden! Kernaussage ist dieser Satz: (.......)
Oder anders formuliert: die Lösung mit GPGPU/HSA zeigt nur gute Performance, wenn die Software es explizit nutzt. Eine schnelle CPU mit hoher IPC dagegen ist immer schnell, egal ob die Software spezielle Features nutzt oder nicht.

Nicht ganz....ob die Excavator Module auch noch halbwegs effizient die gleiche Taktfrequenzen der aktuellen FX Modelle erreichen können ist die Preisfrage.
Das zusätzliche Modul langweilt sich vermutlich aufgrund des lausigen Multicore Supports der Desktop Software zu tode und letztendlich so gut wie nichts bringen. Selbst die Aktuellen FX-6/8 Modelle verhungern doch auch heute noch an der CPU Auslastung.
Nicht nur für HSA ist eine Optimierung der Software nötig sondern auch für aktuelle Befehlssätze wie FMA3/4, AVX(2) und die Nutzung der verfügbaren Kerne.
Software Optimierungen sind also so oder so seit Jahren überfällig und deren Abwesenheit in meinen Augen die Ursache für die mangelhaften Leistungssteigerungen der letzten Jahre....bei beiden CPU Herstellern.

Womit wir wieder beim Punkt Sackgasse wären....
 
icht nur für HSA ist eine Optimierung der Software nötig sondern auch für aktuelle Befehlssätze wie FMA3/4, AVX(2) und die Nutzung der verfügbaren Kerne.
Software Optimierungen sind also so oder so seit Jahren überfällig und deren Abwesenheit in meinen Augen die Ursache für die mangelhaften Leistungssteigerungen der letzten Jahre....bei beiden CPU Herstellern.

Das sehe ich anders. MT-Code ist meist um einiges aufweniger als ST-Code. Das macht man nur, wo es einen Mehrwert bringt. Und an vielen Stellen bringt es das nicht. Anders herum, dort wo es sinnvoll ist, setzt man schon länger auf MT. Oder auf OpenCL.
Wir haben gegenwärtig einen nicht unerheblichen Überschuss an CPU-Leistung in den meisten Rechnern. Wenn ich sehe was sich viele für einen balanglosen Workload für CPUs kaufen, bin ich fassungslos.
So gesehen ist in meinen Augen die hohe ST-Leistung daran schuld dass sich daran nur marginal etwas ändert.
 
Nur wozu sollte man dann multicore Prozessoren verkaufen?
Ganz ehrlich, diese Argumentation lese ich schon seit Jahren und im selben Atemzug beklagen sich die Meisten dann auch noch über stagnierende Rechenleistung neuer Prozessoren.

Es werden zig Begründungen dafür geliefert warum man nichts an der Software optimieren sollte und ganz ehrlich...da frage ich mich ernsthaft warum.
Warum sollte man also aus Sicht des Kunden z.B. bei nem 8 Kerner wegen dem ST Code auf eine mögliche Leistungssteigerung sagen wir einmal 20% verzichten nur weil nicht die möglichen 800% dabei raus kommen würden?
An kaum einer Stelle kann man die sinnlose Argumentation besser lesen als im Spiele Sektor wo es schon beim Aufkommen der Dualcores auch so unmöglich sein sollte zu parallelisieren. Das diese Argumentation schon damals Blödsinn war kann man heute unschwer erkennen und dennoch wird fleissig daran fest gehalten um den Kauf von CPU X zu rechtfertigen.

Der einzige der davon profitiert ist der Hersteller der Software da er z.B. bei den Schulungskosten und neuen Entwicklungstools sparen kann.
Das dies aber alles andere als unmöglich sein muss sieht man ja im Smartphone/Tablet Sektor und das betrifft jetzt nur das Multithreading. Die Nutzung neuer Befehlssätze usw. kommt da noch hinzu.

Wenn der x86er Sektor ein geht dann liegt das in meinen Augen in erster Linie an der fehlenden Weiterentwicklung im Software Sektor.
 
ARM ist meiner Ansicht nach inovatiever als AMD oder Intel. Sie haben sehr ausgereifte Architekturen kommen aber von ihren Formfactor nicht runter, anscheinend unterschiedliche Zielsetzungen. VR-Brille und Gaming erfordert hohe Reichenleistung, ob das dann zu einem Verkaufsschlager wird sei mal dahingestellt. ARM löst da viel ab wo füher zur Steuerung ein normaler PC stand. Kleiner einfacher aufgebaut schneller zu wechseln.

Ein ARM Einplatinen Computer, reicht aus um einen home Desktop PC zu ersetzen wenn man keine Filmbearbeitung macht. Die neusten Smatrphones haben 8 Core und 4 GB RAM. Höchstleistungsverbrauch 20 Watt bei Vollast im Normalfall 8 Watt, wenn man sich so eine Platine zulegt.

Selber hab ich mir einen Pi2 zugelegt, der Flaschenhals ist die SD-Card aber ansonsten kann ich nicht meckern. AMD und Intel ham da nichts im Angebot.
 
An kaum einer Stelle kann man die sinnlose Argumentation besser lesen als im Spiele Sektor wo es schon beim Aufkommen der Dualcores auch so unmöglich sein sollte zu parallelisieren. Das diese Argumentation schon damals Blödsinn war kann man heute unschwer erkennen und dennoch wird fleissig daran fest gehalten um den Kauf von CPU X zu rechtfertigen.

Spiele-Sektor haben aus meiner Sicht Wintel dafür verantwortlich dafür dass sich wenig ändert.

Ich habe nicht gesagt, dass es unmöglich ist. Wenn man will bekommt man es schon hin. Windows 8 setzt z.B. verstärkt auf eine asynchrone Ausführung und blockiert viel weniger bei länger laufenden Operationen das UI als es noch Windows 7 getan hat. Und trotzdem halten viele Win 7 für das ultimative OS. Das hat man dann als Entwickler davon...

In den letzten Jahren hat man bei Spracherkennung, Bilderkennung und Intelligenz große Fortschritte gemacht auch wenn das bisher auch nur von wenigen im privaten Bereich akzepiert worden ist. Ich bin als Entwickler im industriellen Bereich tätig und hier wird Bilderkennung findet Bilderkennung permanent neue Einsatzgebiete. Früher hatte man Lichtschranken, heute sind es Kameras. Früher hatte man Barcodes, heute erkennt die Kamera so den Karton. Prominentestes Beispiel ist die Torlinientechnik im Fussball. Klassischer MT-Code auf x86 Basis kommt hier schnell an seine Grenzen. HSA wäre eine Alternative, allerdings fehlt bei den Großen an Akzeptanz, so dass kaum ein Entwickler darauf setzt. OpenCL dagegen wird selbt von Intel akzeptiert, auch wenn 2.x noch auf sich warten lässt.

Der Knackpunkt liegt doch immer darin ob es Anwendungsfälle gibt die den Mehraufwand rechtfertigen. Für etwas Internet und WhatsApp benötigt man keinen hochoptimierten MT Code.

--- Update ---

Ein ARM Einplatinen Computer, reicht aus um einen home Desktop PC zu ersetzen wenn man keine Filmbearbeitung macht. Die neusten Smatrphones haben 8 Core und 4 GB RAM. Höchstleistungsverbrauch 20 Watt bei Vollast im Normalfall 8 Watt, wenn man sich so eine Platine zulegt.

Die kommen aus einer ganz anderen Ecke. ST-Leistung war da nur bedingt notwendig. Die meisten Dinge laufen asynchron, und Energieeffizienz stand im Vordergrund. Und Energieeffizienz bedeutet nun mal meist viele langsam laufende Kerne. Und damit Parallelisierung
 
AMD ging schon immer den Weg der Parallelisierung und eher moderate Taktung, Nur muss man auch die Daten aufbereiten um sie dann abrechnen zu können. Da hat AMD bei Volllast immer noch einen Vorsprung vor Intel, aber auch den Nachteil das, das auch sehr viel verbraucht.

Das ganze dann mit HBM wird ein riesen Thema und den Ingis doch den einen oder anderen Tropfen Schweiss abringen. ;D Intel hat auf einmal auch einen SidePortMem den AMD schon vor Jahren hatte.
 
@ Peet007
Da ARM keine Prozessoren verkauft sondern Lizenzen für ihre Architekturen ist das eine ganz andere Hausnummer, zumal die Lizenznehmer auch noch die Möglichkeit haben sie für ihre Anforderungen anzupassen.

@mariahellwig
Für die Entwicklung der Spiele sind immernoch die Entwickler und Publisher selbst verantwortlich. Dass es auch anders geht sieht man ja bei den Bemühungen von Valve zum SteamOS bzw. dem Linux Support. Man sieht doch bei diversen Spielen dass es dort offenbar nur um eines geht. Mit möglichst wenig Mitteln die Spiele an möglichst viele User zu verticken. Die Qualität der Spiele scheint bei vielen nur noch eine untergeordnete Rolle zu spielen.
Der Knackpunkt liegt meiner Meinung nach schon lange nicht mehr darin ob es Anwendungsfälle gibt die den Mehraufwand rechtfertigen sondern ob die Verkaufszahlen bei nicht Nutzung nicht zu sehr einbrechen und wenn alle Vogel Strauß spielen....
Bestes Beispiel dafür ist ja der Spiele Sektor wo Spiele angeboten werden die selbst mit gnadenlos übertakteten Intel Prozessoren nicht uneingeschränkt flüssig laufen weil nur ein Bruchteil der Kerne genutzt wird aber da der Mob sie dennoch kauft ändert sich nichts. Nach den Verkaufszahlen waren sie ja offensichtlich gut genug.

Dass Windows 7 gegenüber Windows 8 bevorzugt wird hat weniger mit der Technologie als vielmehr mit dem für den Desktop Einsatz Vermurksten und langweiligen GUI zu tuen.
Und ja, ich spreche hier aus eigener Erfahrung (kleiner Test Rechner) denn ohne Zusatz Tool (Classic Shell) empfinde ich die Bedienung als ne Zumutung da ich eben nicht immer nur die gleichen Programme nutze und von dem immer weiter reichenden DRM Zwang mal ganz zu schweigen. Als zusätzlichen Button ist das neue Menü aber durchaus OK um z.B. einen Blick auf den Wetterbericht zu werfen.
Wie lernresistent Microsoft ist beweisen sie aber immer wieder aufs neue und wieder krankt der x86er Sektor vor allem im Software Bereich.

--- Update ---

AMD ging schon immer den Weg der Parallelisierung und eher moderate Taktung, Nur muss man auch die Daten aufbereiten um sie dann abrechnen zu können. Da hat AMD bei Volllast immer noch einen Vorsprung vor Intel, aber auch den Nachteil das, das auch sehr viel verbraucht.

Das hat aber nichts mit der ARM Architektur zu tuen
Das ist ein reines Software Problem denn dies trifft Intel ebenfalls nur fällt es dort nicht so auf weil sie eine höhere Einzelkern Leistung beim 0815 Code haben und dadurch letztendlich schneller als die AMD Gegenstücke sind.
 
Es werden zig Begründungen dafür geliefert warum man nichts an der Software optimieren sollte und ganz ehrlich...da frage ich mich ernsthaft warum.
Warum sollte man also aus Sicht des Kunden z.B. bei nem 8 Kerner wegen dem ST Code auf eine mögliche Leistungssteigerung sagen wir einmal 20% verzichten nur weil nicht die möglichen 800% dabei raus kommen würden?
An kaum einer Stelle kann man die sinnlose Argumentation besser lesen als im Spiele Sektor wo es schon beim Aufkommen der Dualcores auch so unmöglich sein sollte zu parallelisieren. Das diese Argumentation schon damals Blödsinn war kann man heute unschwer erkennen und dennoch wird fleissig daran fest gehalten um den Kauf von CPU X zu rechtfertigen.

Der einzige der davon profitiert ist der Hersteller der Software da er z.B. bei den Schulungskosten und neuen Entwicklungstools sparen kann.
Du programmierst selbst vermutlich keine parallelisierte Software, oder?
Sofern das Problem nicht von sich aus absolut in separate Teilprobleme zerlegt werden kann, die a) unabhängig von einander sind und b) alle ca. die gleiche Ausführungszeit benötigen und c) für jedes Teilproblem in die Caches passen, ist eine gute Parallelisierung verdammt hart. Man stellt sich das manchmal leicht vor, das ist es aber nicht.
 
Recht hat er...

Schwierig wird es auch wenn der Verlauf eines Tasks von dem Ergebnis eines anderen abhängt. Und, und, und.
Auch sollten die Tasks nicht zu klein sein, sonst frisst der Overhead den Gewinn wieder auf. Das gilt besonders bei der Verwendung von OpenCL.

--- Update ---

@ Peet007
Der Knackpunkt liegt meiner Meinung nach schon lange nicht mehr darin ob es Anwendungsfälle gibt die den Mehraufwand rechtfertigen sondern ob die Verkaufszahlen bei nicht Nutzung nicht zu sehr einbrechen und wenn alle Vogel Strauß spielen....
Bestes Beispiel dafür ist ja der Spiele Sektor wo Spiele angeboten werden die selbst mit gnadenlos übertakteten Intel Prozessoren nicht uneingeschränkt flüssig laufen weil nur ein Bruchteil der Kerne genutzt wird aber da der Mob sie dennoch kauft ändert sich nichts. Nach den Verkaufszahlen waren sie ja offensichtlich gut genug.

Warum soll man dann auch etwas ändern.

@ Peet007
Dass Windows 7 gegenüber Windows 8 bevorzugt wird hat weniger mit der Technologie als vielmehr mit dem für den Desktop Einsatz Vermurksten und langweiligen GUI zu tuen.
Und ja, ich spreche hier aus eigener Erfahrung (kleiner Test Rechner) denn ohne Zusatz Tool (Classic Shell) empfinde ich die Bedienung als ne Zumutung da ich eben nicht immer nur die gleichen Programme nutze und von dem immer weiter reichenden DRM Zwang mal ganz zu schweigen. Als zusätzlichen Button ist das neue Menü aber durchaus OK um z.B. einen Blick auf den Wetterbericht zu werfen.
Wie lernresistent Microsoft ist beweisen sie aber immer wieder aufs neue und wieder krankt der x86er Sektor vor allem im Software Bereich.

Auch wenn ich deine Aussagen als etwas hysterisch empfinde, wäre der Schluss daraus, dass man die Ressourcen in eine bessere GUI investieren müsste und nicht in Parallilisierung.
 
@ miriquidi
Nein und viele von denjenigen die es können müßten offenbar auch nicht.
Ich sehe bei dir ausschließlich Gründe sich vor der MT Programmierung zu drücken aber auch keinen Grund warum neuere, leistungsfähigere Befehlssätze ignoriert werden.
Für Ärzte wäre es sicherlich auch viel einfacher auf dem Wisse zu verharren das sie bei ihrer Ausbildung erlernt haben aber nein.....stetige Weiterbildung ist da praktisch Pflicht.

Das beste Beispiel für die Ignoranz in diesem Bereich sind doch Audio Converter. Warum zum Henker bestehen so viele darauf die Liste nach und nach abzuarbeiten anstatt sie auf die Kerne zu verteilen? Und das ist wohl die primitivste Form die Kerne auszulasten. Ich kann mir gut vorstellen das ein ähnliches Vorgehen auch bei Spielen möglich wäre. Zerlege das Bild in einzelne Objekte die letztendlich separat berechnet werden können. Gerade bei Strategie spielen sollte das kein sonderliches Problem sein, erfordert aber eine andere Programmierung. Dennoch verharren sie bei 1-2 Kernen und rennen bei vielen Einheiten voll ins Limit der Kerne.

--- Update ---

Warum soll man dann auch etwas ändern.
Und erneut sieht man das sich erst etwas ändert wenn es an den Geldbeutel geht. ;)
Fehlender Konkurrenzdruck eben.

Auch wenn ich deine Aussagen als etwas hysterisch empfinde, wäre der Schluss daraus, dass man die Ressourcen in eine bessere GUI investieren müsste und nicht in Parallilisierung.
Da sollte man mal ganz schnell Windows von den zusätzlichen Programmen trennen.
Das GUI interessiert schließlich herzlich wenig wenn es darum geht wie schlecht die Programme parallelisiert sind.
Sie hätten mal besser die Ressourcen in der Korrektur des GUI als in die DRM Gängelung investiert.
 
Wieso die neue GUI ist das einzige sinnvolle an w10, wobei gescheitert der andere Teil von w7 hätte übernommen werden sollen.
Gerade beim arbeits PC wäre es sinnvoller ein passendes, aber nei kann kommen wieder die Steinzeitmenschen aus der höhle und mache miimiimii war 20 Jahre anderst und das war gut so.
Wobei das nicht heißt das neue Startmenü ist perfekt. Nur bei einem vernünftigen iconset in toolsammlungen orientieren sich viele an den icons es sei den der Hersteller war faul und gab allen tools das selbe icon. Selbst mal ausprobiert, icons von word Excel vertauscht oder der Name, oder als drittes die Position. Was kam raus der neme des links im Startmenü ist irrelevant, die Position und das icons wird in den meisten fällen 90%+ genutzt.
Was die Ordner angeht und den meisten Fällen wurde in der Firma im firmeneigenen App link Ordner im Startmenü, 2-3 versuche gebraucht bis das selten genutzte Programm geöffnet wurde. Um es einem neuen Mitarbeiter zu zeigen.
Das zeigt eigentlich im neuen Startmenü gehen keine Informationen verloren, und wenn sortiert nach tool Gruppen, was mit 10 nun so flexibel möglich ist, gegenüber den klassischen Windows Startmenü für den normalen Nutzer keine Informationen verloren gehen.
Einzig das nicht flexible auswählen der Hintergrundfarbe bei den icons nerft.
Und für Firmen ist das Daten abgreifen wohl ein no go.

Das die Programme nicht alle Kerne ausladen ist OK, es gibt da ein passender workflow dafür und der heißt während dem rechnen nicht däumchen drehen sondern andere aufgabenschritte vorbereiten, administratives erledigen. Oder von Hand wenn viel gleiches gemacht werden muss eine 2/3/4. Instanz von Hand starten. Teilweise ist nicht gewünscht das was einfach geht wie bei itunes der audio import aus einem anderen mp3 player, schließlich wollen sie audio file verkaufen.
 
Zurück
Oben Unten