Zambezi - Fehler, Bugs, mangelnde Performance - Woran liegt es?

Läuft HyperThreading nicht unter HTT?
Vielleicht steht das HT ja für Multicore im allgemeinen. *noahnung*
 
falls es in dem Zusammenhang interessiert, ich sitze gerade vor einem Intel Atom 330 ION mit Linux, und der hat auch Hyperthreading, der meldet sich so:

# cat /proc/cpuinfo
processor : 0
vendor_id : GenuineIntel
cpu family : 6
model : 28
model name : Intel(R) Atom(TM) CPU 330 @ 1.60GHz
stepping : 2
cpu MHz : 1599.996
cache size : 512 KB
physical id : 0
siblings : 4
core id : 0
cpu cores : 2
apicid : 0
initial apicid : 0
fpu : yes
fpu_exception : yes
cpuid level : 10
wp : yes
flags : fpu vme de tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx lm constant_tsc arch_perfmon pebs bts rep_good nopl aperfmperf pni dtes64 monitor ds_cpl tm2 ssse3 cx16 xtpr pdcm movbe lahf_lm dts
bogomips : 3850.14
clflush size : 64
cache_alignment : 64
address sizes : 32 bits physical, 48 bits virtual
power management:

also ich sehe da keinen Unterschied zum Bulldozer
 
Die Flags laut Sysinfo unter ubuntu von meinem kleinen E-350 und siehe da...ein alter Bekannter:
fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt pdpe1gb rdtscp lm constant_tsc rep_good nopl nonstop_tsc extd_apicid aperfmperf pni monitor ssse3 cx16 popcnt lahf_lm cmp_legacy svm extapic cr8_legacy abm sse4a misalignsse 3dnowprefetch ibs skinit wdt arat npt lbrv svm_lock nrip_save pausefilter
Scheinbar steht das nur für mehrere Kerne in einem Prozessor.
 
Das wurde doch nun schon festgestellt: AMD setzt bei allen Prozessoren mit mehr als einem Kern das HT Flag!

Was interessant ist, ist das der BD sich mit 4 Kernen, aber 8 Siblings meldet. Ein Thuban dagegen meldet sich mit 6 Kernen und 6 Siblings. Der BD gibt also gegenüber dem Betriebssystem zu, dass einige Ressourcen zwischen den Siblings geshared werden, genau wie beim Atom, oder anderen HT Intel CPUs.
 
Und welche Ursachen könnten jetzt für die schwache Leistung verantwortlich sein? *noahnung*
Frontend/Backend, Cache Design, ALUs, instruction per cycle?
AMD entwickelt mehrere Jahre ein neues Design, zwischendurch schiebt man ein 6 Core Design auf K10 Basis in 45nm Strukturen in den Markt und der Nachfolger Bulldozer der 32nm HKMG Strukturen als Vorteil hat ist nicht schneller als ein getunter K8 mit 2x128 Bit FPU ala K10? Eine CPU die man FX nennt ist heute im vergleich zu Intels Sandy Bridge Prozessoren einfach ineffizient geworden, hat zuwenig Leistung, sowas würde vor 3 Jahren noch gut gehen aber heute ist selbst ein i5-2500k für 170 € besser als ein FX8150/8120 oder ein i3-2100 schlägt fast jeden FX in Games.

Irgendwas muss bei der Entwicklung richtig schief gelaufen sein, die Integer Cores haben einfach zuwenig Leistung pro Takt, was könnte die Ursache dafür sein? So einach kann man jetzt nicht mehr in 2 Jahren 30% mehr instruction per cycle rausholen, K10 hat pro Thread bereits deutlich mehr IPC, dafür braucht man bestimmt hunderte Mitarbeiter die sich nur auf eines konzentreren, es war damals Intels Werk in Israel die es geschaft haben, aber nur mit vielen Ressourcen, ein ähnlicher weg wie Core braucht jetzt auch AMD, man muss mehr für x86 Leistung investieren, nicht auf Taktsprünge hoffen, wenn GF Probleme hat ist AMD dran.

Trinity @125W TDP
Wenn sich das bestätigen sollte wird sich die x86 Leistung pro Takt mit Piledriver Cores nicht viel verbessern, die Leistungsaufnahme soll bei der APU höher als Llano ausfallen!!! Hört ihr 2012 will AMD die TDP 25W erhöhen, Intel geht von 95 auf 77W zurück!
Die ganzen Redaktionen werden dann Ivy Bridge mit 77W gegen Trinity mit 125W vergleichen, ist doch klar das AMD der verlierer sein wird, da kann selbst die gute GPU von Trinity nicht überzeugen, Ivy wird über 60% mehr CPU leistung pro Thread als Trinity haben...
AMD könnte mit Trinity besonders wenn man die APU bis 2013 im Programm hat scheitern, die OEMs werden dann nur die 2C/4T APU bis 30W TDP bevorzugen und die Leistung wird im vergleich zu Intels Ivy Bridge richtig scheisse ausfallen...
 
Zuletzt bearbeitet:
Die Integer-Cores sind sicherlich weniger Schuld. Das Problem ist mMn eher, dass es sich vom Frontend her um einen 4-Kerner handelt und er sich auch so verhält. hätte man dem Teil eine K10-3-Issue-Int-Einheit spendiert, wäre er wahrscheinlich auch nicht schneller. Im Grunde ist es doch so, dass die Integer Cores doch erst dann ihren Vorteil ausspielen können, wenn sie vom Frontend stetig mit Daten gefüttert werden können - deshalb geht Streamingzeug auch realtiv gut auf BD. Man darf ja nicht vergessen, dass die geteilte FPU an beiden Int-Cores hängt - kann das Frontend die Arbeit nicht korrekt aufteilen, drehen die ganzen tollen Recheneinheiten inclusive der FPU zu oft Däumchen. Das wird das eigentliche Problem sein.
Wenn man z.B. Spiele betrachtet, so sind Spiele ein interessanter Fall, da sie in Echtzeit laufen. Zusätzlich bestehen Spiele aus giganten Datenmengen, die in Echtzeit verwaltet werden müssen. Das fordert weniger die eigentliche Rechenleistung des Prozessors, sondern eher, wie der Prozessor mit den Datenmengen klarkommt. Deshalb spielen auch die ganzen zusätzlichen Befehlssätze, die Streamingsachen doch vorzüglich beschleunigen, für Spiele überhaupt keine Rolle. Je schneller die CPU alle Daten gleichzeitig liefern kann, desto schneller läuft auch das Spiel. Deshalb sind für Spiele auch die Caches entscheidend. Hat man große, schnelle Caches mit einer "breitbittigen" (z.B. 256Bit-)Anbindung, wir der Core2 damals, laufen Spiele effizienter als mit großen langsamen Caches oder schnellen Caches, die einfach zu klein sind. Blöderweise hat BD jetzt auchnoch beides. Der L2 ist zwar groß, aber auch recht langsam, der L1-Daten-Cache ist zu klein mit 16kB und obendrein trotzdem noch langsam - das kann nicht funktionieren. Der L3 wird im Gegensatz zum K10 mMn garkeine Rolle Spielen im BD für Spiele. Da ist es ja eher ein Wunder, dass BD mit dem K10 bei Spielen mithält mMn. Hinzu kommt sicherlich auch, dass es mal wieder keinen Decoder-Schnellweg für einfache Befehle im BD gibt, aber da gibt es wohl bei Steamroller Abhilfe. Es gibt noch ein Haufen Probleme, die angepackt werden müssen. Zudem muss das Cache-System neu ausgerichtet werden, mMn ist das die größte Bremse bei Desktop-Anwendungen. Lieber den L3-Cache ganz weglassen und einen kleinen L1,5-Cache einfügen, der schnell, breit und voll inklusiv ist.
Wenn man sich an die Folie mit den "10-15% Leistung pro Jahr" wieder ins Gedächtnis ruft - das reicht nichtmal ansatzweise. Das ist kein Ziel mMn, da es ein totaler Rückschritt wäre, was die Folie zu einem reinen Marketing-Blabla degradiert - sollte AMD das ernst meinen, könnten sie gleich aufhören CPUs zu bauen. Beide Hersteller haben bisher immer 20% oder mehr pro Jahr geschafft (30%+ bei AMD in 2009 und Intel in 2011). Piledriver muss mindestens 15% pro-Takt-Leistung bringen und Steamroller 25% mehr pro-Takt-Leistung auf Piledriver, sonst wird das nix. Zudem brauchts ordentliche Taktsteigerungen bis 5GHz+ bei Steamroller. So Unwahrscheinlich ist das auch nicht, ist BD doch eine Art Rohentwurf und es gibt doch noch sehr viele Stellschrauben an denen man drehen kann, jetzt wo man die gesamte Softwarebandbreite um die Ohren geklatscht bekommt und alle Schwachstellen besser identifizierbar sind in der Praxis.

AMD hatte einfach zu wenig Zeit um das Teil auf 32nm aufzusetzen. Da war wohl 32nm doch erheblich problematischer als man vorher dachte. Wie gesagt, hat der Prozessor nur eine komplette Rev. durchgemacht in dem frühen, kaum funktionablen Fertigungsprozess. Man hatte in 2010 erst das erste Tapeout für dieses nagelneue Stück Technik. Die Architektur war neu, der Fertigungsprozess war neu, HKMG war neu und das ganze Grunddesign ebenfalls. Man hat alles auf eine Karte gesetzt und dieses Mal verloren. Wer weiss, vielleicht wäre es besser gewesen, BD in 45nm mit HKMG und ULK Mitte 2009 in der Rev.A zu beginnen und Mitte 2011 dann noch in 45nm, aber voll ausgereift als Rev.C oder D, rauszubringen - schaut man sich die Modulgröße an, wär das sicherlich gegangen (mit nur 512kB L2-Cache und 4MB L3-Cache oder so, aber dafür schneller). Dann hätte AMD nicht mit Problemen im neuen Fertigungsprozess permanent kämpfen müssen, was sicherlich einiges an Entwicklungszeit (vertane Arbeit) eingespart hätte und man hätte weit mehr Zeit zur Handoptimierung gehabt.
Natürlich kann man hinterher immer alles besser wissen - man traf damals die Entscheidung mit 32nm zu arbeiten, das ist jetzt nunmal so und es ist recht schwer zu bewerten. Aber wenn man das ganze GloFo-Theater so betrachtet, wär 45nm die bessere Entscheidung gewesen - für 32nm hätte Llano doch sowieso das bessere Experimentierfeld abgegeben. Dann ist Intel eben ne ganze Generation vorne, das war schon öfter so. Wahrscheinlich liegt das sogar mehr an GloFo als an AMD. Die Pläne, die da gemacht wurden mit zig neuen Fertigungsprozessen waren sicherlich viel, vieeel zu ehrgeizig. Man sieht die vielen verschiedenen Fertigungsprozesse wieder verschwinden und die Zeiträume realistischer werden auf den Roadmaps. 32(28 )nm bis Ende 2014 zu planen ist sicherlich ne gute Idee und 20nm dann in 2014 langsam einzufahren mit einem reifen Design (Excavator) auch. Ob jetzt mit oder ohne SOI oder gar mit irgendwelchen Mischformen sei mal dahingestellt. Ich bin da zuversichtlich, dass AMD seine Designmacken in den Griff bekommt und auch, dass GloFo die Fertigung besser hinbekommt. Es kann ja auch nurnoch besser werden ;). Immerhin blieben weitere Designdesaster wie beim K10 Rev.B (mehr als ein halbes Jahr verloren wegen den Kern-Taktdomänen, die im Nachhineinbetrachtet sowieso völlig fürn Arsch waren) oder TLB-Bug diesmal aus (genaugenommen war der K10-Start garnicht soviel anders, da Intel auch mehr als 40% vorne war mit dem 9650, TLB-Bug nicht mitzählt und der Fertigungsprozess war noch ein viel größeres Desaster als heute). Und auf einen 28nm Gate-Last HKMG+ULK-Prozess besteht ja auchnoch Hoffnung.
 
Zuletzt bearbeitet:
Es ist allgemein nur ein 4 Kerner mit 8 Int. Einheiten, da so gut wie alles andere nur geteilt wird.
Die Leistung teilt sich letztendlich auf die 8 "Kerne" auf, wodurch das Design versagt wenn nicht alle "Kerne" genutzt werden. Der Segen des CMT Designs bei Multicore Anwendungen wird letztenendes zu seinem Fluch, wenn sie Leistung pro Kern nicht ebenfalls entsprechend aufgepumpt wird, was den Kern aber auch deutlich komplexer macht.

Mit dem Bulli wurde in meinen Augen das fortgesetzt was sich bereits beim Phenom gezeigt hatte und hat die Problematik durch die gesunkene single Thread Leistung gar noch verschärft. Man scheisst sich beim Chip Design auf das professionelle Segment ein, verliert dabei die Gegebenheiten des Desktop Markts aus den Augen und kann diesen nur noch im unteren Preisbereich und mit Nischenprodukten bedienen.
Wie Erfolgreich man damit fährt wird sich zeigen.
 
...Man scheisst sich beim Chip Design auf das professionelle Segment ein, verliert dabei die Gegebenheiten des Desktop Markts aus den Augen und kann diesen nur noch im unteren Preisbereich und mit Nischenprodukten bedienen...

*lol* - das trifft es allerdings auch irgendwie.
 
rofl...ich sollte um die Uhrzeit nicht mehr rumtippen. *lol**suspect*
 
Lieber den L3-Cache ganz weglassen und einen kleinen L1,5-Cache einfügen, der schnell, breit und voll inklusiv ist.
Jo die Idee klingt gut, aber dann gehts schon los: Soll der L1,5 für beide INT cores gemeinsam sein, oder privat für jeden einzeln?

Falls gemeinsam: Das Teil ist ziemlich klein und wird dann oft gegenseitig von den Kernen geleert.
Falls dezidiert pro Kern: Dann kann man auch gleich den L1 größer machen. Darauf hoffe ich eh mit jedem Shrink ^^ Aber ob da schon was bei 28nm nachgelegt wird, glaub ich eher nicht.

Laut Datenblättern wird ja erstmal der Write Combining Cache verbessert, der ist eigentlich ja schon ne Art L1,5 Cache *lol*
 
Je einfacher die Mittel, mit denen Verbesserungen erreicht, desto besser ;).

Na ja, ich find Intels Idee des voll inclusiven L2 mit 256kB ziemlich kopierenswert ;D. Dazu zwei 32kB L1-D$s.
 
Na ja, ich find Intels Idee des voll inclusiven L2 mit 256kB ziemlich kopierenswert ;D. Dazu zwei 32kB L1-D$s.
Wird dann aber ziemlich viel Fläche, wenn Du 2x256L2 hast. Würde wohl zuviel des Guten werden. Naja mal schauen, was sie in Zukunft noch so basteln ^^
 
Was ist denn hier schonwieder für eine Schwarzmalerische Stimmung ausgebrochen.
Bis vor wenigen Seiten ging es in diesem Thread noch darum zu ergründen woher Zambezis schwächen kommen und wir spekulierten über technische spezifika... und nun wird wieder die bashing-keule ausgepackt...
Seit wann ist gaming eigentlich der einzige Maßstab für Rechenleistung.
Zambezi mag nicht gerade eien Punktlandung sein, und sich AMD vieles anders vorgestellt haben... aber die leidigen Vergleiche damit was intel abliefert sind so nicht haltbar.
Wenn ich die 5-fachen Ressourcen zur Verfügung habe und damit +50% mehr erreiche als am Ausgangspunkt, dann nenne ich das nicht unbeidingt eine Glanzleistung!
Und dass Intel in der IPC voraus ist, ist spätestens seit Core2 keine große Neuigkeit mehr und dennoch wurden bsiher auch genug Phenoms verkauft.
Also lasst die Kirche im Dorf... sogar Llano ist beliebt obwohl er keine überragende CPU-Leistung vorweisen kann. Und selbst wenn Ivy Bridge in der Praxis wirklich 60% mehr GPU-Leistung hat und Intel die Treiber gebacken kriegt, pustet eine GPU wie sie für trinity angedacht ist, die IGP von Ivy immernoch aus dem Wasser...
Allgemein verstehe ich die Aufegung nicht. Solange Trinity ein gutes Gesamtpaket abliefert und genug Leistung für die Mehrheit der Leute, gibts überhaupt keinen Grund warum er sich nicht verkaufen sollte, selbst wenn Ivy den längeren Balken beim 7Zip-Benchmark hat. Wann ist das in der Praxis schonmal wirklich relevant?

*noahnung*
Ich klinke mich hier aus bis es gesichertere Infos gibt, aber bitte spammt diesen thread nicht auch mit schwarzmalerei, AMD-Bashing und lamentieren über den fehlenden Messias voll...
 
Hmm, wo war da nun Bashing oder Schwarzmalerei? Ich nehme mal an, dass für 99% der Leute hier die Desktop/Spieleleistung wichtig ist. Ist ja kein Serverforum.

Das hier ist auch richtig:
Und dass Intel in der IPC voraus ist, ist spätestens seit Core2 keine große Neuigkeit mehr und dennoch wurden bsiher auch genug Phenoms verkauft.
Aber AMD hats halt fertig gebraucht die IPC nochmals zu senken, während Intel seit Core2 einige Schippen nachgelegt hat. Der Abstand ist also noch größer. Das ist auch keine Schwarzmalerei das ist einfach die nackte Wahrheit.
 
...
*noahnung*
Ich klinke mich hier aus bis es gesichertere Infos gibt, aber bitte spammt diesen thread nicht auch mit schwarzmalerei, AMD-Bashing und lamentieren über den fehlenden Messias voll...

Ich will ja nichts sagen, aber das ist auch immer das gleiche..was Du schreibst.
Und was ist Bashing!? Was ist Spam? Wenn man Ross und Reiter nennt oder versucht es zu ergruenden?

Warum qualifizierst Du die Beitraege anderer so pauschal ab?

Das staendige Trommeln - AMD habe viel weniger Resourcen und noch Wettbewerbsnachteile, begruendet nicht, dass Zambezi's Leistung erst einmal im Desktop absolut enttaeuscht.
Das sind alles Dinge, die bekannt sind - auch AMD kennt sie.

AMD koennte auch die Haende in den Schoss legen und sagen: 'Boese Welt - wir sind so klein und alle sind gemein zu mir' - tun sie aber (hoffentlich) nicht.

Wenn man den Rueckblick wagt, dann haben genau diese Umstaende AMD nicht davon abgehalten, mit Athlon Intel zeitweilig deutlich den Rank in der Leistung abzulaufen, 64bit hoffaehig zu machen, APUs etc..oder?
'Klein sein' (nach den Entlassungen noch kleiner) kann man auch als Chance begreifen...

Gewiss ist CPU Leistung nicht alles - und der Erfolg AMDs haengt nicht allein an der CPU Leistung von BDv1 - sondern eher daran was AMD daraus macht...

Bitte kein pauschales Bashing der Beitraege und ihrer Autoren hier...

Sorry fuer OT
 
Für mich wird der Bulli erst nach der Überarbeitung des Designs wieder interessant, da die derzeitige Form zu viele Nachteile hat und ich bin gespannt was zuerst kommt. Der Trinity oder die hochgezüchteten AM3+ Modelle.
 
Und welche Ursachen könnten jetzt für die schwache Leistung verantwortlich sein? *noahnung*
Frontend/Backend, Cache Design, ALUs, instruction per cycle?

Als Ursache für die "schwache" Leistung im Desktop sehe ich den 32nm Prozess der keine 5+ GHz im erlaubt und bei 3+ GHz schon viel zu hohe Spannung fordert um wenigstens durch Energieeffizienz zu punkten.

An die Dolchstoßlegende von fehlender Zeit um mit 32nm Erfahrung zu machen glaube ich dagegen nicht. Frontend und Cache sind in jeder Strukturgröße für den Desktop suboptimal. Es ist für mich zwingend logisch zu schlußfolgern das AMD aus dem Rennen um die schnellste Desktop-CPU (vorerst) ausgestiegen ist um sich wieder auf Gewinn statt Prestige zu konzentrieren. Diese Strategie ist aber nun durch die Unfähigkeit von GloFo gefährdet.
 
Gewiss ist CPU Leistung nicht alles - und der Erfolg AMDs haengt nicht allein an der CPU Leistung von BDv1 - sondern eher daran was AMD daraus macht...

AMD macht doch seine Sache gut mit dem Bulldozer - oder warum tauchen auf einmal so "viele" Bulldozersysteme in der Top 500 auf ?! Immerhin auch in den Top20 !!!!!

Für Desktop ist Bulldozer halt keine CPU aber für HPC und DB-Server ist Bulldozer doch ganz brauchbar oder (weil halt drauf optimierte Anwendungen laufen ...)
 
Gebashe ? Wo? Wenn einmal angesprochen wird, das Zambezi gamingmässig im Moment die schlechtere Alternative zum Phenom II ist (Intel mal aussen vor), dann ist das ja kaum zu leugnen. In den Anwendungen schlägt er sich ja ganz okay und im Serverbereich ist er auch ganz gut. Im Desktopbereich sollte aber auch das Gaming berücksichtigt werden. Im übrigen kommt doch gerade beim Gaming die Problematik möglicherweise am besten zur Geltung. Die "Wir haben viel weniger Ressourcen" Sache hilft da nicht weiter. Bei der Fehlersuche natürlich schon gar nicht.

Bisher haben wir doch ein paar ordentliche Ergebnisse bezüglich der Fehlerspekulationen erzielt. Zusammen mit dem 32nm Prozess (sehe das ähnlich wie Markus) mag das vielleicht auch schon das ganze Problem sein.

Ausserdem sind wir doch alle keine Schwarzmaler hier, sonst würde der Thread anders aussehen. AMD sieht bisher keine Fehlerkorrektur vor. Piledriver lässt auch wenig Spielraum für große Flughöhen. Trotzdem diskutieren wir mögliche Problematiken und Verbesserungen. Das ist doch ausgesprochen hoffnungsvoll und optimistisch :D
 
Das Ganze ist aber bekannt und bereits bis zum erbrechen durchgekaut. Ja, die IPC ist bei Standardcode Suboptimal, Ja man hatte nach all den JAhren mehr erwartet, Ja, der GF-Prozess ist noch nicht das Gelbe vom Ei... wir habens verstanden.
Darüber zu Phantasieren ob AMD nun gepennt hat, was zu K7-Zeiten war (wobei wir auch schon 50 mal festgestellt hatten dass das nicht nur AMDs verdienst war, sondern intel einfach gepennt hatte damals) und ob Trinity nun eine Chance gegen Ivy Bidge haben wird, tut genau wieviel zur Thread-Frage? - Da steht "Woran liegt es?" - und genau das haben wir vor einigen Seiten mit Spekulationen über fehlenden Trace Cahe etc. versucht zu beantworten, ich kann im Threadtitel aber keien Aufforderung dazu erkennen ein und die selbe KRitik zum zweiundachzigtausendsten mal erneut herunter zu beten... irgendwann ist genug ausgepeitscht.
Wenn ich Ingineur bei AMD wäre würde ich 1 mal die kritik noch akzeptieren, beim zweiten mal nicken, beim dritten mal mit den augen rollen, aber beim 20. mal käme ich mir langsam echt verarscht vor.
Nebenbei... Was soll das Ganze? - Wenn ich heute anfange über 2 jahre mein Gehalt zu sparen und dann in die Formel 1 einsteige, meckert dann auch jeder darüber dass ich nicht mit McLaren konkurrieren kann? *noahnung*
Effizienz misst sich in Aufwand und Nutzen. Und solange das Ganze immer nur einseitig betrachtet wird, nämlich im Nutzen, und nicht berücksichtigt wird, wie viele REssorucen in die Entwicklung geflossen sind oder eben nicht, ist es der Logik zufolge illegitim daraus ein Versagen von irgendwem abzuleiten! - Möglicherweise betreibe ich hier Haarspalterei, aber ich finde es irgendo auch nicht ok dem Entwicklerteam gegenüber ihr Werk als total untauglich darzustellen nur weil es die Erwartungen nicht erfüllt oder im falschen MArkt angeboten wird!
Deswegen ist nicht weniger Schweiss in die ganzen Interna und Spezifika geflossen wie wenn es am Ende ein Kracher gewesen wäre.
Dass BD Potenzial besitzt und es viel zu optimieren gibt, haben wir schon mehrfach festgestellt. Wie schnell sich da was umsetzen lässt ist aber ein anderes Thema. Und wie sehr unser Bild der Architektur verzerrt wird durch FErtigungstechnische Anpassungen können wir auch nicht wissen.
Möglicherweise wäre BD wesentlich Energieeffizienter wenn das mit ULK Dielektrika im 32nm-Prozess hingehauen hätte und die Spannungen daher noch en Ganze Ecke niedriger wären. *noahnung*
Genau genommen wissen wir aktuell nichteinmal ob überhaupt aktuell alle Features in BD so funktionieren wie geplant und nicht eigentlich das Prefetching oder die Sprungvorhersage besser arbeiten sollte und das aufgrund eines Bugs eben nicht tut? Agner Fog behauptet z.B. dass Core2s Sprungvorhersage eine TRefferquote von deutlich über 90% hat. Gibt es hierzu Zahlen und/oder analysen zu BD?
In einem Thread wie diesen gehört genau sowas gepostet. Details, infos darüber wo es klemmen könnte und woran AMD wohl am ehesten drehen wird und müsste um mehr heraus zu holen. Und nicht das übliche mit den Fingern auf AMD zeigen und "haaahaaa" gerufe alla Nelson. Das hatten wir schon, durchexerziert bis an die Kotzgrenze, das ist inzwischen Geschichte und belegt, danke und weiter im Text bitteschön.
Oder hat ein lamentieren darüber dass Trinity sowieso nicht wird mit IB mithalten können und blah xyz ach wie ist alles schlecht und überhaupt.... irgendwas mi dem Threadtitel zu tun? - ISt das etwa nicht schwarzmalen?
Übrigens, konnte mir bisher weder Duplex, noch rkinet, Bavarian Realist, noch sonst einer von den "AMD macht sowieso alles Falsch" - Verfechtern belegen dass sie selbst es besser hingekriegt hätten unter den selben Vorraussetungen (die wir nichtmal vollständig kennen) und genausowenig erklärt was es eigentlich bringen soll den Finger zum 1000sten mal auf die selbe Wunde zu legen?
Soll AMD aufhören CPUs zu bauen? - nein.
Kann sich AMD mal eben eine Super-CPU aus dem Ärmel schütteln? - wohl kaum.
Ist es Azubi-Arbeit eine moderne CPU zu entwickeln? - auch eher nicht.
Und was genau soll das Ganze dann bewirken?
Ich weiss nicht wie es euch geht, aber wenn ich einen Fehler gemacht habe, und mir dessen sehr gut bewusst bin... dann brauche ich den nun beim besten willen nicht auch noch von jedem dahergelaufenen 1000 mal aufs brot geschmiert kriegen. Sowas ist entwürdigend, demütigend und schafft nichts weiter als eine negative Motivation. Und wenn von einem Ohnehin nur das schlechteste erwartet wird, kommt zu 99% auch genau das heraus.
Also wenn mir hier irgendwer sagen kann inwieweit es AMD hilft Zmabezi zu verbessern, dass wir zum 2000 mal auf der konkurrenzsituation herumreiten, Ivy Bridge als Gegner hervorholen und auf die glorreichen vergangenen zeiten hinweisen, dann halte ich die klappe.
Allerdings bezweifel ich stark dass das irgendwer hinkriegt...

Edit:
Übrigens, CMT war bisher nur ein theoretisches Konzept! - AMD waren schlichtweg die ersten die den Mut aufgebracht haben das mal in ein Konkretes Produkt umzusetzen. Das könnte vielleicht auch mal gewürdigt werden! - Das Ergebnis ist nicht optimal ok. Aber immerhin ist hier eine Leistung vollbracht worden! - Egal ob akademischer Natur oder Marktrelevant. Man hat sich getraut mal was neues zu versuchen und dadurch sind wir am Ende alle klüger geworden. Nur um das mal festzuhalten! - Da werden leute als große Denker und Erfinder gefeiert die nicht einen einzigen Beweis dafür abliefern konnten dass ihre Theorien überhaupt richtig sind und ihre konzepte funktionieren. Und im Gegenzug wird auf diejenigen eingeprügelt die mal etwas wagen, was neues Versuchen und auch mal auf Risiko ein theoretisches Konzept umsetzen! Bin ich echt der einzige dem daran irgendwas nicht ok erscheint? *noahnung*
 
Zuletzt bearbeitet:
Also im großen und ganzen finde ich die BD schon gelungen, auf ihre Art eben!
125W TDP 8 Core vs. 150W TDP 6 Core klingt doch nicht schlecht?
Bin mal gespannt ob Ivy Bridge da noch was reisen kann, nochmal 20% mehr Leistung wird nicht einfach ohne Mehrverbrauch! ;)
 
Übrigens, konnte mir bisher weder Duplex, noch rkinet, Bavarian Realist, noch sonst einer von den "AMD macht sowieso alles Falsch" - Verfechtern belegen dass sie selbst es besser hingekriegt hätten unter den selben Vorraussetungen [...]
Da täuschst du dich. Mit dem Angriff Steiners dem nativen K10 Triple-Core würde das alles :] in Ordnung kommen.
 
AMD macht doch seine Sache gut mit dem Bulldozer - oder warum tauchen auf einmal so "viele" Bulldozersysteme in der Top 500 auf ?! Immerhin auch in den Top20 !!!!!

Für Desktop ist Bulldozer halt keine CPU aber für HPC und DB-Server ist Bulldozer doch ganz brauchbar oder (weil halt drauf optimierte Anwendungen laufen ...)

Genau - aber ich sprach explizit von der Desktopperformance - gut macht Bulldozer seine Sache aktuell hier nicht - und die (Spitzen)Leistung ist eher mau - im Vergleich zu den eigenen Angeboten der K10.5+ Generation - wenn auch ausreichend allemal.
An dieser Einordnung ruettelt auch kein HPC System Plazierung in den Top 20...
Man faehrt ja auch nicht mit einem Fahrrad ein Formel 1 Rennen und lobt dann die guenstige Energiebilanz...

Das eine schliesst ja nicht zwingend das andere aus - man muss es nur differenzierter betrachten...
 
Hi zusammen,

über ein Core Parking test bin ich auf den kommentar gestoßen das bei intel diese im Sandy und sandy e funktionieren unter win 7 aber beim Bulli nicht, ist damit nicht eine weitere turbo möglichkeit des bulli inc. einer spromsparfunktion beraubt? die grundleistung des bulli ist Mnm nicht so schlecht wie oft behauptet. die Spiele performance sehe ich etwas zwispältig den dort ist der bulli oft vorm PH2 nur bei einigen games sackt er massiv ab was aber teilweise mehr am Game als an der CPU Liegt.
Ich hoffe das win8 viele schwächen vom Bulli ausmertzen kann bsp. turbo für single Core anwendungen etc.

lg
 
das Parking der Cores geht bei Intel (seh ich an meinem Laptop der Firma) und ja das bringt einige Vorteile des Bully ganz schon ins Schwimmen.

Es können teilweise bestimmte Bereiche eines Modules, ein komplettes Modul, und dann auch noch der letzte das letzte aktiv laufende Modul auch soweit runtergefahren werden dass ich glaube nur noch einer der Int-Cores läuft, wenn der Mensch über Kausales Denkvermögen verfügt wird ihm schnell klar, dass eine krach neue CPU mit einer komplett neuen Funktionalität nicht auf einem zuvor erschienen Betriebssystem einfwandfrei läuft (allein die 20%+ unter Win8 belegen dies), es sei denn man stimmt seine CPU nicht auf seine eigenen Sondern die Vorstellungen und Limitierungen des zuvor bestehendes Systemes ab.

Was, ich glaube, AMD vermeiden wollte und etwas ganz neues schaffen wollte. Ich bin mir ganz sicher, dass auf den Bully perfekt abgestimmter Code, jede Intel CPU in Grund und Boden stampfen könnte.

Und leute die hier über die schlechte Branch-Prediciton urteilen, was für Noten hattet ihr in Wahrscheinlichkeitsrechnen? ;D;D

Ich will nicht wissen wieveile Erhebung von Daten notwendig ist um die Wahrscheinlichkeit P an eins an zu nähern um damit entsprechende genauigkeiten zu erhalten, so wie Intel mit 0,9, was schon der Wahnsinn ist. Vor diesem Algorithmus grauts mir nur beim drann denken *suspect* *suspect*
 
Zuletzt bearbeitet:
Zurück
Oben Unten