App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Zambezi - Fehler, Bugs, mangelnde Performance - Woran liegt es?
- Ersteller rasmus
- Erstellt am
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.324
- Renomée
- 1.971
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Läuft HyperThreading nicht unter HTT?
Vielleicht steht das HT ja für Multicore im allgemeinen.
Vielleicht steht das HT ja für Multicore im allgemeinen.
falls es in dem Zusammenhang interessiert, ich sitze gerade vor einem Intel Atom 330 ION mit Linux, und der hat auch Hyperthreading, der meldet sich so:
also ich sehe da keinen Unterschied zum Bulldozer
# cat /proc/cpuinfo
processor : 0
vendor_id : GenuineIntel
cpu family : 6
model : 28
model name : Intel(R) Atom(TM) CPU 330 @ 1.60GHz
stepping : 2
cpu MHz : 1599.996
cache size : 512 KB
physical id : 0
siblings : 4
core id : 0
cpu cores : 2
apicid : 0
initial apicid : 0
fpu : yes
fpu_exception : yes
cpuid level : 10
wp : yes
flags : fpu vme de tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx lm constant_tsc arch_perfmon pebs bts rep_good nopl aperfmperf pni dtes64 monitor ds_cpl tm2 ssse3 cx16 xtpr pdcm movbe lahf_lm dts
bogomips : 3850.14
clflush size : 64
cache_alignment : 64
address sizes : 32 bits physical, 48 bits virtual
power management:
also ich sehe da keinen Unterschied zum Bulldozer
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.324
- Renomée
- 1.971
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Die Flags laut Sysinfo unter ubuntu von meinem kleinen E-350 und siehe da...ein alter Bekannter:
fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt pdpe1gb rdtscp lm constant_tsc rep_good nopl nonstop_tsc extd_apicid aperfmperf pni monitor ssse3 cx16 popcnt lahf_lm cmp_legacy svm extapic cr8_legacy abm sse4a misalignsse 3dnowprefetch ibs skinit wdt arat npt lbrv svm_lock nrip_save pausefilter
Scheinbar steht das nur für mehrere Kerne in einem Prozessor.
fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ht syscall nx mmxext fxsr_opt pdpe1gb rdtscp lm constant_tsc rep_good nopl nonstop_tsc extd_apicid aperfmperf pni monitor ssse3 cx16 popcnt lahf_lm cmp_legacy svm extapic cr8_legacy abm sse4a misalignsse 3dnowprefetch ibs skinit wdt arat npt lbrv svm_lock nrip_save pausefilter
Scheinbar steht das nur für mehrere Kerne in einem Prozessor.
Lynxeye
Admiral Special
- Mitglied seit
- 26.10.2007
- Beiträge
- 1.107
- Renomée
- 60
- Standort
- Sachsen
- Mein Laptop
- Lifebook T1010
- Prozessor
- AMD FX 8150
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- Zalman Reserator 1 Plus
- Speicher
- 4x8GB DDR3-1600 G.Skill Ripjaws
- Grafikprozessor
- ASUS ENGTX 260
- Display
- 19" AOC LM928 (1280x1024), V7 21" (1680x1050)
- HDD
- Crucial M4 128GB, 500GB WD Caviar 24/7 Edition
- Optisches Laufwerk
- DVD Multibrenner LG GSA-4167B
- Soundkarte
- Creative Audigy 2 ZS
- Gehäuse
- Amacrox Spidertower
- Netzteil
- Enermax Liberty 500W
- Betriebssystem
- Fedora 17
- Webbrowser
- Firefox
- Verschiedenes
- komplett Silent durch passive Wasserkühlug
Das wurde doch nun schon festgestellt: AMD setzt bei allen Prozessoren mit mehr als einem Kern das HT Flag!
Was interessant ist, ist das der BD sich mit 4 Kernen, aber 8 Siblings meldet. Ein Thuban dagegen meldet sich mit 6 Kernen und 6 Siblings. Der BD gibt also gegenüber dem Betriebssystem zu, dass einige Ressourcen zwischen den Siblings geshared werden, genau wie beim Atom, oder anderen HT Intel CPUs.
Was interessant ist, ist das der BD sich mit 4 Kernen, aber 8 Siblings meldet. Ein Thuban dagegen meldet sich mit 6 Kernen und 6 Siblings. Der BD gibt also gegenüber dem Betriebssystem zu, dass einige Ressourcen zwischen den Siblings geshared werden, genau wie beim Atom, oder anderen HT Intel CPUs.
Und welche Ursachen könnten jetzt für die schwache Leistung verantwortlich sein?
Frontend/Backend, Cache Design, ALUs, instruction per cycle?
AMD entwickelt mehrere Jahre ein neues Design, zwischendurch schiebt man ein 6 Core Design auf K10 Basis in 45nm Strukturen in den Markt und der Nachfolger Bulldozer der 32nm HKMG Strukturen als Vorteil hat ist nicht schneller als ein getunter K8 mit 2x128 Bit FPU ala K10? Eine CPU die man FX nennt ist heute im vergleich zu Intels Sandy Bridge Prozessoren einfach ineffizient geworden, hat zuwenig Leistung, sowas würde vor 3 Jahren noch gut gehen aber heute ist selbst ein i5-2500k für 170 € besser als ein FX8150/8120 oder ein i3-2100 schlägt fast jeden FX in Games.
Irgendwas muss bei der Entwicklung richtig schief gelaufen sein, die Integer Cores haben einfach zuwenig Leistung pro Takt, was könnte die Ursache dafür sein? So einach kann man jetzt nicht mehr in 2 Jahren 30% mehr instruction per cycle rausholen, K10 hat pro Thread bereits deutlich mehr IPC, dafür braucht man bestimmt hunderte Mitarbeiter die sich nur auf eines konzentreren, es war damals Intels Werk in Israel die es geschaft haben, aber nur mit vielen Ressourcen, ein ähnlicher weg wie Core braucht jetzt auch AMD, man muss mehr für x86 Leistung investieren, nicht auf Taktsprünge hoffen, wenn GF Probleme hat ist AMD dran.
Trinity @125W TDP
Wenn sich das bestätigen sollte wird sich die x86 Leistung pro Takt mit Piledriver Cores nicht viel verbessern, die Leistungsaufnahme soll bei der APU höher als Llano ausfallen!!! Hört ihr 2012 will AMD die TDP 25W erhöhen, Intel geht von 95 auf 77W zurück!
Die ganzen Redaktionen werden dann Ivy Bridge mit 77W gegen Trinity mit 125W vergleichen, ist doch klar das AMD der verlierer sein wird, da kann selbst die gute GPU von Trinity nicht überzeugen, Ivy wird über 60% mehr CPU leistung pro Thread als Trinity haben...
AMD könnte mit Trinity besonders wenn man die APU bis 2013 im Programm hat scheitern, die OEMs werden dann nur die 2C/4T APU bis 30W TDP bevorzugen und die Leistung wird im vergleich zu Intels Ivy Bridge richtig scheisse ausfallen...
Frontend/Backend, Cache Design, ALUs, instruction per cycle?
AMD entwickelt mehrere Jahre ein neues Design, zwischendurch schiebt man ein 6 Core Design auf K10 Basis in 45nm Strukturen in den Markt und der Nachfolger Bulldozer der 32nm HKMG Strukturen als Vorteil hat ist nicht schneller als ein getunter K8 mit 2x128 Bit FPU ala K10? Eine CPU die man FX nennt ist heute im vergleich zu Intels Sandy Bridge Prozessoren einfach ineffizient geworden, hat zuwenig Leistung, sowas würde vor 3 Jahren noch gut gehen aber heute ist selbst ein i5-2500k für 170 € besser als ein FX8150/8120 oder ein i3-2100 schlägt fast jeden FX in Games.
Irgendwas muss bei der Entwicklung richtig schief gelaufen sein, die Integer Cores haben einfach zuwenig Leistung pro Takt, was könnte die Ursache dafür sein? So einach kann man jetzt nicht mehr in 2 Jahren 30% mehr instruction per cycle rausholen, K10 hat pro Thread bereits deutlich mehr IPC, dafür braucht man bestimmt hunderte Mitarbeiter die sich nur auf eines konzentreren, es war damals Intels Werk in Israel die es geschaft haben, aber nur mit vielen Ressourcen, ein ähnlicher weg wie Core braucht jetzt auch AMD, man muss mehr für x86 Leistung investieren, nicht auf Taktsprünge hoffen, wenn GF Probleme hat ist AMD dran.
Trinity @125W TDP
Wenn sich das bestätigen sollte wird sich die x86 Leistung pro Takt mit Piledriver Cores nicht viel verbessern, die Leistungsaufnahme soll bei der APU höher als Llano ausfallen!!! Hört ihr 2012 will AMD die TDP 25W erhöhen, Intel geht von 95 auf 77W zurück!
Die ganzen Redaktionen werden dann Ivy Bridge mit 77W gegen Trinity mit 125W vergleichen, ist doch klar das AMD der verlierer sein wird, da kann selbst die gute GPU von Trinity nicht überzeugen, Ivy wird über 60% mehr CPU leistung pro Thread als Trinity haben...
AMD könnte mit Trinity besonders wenn man die APU bis 2013 im Programm hat scheitern, die OEMs werden dann nur die 2C/4T APU bis 30W TDP bevorzugen und die Leistung wird im vergleich zu Intels Ivy Bridge richtig scheisse ausfallen...
Zuletzt bearbeitet:
hot
Admiral Special
- Mitglied seit
- 21.09.2002
- Beiträge
- 1.187
- Renomée
- 15
- Prozessor
- AMD Phenom 9500
- Mainboard
- Asrock AOD790GX/128
- Kühlung
- Scythe Mugen
- Speicher
- 2x Kingston DDR2 1066 CL7 1,9V
- Grafikprozessor
- Leadtek Geforce 260 Extreme+
- Display
- Samsung 2432BW
- HDD
- Samsung HD403LJ, Samung SP1614C
- Optisches Laufwerk
- LG HL55B
- Soundkarte
- Realtek ALC890
- Gehäuse
- Zirco AX
- Netzteil
- Coba Nitrox 600W Rev.2
- Betriebssystem
- Vista x64 HP
- Webbrowser
- Firefox
Die Integer-Cores sind sicherlich weniger Schuld. Das Problem ist mMn eher, dass es sich vom Frontend her um einen 4-Kerner handelt und er sich auch so verhält. hätte man dem Teil eine K10-3-Issue-Int-Einheit spendiert, wäre er wahrscheinlich auch nicht schneller. Im Grunde ist es doch so, dass die Integer Cores doch erst dann ihren Vorteil ausspielen können, wenn sie vom Frontend stetig mit Daten gefüttert werden können - deshalb geht Streamingzeug auch realtiv gut auf BD. Man darf ja nicht vergessen, dass die geteilte FPU an beiden Int-Cores hängt - kann das Frontend die Arbeit nicht korrekt aufteilen, drehen die ganzen tollen Recheneinheiten inclusive der FPU zu oft Däumchen. Das wird das eigentliche Problem sein.
Wenn man z.B. Spiele betrachtet, so sind Spiele ein interessanter Fall, da sie in Echtzeit laufen. Zusätzlich bestehen Spiele aus giganten Datenmengen, die in Echtzeit verwaltet werden müssen. Das fordert weniger die eigentliche Rechenleistung des Prozessors, sondern eher, wie der Prozessor mit den Datenmengen klarkommt. Deshalb spielen auch die ganzen zusätzlichen Befehlssätze, die Streamingsachen doch vorzüglich beschleunigen, für Spiele überhaupt keine Rolle. Je schneller die CPU alle Daten gleichzeitig liefern kann, desto schneller läuft auch das Spiel. Deshalb sind für Spiele auch die Caches entscheidend. Hat man große, schnelle Caches mit einer "breitbittigen" (z.B. 256Bit-)Anbindung, wir der Core2 damals, laufen Spiele effizienter als mit großen langsamen Caches oder schnellen Caches, die einfach zu klein sind. Blöderweise hat BD jetzt auchnoch beides. Der L2 ist zwar groß, aber auch recht langsam, der L1-Daten-Cache ist zu klein mit 16kB und obendrein trotzdem noch langsam - das kann nicht funktionieren. Der L3 wird im Gegensatz zum K10 mMn garkeine Rolle Spielen im BD für Spiele. Da ist es ja eher ein Wunder, dass BD mit dem K10 bei Spielen mithält mMn. Hinzu kommt sicherlich auch, dass es mal wieder keinen Decoder-Schnellweg für einfache Befehle im BD gibt, aber da gibt es wohl bei Steamroller Abhilfe. Es gibt noch ein Haufen Probleme, die angepackt werden müssen. Zudem muss das Cache-System neu ausgerichtet werden, mMn ist das die größte Bremse bei Desktop-Anwendungen. Lieber den L3-Cache ganz weglassen und einen kleinen L1,5-Cache einfügen, der schnell, breit und voll inklusiv ist.
Wenn man sich an die Folie mit den "10-15% Leistung pro Jahr" wieder ins Gedächtnis ruft - das reicht nichtmal ansatzweise. Das ist kein Ziel mMn, da es ein totaler Rückschritt wäre, was die Folie zu einem reinen Marketing-Blabla degradiert - sollte AMD das ernst meinen, könnten sie gleich aufhören CPUs zu bauen. Beide Hersteller haben bisher immer 20% oder mehr pro Jahr geschafft (30%+ bei AMD in 2009 und Intel in 2011). Piledriver muss mindestens 15% pro-Takt-Leistung bringen und Steamroller 25% mehr pro-Takt-Leistung auf Piledriver, sonst wird das nix. Zudem brauchts ordentliche Taktsteigerungen bis 5GHz+ bei Steamroller. So Unwahrscheinlich ist das auch nicht, ist BD doch eine Art Rohentwurf und es gibt doch noch sehr viele Stellschrauben an denen man drehen kann, jetzt wo man die gesamte Softwarebandbreite um die Ohren geklatscht bekommt und alle Schwachstellen besser identifizierbar sind in der Praxis.
AMD hatte einfach zu wenig Zeit um das Teil auf 32nm aufzusetzen. Da war wohl 32nm doch erheblich problematischer als man vorher dachte. Wie gesagt, hat der Prozessor nur eine komplette Rev. durchgemacht in dem frühen, kaum funktionablen Fertigungsprozess. Man hatte in 2010 erst das erste Tapeout für dieses nagelneue Stück Technik. Die Architektur war neu, der Fertigungsprozess war neu, HKMG war neu und das ganze Grunddesign ebenfalls. Man hat alles auf eine Karte gesetzt und dieses Mal verloren. Wer weiss, vielleicht wäre es besser gewesen, BD in 45nm mit HKMG und ULK Mitte 2009 in der Rev.A zu beginnen und Mitte 2011 dann noch in 45nm, aber voll ausgereift als Rev.C oder D, rauszubringen - schaut man sich die Modulgröße an, wär das sicherlich gegangen (mit nur 512kB L2-Cache und 4MB L3-Cache oder so, aber dafür schneller). Dann hätte AMD nicht mit Problemen im neuen Fertigungsprozess permanent kämpfen müssen, was sicherlich einiges an Entwicklungszeit (vertane Arbeit) eingespart hätte und man hätte weit mehr Zeit zur Handoptimierung gehabt.
Natürlich kann man hinterher immer alles besser wissen - man traf damals die Entscheidung mit 32nm zu arbeiten, das ist jetzt nunmal so und es ist recht schwer zu bewerten. Aber wenn man das ganze GloFo-Theater so betrachtet, wär 45nm die bessere Entscheidung gewesen - für 32nm hätte Llano doch sowieso das bessere Experimentierfeld abgegeben. Dann ist Intel eben ne ganze Generation vorne, das war schon öfter so. Wahrscheinlich liegt das sogar mehr an GloFo als an AMD. Die Pläne, die da gemacht wurden mit zig neuen Fertigungsprozessen waren sicherlich viel, vieeel zu ehrgeizig. Man sieht die vielen verschiedenen Fertigungsprozesse wieder verschwinden und die Zeiträume realistischer werden auf den Roadmaps. 32(28 )nm bis Ende 2014 zu planen ist sicherlich ne gute Idee und 20nm dann in 2014 langsam einzufahren mit einem reifen Design (Excavator) auch. Ob jetzt mit oder ohne SOI oder gar mit irgendwelchen Mischformen sei mal dahingestellt. Ich bin da zuversichtlich, dass AMD seine Designmacken in den Griff bekommt und auch, dass GloFo die Fertigung besser hinbekommt. Es kann ja auch nurnoch besser werden . Immerhin blieben weitere Designdesaster wie beim K10 Rev.B (mehr als ein halbes Jahr verloren wegen den Kern-Taktdomänen, die im Nachhineinbetrachtet sowieso völlig fürn Arsch waren) oder TLB-Bug diesmal aus (genaugenommen war der K10-Start garnicht soviel anders, da Intel auch mehr als 40% vorne war mit dem 9650, TLB-Bug nicht mitzählt und der Fertigungsprozess war noch ein viel größeres Desaster als heute). Und auf einen 28nm Gate-Last HKMG+ULK-Prozess besteht ja auchnoch Hoffnung.
Wenn man z.B. Spiele betrachtet, so sind Spiele ein interessanter Fall, da sie in Echtzeit laufen. Zusätzlich bestehen Spiele aus giganten Datenmengen, die in Echtzeit verwaltet werden müssen. Das fordert weniger die eigentliche Rechenleistung des Prozessors, sondern eher, wie der Prozessor mit den Datenmengen klarkommt. Deshalb spielen auch die ganzen zusätzlichen Befehlssätze, die Streamingsachen doch vorzüglich beschleunigen, für Spiele überhaupt keine Rolle. Je schneller die CPU alle Daten gleichzeitig liefern kann, desto schneller läuft auch das Spiel. Deshalb sind für Spiele auch die Caches entscheidend. Hat man große, schnelle Caches mit einer "breitbittigen" (z.B. 256Bit-)Anbindung, wir der Core2 damals, laufen Spiele effizienter als mit großen langsamen Caches oder schnellen Caches, die einfach zu klein sind. Blöderweise hat BD jetzt auchnoch beides. Der L2 ist zwar groß, aber auch recht langsam, der L1-Daten-Cache ist zu klein mit 16kB und obendrein trotzdem noch langsam - das kann nicht funktionieren. Der L3 wird im Gegensatz zum K10 mMn garkeine Rolle Spielen im BD für Spiele. Da ist es ja eher ein Wunder, dass BD mit dem K10 bei Spielen mithält mMn. Hinzu kommt sicherlich auch, dass es mal wieder keinen Decoder-Schnellweg für einfache Befehle im BD gibt, aber da gibt es wohl bei Steamroller Abhilfe. Es gibt noch ein Haufen Probleme, die angepackt werden müssen. Zudem muss das Cache-System neu ausgerichtet werden, mMn ist das die größte Bremse bei Desktop-Anwendungen. Lieber den L3-Cache ganz weglassen und einen kleinen L1,5-Cache einfügen, der schnell, breit und voll inklusiv ist.
Wenn man sich an die Folie mit den "10-15% Leistung pro Jahr" wieder ins Gedächtnis ruft - das reicht nichtmal ansatzweise. Das ist kein Ziel mMn, da es ein totaler Rückschritt wäre, was die Folie zu einem reinen Marketing-Blabla degradiert - sollte AMD das ernst meinen, könnten sie gleich aufhören CPUs zu bauen. Beide Hersteller haben bisher immer 20% oder mehr pro Jahr geschafft (30%+ bei AMD in 2009 und Intel in 2011). Piledriver muss mindestens 15% pro-Takt-Leistung bringen und Steamroller 25% mehr pro-Takt-Leistung auf Piledriver, sonst wird das nix. Zudem brauchts ordentliche Taktsteigerungen bis 5GHz+ bei Steamroller. So Unwahrscheinlich ist das auch nicht, ist BD doch eine Art Rohentwurf und es gibt doch noch sehr viele Stellschrauben an denen man drehen kann, jetzt wo man die gesamte Softwarebandbreite um die Ohren geklatscht bekommt und alle Schwachstellen besser identifizierbar sind in der Praxis.
AMD hatte einfach zu wenig Zeit um das Teil auf 32nm aufzusetzen. Da war wohl 32nm doch erheblich problematischer als man vorher dachte. Wie gesagt, hat der Prozessor nur eine komplette Rev. durchgemacht in dem frühen, kaum funktionablen Fertigungsprozess. Man hatte in 2010 erst das erste Tapeout für dieses nagelneue Stück Technik. Die Architektur war neu, der Fertigungsprozess war neu, HKMG war neu und das ganze Grunddesign ebenfalls. Man hat alles auf eine Karte gesetzt und dieses Mal verloren. Wer weiss, vielleicht wäre es besser gewesen, BD in 45nm mit HKMG und ULK Mitte 2009 in der Rev.A zu beginnen und Mitte 2011 dann noch in 45nm, aber voll ausgereift als Rev.C oder D, rauszubringen - schaut man sich die Modulgröße an, wär das sicherlich gegangen (mit nur 512kB L2-Cache und 4MB L3-Cache oder so, aber dafür schneller). Dann hätte AMD nicht mit Problemen im neuen Fertigungsprozess permanent kämpfen müssen, was sicherlich einiges an Entwicklungszeit (vertane Arbeit) eingespart hätte und man hätte weit mehr Zeit zur Handoptimierung gehabt.
Natürlich kann man hinterher immer alles besser wissen - man traf damals die Entscheidung mit 32nm zu arbeiten, das ist jetzt nunmal so und es ist recht schwer zu bewerten. Aber wenn man das ganze GloFo-Theater so betrachtet, wär 45nm die bessere Entscheidung gewesen - für 32nm hätte Llano doch sowieso das bessere Experimentierfeld abgegeben. Dann ist Intel eben ne ganze Generation vorne, das war schon öfter so. Wahrscheinlich liegt das sogar mehr an GloFo als an AMD. Die Pläne, die da gemacht wurden mit zig neuen Fertigungsprozessen waren sicherlich viel, vieeel zu ehrgeizig. Man sieht die vielen verschiedenen Fertigungsprozesse wieder verschwinden und die Zeiträume realistischer werden auf den Roadmaps. 32(28 )nm bis Ende 2014 zu planen ist sicherlich ne gute Idee und 20nm dann in 2014 langsam einzufahren mit einem reifen Design (Excavator) auch. Ob jetzt mit oder ohne SOI oder gar mit irgendwelchen Mischformen sei mal dahingestellt. Ich bin da zuversichtlich, dass AMD seine Designmacken in den Griff bekommt und auch, dass GloFo die Fertigung besser hinbekommt. Es kann ja auch nurnoch besser werden . Immerhin blieben weitere Designdesaster wie beim K10 Rev.B (mehr als ein halbes Jahr verloren wegen den Kern-Taktdomänen, die im Nachhineinbetrachtet sowieso völlig fürn Arsch waren) oder TLB-Bug diesmal aus (genaugenommen war der K10-Start garnicht soviel anders, da Intel auch mehr als 40% vorne war mit dem 9650, TLB-Bug nicht mitzählt und der Fertigungsprozess war noch ein viel größeres Desaster als heute). Und auf einen 28nm Gate-Last HKMG+ULK-Prozess besteht ja auchnoch Hoffnung.
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.324
- Renomée
- 1.971
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Es ist allgemein nur ein 4 Kerner mit 8 Int. Einheiten, da so gut wie alles andere nur geteilt wird.
Die Leistung teilt sich letztendlich auf die 8 "Kerne" auf, wodurch das Design versagt wenn nicht alle "Kerne" genutzt werden. Der Segen des CMT Designs bei Multicore Anwendungen wird letztenendes zu seinem Fluch, wenn sie Leistung pro Kern nicht ebenfalls entsprechend aufgepumpt wird, was den Kern aber auch deutlich komplexer macht.
Mit dem Bulli wurde in meinen Augen das fortgesetzt was sich bereits beim Phenom gezeigt hatte und hat die Problematik durch die gesunkene single Thread Leistung gar noch verschärft. Man scheisst sich beim Chip Design auf das professionelle Segment ein, verliert dabei die Gegebenheiten des Desktop Markts aus den Augen und kann diesen nur noch im unteren Preisbereich und mit Nischenprodukten bedienen.
Wie Erfolgreich man damit fährt wird sich zeigen.
Die Leistung teilt sich letztendlich auf die 8 "Kerne" auf, wodurch das Design versagt wenn nicht alle "Kerne" genutzt werden. Der Segen des CMT Designs bei Multicore Anwendungen wird letztenendes zu seinem Fluch, wenn sie Leistung pro Kern nicht ebenfalls entsprechend aufgepumpt wird, was den Kern aber auch deutlich komplexer macht.
Mit dem Bulli wurde in meinen Augen das fortgesetzt was sich bereits beim Phenom gezeigt hatte und hat die Problematik durch die gesunkene single Thread Leistung gar noch verschärft. Man scheisst sich beim Chip Design auf das professionelle Segment ein, verliert dabei die Gegebenheiten des Desktop Markts aus den Augen und kann diesen nur noch im unteren Preisbereich und mit Nischenprodukten bedienen.
Wie Erfolgreich man damit fährt wird sich zeigen.
rasmus
Admiral Special
- Mitglied seit
- 07.07.2008
- Beiträge
- 1.191
- Renomée
- 47
- Mein Laptop
- Notebook, was ist das?
- Prozessor
- AMD Ryzen 5 3600
- Mainboard
- MSI B450M PRO-VDH MAX
- Kühlung
- Luft
- Speicher
- 32 GB Gskill Ripjaws
- Grafikprozessor
- Nvidia 3070 ti FE
- Display
- Asus PB278Q 27" 2560*1440
- SSD
- Ja
- HDD
- auch
- Optisches Laufwerk
- ja
- Soundkarte
- onboard
- Gehäuse
- irgendwas mit glas
- Netzteil
- thermaltake toughpower pf1 750W
- Maus
- Rat 9
- Betriebssystem
- Win 7 64bit, Win 10 64 bit
- Webbrowser
- Firefox
- Verschiedenes
- http://valid.canardpc.com/show_oc.php?id=628058
...Man scheisst sich beim Chip Design auf das professionelle Segment ein, verliert dabei die Gegebenheiten des Desktop Markts aus den Augen und kann diesen nur noch im unteren Preisbereich und mit Nischenprodukten bedienen...
- das trifft es allerdings auch irgendwie.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.324
- Renomée
- 1.971
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
rofl...ich sollte um die Uhrzeit nicht mehr rumtippen.
Opteron
Redaktion
☆☆☆☆☆☆
Jo die Idee klingt gut, aber dann gehts schon los: Soll der L1,5 für beide INT cores gemeinsam sein, oder privat für jeden einzeln?Lieber den L3-Cache ganz weglassen und einen kleinen L1,5-Cache einfügen, der schnell, breit und voll inklusiv ist.
Falls gemeinsam: Das Teil ist ziemlich klein und wird dann oft gegenseitig von den Kernen geleert.
Falls dezidiert pro Kern: Dann kann man auch gleich den L1 größer machen. Darauf hoffe ich eh mit jedem Shrink ^^ Aber ob da schon was bei 28nm nachgelegt wird, glaub ich eher nicht.
Laut Datenblättern wird ja erstmal der Write Combining Cache verbessert, der ist eigentlich ja schon ne Art L1,5 Cache
hot
Admiral Special
- Mitglied seit
- 21.09.2002
- Beiträge
- 1.187
- Renomée
- 15
- Prozessor
- AMD Phenom 9500
- Mainboard
- Asrock AOD790GX/128
- Kühlung
- Scythe Mugen
- Speicher
- 2x Kingston DDR2 1066 CL7 1,9V
- Grafikprozessor
- Leadtek Geforce 260 Extreme+
- Display
- Samsung 2432BW
- HDD
- Samsung HD403LJ, Samung SP1614C
- Optisches Laufwerk
- LG HL55B
- Soundkarte
- Realtek ALC890
- Gehäuse
- Zirco AX
- Netzteil
- Coba Nitrox 600W Rev.2
- Betriebssystem
- Vista x64 HP
- Webbrowser
- Firefox
Je einfacher die Mittel, mit denen Verbesserungen erreicht, desto besser .
Na ja, ich find Intels Idee des voll inclusiven L2 mit 256kB ziemlich kopierenswert . Dazu zwei 32kB L1-D$s.
Na ja, ich find Intels Idee des voll inclusiven L2 mit 256kB ziemlich kopierenswert . Dazu zwei 32kB L1-D$s.
Opteron
Redaktion
☆☆☆☆☆☆
Wird dann aber ziemlich viel Fläche, wenn Du 2x256L2 hast. Würde wohl zuviel des Guten werden. Naja mal schauen, was sie in Zukunft noch so basteln ^^Na ja, ich find Intels Idee des voll inclusiven L2 mit 256kB ziemlich kopierenswert . Dazu zwei 32kB L1-D$s.
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Was ist denn hier schonwieder für eine Schwarzmalerische Stimmung ausgebrochen.
Bis vor wenigen Seiten ging es in diesem Thread noch darum zu ergründen woher Zambezis schwächen kommen und wir spekulierten über technische spezifika... und nun wird wieder die bashing-keule ausgepackt...
Seit wann ist gaming eigentlich der einzige Maßstab für Rechenleistung.
Zambezi mag nicht gerade eien Punktlandung sein, und sich AMD vieles anders vorgestellt haben... aber die leidigen Vergleiche damit was intel abliefert sind so nicht haltbar.
Wenn ich die 5-fachen Ressourcen zur Verfügung habe und damit +50% mehr erreiche als am Ausgangspunkt, dann nenne ich das nicht unbeidingt eine Glanzleistung!
Und dass Intel in der IPC voraus ist, ist spätestens seit Core2 keine große Neuigkeit mehr und dennoch wurden bsiher auch genug Phenoms verkauft.
Also lasst die Kirche im Dorf... sogar Llano ist beliebt obwohl er keine überragende CPU-Leistung vorweisen kann. Und selbst wenn Ivy Bridge in der Praxis wirklich 60% mehr GPU-Leistung hat und Intel die Treiber gebacken kriegt, pustet eine GPU wie sie für trinity angedacht ist, die IGP von Ivy immernoch aus dem Wasser...
Allgemein verstehe ich die Aufegung nicht. Solange Trinity ein gutes Gesamtpaket abliefert und genug Leistung für die Mehrheit der Leute, gibts überhaupt keinen Grund warum er sich nicht verkaufen sollte, selbst wenn Ivy den längeren Balken beim 7Zip-Benchmark hat. Wann ist das in der Praxis schonmal wirklich relevant?
Ich klinke mich hier aus bis es gesichertere Infos gibt, aber bitte spammt diesen thread nicht auch mit schwarzmalerei, AMD-Bashing und lamentieren über den fehlenden Messias voll...
Bis vor wenigen Seiten ging es in diesem Thread noch darum zu ergründen woher Zambezis schwächen kommen und wir spekulierten über technische spezifika... und nun wird wieder die bashing-keule ausgepackt...
Seit wann ist gaming eigentlich der einzige Maßstab für Rechenleistung.
Zambezi mag nicht gerade eien Punktlandung sein, und sich AMD vieles anders vorgestellt haben... aber die leidigen Vergleiche damit was intel abliefert sind so nicht haltbar.
Wenn ich die 5-fachen Ressourcen zur Verfügung habe und damit +50% mehr erreiche als am Ausgangspunkt, dann nenne ich das nicht unbeidingt eine Glanzleistung!
Und dass Intel in der IPC voraus ist, ist spätestens seit Core2 keine große Neuigkeit mehr und dennoch wurden bsiher auch genug Phenoms verkauft.
Also lasst die Kirche im Dorf... sogar Llano ist beliebt obwohl er keine überragende CPU-Leistung vorweisen kann. Und selbst wenn Ivy Bridge in der Praxis wirklich 60% mehr GPU-Leistung hat und Intel die Treiber gebacken kriegt, pustet eine GPU wie sie für trinity angedacht ist, die IGP von Ivy immernoch aus dem Wasser...
Allgemein verstehe ich die Aufegung nicht. Solange Trinity ein gutes Gesamtpaket abliefert und genug Leistung für die Mehrheit der Leute, gibts überhaupt keinen Grund warum er sich nicht verkaufen sollte, selbst wenn Ivy den längeren Balken beim 7Zip-Benchmark hat. Wann ist das in der Praxis schonmal wirklich relevant?
Ich klinke mich hier aus bis es gesichertere Infos gibt, aber bitte spammt diesen thread nicht auch mit schwarzmalerei, AMD-Bashing und lamentieren über den fehlenden Messias voll...
Opteron
Redaktion
☆☆☆☆☆☆
Hmm, wo war da nun Bashing oder Schwarzmalerei? Ich nehme mal an, dass für 99% der Leute hier die Desktop/Spieleleistung wichtig ist. Ist ja kein Serverforum.
Das hier ist auch richtig:
Das hier ist auch richtig:
Aber AMD hats halt fertig gebraucht die IPC nochmals zu senken, während Intel seit Core2 einige Schippen nachgelegt hat. Der Abstand ist also noch größer. Das ist auch keine Schwarzmalerei das ist einfach die nackte Wahrheit.Und dass Intel in der IPC voraus ist, ist spätestens seit Core2 keine große Neuigkeit mehr und dennoch wurden bsiher auch genug Phenoms verkauft.
...
Ich klinke mich hier aus bis es gesichertere Infos gibt, aber bitte spammt diesen thread nicht auch mit schwarzmalerei, AMD-Bashing und lamentieren über den fehlenden Messias voll...
Ich will ja nichts sagen, aber das ist auch immer das gleiche..was Du schreibst.
Und was ist Bashing!? Was ist Spam? Wenn man Ross und Reiter nennt oder versucht es zu ergruenden?
Warum qualifizierst Du die Beitraege anderer so pauschal ab?
Das staendige Trommeln - AMD habe viel weniger Resourcen und noch Wettbewerbsnachteile, begruendet nicht, dass Zambezi's Leistung erst einmal im Desktop absolut enttaeuscht.
Das sind alles Dinge, die bekannt sind - auch AMD kennt sie.
AMD koennte auch die Haende in den Schoss legen und sagen: 'Boese Welt - wir sind so klein und alle sind gemein zu mir' - tun sie aber (hoffentlich) nicht.
Wenn man den Rueckblick wagt, dann haben genau diese Umstaende AMD nicht davon abgehalten, mit Athlon Intel zeitweilig deutlich den Rank in der Leistung abzulaufen, 64bit hoffaehig zu machen, APUs etc..oder?
'Klein sein' (nach den Entlassungen noch kleiner) kann man auch als Chance begreifen...
Gewiss ist CPU Leistung nicht alles - und der Erfolg AMDs haengt nicht allein an der CPU Leistung von BDv1 - sondern eher daran was AMD daraus macht...
Bitte kein pauschales Bashing der Beitraege und ihrer Autoren hier...
Sorry fuer OT
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.324
- Renomée
- 1.971
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Für mich wird der Bulli erst nach der Überarbeitung des Designs wieder interessant, da die derzeitige Form zu viele Nachteile hat und ich bin gespannt was zuerst kommt. Der Trinity oder die hochgezüchteten AM3+ Modelle.
Markus Everson
Grand Admiral Special
Und welche Ursachen könnten jetzt für die schwache Leistung verantwortlich sein?
Frontend/Backend, Cache Design, ALUs, instruction per cycle?
Als Ursache für die "schwache" Leistung im Desktop sehe ich den 32nm Prozess der keine 5+ GHz im erlaubt und bei 3+ GHz schon viel zu hohe Spannung fordert um wenigstens durch Energieeffizienz zu punkten.
An die Dolchstoßlegende von fehlender Zeit um mit 32nm Erfahrung zu machen glaube ich dagegen nicht. Frontend und Cache sind in jeder Strukturgröße für den Desktop suboptimal. Es ist für mich zwingend logisch zu schlußfolgern das AMD aus dem Rennen um die schnellste Desktop-CPU (vorerst) ausgestiegen ist um sich wieder auf Gewinn statt Prestige zu konzentrieren. Diese Strategie ist aber nun durch die Unfähigkeit von GloFo gefährdet.
Crashtest
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2008
- Beiträge
- 9.275
- Renomée
- 1.413
- Standort
- Leipzig
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Collatz, yoyo, radac
- Lieblingsprojekt
- yoyo
- Meine Systeme
- Ryzen: 2x1600, 5x1700, 1x2700,1x3600, 1x5600X; EPYC 7V12 und Kleinzeuch
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Lenovo IdeaPad 5 14ALC05
- Prozessor
- Ryzen 7950X / Ryzen 4750G
- Mainboard
- ASRock B650M PGRT / X570D4U
- Kühlung
- be quiet! Dark Rock Pro4 / Pure Rock Slim 2
- Speicher
- 64GB DDR5-5600 G Skill F5-5600J3036D16G / 32 GB DDR4-3200 ECC
- Grafikprozessor
- Raphael IGP / ASpeed AST-2500
- Display
- 27" Samsung LF27T450F
- SSD
- KINGSTON SNVS2000G
- HDD
- - / 8x Seagate IronWolf Pro 20TB
- Optisches Laufwerk
- 1x B.Ray - LG BD-RE BH16NS55
- Soundkarte
- onboard HD?
- Gehäuse
- zu kleines für die GPU
- Netzteil
- be quiet! Pure Power 11 400W / dito
- Tastatur
- CHERRY SECURE BOARD 1.0
- Maus
- Logitech RX250
- Betriebssystem
- Windows 10 19045.3996 / Server 20348.2227
- Webbrowser
- Edge 120.0.2210.121
- Verschiedenes
- U320 SCSI-Controller !!!!
- Internetanbindung
- ▼1000 MBit ▲82 MBit
Gewiss ist CPU Leistung nicht alles - und der Erfolg AMDs haengt nicht allein an der CPU Leistung von BDv1 - sondern eher daran was AMD daraus macht...
AMD macht doch seine Sache gut mit dem Bulldozer - oder warum tauchen auf einmal so "viele" Bulldozersysteme in der Top 500 auf ?! Immerhin auch in den Top20 !!!!!
Für Desktop ist Bulldozer halt keine CPU aber für HPC und DB-Server ist Bulldozer doch ganz brauchbar oder (weil halt drauf optimierte Anwendungen laufen ...)
rasmus
Admiral Special
- Mitglied seit
- 07.07.2008
- Beiträge
- 1.191
- Renomée
- 47
- Mein Laptop
- Notebook, was ist das?
- Prozessor
- AMD Ryzen 5 3600
- Mainboard
- MSI B450M PRO-VDH MAX
- Kühlung
- Luft
- Speicher
- 32 GB Gskill Ripjaws
- Grafikprozessor
- Nvidia 3070 ti FE
- Display
- Asus PB278Q 27" 2560*1440
- SSD
- Ja
- HDD
- auch
- Optisches Laufwerk
- ja
- Soundkarte
- onboard
- Gehäuse
- irgendwas mit glas
- Netzteil
- thermaltake toughpower pf1 750W
- Maus
- Rat 9
- Betriebssystem
- Win 7 64bit, Win 10 64 bit
- Webbrowser
- Firefox
- Verschiedenes
- http://valid.canardpc.com/show_oc.php?id=628058
Gebashe ? Wo? Wenn einmal angesprochen wird, das Zambezi gamingmässig im Moment die schlechtere Alternative zum Phenom II ist (Intel mal aussen vor), dann ist das ja kaum zu leugnen. In den Anwendungen schlägt er sich ja ganz okay und im Serverbereich ist er auch ganz gut. Im Desktopbereich sollte aber auch das Gaming berücksichtigt werden. Im übrigen kommt doch gerade beim Gaming die Problematik möglicherweise am besten zur Geltung. Die "Wir haben viel weniger Ressourcen" Sache hilft da nicht weiter. Bei der Fehlersuche natürlich schon gar nicht.
Bisher haben wir doch ein paar ordentliche Ergebnisse bezüglich der Fehlerspekulationen erzielt. Zusammen mit dem 32nm Prozess (sehe das ähnlich wie Markus) mag das vielleicht auch schon das ganze Problem sein.
Ausserdem sind wir doch alle keine Schwarzmaler hier, sonst würde der Thread anders aussehen. AMD sieht bisher keine Fehlerkorrektur vor. Piledriver lässt auch wenig Spielraum für große Flughöhen. Trotzdem diskutieren wir mögliche Problematiken und Verbesserungen. Das ist doch ausgesprochen hoffnungsvoll und optimistisch
Bisher haben wir doch ein paar ordentliche Ergebnisse bezüglich der Fehlerspekulationen erzielt. Zusammen mit dem 32nm Prozess (sehe das ähnlich wie Markus) mag das vielleicht auch schon das ganze Problem sein.
Ausserdem sind wir doch alle keine Schwarzmaler hier, sonst würde der Thread anders aussehen. AMD sieht bisher keine Fehlerkorrektur vor. Piledriver lässt auch wenig Spielraum für große Flughöhen. Trotzdem diskutieren wir mögliche Problematiken und Verbesserungen. Das ist doch ausgesprochen hoffnungsvoll und optimistisch
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Das Ganze ist aber bekannt und bereits bis zum erbrechen durchgekaut. Ja, die IPC ist bei Standardcode Suboptimal, Ja man hatte nach all den JAhren mehr erwartet, Ja, der GF-Prozess ist noch nicht das Gelbe vom Ei... wir habens verstanden.
Darüber zu Phantasieren ob AMD nun gepennt hat, was zu K7-Zeiten war (wobei wir auch schon 50 mal festgestellt hatten dass das nicht nur AMDs verdienst war, sondern intel einfach gepennt hatte damals) und ob Trinity nun eine Chance gegen Ivy Bidge haben wird, tut genau wieviel zur Thread-Frage? - Da steht "Woran liegt es?" - und genau das haben wir vor einigen Seiten mit Spekulationen über fehlenden Trace Cahe etc. versucht zu beantworten, ich kann im Threadtitel aber keien Aufforderung dazu erkennen ein und die selbe KRitik zum zweiundachzigtausendsten mal erneut herunter zu beten... irgendwann ist genug ausgepeitscht.
Wenn ich Ingineur bei AMD wäre würde ich 1 mal die kritik noch akzeptieren, beim zweiten mal nicken, beim dritten mal mit den augen rollen, aber beim 20. mal käme ich mir langsam echt verarscht vor.
Nebenbei... Was soll das Ganze? - Wenn ich heute anfange über 2 jahre mein Gehalt zu sparen und dann in die Formel 1 einsteige, meckert dann auch jeder darüber dass ich nicht mit McLaren konkurrieren kann?
Effizienz misst sich in Aufwand und Nutzen. Und solange das Ganze immer nur einseitig betrachtet wird, nämlich im Nutzen, und nicht berücksichtigt wird, wie viele REssorucen in die Entwicklung geflossen sind oder eben nicht, ist es der Logik zufolge illegitim daraus ein Versagen von irgendwem abzuleiten! - Möglicherweise betreibe ich hier Haarspalterei, aber ich finde es irgendo auch nicht ok dem Entwicklerteam gegenüber ihr Werk als total untauglich darzustellen nur weil es die Erwartungen nicht erfüllt oder im falschen MArkt angeboten wird!
Deswegen ist nicht weniger Schweiss in die ganzen Interna und Spezifika geflossen wie wenn es am Ende ein Kracher gewesen wäre.
Dass BD Potenzial besitzt und es viel zu optimieren gibt, haben wir schon mehrfach festgestellt. Wie schnell sich da was umsetzen lässt ist aber ein anderes Thema. Und wie sehr unser Bild der Architektur verzerrt wird durch FErtigungstechnische Anpassungen können wir auch nicht wissen.
Möglicherweise wäre BD wesentlich Energieeffizienter wenn das mit ULK Dielektrika im 32nm-Prozess hingehauen hätte und die Spannungen daher noch en Ganze Ecke niedriger wären.
Genau genommen wissen wir aktuell nichteinmal ob überhaupt aktuell alle Features in BD so funktionieren wie geplant und nicht eigentlich das Prefetching oder die Sprungvorhersage besser arbeiten sollte und das aufgrund eines Bugs eben nicht tut? Agner Fog behauptet z.B. dass Core2s Sprungvorhersage eine TRefferquote von deutlich über 90% hat. Gibt es hierzu Zahlen und/oder analysen zu BD?
In einem Thread wie diesen gehört genau sowas gepostet. Details, infos darüber wo es klemmen könnte und woran AMD wohl am ehesten drehen wird und müsste um mehr heraus zu holen. Und nicht das übliche mit den Fingern auf AMD zeigen und "haaahaaa" gerufe alla Nelson. Das hatten wir schon, durchexerziert bis an die Kotzgrenze, das ist inzwischen Geschichte und belegt, danke und weiter im Text bitteschön.
Oder hat ein lamentieren darüber dass Trinity sowieso nicht wird mit IB mithalten können und blah xyz ach wie ist alles schlecht und überhaupt.... irgendwas mi dem Threadtitel zu tun? - ISt das etwa nicht schwarzmalen?
Übrigens, konnte mir bisher weder Duplex, noch rkinet, Bavarian Realist, noch sonst einer von den "AMD macht sowieso alles Falsch" - Verfechtern belegen dass sie selbst es besser hingekriegt hätten unter den selben Vorraussetungen (die wir nichtmal vollständig kennen) und genausowenig erklärt was es eigentlich bringen soll den Finger zum 1000sten mal auf die selbe Wunde zu legen?
Soll AMD aufhören CPUs zu bauen? - nein.
Kann sich AMD mal eben eine Super-CPU aus dem Ärmel schütteln? - wohl kaum.
Ist es Azubi-Arbeit eine moderne CPU zu entwickeln? - auch eher nicht.
Und was genau soll das Ganze dann bewirken?
Ich weiss nicht wie es euch geht, aber wenn ich einen Fehler gemacht habe, und mir dessen sehr gut bewusst bin... dann brauche ich den nun beim besten willen nicht auch noch von jedem dahergelaufenen 1000 mal aufs brot geschmiert kriegen. Sowas ist entwürdigend, demütigend und schafft nichts weiter als eine negative Motivation. Und wenn von einem Ohnehin nur das schlechteste erwartet wird, kommt zu 99% auch genau das heraus.
Also wenn mir hier irgendwer sagen kann inwieweit es AMD hilft Zmabezi zu verbessern, dass wir zum 2000 mal auf der konkurrenzsituation herumreiten, Ivy Bridge als Gegner hervorholen und auf die glorreichen vergangenen zeiten hinweisen, dann halte ich die klappe.
Allerdings bezweifel ich stark dass das irgendwer hinkriegt...
Edit:
Übrigens, CMT war bisher nur ein theoretisches Konzept! - AMD waren schlichtweg die ersten die den Mut aufgebracht haben das mal in ein Konkretes Produkt umzusetzen. Das könnte vielleicht auch mal gewürdigt werden! - Das Ergebnis ist nicht optimal ok. Aber immerhin ist hier eine Leistung vollbracht worden! - Egal ob akademischer Natur oder Marktrelevant. Man hat sich getraut mal was neues zu versuchen und dadurch sind wir am Ende alle klüger geworden. Nur um das mal festzuhalten! - Da werden leute als große Denker und Erfinder gefeiert die nicht einen einzigen Beweis dafür abliefern konnten dass ihre Theorien überhaupt richtig sind und ihre konzepte funktionieren. Und im Gegenzug wird auf diejenigen eingeprügelt die mal etwas wagen, was neues Versuchen und auch mal auf Risiko ein theoretisches Konzept umsetzen! Bin ich echt der einzige dem daran irgendwas nicht ok erscheint?
Darüber zu Phantasieren ob AMD nun gepennt hat, was zu K7-Zeiten war (wobei wir auch schon 50 mal festgestellt hatten dass das nicht nur AMDs verdienst war, sondern intel einfach gepennt hatte damals) und ob Trinity nun eine Chance gegen Ivy Bidge haben wird, tut genau wieviel zur Thread-Frage? - Da steht "Woran liegt es?" - und genau das haben wir vor einigen Seiten mit Spekulationen über fehlenden Trace Cahe etc. versucht zu beantworten, ich kann im Threadtitel aber keien Aufforderung dazu erkennen ein und die selbe KRitik zum zweiundachzigtausendsten mal erneut herunter zu beten... irgendwann ist genug ausgepeitscht.
Wenn ich Ingineur bei AMD wäre würde ich 1 mal die kritik noch akzeptieren, beim zweiten mal nicken, beim dritten mal mit den augen rollen, aber beim 20. mal käme ich mir langsam echt verarscht vor.
Nebenbei... Was soll das Ganze? - Wenn ich heute anfange über 2 jahre mein Gehalt zu sparen und dann in die Formel 1 einsteige, meckert dann auch jeder darüber dass ich nicht mit McLaren konkurrieren kann?
Effizienz misst sich in Aufwand und Nutzen. Und solange das Ganze immer nur einseitig betrachtet wird, nämlich im Nutzen, und nicht berücksichtigt wird, wie viele REssorucen in die Entwicklung geflossen sind oder eben nicht, ist es der Logik zufolge illegitim daraus ein Versagen von irgendwem abzuleiten! - Möglicherweise betreibe ich hier Haarspalterei, aber ich finde es irgendo auch nicht ok dem Entwicklerteam gegenüber ihr Werk als total untauglich darzustellen nur weil es die Erwartungen nicht erfüllt oder im falschen MArkt angeboten wird!
Deswegen ist nicht weniger Schweiss in die ganzen Interna und Spezifika geflossen wie wenn es am Ende ein Kracher gewesen wäre.
Dass BD Potenzial besitzt und es viel zu optimieren gibt, haben wir schon mehrfach festgestellt. Wie schnell sich da was umsetzen lässt ist aber ein anderes Thema. Und wie sehr unser Bild der Architektur verzerrt wird durch FErtigungstechnische Anpassungen können wir auch nicht wissen.
Möglicherweise wäre BD wesentlich Energieeffizienter wenn das mit ULK Dielektrika im 32nm-Prozess hingehauen hätte und die Spannungen daher noch en Ganze Ecke niedriger wären.
Genau genommen wissen wir aktuell nichteinmal ob überhaupt aktuell alle Features in BD so funktionieren wie geplant und nicht eigentlich das Prefetching oder die Sprungvorhersage besser arbeiten sollte und das aufgrund eines Bugs eben nicht tut? Agner Fog behauptet z.B. dass Core2s Sprungvorhersage eine TRefferquote von deutlich über 90% hat. Gibt es hierzu Zahlen und/oder analysen zu BD?
In einem Thread wie diesen gehört genau sowas gepostet. Details, infos darüber wo es klemmen könnte und woran AMD wohl am ehesten drehen wird und müsste um mehr heraus zu holen. Und nicht das übliche mit den Fingern auf AMD zeigen und "haaahaaa" gerufe alla Nelson. Das hatten wir schon, durchexerziert bis an die Kotzgrenze, das ist inzwischen Geschichte und belegt, danke und weiter im Text bitteschön.
Oder hat ein lamentieren darüber dass Trinity sowieso nicht wird mit IB mithalten können und blah xyz ach wie ist alles schlecht und überhaupt.... irgendwas mi dem Threadtitel zu tun? - ISt das etwa nicht schwarzmalen?
Übrigens, konnte mir bisher weder Duplex, noch rkinet, Bavarian Realist, noch sonst einer von den "AMD macht sowieso alles Falsch" - Verfechtern belegen dass sie selbst es besser hingekriegt hätten unter den selben Vorraussetungen (die wir nichtmal vollständig kennen) und genausowenig erklärt was es eigentlich bringen soll den Finger zum 1000sten mal auf die selbe Wunde zu legen?
Soll AMD aufhören CPUs zu bauen? - nein.
Kann sich AMD mal eben eine Super-CPU aus dem Ärmel schütteln? - wohl kaum.
Ist es Azubi-Arbeit eine moderne CPU zu entwickeln? - auch eher nicht.
Und was genau soll das Ganze dann bewirken?
Ich weiss nicht wie es euch geht, aber wenn ich einen Fehler gemacht habe, und mir dessen sehr gut bewusst bin... dann brauche ich den nun beim besten willen nicht auch noch von jedem dahergelaufenen 1000 mal aufs brot geschmiert kriegen. Sowas ist entwürdigend, demütigend und schafft nichts weiter als eine negative Motivation. Und wenn von einem Ohnehin nur das schlechteste erwartet wird, kommt zu 99% auch genau das heraus.
Also wenn mir hier irgendwer sagen kann inwieweit es AMD hilft Zmabezi zu verbessern, dass wir zum 2000 mal auf der konkurrenzsituation herumreiten, Ivy Bridge als Gegner hervorholen und auf die glorreichen vergangenen zeiten hinweisen, dann halte ich die klappe.
Allerdings bezweifel ich stark dass das irgendwer hinkriegt...
Edit:
Übrigens, CMT war bisher nur ein theoretisches Konzept! - AMD waren schlichtweg die ersten die den Mut aufgebracht haben das mal in ein Konkretes Produkt umzusetzen. Das könnte vielleicht auch mal gewürdigt werden! - Das Ergebnis ist nicht optimal ok. Aber immerhin ist hier eine Leistung vollbracht worden! - Egal ob akademischer Natur oder Marktrelevant. Man hat sich getraut mal was neues zu versuchen und dadurch sind wir am Ende alle klüger geworden. Nur um das mal festzuhalten! - Da werden leute als große Denker und Erfinder gefeiert die nicht einen einzigen Beweis dafür abliefern konnten dass ihre Theorien überhaupt richtig sind und ihre konzepte funktionieren. Und im Gegenzug wird auf diejenigen eingeprügelt die mal etwas wagen, was neues Versuchen und auch mal auf Risiko ein theoretisches Konzept umsetzen! Bin ich echt der einzige dem daran irgendwas nicht ok erscheint?
Zuletzt bearbeitet:
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.219
- Renomée
- 535
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Also im großen und ganzen finde ich die BD schon gelungen, auf ihre Art eben!
125W TDP 8 Core vs. 150W TDP 6 Core klingt doch nicht schlecht?
Bin mal gespannt ob Ivy Bridge da noch was reisen kann, nochmal 20% mehr Leistung wird nicht einfach ohne Mehrverbrauch!
125W TDP 8 Core vs. 150W TDP 6 Core klingt doch nicht schlecht?
Bin mal gespannt ob Ivy Bridge da noch was reisen kann, nochmal 20% mehr Leistung wird nicht einfach ohne Mehrverbrauch!
FredD
Gesperrt
- Mitglied seit
- 25.01.2011
- Beiträge
- 2.472
- Renomée
- 43
Da täuschst du dich. MitÜbrigens, konnte mir bisher weder Duplex, noch rkinet, Bavarian Realist, noch sonst einer von den "AMD macht sowieso alles Falsch" - Verfechtern belegen dass sie selbst es besser hingekriegt hätten unter den selben Vorraussetungen [...]
AMD macht doch seine Sache gut mit dem Bulldozer - oder warum tauchen auf einmal so "viele" Bulldozersysteme in der Top 500 auf ?! Immerhin auch in den Top20 !!!!!
Für Desktop ist Bulldozer halt keine CPU aber für HPC und DB-Server ist Bulldozer doch ganz brauchbar oder (weil halt drauf optimierte Anwendungen laufen ...)
Genau - aber ich sprach explizit von der Desktopperformance - gut macht Bulldozer seine Sache aktuell hier nicht - und die (Spitzen)Leistung ist eher mau - im Vergleich zu den eigenen Angeboten der K10.5+ Generation - wenn auch ausreichend allemal.
An dieser Einordnung ruettelt auch kein HPC System Plazierung in den Top 20...
Man faehrt ja auch nicht mit einem Fahrrad ein Formel 1 Rennen und lobt dann die guenstige Energiebilanz...
Das eine schliesst ja nicht zwingend das andere aus - man muss es nur differenzierter betrachten...
Mente
Grand Admiral Special
- Mitglied seit
- 23.05.2009
- Beiträge
- 3.671
- Renomée
- 135
- Aktuelle Projekte
- constalation astroids yoyo
- Lieblingsprojekt
- yoyo doking
- Meine Systeme
- Ryzen 3950x
- BOINC-Statistiken
- Prozessor
- AMD 5800X3D
- Mainboard
- Asus ROG Crosshair VIII Dark Hero
- Kühlung
- Headkiller IV
- Speicher
- 3800CL14 G.Skill Trident Z silber/rot DIMM Kit 32GB, DDR4-3600, CL15-15-15-35 (F4-3600C15D-16GTZ)
- Grafikprozessor
- AMD Radeon RX 6900 XT Ref. @Alphacool
- Display
- MSI Optix MAG27CQ
- SSD
- SN8502TB,MX5001TB,Vector150 480gb,Vector 180 256gb,Sandisk extreme 240gb,RD400 512gb
- HDD
- n/a
- Optisches Laufwerk
- n/a
- Soundkarte
- Soundblaster X4
- Gehäuse
- Phanteks Enthoo Pro 2 Tempered Glass
- Netzteil
- Seasonic Prime GX-850 850W
- Tastatur
- Logitech G19
- Maus
- Logitech G703
- Betriebssystem
- Win 10 pro
- Webbrowser
- IE 11 Mozilla Opera
- Verschiedenes
- Logitech PRO RENNLENKRAD DD
Hi zusammen,
über ein Core Parking test bin ich auf den kommentar gestoßen das bei intel diese im Sandy und sandy e funktionieren unter win 7 aber beim Bulli nicht, ist damit nicht eine weitere turbo möglichkeit des bulli inc. einer spromsparfunktion beraubt? die grundleistung des bulli ist Mnm nicht so schlecht wie oft behauptet. die Spiele performance sehe ich etwas zwispältig den dort ist der bulli oft vorm PH2 nur bei einigen games sackt er massiv ab was aber teilweise mehr am Game als an der CPU Liegt.
Ich hoffe das win8 viele schwächen vom Bulli ausmertzen kann bsp. turbo für single Core anwendungen etc.
lg
über ein Core Parking test bin ich auf den kommentar gestoßen das bei intel diese im Sandy und sandy e funktionieren unter win 7 aber beim Bulli nicht, ist damit nicht eine weitere turbo möglichkeit des bulli inc. einer spromsparfunktion beraubt? die grundleistung des bulli ist Mnm nicht so schlecht wie oft behauptet. die Spiele performance sehe ich etwas zwispältig den dort ist der bulli oft vorm PH2 nur bei einigen games sackt er massiv ab was aber teilweise mehr am Game als an der CPU Liegt.
Ich hoffe das win8 viele schwächen vom Bulli ausmertzen kann bsp. turbo für single Core anwendungen etc.
lg
clevemayer
Lt. Commander
- Mitglied seit
- 17.08.2010
- Beiträge
- 129
- Renomée
- 2
- Prozessor
- AMD Phenom II X4 940 BE
- Mainboard
- ASUS M3N-HT Deluxe ATX
- Speicher
- 4GB-Kit G-Skill PC8500/1066,CL 5
- Grafikprozessor
- Powercolor HD4870 1024MB GDDR5, PCI-Express
- Display
- ASUS VW220T
- HDD
- Seagate Barracuda 7200.11 500GB SATA II ST3500320AS
- Optisches Laufwerk
- LG GH22NS Retail schwarz SATA
- Gehäuse
- Aerocool Hi-Tech 7 Standard
- Netzteil
- be quiet! Pure Power 530 Watt / BQT L7 80+
- Betriebssystem
- UBUNTU 10.04 64bit, Windows Vista Professional 64 bit
- Webbrowser
- Fire Fox
- Schau Dir das System auf sysprofile.de an
das Parking der Cores geht bei Intel (seh ich an meinem Laptop der Firma) und ja das bringt einige Vorteile des Bully ganz schon ins Schwimmen.
Es können teilweise bestimmte Bereiche eines Modules, ein komplettes Modul, und dann auch noch der letzte das letzte aktiv laufende Modul auch soweit runtergefahren werden dass ich glaube nur noch einer der Int-Cores läuft, wenn der Mensch über Kausales Denkvermögen verfügt wird ihm schnell klar, dass eine krach neue CPU mit einer komplett neuen Funktionalität nicht auf einem zuvor erschienen Betriebssystem einfwandfrei läuft (allein die 20%+ unter Win8 belegen dies), es sei denn man stimmt seine CPU nicht auf seine eigenen Sondern die Vorstellungen und Limitierungen des zuvor bestehendes Systemes ab.
Was, ich glaube, AMD vermeiden wollte und etwas ganz neues schaffen wollte. Ich bin mir ganz sicher, dass auf den Bully perfekt abgestimmter Code, jede Intel CPU in Grund und Boden stampfen könnte.
Und leute die hier über die schlechte Branch-Prediciton urteilen, was für Noten hattet ihr in Wahrscheinlichkeitsrechnen?
Ich will nicht wissen wieveile Erhebung von Daten notwendig ist um die Wahrscheinlichkeit P an eins an zu nähern um damit entsprechende genauigkeiten zu erhalten, so wie Intel mit 0,9, was schon der Wahnsinn ist. Vor diesem Algorithmus grauts mir nur beim drann denken
Es können teilweise bestimmte Bereiche eines Modules, ein komplettes Modul, und dann auch noch der letzte das letzte aktiv laufende Modul auch soweit runtergefahren werden dass ich glaube nur noch einer der Int-Cores läuft, wenn der Mensch über Kausales Denkvermögen verfügt wird ihm schnell klar, dass eine krach neue CPU mit einer komplett neuen Funktionalität nicht auf einem zuvor erschienen Betriebssystem einfwandfrei läuft (allein die 20%+ unter Win8 belegen dies), es sei denn man stimmt seine CPU nicht auf seine eigenen Sondern die Vorstellungen und Limitierungen des zuvor bestehendes Systemes ab.
Was, ich glaube, AMD vermeiden wollte und etwas ganz neues schaffen wollte. Ich bin mir ganz sicher, dass auf den Bully perfekt abgestimmter Code, jede Intel CPU in Grund und Boden stampfen könnte.
Und leute die hier über die schlechte Branch-Prediciton urteilen, was für Noten hattet ihr in Wahrscheinlichkeitsrechnen?
Ich will nicht wissen wieveile Erhebung von Daten notwendig ist um die Wahrscheinlichkeit P an eins an zu nähern um damit entsprechende genauigkeiten zu erhalten, so wie Intel mit 0,9, was schon der Wahnsinn ist. Vor diesem Algorithmus grauts mir nur beim drann denken
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 9
- Aufrufe
- 4K
- Antworten
- 10
- Aufrufe
- 4K