App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News "Bulldozer war ein totaler Fehlschlag - und wir wissen das"
- Ersteller Nero24
- Erstellt am
snooopy365
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 2.364
- Renomée
- 12
Ich verstehe nicht das AMD selbst über den Bulldozer so herzieht.
Ganz ehrlich man hätte es besser verpacken können.
In meinen Augen ist der Bulldozer ein Projekt gewesen wo man gezielt versucht hat etwas wirklich neues zu bauen, dummerweise sah man dadurch als XY-User nicht das Potenzial der CPU und sie wurde nicht wie verdient am Markt angenommen.
Daraus hat AMD gelernt und probiert jetzt mit direct Memory access von GPU Kern und CPU Kern direkt die Hürde "umsetzung" als erstes anzugehen um den kommenden APUs den bestmöglichen Start zu bieten.
Der Bulldozer ist keine schlechte CPU und das man hinter Intel herhinkt wundert rein von der Firmengröße und Marktmacht nicht. Ich finde man sollte AMD loben wenn sie beim dem geringen R&D Buget tatsächlich großartige Sachen herrausbringen.
Um das mal in eine andere Branche ohne "Quasimonopol" zu übertragen:
Honda ist der größte Motorenhersteller der Welt, Mitsubishi Motors bringt den ersten Direkteinspritzer in Serie und den ersten Diesel mit Variabler Ventilverstellung herraus.
Hier ist nicht "dissen" sondern erstaunt gucken angesagt! Genau so ist es beim AMD.
Man mag auch gespannt sein wie es bei AMD weitergeht, ich weiß nur: langweilig wird es sicher nicht.
Ganz ehrlich man hätte es besser verpacken können.
In meinen Augen ist der Bulldozer ein Projekt gewesen wo man gezielt versucht hat etwas wirklich neues zu bauen, dummerweise sah man dadurch als XY-User nicht das Potenzial der CPU und sie wurde nicht wie verdient am Markt angenommen.
Daraus hat AMD gelernt und probiert jetzt mit direct Memory access von GPU Kern und CPU Kern direkt die Hürde "umsetzung" als erstes anzugehen um den kommenden APUs den bestmöglichen Start zu bieten.
Der Bulldozer ist keine schlechte CPU und das man hinter Intel herhinkt wundert rein von der Firmengröße und Marktmacht nicht. Ich finde man sollte AMD loben wenn sie beim dem geringen R&D Buget tatsächlich großartige Sachen herrausbringen.
Um das mal in eine andere Branche ohne "Quasimonopol" zu übertragen:
Honda ist der größte Motorenhersteller der Welt, Mitsubishi Motors bringt den ersten Direkteinspritzer in Serie und den ersten Diesel mit Variabler Ventilverstellung herraus.
Hier ist nicht "dissen" sondern erstaunt gucken angesagt! Genau so ist es beim AMD.
Man mag auch gespannt sein wie es bei AMD weitergeht, ich weiß nur: langweilig wird es sicher nicht.
Scour
Grand Admiral Special
- Mitglied seit
- 17.03.2002
- Beiträge
- 5.025
- Renomée
- 97
- Standort
- Unterfranken
- Mein Laptop
- Fujitsu A3510
- Details zu meinem Desktop
- Prozessor
- Intel i5-13500 / AMD Ryzen 5 8600G
- Mainboard
- Asrock Z690 Pro RS / Asus TUF B650-E WiFi
- Kühlung
- LC Power LC-CC 120 / Thermalright Assasin King 120 SE White ARGB
- Speicher
- 2x 16GB G:Skill Aegis DDR4-3200 / 2x 16GB G.Skill Flare DDR5-6000
- Grafikprozessor
- iGPU / iGPU
- Display
- Benq BL258 IT/AOC Gaming 24G2U5
- SSD
- Adata S70 2TB, Kingston NV1 2TB, Crucial MX500 2TB, Sandisk Ultra 3D 2TB usw.
- HDD
- WD Ultrastar HC320 8TB, Seagate Exos 8TB, Toshiba HDWE140 X300 usw.
- Optisches Laufwerk
- LG GH24NSD6, Pioneer BDR-209EBK
- Soundkarte
- Onboard
- Gehäuse
- MS-Tech CA-0210 / ARLT A3608
- Netzteil
- Corsair CX550F / be quiet Pure Power 500W
- Tastatur
- Irgendwas von Cherry / Hama KC-200
- Maus
- Logitech M100 / Cherry MC 1000
- Betriebssystem
- W10-64Bit
- Webbrowser
- Firefox
- Verschiedenes
- So, sollte für eine Weile reichen :)
Auch im Servermarkt, auf dem die Architektur überdeutlich zielte, sah man nicht wirklich einen Verwendungszweck.
Und was hat AMD daraus gelernT? Das man merkliche Verbesserungen um ein Jahr verschiebt? Oder ganz und gar aufgibt und stattdessen nur den GPU-Part tunt und ständig darauf verweist?
Ganz ehrlich, das sie aus dem Desaster gelernt haben sehe ich nicht. Ebensowenig Interesse weiterhin ein Intel-Konkurrent zu sein-
Und was hat AMD daraus gelernT? Das man merkliche Verbesserungen um ein Jahr verschiebt? Oder ganz und gar aufgibt und stattdessen nur den GPU-Part tunt und ständig darauf verweist?
Ganz ehrlich, das sie aus dem Desaster gelernt haben sehe ich nicht. Ebensowenig Interesse weiterhin ein Intel-Konkurrent zu sein-
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 15.479
- Renomée
- 2.400
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@snooopy365
Das Problem war vermutlich das man sich bei der Entwicklung der Architektur bereist verkalkuliert hatte.
Man war offenbar davon ausgegangen daß das Multithreading zum erscheinungstermin deutlich weiter verbreitet ist und hatte damit eine satte Bauchlandung hingelegt.
Dazu dann noch die für den Server/Workstation Sektor ausgerichteten CPU Designs, bei denen man sich bereits beim K10 den Ruf in ausgerechnet diesen Sektor ruinierte und Intels gesteigertes Entwicklungstempo (ganz ehrlich....beim P4 gab es über Jahre hinweg abseits der Takterhöhung kaum eine ernsthafte Weiterentwicklung) und das Ergebnis dessen sehen wir heute.
Das Problem war vermutlich das man sich bei der Entwicklung der Architektur bereist verkalkuliert hatte.
Man war offenbar davon ausgegangen daß das Multithreading zum erscheinungstermin deutlich weiter verbreitet ist und hatte damit eine satte Bauchlandung hingelegt.
Dazu dann noch die für den Server/Workstation Sektor ausgerichteten CPU Designs, bei denen man sich bereits beim K10 den Ruf in ausgerechnet diesen Sektor ruinierte und Intels gesteigertes Entwicklungstempo (ganz ehrlich....beim P4 gab es über Jahre hinweg abseits der Takterhöhung kaum eine ernsthafte Weiterentwicklung) und das Ergebnis dessen sehen wir heute.
Markus Everson
Grand Admiral Special
30% weniger Schluckspecht und Bulldozer hätte alles Platt gewalzt. BD war ein Fehlschlag weil die Dresdener Pappnasen den 32nm SOI völlig versiebt haben.
snooopy365
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 2.364
- Renomée
- 12
Genau die CPU wurde von allen zerrissen aus falschen Gründen.@snooopy365
Das Problem war vermutlich das man sich bei der Entwicklung der Architektur bereist verkalkuliert hatte.
Man war offenbar davon ausgegangen daß das Multithreading zum erscheinungstermin deutlich weiter verbreitet ist und hatte damit eine satte Bauchlandung hingelegt.
Dazu dann noch die für den Server/Workstation Sektor ausgerichteten CPU Designs, bei denen man sich bereits beim K10 den Ruf in ausgerechnet diesen Sektor ruinierte und Intels gesteigertes Entwicklungstempo (ganz ehrlich....beim P4 gab es über Jahre hinweg abseits der Takterhöhung kaum eine ernsthafte Weiterentwicklung) und das Ergebnis dessen sehen wir heute.
Aber AMD hat hier keinen "Fehler" gemacht sondern einfach zuweit entwickelt, die CPU ist weiter als die Software.
Genau die CPU wurde von allen zerrissen aus falschen Gründen.
Aber AMD hat hier keinen "Fehler" gemacht sondern einfach zuweit entwickelt, die CPU ist weiter als die Software.
Bei Grafikkarten lässt man sich das ja noch gefallen, aber bei CPUs ist sowas schon immer problematisch gewesen. Es dauert immer eine relativ lange Zeit, bis Software in der Breite neue Hardware unterstützt und auch davon profitiert. War aus meiner Erfahrung auch schon bei der Einführung der DualCore-CPUs so und wird sich auch nicht ändern. AMD ist auch nicht wirklich in der marktbeherrschenden Position, um ein neues CPU-Design in den Markt zu drücken. Selbst Intel ist damit bei den Itanium-CPUs im Serverbereich gewaltig auf die Nase gefallen. Software-Hersteller richten sich nun einmal nicht nach den 1-2% der potentiellen Käufer, die immer die neueste und am Anfang vielleicht exotische Hardware im PC haben.
Scour
Grand Admiral Special
- Mitglied seit
- 17.03.2002
- Beiträge
- 5.025
- Renomée
- 97
- Standort
- Unterfranken
- Mein Laptop
- Fujitsu A3510
- Details zu meinem Desktop
- Prozessor
- Intel i5-13500 / AMD Ryzen 5 8600G
- Mainboard
- Asrock Z690 Pro RS / Asus TUF B650-E WiFi
- Kühlung
- LC Power LC-CC 120 / Thermalright Assasin King 120 SE White ARGB
- Speicher
- 2x 16GB G:Skill Aegis DDR4-3200 / 2x 16GB G.Skill Flare DDR5-6000
- Grafikprozessor
- iGPU / iGPU
- Display
- Benq BL258 IT/AOC Gaming 24G2U5
- SSD
- Adata S70 2TB, Kingston NV1 2TB, Crucial MX500 2TB, Sandisk Ultra 3D 2TB usw.
- HDD
- WD Ultrastar HC320 8TB, Seagate Exos 8TB, Toshiba HDWE140 X300 usw.
- Optisches Laufwerk
- LG GH24NSD6, Pioneer BDR-209EBK
- Soundkarte
- Onboard
- Gehäuse
- MS-Tech CA-0210 / ARLT A3608
- Netzteil
- Corsair CX550F / be quiet Pure Power 500W
- Tastatur
- Irgendwas von Cherry / Hama KC-200
- Maus
- Logitech M100 / Cherry MC 1000
- Betriebssystem
- W10-64Bit
- Webbrowser
- Firefox
- Verschiedenes
- So, sollte für eine Weile reichen :)
Und das ist ein kapitaler Fehler seitens AMD gewesen. Dieses ewige "AMD hat keine Fehler gemacht, aber alle anderen" ist total realitätsfern.
Intel hat das auch kapiert und CPUs mit gewaltiger IPC gebaut; die haben aus ihrem P4-Fehlern gelernt und AMD hat diesen Fehler in verschärfter Form nachgebaut.
Trotz gewaltiger Verschiebung hat die Konkurrenz mit deutlich älteren CPUs noch besser abgeschnitten.
Und die Eff der BD ist einfach grottig, wäre die SW auf Multicore optimiert wäre ein Argument der AMD-Fanboys auch hinüber "Der ist nie ausgelastet, also wird der max. Verbrauch nie erreicht"
Intel hat das auch kapiert und CPUs mit gewaltiger IPC gebaut; die haben aus ihrem P4-Fehlern gelernt und AMD hat diesen Fehler in verschärfter Form nachgebaut.
Trotz gewaltiger Verschiebung hat die Konkurrenz mit deutlich älteren CPUs noch besser abgeschnitten.
Und die Eff der BD ist einfach grottig, wäre die SW auf Multicore optimiert wäre ein Argument der AMD-Fanboys auch hinüber "Der ist nie ausgelastet, also wird der max. Verbrauch nie erreicht"
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Das ist doch polemischer Quatsch. Bulldozer ist nicht mal ansatzweise so schlimm wie es der P4 war. P4 war von vorn bis hinten Mist, ein völlig vermurkstes Konzept. Das kann man von Bulldozer nun wirklich nicht behaupten. Das Konzept ist richtig gut. Lediglich die Umsetzung der ersten Generation hat man verhauen. Hinzu kommt der suboptimale Fertigungsprozess. Und so schlimm ist die Effizienz von Bulldozer nun auch nicht. Oder heisst Bulldozer jetzt nur noch FX-8150/8350 bei maximaler Auslastung? Schau dir kleinere Modelle an, die die Taktfrequenzen nicht überreizen. Die brauchen deutlich weniger. Erst recht, wenn du die Spannungen etwas absenkst, die AMD meist recht hoch anlegt.
Scour
Grand Admiral Special
- Mitglied seit
- 17.03.2002
- Beiträge
- 5.025
- Renomée
- 97
- Standort
- Unterfranken
- Mein Laptop
- Fujitsu A3510
- Details zu meinem Desktop
- Prozessor
- Intel i5-13500 / AMD Ryzen 5 8600G
- Mainboard
- Asrock Z690 Pro RS / Asus TUF B650-E WiFi
- Kühlung
- LC Power LC-CC 120 / Thermalright Assasin King 120 SE White ARGB
- Speicher
- 2x 16GB G:Skill Aegis DDR4-3200 / 2x 16GB G.Skill Flare DDR5-6000
- Grafikprozessor
- iGPU / iGPU
- Display
- Benq BL258 IT/AOC Gaming 24G2U5
- SSD
- Adata S70 2TB, Kingston NV1 2TB, Crucial MX500 2TB, Sandisk Ultra 3D 2TB usw.
- HDD
- WD Ultrastar HC320 8TB, Seagate Exos 8TB, Toshiba HDWE140 X300 usw.
- Optisches Laufwerk
- LG GH24NSD6, Pioneer BDR-209EBK
- Soundkarte
- Onboard
- Gehäuse
- MS-Tech CA-0210 / ARLT A3608
- Netzteil
- Corsair CX550F / be quiet Pure Power 500W
- Tastatur
- Irgendwas von Cherry / Hama KC-200
- Maus
- Logitech M100 / Cherry MC 1000
- Betriebssystem
- W10-64Bit
- Webbrowser
- Firefox
- Verschiedenes
- So, sollte für eine Weile reichen :)
Ich bin eben der Realität zugetan, nicht einer Marke.
Der P4 wurde mit dem Northwood richtig gut und übertraf AMD-CPUs locker. Erst die größten Prescott-Modelle taugten wieder nicht wirklich.
FX-6 und FX-4-Modelle von 95-125W sind von der Eff auch chancenlos gegen gleichschnelle Intel, daran gibts nichts, absolut nichts zu rütteln. Alles andere ist Wunschdenken der Fans
Der P4 wurde mit dem Northwood richtig gut und übertraf AMD-CPUs locker. Erst die größten Prescott-Modelle taugten wieder nicht wirklich.
FX-6 und FX-4-Modelle von 95-125W sind von der Eff auch chancenlos gegen gleichschnelle Intel, daran gibts nichts, absolut nichts zu rütteln. Alles andere ist Wunschdenken der Fans
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 15.479
- Renomée
- 2.400
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Welcher Fehler war das?Und das ist ein kapitaler Fehler seitens AMD gewesen. Dieses ewige "AMD hat keine Fehler gemacht, aber alle anderen" ist total realitätsfern.
Intel hat das auch kapiert und CPUs mit gewaltiger IPC gebaut; die haben aus ihrem P4-Fehlern gelernt und AMD hat diesen Fehler in verschärfter Form nachgebaut.
Trotz gewaltiger Verschiebung hat die Konkurrenz mit deutlich älteren CPUs noch besser abgeschnitten.
Und die Eff der BD ist einfach grottig, wäre die SW auf Multicore optimiert wäre ein Argument der AMD-Fanboys auch hinüber "Der ist nie ausgelastet, also wird der max. Verbrauch nie erreicht"
Das sie für die Leistungssteigerung auf eine technologische Weiterentwicklung gesetzt haben oder das sie aufgrund der Marktanteile Softwareseitig praktisch ignoriert werden?
Scour
Grand Admiral Special
- Mitglied seit
- 17.03.2002
- Beiträge
- 5.025
- Renomée
- 97
- Standort
- Unterfranken
- Mein Laptop
- Fujitsu A3510
- Details zu meinem Desktop
- Prozessor
- Intel i5-13500 / AMD Ryzen 5 8600G
- Mainboard
- Asrock Z690 Pro RS / Asus TUF B650-E WiFi
- Kühlung
- LC Power LC-CC 120 / Thermalright Assasin King 120 SE White ARGB
- Speicher
- 2x 16GB G:Skill Aegis DDR4-3200 / 2x 16GB G.Skill Flare DDR5-6000
- Grafikprozessor
- iGPU / iGPU
- Display
- Benq BL258 IT/AOC Gaming 24G2U5
- SSD
- Adata S70 2TB, Kingston NV1 2TB, Crucial MX500 2TB, Sandisk Ultra 3D 2TB usw.
- HDD
- WD Ultrastar HC320 8TB, Seagate Exos 8TB, Toshiba HDWE140 X300 usw.
- Optisches Laufwerk
- LG GH24NSD6, Pioneer BDR-209EBK
- Soundkarte
- Onboard
- Gehäuse
- MS-Tech CA-0210 / ARLT A3608
- Netzteil
- Corsair CX550F / be quiet Pure Power 500W
- Tastatur
- Irgendwas von Cherry / Hama KC-200
- Maus
- Logitech M100 / Cherry MC 1000
- Betriebssystem
- W10-64Bit
- Webbrowser
- Firefox
- Verschiedenes
- So, sollte für eine Weile reichen :)
Etwas zu entwickeln das
a.) das an den Bedürfnissen des Endanwenders vollkommen vorbeigeht (muß ich wieder einmal schreiben das AMD uns völlig ignoriert hat, aus unerfindlichen Gründen trotz lächerlichen Marktanteil rein aufs Serversegment geschaut hat und uns letztendlich einen kastrierten Server-CPU hingeschmissen hat und auch jegliche spürbare Weiterentwicklung aufschiebt bzw. nie mehr bringt?)
b.) insgesamt zu viel Strom für die Leistung verbraucht
AMD hat doch selbst nicht damit gerechnet das der BD in den nächsten 5 Jahren optimales SW-Futter bekommt. Die konnten doch nicht so blind sein. Intel hat sich trotz der Marktmacht nie auf eine solche Entwicklung gehofft und dafür gesorgt das neue CPUs gut mit der vorhandenen SW abschneiden.
Eine technologische Weiterentwicklung sollte irgendwie nachvollziehbar sein. Eine Weiterentwicklung die nix bringt ist für mich auch keine.
Vielleicht sollte ich mal einen Referenz-Beitrag schreiben und zukünftig nur noch verlinken. Denn seit Erscheinen des BD hat sich trotz vieler Behauptungen der AMD-Fans nicht viel geändert. Verbessert sich BD durch neue Steppings um 5% verbessert sich Intel um 10%
Daran ändert auch deine SW-Theorie nix. Bis es soweit ist hat keiner mehr einen BD im PC; außer er hatte sich einen FX-8xxx gekauft obwohl für seine Bedürfnisse ein X2-250 gereicht hätte
Und mit diesen Beitrag klinke ich mich hier aus, denn es wurde alles gesagt, das Fazit ist im Titel ablesbar
a.) das an den Bedürfnissen des Endanwenders vollkommen vorbeigeht (muß ich wieder einmal schreiben das AMD uns völlig ignoriert hat, aus unerfindlichen Gründen trotz lächerlichen Marktanteil rein aufs Serversegment geschaut hat und uns letztendlich einen kastrierten Server-CPU hingeschmissen hat und auch jegliche spürbare Weiterentwicklung aufschiebt bzw. nie mehr bringt?)
b.) insgesamt zu viel Strom für die Leistung verbraucht
AMD hat doch selbst nicht damit gerechnet das der BD in den nächsten 5 Jahren optimales SW-Futter bekommt. Die konnten doch nicht so blind sein. Intel hat sich trotz der Marktmacht nie auf eine solche Entwicklung gehofft und dafür gesorgt das neue CPUs gut mit der vorhandenen SW abschneiden.
Eine technologische Weiterentwicklung sollte irgendwie nachvollziehbar sein. Eine Weiterentwicklung die nix bringt ist für mich auch keine.
Vielleicht sollte ich mal einen Referenz-Beitrag schreiben und zukünftig nur noch verlinken. Denn seit Erscheinen des BD hat sich trotz vieler Behauptungen der AMD-Fans nicht viel geändert. Verbessert sich BD durch neue Steppings um 5% verbessert sich Intel um 10%
Daran ändert auch deine SW-Theorie nix. Bis es soweit ist hat keiner mehr einen BD im PC; außer er hatte sich einen FX-8xxx gekauft obwohl für seine Bedürfnisse ein X2-250 gereicht hätte
Und mit diesen Beitrag klinke ich mich hier aus, denn es wurde alles gesagt, das Fazit ist im Titel ablesbar
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Wo war der P4 Northwood "richtig gut"? Der war vielleicht besser als Prescott. Wirklich gut war er aber noch lange nicht. Schon gar nicht im Vergleich zur Konkurrenz. Der war genau so 'ne Krücke wie die restlichen P4. Weniger Performance pro Kern als der popelige Atom bei gleichem Takt. Und das bei trotzdem relativ hoher Leistungsaufnahme im Vergleich zur Konkurrenz, wenn auch nicht ganz so schlimm wie Prescott.
Und zuletzt war es eher so, dass AMD sich um 10% verbessert hat, Intel jedoch nur um 5%.
Und lass doch mal diese unsinnige Softwaredebatte bleiben. Im Serverumfeld ist die Software sehr wohl auf die jeweiligen Systeme zugeschnitten. Auf der einen Seite (richtigerweise) bemängeln, man habe sich bei der Entwicklung nur auf Server fokussiert und den Client-Markt aussen vor gelassen, auf der anderen Seite dann aber vorwerfen, man wäre beim Softwaresupport im Client-Markt "blind" gewesen, ergibt NULL Sinn.
Und zuletzt war es eher so, dass AMD sich um 10% verbessert hat, Intel jedoch nur um 5%.
Und lass doch mal diese unsinnige Softwaredebatte bleiben. Im Serverumfeld ist die Software sehr wohl auf die jeweiligen Systeme zugeschnitten. Auf der einen Seite (richtigerweise) bemängeln, man habe sich bei der Entwicklung nur auf Server fokussiert und den Client-Markt aussen vor gelassen, auf der anderen Seite dann aber vorwerfen, man wäre beim Softwaresupport im Client-Markt "blind" gewesen, ergibt NULL Sinn.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 15.479
- Renomée
- 2.400
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Deutlich mehr Rechenleistung zu bekommen geht an den Bedürfnissen der Endanwender vorbei?
Sachen gibts...
Im übrigen ist Intel nahezu den gleichen Weg gegangen.
Haswell beherrscht inzwischen ebenfalls FMA3 und man setzt ebenfalls primär auf eine Leistungssteigerung der integrierten GPU.
Damit tritt bei Intel fast exakt das gleiche wie bei AMD ein....eine kaum vorhandene effektive Leistungssteigerung aufgrund fehlender softwareseitiger Nutzung der Möglichkeiten des Prozessors. Es liegt also ebenfalls der Großteil der möglichen Leistungssteigerung ungenutzt brach.
Was ihnen aufgrund der deutlich schlechteren SMT Skalierung und der lediglich weiterentwickelten Architektur größtenteils erspart blieb war die verschärfte Multicore Problematik. Beim Verbrauch konnte man natürlich auch von seinen Fertigungsvorteilen profitieren.
Edit: Das man scheinbar den Server/Workstation Markt zu stark im Fokus hatte mag durchaus sein aber wenn dann nicht erst seit der Bulldozer Architektur.
Wenn dann könnte man dies bereits auf den ersten Phenom ummünzen, denn so gesehen bestanden bereits dort die gleichen Probleme.....zu viele Kerne für den Großteil der vorhandenen Software und es war praktisch kein Spiel in der Lage alle Kerne effektiv zu nutzen.
Sachen gibts...

Im übrigen ist Intel nahezu den gleichen Weg gegangen.
Haswell beherrscht inzwischen ebenfalls FMA3 und man setzt ebenfalls primär auf eine Leistungssteigerung der integrierten GPU.
Damit tritt bei Intel fast exakt das gleiche wie bei AMD ein....eine kaum vorhandene effektive Leistungssteigerung aufgrund fehlender softwareseitiger Nutzung der Möglichkeiten des Prozessors. Es liegt also ebenfalls der Großteil der möglichen Leistungssteigerung ungenutzt brach.
Was ihnen aufgrund der deutlich schlechteren SMT Skalierung und der lediglich weiterentwickelten Architektur größtenteils erspart blieb war die verschärfte Multicore Problematik. Beim Verbrauch konnte man natürlich auch von seinen Fertigungsvorteilen profitieren.
Edit: Das man scheinbar den Server/Workstation Markt zu stark im Fokus hatte mag durchaus sein aber wenn dann nicht erst seit der Bulldozer Architektur.
Wenn dann könnte man dies bereits auf den ersten Phenom ummünzen, denn so gesehen bestanden bereits dort die gleichen Probleme.....zu viele Kerne für den Großteil der vorhandenen Software und es war praktisch kein Spiel in der Lage alle Kerne effektiv zu nutzen.
Zuletzt bearbeitet:
Markus Everson
Grand Admiral Special
Und das ist ein kapitaler Fehler seitens AMD gewesen. Dieses ewige "AMD hat keine Fehler gemacht, aber alle anderen" ist total realitätsfern.
Intel hat das auch kapiert und CPUs mit gewaltiger IPC gebaut
Ich lehne mich beim raten mal seeeehr weit aus dem Fenster mit der Vermutung das Du nicht den Itanium meinst mit dem Intel eindrucksvoll bewiesen hat wie gut eine CPU am Markt ankommt wenn sie nur eine mörderisch gute IPC hat. Richtig geraten?
.
EDIT :
.
Und die Eff der BD ist einfach grottig
Diverse Tests zeigen das BD im Server bei Performance/Watt mit Intels aktueller Generation noch einigermaßen mithalten kann. Grottig ist alleine der 32nm Prozess aus Dresden.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 77
- Antworten
- 0
- Aufrufe
- 13
- Antworten
- 0
- Aufrufe
- 13