App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News AMDs Mark Papermaster widerspricht: Bulldozer kein Versager!
- Ersteller Nero24
- Erstellt am
<img src="http://www.planet3dnow.de/photoplog/images/54308/1_AMD-Logo.png" border="0" alt="AMD" class="newsfloatleft">In der vergangenen Woche hatten wir über die verblüffenden Aussagen des aktuellen Corporate Vice President und General Manager of the Server Business Unit bei AMD, Andrew Feldman, <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1369917323">berichtet</a>. Dieser gab wörtlich zu Protokoll: <i>"Bulldozer war ohne Zweifel ein totaler Fehlschlag. Wir wissen das. Das kostete dem CEO den Job, es kostete einem Großteil des Managements den Job, es kostete dem Vice President of Engineering den Job."</i> Eine derartige Aussage über ein noch aktuelles Produkt - egal ob zutreffend oder nicht - ist in der Unternehmenskommunikation für gewöhnlich absolut unüblich und wurde bereits bei uns im Forum ausgiebig <a href="http://www.planet3dnow.de/vbulletin/showthread.php?p=4781794#post4781794">diskutiert</a>.
Heute nun hat die PC Games Hardware im Rahmen der Computex in Taiwan ein <a href="http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/Mark-Papermaster-Interview-Bulldozer-Never-Settle-1072730/" target="_blank">eigenes Interview</a> mit einem anderen AMD-Manager geführt, dem Chief Technology Officer Mark Papermaster. Konfrontiert mit den forschen Aussagen seines Kollegen verneinte Papermaster, dass Bulldozer intern als Fehlschlag angesehen werde, merkte jedoch an, dass jede neue Architektur erst einmal am Markt ankommen und die Software optimiert werden müsse. Mit der aktuellen Piledriver-Ausbaustufe sowie der kommenden Steamroller-Version sei AMD zudem die Schwachstellen angegangen und die Software wie auch die Fertigung seien besser geworden. Zudem merkte er an, dass mit Steamroller und Excavator noch mindestens zwei weitere Ausbaustufen der Bulldozer-Architektur geplant seien. Für welche Segmente (Server? Desktop? APUs?) sagte er jedoch nicht. Gerade für den klassischen Desktop (CPU, nicht APU) gibt es immer noch keinen Nachfolger des Vishera auf der <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1369875678">Roadmap</a>.
Ein solches Dementi war zu erwarten, ganz einfach weil eine Aussage wie die von Andrew Feldman so gar nicht ins übliche Schema passt. AMD will schließlich noch viele Trinitys, Richlands, Visheras, Abu Dhabis, Seouls und Delhis - allesamt aktuelle AMD-Produkte, die auf der Bulldozer-Architektur basieren - verkaufen. Da passt das Statement eines amtierenden AMD-Managers, dass das alles Totalausfälle seien, nicht so recht ins Konzept.
Womöglich wurde die Aussage Feldmans auch missinterpretiert oder er hat sich unglücklich ausgedruckt. Feldman ist schließlich verantwortlich für die Serversparte und "Bulldozer" wird gelegentlich auch nicht für die komplette Architektur verwendet, sondern stellvertretend nur für die erste Generation, also den Zambezi bzw. in seiner Serverwelt für die Varianten Interlagos/Valencia/Zurich. Das würde das harsche Urteil teilweise relativieren. Aber ein Kuriosum bleibt das Statement so oder so.
<b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1369917323">"Bulldozer war ein totaler Fehlschlag - und wir wissen das"</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1369875678">Neue offizielle Roadmaps von AMD - FM2+-Sockel für Kaveri bestätigt</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1370431755">Computex 2013: AMD will Kaveri Anfang des vierten Quartals 2013 vorstellen</a></li></ul>
Heute nun hat die PC Games Hardware im Rahmen der Computex in Taiwan ein <a href="http://www.pcgameshardware.de/CPU-Hardware-154106/Specials/Mark-Papermaster-Interview-Bulldozer-Never-Settle-1072730/" target="_blank">eigenes Interview</a> mit einem anderen AMD-Manager geführt, dem Chief Technology Officer Mark Papermaster. Konfrontiert mit den forschen Aussagen seines Kollegen verneinte Papermaster, dass Bulldozer intern als Fehlschlag angesehen werde, merkte jedoch an, dass jede neue Architektur erst einmal am Markt ankommen und die Software optimiert werden müsse. Mit der aktuellen Piledriver-Ausbaustufe sowie der kommenden Steamroller-Version sei AMD zudem die Schwachstellen angegangen und die Software wie auch die Fertigung seien besser geworden. Zudem merkte er an, dass mit Steamroller und Excavator noch mindestens zwei weitere Ausbaustufen der Bulldozer-Architektur geplant seien. Für welche Segmente (Server? Desktop? APUs?) sagte er jedoch nicht. Gerade für den klassischen Desktop (CPU, nicht APU) gibt es immer noch keinen Nachfolger des Vishera auf der <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1369875678">Roadmap</a>.
Ein solches Dementi war zu erwarten, ganz einfach weil eine Aussage wie die von Andrew Feldman so gar nicht ins übliche Schema passt. AMD will schließlich noch viele Trinitys, Richlands, Visheras, Abu Dhabis, Seouls und Delhis - allesamt aktuelle AMD-Produkte, die auf der Bulldozer-Architektur basieren - verkaufen. Da passt das Statement eines amtierenden AMD-Managers, dass das alles Totalausfälle seien, nicht so recht ins Konzept.
Womöglich wurde die Aussage Feldmans auch missinterpretiert oder er hat sich unglücklich ausgedruckt. Feldman ist schließlich verantwortlich für die Serversparte und "Bulldozer" wird gelegentlich auch nicht für die komplette Architektur verwendet, sondern stellvertretend nur für die erste Generation, also den Zambezi bzw. in seiner Serverwelt für die Varianten Interlagos/Valencia/Zurich. Das würde das harsche Urteil teilweise relativieren. Aber ein Kuriosum bleibt das Statement so oder so.
<b>Links zum Thema:</b><ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1369917323">"Bulldozer war ein totaler Fehlschlag - und wir wissen das"</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1369875678">Neue offizielle Roadmaps von AMD - FM2+-Sockel für Kaveri bestätigt</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1370431755">Computex 2013: AMD will Kaveri Anfang des vierten Quartals 2013 vorstellen</a></li></ul>
mariahellwig
Grand Admiral Special
Ich glaube Feldmann hatte einfach einen frustrierten Tag und da lag es nahe einfach mal die Wahrheit auszuplaudern.
Ich bezweifel aber dass ein bessere Bulldozer auch zu mehr Marktanteilen geführt hätte. AMD kann so ziemlich anstellen was man will, gegen BigBlue ist kein Kraut gewachsen.
ARM soll den aktuellen Zenit genießen. Intels Atom werden sie früher oder später aus dem Markt drängen.
Siehe: http://www.handelsblatt.com/unterne...sung-stellt-tablet-produktion-um/8291240.html
Ich bezweifel aber dass ein bessere Bulldozer auch zu mehr Marktanteilen geführt hätte. AMD kann so ziemlich anstellen was man will, gegen BigBlue ist kein Kraut gewachsen.
ARM soll den aktuellen Zenit genießen. Intels Atom werden sie früher oder später aus dem Markt drängen.
Siehe: http://www.handelsblatt.com/unterne...sung-stellt-tablet-produktion-um/8291240.html
ist zwar offtopic aber
@mariahellwig
Den verlinkten Artikel kann man in die Tonne treten.
Interessant ist, dass nun einige Anbieter für billige Geräte auf Intels Produkte setzen (Asus Fonepad z.B.).
Ich glaube Intel drückt die Dinger momentan schlicht zu günstigen Preisen in den Markt. Samsung bekommt dafür eventuell gute Konditionen bei Haswell o.Ä.
Intel will in die Segmente mit hohen Margen, d.h. HighEnd Tablets. Da sieht man momentan aber noch nicht viel von ihnen. Ein Hersteller wie Qualcomm ist momentan im Mobilbereich deutlich erfolgreicher als Intel. Die 800er Snapdragons dürften Intel sowohl bei der CPU als auch bei der GPU-Leistung alt aussehen lassen. Was Baytrail dann macht muss man erst noch sehen. Aber die Krait 400-Kerne bringen schon ziemlich viel Leistung mit.
Zu Bulldozer und AMD:
Macht auf mich ein bisschen den Eindruck, als ob da verschiedene Interessengruppen im Unternehmen arbeiten. Quasi ein Kampf um die begrenzten Ressourcen.
@mariahellwig
Den verlinkten Artikel kann man in die Tonne treten.
1. ARM stellt keine Chips her und 2. Samsung hat sich schon in der Vergangenheit flexibel gezeigt, was den Einsatz verschiedener Prozessoren in seinen Geräten angeht. Man hatte ja auch schon Qualcomm, TI, Nvidia et.al. in seinen Prdoukten. Insofern sehe ich da keine grundsätzlich neue Strategie momentan.Bislang setzte Samsung für seine Android-Kassenschlager Chips des britischen Herstellers ARM ein.
Interessant ist, dass nun einige Anbieter für billige Geräte auf Intels Produkte setzen (Asus Fonepad z.B.).
Ich glaube Intel drückt die Dinger momentan schlicht zu günstigen Preisen in den Markt. Samsung bekommt dafür eventuell gute Konditionen bei Haswell o.Ä.
Intel will in die Segmente mit hohen Margen, d.h. HighEnd Tablets. Da sieht man momentan aber noch nicht viel von ihnen. Ein Hersteller wie Qualcomm ist momentan im Mobilbereich deutlich erfolgreicher als Intel. Die 800er Snapdragons dürften Intel sowohl bei der CPU als auch bei der GPU-Leistung alt aussehen lassen. Was Baytrail dann macht muss man erst noch sehen. Aber die Krait 400-Kerne bringen schon ziemlich viel Leistung mit.
Zu Bulldozer und AMD:
Macht auf mich ein bisschen den Eindruck, als ob da verschiedene Interessengruppen im Unternehmen arbeiten. Quasi ein Kampf um die begrenzten Ressourcen.
Zuletzt bearbeitet:
mariahellwig
Grand Admiral Special
Intel will in die Segmente mit hohen Margen
Ja. Das funktioniert aber nur wenn man den Markt kontrolliert. Aktuell bieten Intel's Win8 Geräte kaum einen Mehrwert gegenüber den preiswerten Andriod/ARM Geräten. Sehr störend. Dafür muss man diese erst mal aus dem Markt drängen. Ich sehe mit Samsung eher den Anfang eines Trends. Und Samsung ist keine Garagencompany.
mmoses
Admiral Special
- Mitglied seit
- 20.10.2006
- Beiträge
- 1.899
- Renomée
- 43
- Standort
- Bembeltown
- Mein Laptop
- Lenovo Thinkpad Edge T450
- Prozessor
- AMD Ryzen5 - 1600
- Mainboard
- MSI B350 PC MATE
- Kühlung
- Original Bex Kühler
- Speicher
- 2 x ADATA DIMM 8 GB DDR4-2400
- Grafikprozessor
- Asus Radeon R7 250X
- Display
- 27" iiyama ProLite B2783QSU
- SSD
- Samsung SSD 840PRO 256GB
- HDD
- WD WD20EZRZ 2 TB
- Optisches Laufwerk
- BluRayBrenner PIONEER BDR-209DBK SATA
- Soundkarte
- onboard
- Gehäuse
- Enermax Chakra BS 25cm Fan ATX
- Netzteil
- Enermax EPR385AWT Pro82+ 385W ATX23
- Betriebssystem
- 64-Bit Linux Mint 19.2
- Webbrowser
- Frickelfuchs/opera
.... merkte jedoch an, dass jede neue Architektur erst einmal am Markt ankommen und die Software optimiert werden müsse.
Meine Fräsung, wenn ich so einen Blubberltsch nur höre (bzw. lese) ......
Noch nie ist Software zügig auf Prozzis optimiert worden, sofern es nicht zwingend erforderlich ist!
Wir leben im "Jahr 9 des Multicore "und noch immer werfen knapp 90% der Anwendungen EINEN Kern an. Vor knapp zehn Jahren habe ich mal in einen witzigen Artikel bezüglich SSE2 gelesen, dass der Autor Tage suchen musste um eine SW zu finden die wenigstens MMX benutzt.... Es fliessen üblicherweise die Erungenschaften der Vorvorvorgängerarchitektur in den Code - demnächst SSE3 , nächstes Jahr SSSE3 und 2018 dürfen wir uns ganz dolle auf die erste Hälfte von SSE4 freuen
@ mariahelwig
BIGBLUE steht üblicherweise für IBM. nicht Intel ... und die verkaufen auch nicht viel mehr Prozzis als AMD , nur deutlich rentabler
Mmoe
Crashtest
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2008
- Beiträge
- 9.313
- Renomée
- 1.445
- Standort
- Leipzig
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Collatz, yoyo, radac
- Lieblingsprojekt
- yoyo
- Meine Systeme
- Ryzen: 2x1600, 5x1700, 1x2700,1x3600, 1x5600X; EPYC 7V12 und Kleinzeuch
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Lenovo IdeaPad 5 14ALC05
- Prozessor
- Ryzen 7950X / Ryzen 4750G
- Mainboard
- ASRock B650M PGRT / X570D4U
- Kühlung
- be quiet! Dark Rock Pro4 / Pure Rock Slim 2
- Speicher
- 64GB DDR5-5600 G Skill F5-5600J3036D16G / 32 GB DDR4-3200 ECC
- Grafikprozessor
- Raphael IGP / ASpeed AST-2500
- Display
- 27" Samsung LF27T450F
- SSD
- KINGSTON SNVS2000G
- HDD
- - / 8x Seagate IronWolf Pro 20TB
- Optisches Laufwerk
- 1x B.Ray - LG BD-RE BH16NS55
- Soundkarte
- onboard HD?
- Gehäuse
- zu kleines für die GPU
- Netzteil
- be quiet! Pure Power 11 400W / dito
- Tastatur
- CHERRY SECURE BOARD 1.0
- Maus
- Logitech RX250
- Betriebssystem
- Windows 10 19045.4780 / Server 20348.2655
- Webbrowser
- Edge 127.0.2651.105
- Verschiedenes
- U320 SCSI-Controller !!!!
- Internetanbindung
- ▼1000 MBit ▲82 MBit
Schaut euch mal die Benmarks bei AIDA64 3.0 an - da hat Vishera deutlich aufgeholt - dank Softwareoptimierung
kurz - wenn die Software optimiert ist - ist Bulldozer brauchbar!
Insb. bei wissenschaftlichen Anwendungen die unter Linux laufen kann dank XOP, FMA3, FMA4, AES & Co einiges ggü Intel gut gemacht werden und bei FMA4 sogar Intel geschlagen werden ...
Warten wir einfach mal auf Family 15h Model 40h-4Fh und 60h-6Fh
kurz - wenn die Software optimiert ist - ist Bulldozer brauchbar!
Insb. bei wissenschaftlichen Anwendungen die unter Linux laufen kann dank XOP, FMA3, FMA4, AES & Co einiges ggü Intel gut gemacht werden und bei FMA4 sogar Intel geschlagen werden ...
Warten wir einfach mal auf Family 15h Model 40h-4Fh und 60h-6Fh
Meiner Meinung geht AMD "seit Bulldozer" den richtigen Weg. Aber, wie oben schon beschrieben, es fehlt die korrekte Software dazu. Als Kombi-Lösung ist das eigentlich ideal, weil die Grafik eher zur Prozessorleistung passt. Die Intel Grafiklösung finde ich grauenhaft, als "Mobiles Gaming Device" unbrauchbar, ebenso wie die Kombi-Lösung "Intel/NVIDIA" ein purer Krampf ist.
Warum das alles so Träge ist, vor allem die Multi-Prozessing Geschichte, bleibt wohl ungeklärt. Out of Order Execution dem Prozessor zu überlassen, ist wohl nach wie vor einfacher zu programmieren.
Tatsache ist, dass die angestrebte "echte Raytracing Grafik in Spielen" bis 2014 SO nicht zu schaffen ist.
Die sollten wohl alle mal bei Maxon eine Schulung mitmachen
Warum das alles so Träge ist, vor allem die Multi-Prozessing Geschichte, bleibt wohl ungeklärt. Out of Order Execution dem Prozessor zu überlassen, ist wohl nach wie vor einfacher zu programmieren.
Tatsache ist, dass die angestrebte "echte Raytracing Grafik in Spielen" bis 2014 SO nicht zu schaffen ist.
Die sollten wohl alle mal bei Maxon eine Schulung mitmachen
Hephaistos
Admiral Special
- Mitglied seit
- 18.01.2010
- Beiträge
- 1.100
- Renomée
- 44
- Standort
- Deutschland
- Mein Laptop
- Acer Aspire Timeline 1810tz
- Prozessor
- Phenom X6 1090T
- Mainboard
- ASRock 970 Extreme4
- Kühlung
- Wasserkühler
- Speicher
- 16 GB
- Grafikprozessor
- ATI HD6870 - XFX Black Edition
- Display
- 22Zoll BenQ - 1680*1050
- HDD
- 128GB M4 Crucial
- Optisches Laufwerk
- DVD-ROM
- Soundkarte
- onboard
- Gehäuse
- Coolermaster Silencio 550
- Netzteil
- Noname 650 Watt - Aktiv PFC
- Betriebssystem
- Windows 7
- Webbrowser
- Firefox
benchs interessieren niemanden.
Santas Little Helper
Admiral Special
Gäbe es die entsprechend optimierte Software, würde Bulldozer deutlich besser gegen die Intel CPUs aussehen. Würde teilweise mit denen wohl sogar den Boden wischen.
Aber das raffen viele der 0815 Anwender halt nicht. Die sehen nur das Hier und Jetzt.
Aber das raffen viele der 0815 Anwender halt nicht. Die sehen nur das Hier und Jetzt.
MusicIsMyLife
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.02.2002
- Beiträge
- 15.594
- Renomée
- 2.610
- Standort
- in der Nähe von Cottbus
- Lieblingsprojekt
- Asteroids@Home
- Meine Systeme
- Alltags-PC, Test-PC (wechselnde Hardware)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Alltags-PC
- Mein Laptop
- HP DV7-2225sg
- Prozessor
- AMD Ryzen 9 7950X
- Mainboard
- ASRock B650M PG Riptide
- Kühlung
- Watercool Heatkiller IV Pro Copper
- Speicher
- 2x 32 GB G.Skill TridentZ 5 TGB (F5-6000J3040G32X2-TZ5RS)
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- ASUS ROG PG42UQ (3840x2160), Philips BDM4065UC (3840x2160), Samsung C27HG70 (2560x1440)
- SSD
- Micron 9300 Pro 7,68 TB (U.2), Samsung 850 Evo 4 TB (SATA)
- HDD
- keine, SSD only...
- Optisches Laufwerk
- LG CH08LS10 Blu-ray Disc-Player
- Soundkarte
- Creative SoundBlasterX AE-5 Plus
- Gehäuse
- Dimastech BenchTable EasyXL (vorübergehend)
- Netzteil
- MSI MPG A1000G PCIE5
- Tastatur
- ASUS ROG Strix Flare
- Maus
- Steelseries Sensei 310
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼270 MBit ▲45 MBit
Gäbe es die entsprechend optimierte Software, würde Bulldozer deutlich besser gegen die Intel CPUs aussehen. Würde teilweise mit denen wohl sogar den Boden wischen.
Aber das raffen viele der 0815 Anwender halt nicht. Die sehen nur das Hier und Jetzt.
Das mag ja alles sein.
Doch Hand aufs Herz: Rüstest du deine CPU auf, um hier und jetzt zu arbeiten (mit dem, was zur Verfügung steht) oder rüstest du jetzt auf, um in vier oder fünf Jahren in den Genuss von angepasster Software zu kommen? Zu einem Zeitpunkt, wo wohl eine dann aktuelle APU schneller ist als die im hier und jetzt gekaufte CPU?
Es mag sein, dass eine Architektur reifen muss und es Software geben muss. Aber eine CPU, die ausschließlich für zukünftige Software entwickelt wird und mit der Software-Situation hier und jetzt seine liebe Mühe hat, die ist nunmal zum Teil am Markt vorbeientwickelt.
Warum ist denn der A64 damals so gut eingeschlagen? Weil er mit der damals gängigen Software sehr gut klarkam und dort performant war. Zu der Zeit hat man gesehen, dass selbst Intel mir ihrer Marktmacht nicht die Möglichkeit hatten, die Softwarewelt zu ihren Gunsten zu beeinflussen. Und wenn das Intel nicht gelingt, wie will AMD das 2013 bewerkstelligen?
Ich gebe dir im Prinzip recht, dass die Welt mit besserer Software deutlich anders aussehen könnte. Aber was nutzt uns diese Erkenntnis? Vishera wird dadurch hier und jetzt auch nicht schneller... Traurig aber wahr.
...
Aber das raffen viele der 0815 Anwender halt nicht. Die sehen nur das Hier und Jetzt.
Leider ist das die Mehrheit des Marktes....dieses Software muss sich erst anpassen..ist kein wirkliches Argument mehr...wenn die Software passt...ist BD in seiner aktuellen Form und vielleicht schon in seinen zukuenftigen Formen schon obsolete.
BD ging irgndwie am Markt ziemlich vorbei...
Man denke nur an die 'Scheduler' Hoffnungen vor einiger Zeit - die sich auch beinahe in Luft aufgeloest haben...
Naja, das kann man so oder so sehen! Die erfolgreichsten AMD-Prozessoren waren halt die, die ohne Software-Anpassungen eingeschlagen und den Aha-Effekt erzeugt haben: AMD Athlon 1999 und AMD Athlon 64 2003. Selbst Intel litt beim Pentium 4 darunter, dass die Software die Netburst-Architektur nicht mochte und wenn die es jahrelang nicht hingekriegt haben, die Software-Landschaft gewaltsam zu verändern...
Andererseits geht's bei Anwendungen, die wirklich zeitkritisch sind, in der Regel schon schneller mit den Optimierungen. Siehe z.B. x264 oder Truecrypt. Die nutzen die Goodies der jeweiligen Architekturen schon recht zeitnah. Ich kapier nur nicht, wieso sich die BOINC-Projekte so wenig darum scheren.
Edit: Mist, da waren zwei schneller
Andererseits geht's bei Anwendungen, die wirklich zeitkritisch sind, in der Regel schon schneller mit den Optimierungen. Siehe z.B. x264 oder Truecrypt. Die nutzen die Goodies der jeweiligen Architekturen schon recht zeitnah. Ich kapier nur nicht, wieso sich die BOINC-Projekte so wenig darum scheren.
Edit: Mist, da waren zwei schneller
G
Gast30082015
Guest
Wobei sie es immerhin geschafft haben, dass Intel bei den eigenen GPUs mal Hand anlegt und zumindest gpu-seitig (mit nem vorsichtigen Blick hin zu HSA) scheint sich bei der Software ja auch etwas zu bewegen.Naja, das kann man so oder so sehen! Die erfolgreichsten AMD-Prozessoren waren halt die, die ohne Software-Anpassungen eingeschlagen und den Aha-Effekt erzeugt haben: AMD Athlon 1999 und AMD Athlon 64 2003. Selbst Intel litt beim Pentium 4 darunter, dass die Software die Netburst-Architektur nicht mochte und wenn die es jahrelang nicht hingekriegt haben, die Software-Landschaft gewaltsam zu verändern...
AMD kann also schon noch was ändern und richtungsweisend sein. Nur hat es bei Bulldozer/Zambezi eben partu nicht so wie erhofft geklappt.
Da kommt dann zum Tragen, das der Laden solche Rückschläge nicht mal eben wegstecken kann, wie es z.B. Intel vermag.
Ach geschafft und zum Vorteil für die Anwender erreicht hat AMD genug:Wobei sie es immerhin geschafft haben, dass Intel bei den eigenen GPUs mal Hand anlegt und zumindest gpu-seitig (mit nem vorsichtigen Blick hin zu HSA) scheint sich bei der Software ja auch etwas zu bewegen.
- allein durch eine Konkurrenzsituation niedrigere CPU-Preise
- SSE durch die Vorlage in Form von 3DNow! (auch wenn Intel es damals noch nicht vermochte, einen AMD-Befehlssatz 1:1 zu übernehmen)
- den x86_64 Befehlssatz und Modus; und überhaupt, dass es noch x86-Prozessoren gibt. Intel wollte damals die 4 GB ja mit dem Itanium nehmen und sah 64-Bit Erweiterungen für x86 als unsinnig an
- DDRx-Speicher (Intel wollte ja zu Rambus)
- den integrierten Memory-Controller und die Abkehr vom FSB-Konzept (kam bei AMD 2003 mit dem K8, bei Intel erst 2008 mit dem Nehalem)
- nativer Quad-Core mit L3-Cache (2007 bei AMD mit dem Barcelona, 2008 erst bei Intel mit dem Nehalem)
- SSE5 (heute in Form von AVX-FMA4)
- das APU-Konzept (die neueren Intel-CPUs sind ja nichts anderes)
- HSA (auch da wird sich Intel früher oder später anschließen müssen)
Das Problem ist nur, dass man keinen unmittelbaren wirtschaftlichen Vorteil daraus ziehen konnte, von einigen Strohfeuern mal abgesehen. Angesichts dessen, was man als David bewegen konnte, ist es erstaunlich, dass man heute "nur" da steht wo man steht.
Andererseits gab's halt auch ziemlich üble Missgriffe: die ewige Verzögerung schon beim K5 (wäre der rechtzeitig gekommen...), beim K6 erneut, beim K8 warens gar 2 Jahre (und trotzdem hat er noch eingeschlagen wie eine Bombe), der Bug beim K10 und seine anschließende Schwächeperiode, der "unfertige" Bulldozer nach erneut jahrelanger (!) Verzögerung usw. Alles was man sich zwischendurch verdienterweise erarbeitet hatte, wurde immer wieder durch verschiedenste Umstände zunichte gemacht.
pipip
Captain Special
- Mitglied seit
- 17.03.2011
- Beiträge
- 209
- Renomée
- 2
- Mein Laptop
- HP625
- Prozessor
- N930@2Ghz , 0,9250Volt
- Speicher
- 4gig
- Grafikprozessor
- AMD HD4200
Das ist wohl ein gutes Bsp dafür, dass eine Firma zwar als Person gesehen wird, es trotzdem Kollegen mit unterschiedlicher Meinung gibt.
Bulldozer wird es selbst nicht nur am freien Markt schwer gehabt haben, sondern eben auch firmenintern.
Das ist aber nichts unübliches, weil jeder neue Technologe, gewagter Schritt bei manchen Ängste hervorrufen.
Eventuell hatte man sich auch mehr erhofft und war dann nicht gerade glücklich drüber, dass Bulldozer zwar fortschrittlich ist, aber kaum etwas davon zeigen konnte.
Bulldozer wird es selbst nicht nur am freien Markt schwer gehabt haben, sondern eben auch firmenintern.
Das ist aber nichts unübliches, weil jeder neue Technologe, gewagter Schritt bei manchen Ängste hervorrufen.
Eventuell hatte man sich auch mehr erhofft und war dann nicht gerade glücklich drüber, dass Bulldozer zwar fortschrittlich ist, aber kaum etwas davon zeigen konnte.
benchs interessieren niemanden.
Es geht darum, dass Cinebench sehr gut mit der Anzahl der Cores skaliert. Und das so gut wie kein anderes Programm. Für Raytracing Grafik - in jedem Bereich - ist diese Parallelisierung ein MUSS.
.
EDIT :
.
Aber das raffen viele der 0815 Anwender halt nicht. Die sehen nur das Hier und Jetzt.
Das könnte von mir stammen.
.
EDIT :
.
Da kommt dann zum Tragen, das der Laden solche Rückschläge nicht mal eben wegstecken kann, wie es z.B. Intel vermag.
Die Lösung, um die eigene Hardware zu pushen, sind Programmierbibliotheken.
Hephaistos
Admiral Special
- Mitglied seit
- 18.01.2010
- Beiträge
- 1.100
- Renomée
- 44
- Standort
- Deutschland
- Mein Laptop
- Acer Aspire Timeline 1810tz
- Prozessor
- Phenom X6 1090T
- Mainboard
- ASRock 970 Extreme4
- Kühlung
- Wasserkühler
- Speicher
- 16 GB
- Grafikprozessor
- ATI HD6870 - XFX Black Edition
- Display
- 22Zoll BenQ - 1680*1050
- HDD
- 128GB M4 Crucial
- Optisches Laufwerk
- DVD-ROM
- Soundkarte
- onboard
- Gehäuse
- Coolermaster Silencio 550
- Netzteil
- Noname 650 Watt - Aktiv PFC
- Betriebssystem
- Windows 7
- Webbrowser
- Firefox
Gäbe es die entsprechend optimierte Software, würde Bulldozer deutlich besser gegen die Intel CPUs aussehen. Würde teilweise mit denen wohl sogar den Boden wischen.
Aber das raffen viele der 0815 Anwender halt nicht. Die sehen nur das Hier und Jetzt.
Was sollen sie denn raffen? Das sie vor 2-3 Jahren eine CPU kaufen sollten die noch nicht mal jetzt was bringt? Finde das hier echt Fanboy mäßige Augenwischerei.
- Mitglied seit
- 16.11.2001
- Beiträge
- 21.666
- Renomée
- 1.248
- Standort
- München
- Aktuelle Projekte
- World Community Grid
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- AMD Ryzen 9 5950X
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASUS TUF Gaming X570-Pro [WI-FI]
- Kühlung
- be quiet! Shadow Rock 3
- Speicher
- 4x 16GB DDR4-3200 Corsair Vengeance LPX
- Grafikprozessor
- ASRock Radeon RX 550 Phantom Gaming Aktiv 2GB
- Display
- LG 27UL850-W, 27"
- SSD
- Samsung 980 PRO 2TB, Samsung 840 EVO 500GB
- HDD
- Seagate Barracuda 7200.14 3TB SATA3
- Optisches Laufwerk
- Samsung SH-S183A SATA schwarz (im externen Gehäuse)
- Gehäuse
- be quiet! Silent Base 802 schwarz
- Netzteil
- be quiet! Straight Power 11 Platinum 550W
- Tastatur
- Logitech G613 Lightspeed
- Maus
- Logitech MX Master 3S
- Betriebssystem
- Ubuntu Linux 22.04
- Webbrowser
- Vivaldi
- Internetanbindung
-
▼100 MBit
▲40 MBit
Wenn man Befehle nicht auf allen CPUs nutzen kann, muss man mehrere Codepfade implementieren. Das erhöht den Aufwand und erfordert zusätzliche Tests, die ebenfalls den Aufwand erhöhen. Außerdem ist es immer ziemlich aufwendig, Bugs zu finden, wenn sie nur bestimmte Systeme (CPUs) betreffen.Naja, das kann man so oder so sehen! Die erfolgreichsten AMD-Prozessoren waren halt die, die ohne Software-Anpassungen eingeschlagen und den Aha-Effekt erzeugt haben: AMD Athlon 1999 und AMD Athlon 64 2003. Selbst Intel litt beim Pentium 4 darunter, dass die Software die Netburst-Architektur nicht mochte und wenn die es jahrelang nicht hingekriegt haben, die Software-Landschaft gewaltsam zu verändern...
Andererseits geht's bei Anwendungen, die wirklich zeitkritisch sind, in der Regel schon schneller mit den Optimierungen. Siehe z.B. x264 oder Truecrypt. Die nutzen die Goodies der jeweiligen Architekturen schon recht zeitnah. Ich kapier nur nicht, wieso sich die BOINC-Projekte so wenig darum scheren.
Edit: Mist, da waren zwei schneller
Es ist deshalb völlig logisch, dass neue Befehle nur zögerlich genutzt werden.
Wenn man Befehle nicht auf allen CPUs nutzen kann, muss man mehrere Codepfade implementieren. Das erhöht den Aufwand und erfordert zusätzliche Tests, die ebenfalls den Aufwand erhöhen. Außerdem ist es immer ziemlich aufwendig, Bugs zu finden, wenn sie nur bestimmte Systeme (CPUs) betreffen.
Es ist deshalb völlig logisch, dass neue Befehle nur zögerlich genutzt werden.
Vollkommen richtig und da es mehr Aufwand ist, der auch noch mehr Bugs enthalten kann, macht es normalerweise auch kein Softwareentwickler freiwillig.
Entweder der Compiler machts automatisch oder die Features werden nicht genutzt.
Ich fand das kritische Statement mutig und auch richtig.
AMD hat im klassischen Desktop-Bereich mächtig Federn lassen müssen.
So das Intel noch einmal Marktanteile dazugewonnen hat.
Unabhängig vom technischen Aspekt, ist Bulldozer wirtschaftlich ein großer Misserfolg.
Da hilft es auch nichts, wenn einige AMD-Manager dass schön reden wollen....
AMD hat im klassischen Desktop-Bereich mächtig Federn lassen müssen.
So das Intel noch einmal Marktanteile dazugewonnen hat.
Unabhängig vom technischen Aspekt, ist Bulldozer wirtschaftlich ein großer Misserfolg.
Da hilft es auch nichts, wenn einige AMD-Manager dass schön reden wollen....
Wieso ist Bulldozer ein wirtschaftlicher Misserfolg?
Wieiviele CPUs wurden von Bulldozer denn verkauft?
Wie ist ein wirtschaftlicher Misserfolg bei einer CPU definiert?
Welche Anzahl an CPUs hätte AMD verkaufen müssen damit es kein wirtschaftlicher Misserfolg ist?
Wieiviele CPUs wurden von Bulldozer denn verkauft?
Wie ist ein wirtschaftlicher Misserfolg bei einer CPU definiert?
Welche Anzahl an CPUs hätte AMD verkaufen müssen damit es kein wirtschaftlicher Misserfolg ist?
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.786
- Renomée
- 2.144
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Konnten sie damit Marktanteile gewinnen oder einen Gewinn erwirtschaften?
Daran dürfte man den wirtschaftlichen Erfolg messen können.
Daran dürfte man den wirtschaftlichen Erfolg messen können.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.239
- Renomée
- 538
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Ja, da kann ich dir voll und ganz zustimmen!Wenn man Befehle nicht auf allen CPUs nutzen kann, muss man mehrere Codepfade implementieren. Das erhöht den Aufwand und erfordert zusätzliche Tests, die ebenfalls den Aufwand erhöhen. Außerdem ist es immer ziemlich aufwendig, Bugs zu finden, wenn sie nur bestimmte Systeme (CPUs) betreffen.
Es ist deshalb völlig logisch, dass neue Befehle nur zögerlich genutzt werden.
Aber, inzwischen tut sich auch Intel schwer von den Vorgängern sich deutlich in der Leistung abzusetzen und das obwohl eine kleinere Fertigung genutzt wird.
Wenn nun auf der HW Seite nur noch einstellige % an Leistungsplus herausholbar sind, aber auf der anderen Seite +50% mit neuen Befehlssätze möglich wären, werden die Entwickler zunehmend unter druck stehen diese doch zu nutzen.
Ich bin überzeugt davon, dass die Software Validierung günstiger ist, als die Fertigung nochmals zu verkleinern bzw. zu ändern.
Zuletzt bearbeitet:
snooopy365
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 2.364
- Renomée
- 12
Was sollen sie denn raffen? Das sie vor 2-3 Jahren eine CPU kaufen sollten die noch nicht mal jetzt was bringt? Finde das hier echt Fanboy mäßige Augenwischerei.
Nein ich sehe das etwas anderes:
Hätten alle das Potenzial erkannt, hätten mehr Entwickler dieses auch genutzt.
Damit wäre die CPU in Anwendungen die nach ihrem Erscheinen auf den Markt gekommen sind deutlich schneller.
LordAndrax
Gesperrt
- Mitglied seit
- 11.06.2005
- Beiträge
- 4.617
- Renomée
- 41
Wenn schon Quads nicht wirklich genutzt wurden, wieso sollte man erwarten das ein "Okta" Core dann wirklich genutzt wird?Nein ich sehe das etwas anderes:
Hätten alle das Potenzial erkannt, hätten mehr Entwickler dieses auch genutzt.
Damit wäre die CPU in Anwendungen die nach ihrem Erscheinen auf den Markt gekommen sind deutlich schneller.
Gut ein ganz echter Okta ist er nicht, aber halt näher drann als Intel mit ihren virtuellen zusätzlichen Kernen, und was sollte Intel dann davon abhalten einen "echten" Okta rauszubringen, abgesehen von den höheren Fertigungskosten?
So schön wie sich das alles anhört, aber wieso sollte man erwarten das sich die Programmierer extra für Amd zusätzliche Arbeit machen sollten, wo schon seit Jahren nicht zu übersehen ist wie mangelhaft die Cpu Fähigkeiten auf der Softwareseite ausgenutzt werden.
Ist das nicht etwas Blauäugig?
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 633
- Antworten
- 13
- Aufrufe
- 2K