App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMDs Semi-Custom Business Unit - Projekte, Partner und Chips
- Ersteller isigrim
- Erstellt am
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.376
- Renomée
- 85
Die APUs mit "huma" stehen doch längst in der Leitung.
Ist es denn zu viel verlangt, sich noch ein paar Monate zu gedulden?![]()
Ich bezweifle, dass Kaveri noch in 2013 kommt. Womöglich wird er erst zur CES im Januar 2014 präsentiert um dann im Frühjahr 2014 in Produkten aufzutauchen...
FredD
Gesperrt
- Mitglied seit
- 25.01.2011
- Beiträge
- 2.472
- Renomée
- 43
Dieser Thread handelt vordergründig über "Semi-Custom" Projekte, so die APUs für PS4 und XBox (gemeinsamer und kohärenter Speicher für GPU & CPU), welche durchaus 2013 noch das Licht des Tages erblicken sollten.
In welchem Fall auch immer, Kaveri oder NextGen-Spielkonsole, wäre es natürlich toll, wenn man schon in den Laden gehen und sich die Schachtel vom Regal ziehen könnte, und zwar jetzt gleich! Was ich ausdrücken wollte: so ein wenig Geduld vermittelt durchaus einen erwachsenen Eindruck. Gut, als Kind hatte ich auch kein Problem damit, eine ganze Hochzeitsgesellschaft in Aufruhr zu versetzen, weil ich mein Eis nicht bekam...
...macht uns das Internet wieder zu kleinen, ungeduldigen Quälgeistern, die sofort das Geplärre beginnen, wenn irgendetwas nicht in das Schema der unmittelbaren Bedürfnisbefriedigung passt? Und wies weiter geht seht ihr nach der nächsten Maus
.
EDIT :
.
http://techreport.com/review/24856/amd-a4-5000-kabini-apu-reviewed/6
Das soll keine Pauschalisierung sein ("jegliche OpenCL Software ist wacklig"), sondern lediglich darauf hinweisen, dass (1) analog zu Grafik-Treibern auch die durch GPU-Compute gezeigte Performance eine hohe Varianz bedingt durch das Vermögen der Software, die Hardware anzusprechen, aufweisen kann, daher (2) Einzelergebnisse nicht über-interpretiert werden sollten, und schließlich (3) noch einige Zeit verstreichen wird, bis die Software-Landschaft (im breiteren Sinne) auch auf diesen Ast aufsteigt. Zumindest die Richtung stimmt...
In welchem Fall auch immer, Kaveri oder NextGen-Spielkonsole, wäre es natürlich toll, wenn man schon in den Laden gehen und sich die Schachtel vom Regal ziehen könnte, und zwar jetzt gleich! Was ich ausdrücken wollte: so ein wenig Geduld vermittelt durchaus einen erwachsenen Eindruck. Gut, als Kind hatte ich auch kein Problem damit, eine ganze Hochzeitsgesellschaft in Aufruhr zu versetzen, weil ich mein Eis nicht bekam...
...macht uns das Internet wieder zu kleinen, ungeduldigen Quälgeistern, die sofort das Geplärre beginnen, wenn irgendetwas nicht in das Schema der unmittelbaren Bedürfnisbefriedigung passt? Und wies weiter geht seht ihr nach der nächsten Maus

.
EDIT :
.
Auch wenn es erstmal wie eine lahme Ausrede erscheinen mag, drängt sich von anderen Quellen der Verdacht auf, dass mit Luxmark noch Treiber/Software-Probleme bzgl. AMD Hardware bestehen. Insgesamt macht das OpenCL Benchmarking noch ein recht wackeliges Bild, insbesondere dann, wenn wie z.B. beim Winzip OpenCL Test des Core_i3217u durch Hinzunahme der iGPU eine Verschlechterung des reinen CPU-Ergebnisses auftritt.Die Maßstäbe setzt auch mittlerweile hier zur Zeit Intel und deklassiert die Konkurrenz:
http://images.anandtech.com/graphs/graph6993/55300.png
http://techreport.com/review/24856/amd-a4-5000-kabini-apu-reviewed/6
Das soll keine Pauschalisierung sein ("jegliche OpenCL Software ist wacklig"), sondern lediglich darauf hinweisen, dass (1) analog zu Grafik-Treibern auch die durch GPU-Compute gezeigte Performance eine hohe Varianz bedingt durch das Vermögen der Software, die Hardware anzusprechen, aufweisen kann, daher (2) Einzelergebnisse nicht über-interpretiert werden sollten, und schließlich (3) noch einige Zeit verstreichen wird, bis die Software-Landschaft (im breiteren Sinne) auch auf diesen Ast aufsteigt. Zumindest die Richtung stimmt...
Zuletzt bearbeitet:
mariahellwig
Grand Admiral Special
Den Eindruck habe ich auch. Was wir zur Zeit sehen sind die ersten Erfahrungen die die Entwickler mit OpenCL gemacht haben. Da Intel mittlerweile auch auf diese Schnittstelle setzt, weil sie auf der x86 Ebene kaum noch Fortschritte machen, lässt hoffen dass auf allen Seiten mehr Energie in dieEntwicklung gesteckt wird. Auch Intel weiß, das sie ohne deutlichen Performancezuwachs auf Dauer ihre Margen nicht halten können.
Luxmark ist zur Zeit der meist verwendete OpenCL-Benchmark. Wenn es eine Unverträglichkeit gibt, hätte man bei AMD genügend Zeit gehabt für Abhilfe zu sorgen.
Ich habe manchmal den Eindruck AMD ist eine Spielwiese für Ingenieure die sich selbst verwirklichen wollen. Ob da irgendwann man fertige Produkte herauskommen scheint ihnen egal zu sein. Seit RR ist es etwas besser geworden.
Luxmark ist zur Zeit der meist verwendete OpenCL-Benchmark. Wenn es eine Unverträglichkeit gibt, hätte man bei AMD genügend Zeit gehabt für Abhilfe zu sorgen.
Ich habe manchmal den Eindruck AMD ist eine Spielwiese für Ingenieure die sich selbst verwirklichen wollen. Ob da irgendwann man fertige Produkte herauskommen scheint ihnen egal zu sein. Seit RR ist es etwas besser geworden.
isigrim
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 26.08.2008
- Beiträge
- 2.139
- Renomée
- 84
Wozu? Dade arbeitet schon an Version 3 des Benchmarks. Version 2 basiert noch auf einigen Gehversuchen für SmallLuxGPU. Inzwischen hat sich da sehr viel bei den Features getan und auch was die Integration in LuxRender angeht.mariahellwig schrieb:Luxmark ist zur Zeit der meist verwendete OpenCL-Benchmark. Wenn es eine Unverträglichkeit gibt, hätte man bei AMD genügend Zeit gehabt für Abhilfe zu sorgen.
Auf einen Benchmark zu optimieren ist mMn schlichtweg Kundenverarsche, auch wenn´s inzwischen allgemein üblich ist.
Die Frage ist: Was hat das hier zu suchen?
FredD
Gesperrt
- Mitglied seit
- 25.01.2011
- Beiträge
- 2.472
- Renomée
- 43
So ganz fehlplatziert ist der Hinweis auf die altbekannte Henne-Ei-Problematik nicht: AMD mag zwar mittlerweile tolle Eier legen, aber wenn die Temperaturen nicht stimmen (oder seitens AMD nur ungenügend dazu beigetragen wird, dass die Eier an eine warme Stelle gelegt werden) schlüpft da einfach zu wenig, oder zu zögerlich. Ein "Hier ist die Hardware, jetzt macht mal" ist da oftmals ungenügend. Gute Gegenbeispiele gibt es im Gaming-Bereich, leider aber nicht oder kaum aus der Linux-Ecke.Die Frage ist: Was hat das hier zu suchen?
isigrim
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 26.08.2008
- Beiträge
- 2.139
- Renomée
- 84
AMD macht schon viel bei opencl. Und mit gcn hat sich viel getan.
Das Problem ist allerdings, dass einiges (Z.B. Blender cycles) noch Probleme macht.
Mit Linux rollt Intel momentan das Feld auf...
Das Problem ist allerdings, dass einiges (Z.B. Blender cycles) noch Probleme macht.
Mit Linux rollt Intel momentan das Feld auf...
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 15.479
- Renomée
- 2.400
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@FredD
Bei deinem Beispiel würde ich die Henne eher in ein Kühlhaus setzen und sie dort versuchen lassen das Ei auszubrüten.
Wenn die Umgebung nicht passt gehen zuerst die Eier und später die Henne selbst ein.
Das AMD mit seiner APU Strategie alles andere als falsch lag zeigen Intels Bemühungen im GPU Bereich. Es interessiert bei der Software Entwicklung nur kaum jemanden was sie im Angebot haben und um dem wirkungsvoll entgegen zu wirken fehlen ihnen vermutlich schlicht der Einfluss und die finanziellen Mittel.
Vermutlich ist sogar für AMDs Produktpalette Intels Haswell sowas wie ein Motor bei der Software Entwicklung, da er schlicht die gleichen leistungskritischen Ansatzpunkte besitzt. FMA, AVX, eine leistungsfähigere GPU...alles softwareseitige Schwachpunkte die bei Nutzung eine ordentliche Mehrleistung versprechen.
Bei deinem Beispiel würde ich die Henne eher in ein Kühlhaus setzen und sie dort versuchen lassen das Ei auszubrüten.
Wenn die Umgebung nicht passt gehen zuerst die Eier und später die Henne selbst ein.
Das AMD mit seiner APU Strategie alles andere als falsch lag zeigen Intels Bemühungen im GPU Bereich. Es interessiert bei der Software Entwicklung nur kaum jemanden was sie im Angebot haben und um dem wirkungsvoll entgegen zu wirken fehlen ihnen vermutlich schlicht der Einfluss und die finanziellen Mittel.
Vermutlich ist sogar für AMDs Produktpalette Intels Haswell sowas wie ein Motor bei der Software Entwicklung, da er schlicht die gleichen leistungskritischen Ansatzpunkte besitzt. FMA, AVX, eine leistungsfähigere GPU...alles softwareseitige Schwachpunkte die bei Nutzung eine ordentliche Mehrleistung versprechen.
FredD
Gesperrt
- Mitglied seit
- 25.01.2011
- Beiträge
- 2.472
- Renomée
- 43
Ja, das wären die idealen Brutvoraussetzungen. Haswell mit AVX2 geht dagegen schon eher in Richtung Kuckucksei.Es interessiert bei der Software Entwicklung nur kaum jemanden was sie im Angebot haben und um dem wirkungsvoll entgegen zu wirken fehlen ihnen vermutlich schlicht der Einfluss und die finanziellen Mittel.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 15.479
- Renomée
- 2.400
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Vielleicht kann sich diese Problematik ja mit den Custom Designs ändern und man ist eher bereit die Eigenschaften ihrer Designs zu nutzen. Ruf ist ebend alles.
isigrim
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 26.08.2008
- Beiträge
- 2.139
- Renomée
- 84
Phoronix meldet, dass die PS4 mit einem modifizierten Free BSD 9 läuft.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Ah ja - Danke!Phoronix meldet, dass die PS4 mit einem modifizierten Free BSD 9 läuft.
MFG Bobo(2013)
isigrim
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 26.08.2008
- Beiträge
- 2.139
- Renomée
- 84
Xbitlabs hat die bilder der geöffneten xbox one gefunden, die ich schon im eröffnunspost gepostet hatte, und ne nutzlose story daraus gemacht.
Dabei wird ohne grundlage über verbrauch und kosten gesülzt. Klingt nach: mäh, wir machen amd schlecht. Kein wunder dass sich weder amd noch microsoft zu derartigem zeug äußern.
Dabei wird ohne grundlage über verbrauch und kosten gesülzt. Klingt nach: mäh, wir machen amd schlecht. Kein wunder dass sich weder amd noch microsoft zu derartigem zeug äußern.
LinuS
Vice Admiral Special
Man kann den Bericht auch überbewerten... ![Augen rollen (sarkastisch) :] :]](https://www.planet3dnow.de/vbulletin/images/smilies/rolleyes.gif)
![Augen rollen (sarkastisch) :] :]](https://www.planet3dnow.de/vbulletin/images/smilies/rolleyes.gif)
FredD
Gesperrt
- Mitglied seit
- 25.01.2011
- Beiträge
- 2.472
- Renomée
- 43
Der Schuss "höhere Fläche gleich mehr Energieaufnahme und mehr Abwärme" geht schnell nach hinten los, wenn man sich über die anliegenden Taktfrequenzen nicht klar ist. Gut, Grün durfte mal heulen, jetzt indirekt über das Sprachrohl xbit auch Blau.
isigrim
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 26.08.2008
- Beiträge
- 2.139
- Renomée
- 84
Andrew Feldman hat sich bezüglich Semi-Custom-Chips für die großen Server-Betreiber geäußert. Gigaom: Forget servers; One day Facebook, Google and other web giants will make their own custom chips
Xbitlabs: AMD: Amazon, Facebook and Google Could Develop Their Own Server Chips
Er sieht die Chance, dass durch die offene Struktur des ARM-Ökosystems deutlich mehr Third-Party IP in die Entwicklung einfließen wird, damit sich Firmen von anderen absetzen können.
Zu den großen Serverbetreibern dürfte nach Feldmans Aussage auch Geheimdienste zählen, wie hier erwähnt wird.
(von amdfanuwe im Prognose-thread gepostet. Danke dafür)
Allerdings dürfte Intels Lobby in den USA zu stark sein, um AMD da ein großes Feld zu geben. Da werden wohl eher Xeon Phis für die Datenanalyse zum Einsatz kommen.
Xbitlabs: AMD: Amazon, Facebook and Google Could Develop Their Own Server Chips
Andrew Feldman schrieb:“This vast change in the cost and time to market opens the door for large CPU consumers (mega data center players) to collaborate with ARM CPU vendors – say by paying part of the cost of development – in return for including custom IP that advantages the Mega Data center owners software/offering. There are conversations underway on this topic with nearly every major megadata center player in the world. The mega data center owners are building warehouse scale computers. It is not surprising that they have ideas on custom IP that would advantage their own software and would like that IP embedded into a CPU – ARM makes this feasible by bringing down the cost and development time of CPU creation,”
Er sieht die Chance, dass durch die offene Struktur des ARM-Ökosystems deutlich mehr Third-Party IP in die Entwicklung einfließen wird, damit sich Firmen von anderen absetzen können.
Zu den großen Serverbetreibern dürfte nach Feldmans Aussage auch Geheimdienste zählen, wie hier erwähnt wird.
(von amdfanuwe im Prognose-thread gepostet. Danke dafür)
Data-Analyse und das Knacken von Verschlüsselungen ist ja tatsächlich etwas, wo APUs ziemlich brauchbar erscheinen.Andrew Feldman schrieb:[...]and even what came out recently about the NSA and its operation that’s where our APUs shine.[...]
Allerdings dürfte Intels Lobby in den USA zu stark sein, um AMD da ein großes Feld zu geben. Da werden wohl eher Xeon Phis für die Datenanalyse zum Einsatz kommen.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.376
- Renomée
- 85
...und womöglich ist AMD der einzige, der neben den ARM-Cores auch noch kleine X86-Cores für die Custom APUs/SoC für Server anbietet. Da könnte sich vielleicht ein neuer Markt auftun, oder?
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 5.007
- Renomée
- 474
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Samsung, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Und was ich besonders interessant fand, war diese Info:
Das sind mal deultiche Anhaltspunkte wenn wir das nächste mal über Herstellungskosten und Releasezeiten spekulieren. Entsprechend schneller ist man auch mit günstigen Produkten in der Gewinnzone.The high-ranking AMD executive estimated that one could build an entirely custom chip using the ARM architecture in about 18 months for about $30 million. By contrast, it takes three or four-year time frame and $300 million to $400 million in development costs required to build an x86-based server chip based on a new micro-architecture.
Markus Everson
Grand Admiral Special
Ich finde es auch immer wieder spannend wieviel ein Apfel im Verhältnis zu einer Birne kostet.
Aber wirklich interessant wäre es doch gewesen zu erfahren was ein 'entirely custom chip using the existing x86-based architecture' kostet und wieviel Zeit er benötigt. Jaguar wurde bekanntlich aus dem vorhandenen Bobcat entwickelt was den Vergleich der Kosten mit dem ARM-Chip nahelegen würde.
Aber wirklich interessant wäre es doch gewesen zu erfahren was ein 'entirely custom chip using the existing x86-based architecture' kostet und wieviel Zeit er benötigt. Jaguar wurde bekanntlich aus dem vorhandenen Bobcat entwickelt was den Vergleich der Kosten mit dem ARM-Chip nahelegen würde.
Seh ich auch so, Äpfel und Birnen:
Der ARM Core wird nur dazu gekauft und wohl nicht modifiziert. Das mit einem komplett neuen x86 zu vergleichen ist misst. Wenn dann müsste noch die Zeit von der Entwicklung des entsprechenden ARM Cores hinzu kommen. An den Kosten ändert das aber nichts, da die Lizenz gebühren an ARM relativ gering ausfallen sollten, die Entwicklungskosten werden ja von vielen Firmen getragen.
Würde AMD einen eigenen x86-Core entwickeln, dann nutzen ihn nur sie selbst und vllt. ein paar Custom-Designs. Preislich dürfte der x86 wohl teurer sein, aber von dem Zeitaufwand dürften sie sich nichts nehmen. Beim x86 dürfte der Vorteil bestehen, dass AMD ihn besser anpassen kann, weiß nicht ob sie am ARM was modifizieren.
Der ARM Core wird nur dazu gekauft und wohl nicht modifiziert. Das mit einem komplett neuen x86 zu vergleichen ist misst. Wenn dann müsste noch die Zeit von der Entwicklung des entsprechenden ARM Cores hinzu kommen. An den Kosten ändert das aber nichts, da die Lizenz gebühren an ARM relativ gering ausfallen sollten, die Entwicklungskosten werden ja von vielen Firmen getragen.
Würde AMD einen eigenen x86-Core entwickeln, dann nutzen ihn nur sie selbst und vllt. ein paar Custom-Designs. Preislich dürfte der x86 wohl teurer sein, aber von dem Zeitaufwand dürften sie sich nichts nehmen. Beim x86 dürfte der Vorteil bestehen, dass AMD ihn besser anpassen kann, weiß nicht ob sie am ARM was modifizieren.
isigrim
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 26.08.2008
- Beiträge
- 2.139
- Renomée
- 84
Die Frage ist, wie weit AMD kommt, wenn man nicht selber auch die ARM-Cores weiterentwickelt.
Man sieht derzeit wie gut sich Qualcomm eben deshalb schlägt, weil sie sich nicht darauf verlassen haben, dass ARM schon was ordentliches bieten wird.
Zwar dürfte big.LITTLE für die kommenden SoCs und die ARMv8-Kerne besser funktionieren als bisher und läuft dann auch assymetrisch, aber das ändert nichts daran, dass man sich auf Dauer in diesem Bereich wohl nur halten kann, wenn man auch bei den CPU-Kernen am Ball bleibt und nicht wartet, bis ARM entsprechende Designs fertig hat.
So ein GTS wäre für x86 auch endlich mal nett....müsste man mal sehen, ob der Linux-Scheduler das theoretisch auch für x86 kann. Bei Windows braucht man auf sowas ja eh nicht zu hoffen...
Aber der Vorteil für AMD bei dieser Strategie ist halt erstmal, dass der Risikofaktor sehr klein ist und das Ganze dennoch verspricht, bei wenig Investition hohe Gewinne abzuwerfen. Wenn das funktioniert, wird man da wohl auch investieren.
Eine andere Frage an die vielen Leute hier mit einem tieferen Verständnis für CPUs:
Inwiefern kann AMD sein Knowhow bzw. schon vorhandene Technologie nutzen, um High Performance-ARM Kerne zu bauen? Also wieviel muss man an einem aktuellen Bulldozer-Kern ändern, damit er als ARM-Chip taugt? Muss da nur ein anderer Dekoder davor?
Das wäre ja die Exit-Strategie schlechthin um aus der x86-Gletschespalte zu kommen. Gleichzeitig hätte man dann zukünftig die Möglichkeit, via dem oben erwähnten GTS sehr dicke Kerne mit den kleinen, einfach zu lizensierenden ARM-Kernen zu kombinieren und so sehr flexible CPUs/APUs zu bauen.
Man sieht derzeit wie gut sich Qualcomm eben deshalb schlägt, weil sie sich nicht darauf verlassen haben, dass ARM schon was ordentliches bieten wird.
Zwar dürfte big.LITTLE für die kommenden SoCs und die ARMv8-Kerne besser funktionieren als bisher und läuft dann auch assymetrisch, aber das ändert nichts daran, dass man sich auf Dauer in diesem Bereich wohl nur halten kann, wenn man auch bei den CPU-Kernen am Ball bleibt und nicht wartet, bis ARM entsprechende Designs fertig hat.
So ein GTS wäre für x86 auch endlich mal nett....müsste man mal sehen, ob der Linux-Scheduler das theoretisch auch für x86 kann. Bei Windows braucht man auf sowas ja eh nicht zu hoffen...
Aber der Vorteil für AMD bei dieser Strategie ist halt erstmal, dass der Risikofaktor sehr klein ist und das Ganze dennoch verspricht, bei wenig Investition hohe Gewinne abzuwerfen. Wenn das funktioniert, wird man da wohl auch investieren.
Eine andere Frage an die vielen Leute hier mit einem tieferen Verständnis für CPUs:
Inwiefern kann AMD sein Knowhow bzw. schon vorhandene Technologie nutzen, um High Performance-ARM Kerne zu bauen? Also wieviel muss man an einem aktuellen Bulldozer-Kern ändern, damit er als ARM-Chip taugt? Muss da nur ein anderer Dekoder davor?
Das wäre ja die Exit-Strategie schlechthin um aus der x86-Gletschespalte zu kommen. Gleichzeitig hätte man dann zukünftig die Möglichkeit, via dem oben erwähnten GTS sehr dicke Kerne mit den kleinen, einfach zu lizensierenden ARM-Kernen zu kombinieren und so sehr flexible CPUs/APUs zu bauen.
Zuletzt bearbeitet:
Crashtest
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2008
- Beiträge
- 9.328
- Renomée
- 1.457
- Standort
- Leipzig
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Collatz, yoyo, radac
- Lieblingsprojekt
- yoyo
- Meine Systeme
- Ryzen: 2x1600, 5x1700, 1x2700,1x3600, 1x5600X; EPYC 7V12 und Kleinzeuch
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Lenovo IdeaPad 5 14ALC05
- Details zu meinem Desktop
- Prozessor
- Ryzen 7950X / Ryzen 4750G
- Mainboard
- ASRock B650M PGRT / X570D4U
- Kühlung
- be quiet! Dark Rock Pro4 / Pure Rock Slim 2
- Speicher
- 64GB DDR5-5600 G Skill F5-5600J3036D16G / 32 GB DDR4-3200 ECC
- Grafikprozessor
- Raphael IGP / ASpeed AST-2500
- Display
- 27" Samsung LF27T450F
- SSD
- KINGSTON SNVS2000G
- HDD
- - / 8x Seagate IronWolf Pro 20TB
- Optisches Laufwerk
- 1x B.Ray - LG BD-RE BH16NS55
- Soundkarte
- onboard HD?
- Gehäuse
- zu kleines für die GPU
- Netzteil
- be quiet! Pure Power 11 400W / dito
- Tastatur
- CHERRY SECURE BOARD 1.0
- Maus
- Logitech RX250
- Betriebssystem
- Windows 10 19045.5552 / Server 20348.3207
- Webbrowser
- Edge 133.0.3065.51
- Verschiedenes
- U320 SCSI-Controller !!!!
- Internetanbindung
- ▼1000 MBit ▲82 MBit
Wer sagt, dass man bigLittle auf x86 vergessen kann ? AMD soll bereits seit 2Jahren mit Microsoft dran basteln (Bobcat & Orochi) ....
ARM ist ja eigentlich schon RISC-Befehlssatz, während der x86-Befehlssatz in den Dekodern in etwas RISC-ähnliches (µOps) umgewandelt wird. Also einen Dekoder vor der x86-Dekoder zu schalten wäre dumm, aber vielleicht daneben? Nur muss man dann auch die x86-Dekoder entsprechend umgestalten.Inwiefern kann AMD sein Knowhow bzw. schon vorhandene Technologie nutzen, um High Performance-ARM Kerne zu bauen? Also wieviel muss man an einem aktuellen Bulldozer-Kern ändern, damit er als ARM-Chip taugt? Muss da nur ein anderer Dekoder davor?
Ein spezielles Problem beim Bulldozer bzw. allen 'großen' x86er Kernen (Core, K8, K10, BD) ist die immense Fläche. Allein den Kern an die Spannung zu schalten (ohne dass Software drauf läuft), erzeugt mehr Verlustleistung, als so manche kleinen ARM-Kerne beim Rechnen unter Vollast brauchen. Man hätte dann nur etwas was langsamer als ein Intel Atom ist, aber viel Strom verbraucht.
isigrim
Grand Admiral Special
★ Themenstarter ★
- Mitglied seit
- 26.08.2008
- Beiträge
- 2.139
- Renomée
- 84
Mit "davor" meinte ich schon statt des x86-Dekoders.
Wie verhält sich denn der interne RISC-Prozessor bei Bulli oder anderen dicken x86-Przessoren hinter dem x86-Dekoder im Verhältnis zu ARMs RISC? Kann da jemand was dazu sagen?
Wie verhält sich denn der interne RISC-Prozessor bei Bulli oder anderen dicken x86-Przessoren hinter dem x86-Dekoder im Verhältnis zu ARMs RISC? Kann da jemand was dazu sagen?
Standard Befehle wie Add liesen sich denke ich noch einfach übernehmen, aber in x86 gibt es mittlerweile ja auch viele Funktionen die vom ARM Befehlsatz gar nicht ausgenutzt werden können. Als einfaches Beispiel mal AVX und FMA die dann unnötig viel Fläche brauchen. Auch die Verwendung der Register stelle ich mir Problematisch vor, da diese ja teils feste Funktionen haben.
Und ob mit x86 auch wirklich alle ARM Befehle abgedeckt sind wage ich auch erst mal zu bezweifeln. Mein Assemblerkenntnisse sind da leider aber auch stark begrenzt...
Den ganzen Instruktionsfetch müsste man vermutlich aber auch erst noch optimieren und da die Sprungvorhersage ebenfalls vor den Dekodern sitzt wären dort Anpassungen wahrscheinlich auch nötig.
In einem synthetisierbaren Design wären aber die Änderungen vermutlich noch deutlich weniger aufwändig als ein komplettes ARM-Neudesign. Ob die ganze Grundlage bei ARM aber noch Sinn macht ist eine andere Frage.
Und ob mit x86 auch wirklich alle ARM Befehle abgedeckt sind wage ich auch erst mal zu bezweifeln. Mein Assemblerkenntnisse sind da leider aber auch stark begrenzt...
Den ganzen Instruktionsfetch müsste man vermutlich aber auch erst noch optimieren und da die Sprungvorhersage ebenfalls vor den Dekodern sitzt wären dort Anpassungen wahrscheinlich auch nötig.
In einem synthetisierbaren Design wären aber die Änderungen vermutlich noch deutlich weniger aufwändig als ein komplettes ARM-Neudesign. Ob die ganze Grundlage bei ARM aber noch Sinn macht ist eine andere Frage.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 763
- Antworten
- 0
- Aufrufe
- 776