App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Prognose-Board: Wie geht es bei AMD weiter? Entwicklungen / Strategien / Maßnahmen, die AMD betreffen bzw. die AMD treffen könnte
- Ersteller BavarianRealist
- Erstellt am
Stefan Payne
Grand Admiral Special
Weißt du doch noch gar nicht!Gute PCIe 4.0 SSDs werden bald ein neuer Marketinggag.
Das, was wir bisher haben ist doch eher mittelprächtiger, mittelmäßige Ware, die eher für "Endanwender" optimiert ist und nicht durchsatz.
Da kann man durchaus auch noch was machen. Und wenn das eh so egal ist: warum gibts dann Optane?
Eben, die Zeit wirds Zeigen, da sehe ich jetzt keinen Grund, in die Zukunft zu orakeln und zu behaupten, dass man das eh nicht bräuchte, wenn die guten Sachen, wie z.B. Samsungs 980 PRO noch in fernen Weiten schwirren.Wenn ein System da einen Unterschied gegenüber guten PCIe 3.0 SSDs hervorbenchen kann, dann wird es Spezialfälle betreffen, die für Normalanwender nicht relevant sind, und weder braucht man dieses überteuerte System noch die Spezialsoftware dazu, die dann drei Prozent schneller ist.
Nicht aufregen - die Zeit wird es zeigen.
Hier bisserl Infos:
https://www.heise.de/newsticker/mel...ble-SSD-mit-Fingerabdruckscanner-4630720.html
https://www.anandtech.com/show/15352/ces-2020-samsung-980-pro-pcie-40-ssd-makes-an-appearance
Und den Playstation 5 SSD Controller gibts ja auch noch. Das ist ein zwölfkanal - 4 Kanäle mehr als der aktuelle Phison Chip nutzt.
Siehe hier:
https://blog.us.playstation.com/202...ils-of-playstation-5-hardware-technical-specs
Bei ~15:30 siehst die 12 Kanäle und irgendwo um 22min spricht er von der Performance der SSD noch a bisserl.
Also wenn es die Playstation5 SSD einzeln zu kaufen gäbe, wäre es eine der besten (schnellsten) SSD, die man für Geld kaufen kann...
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
https://www.sammobile.com/news/amd-gpu-for-2021-samsung-flagships-impresses-in-first-leak/
Exynos 1000 likely to use AMD graphics
Additionally, we finally caught a glimpse of what to expect from the said chipset which will be based on AMD’s RDNA architecture. Looking at the leaked synthetic early test scores originating from GFXBench, the AMD GPU for future Samsung flagships scored 181.8 frames in the Manhattan 3.1 test, which is about 13% greater than what the Adreno 650 found inside Qualcomm’s Snapdragon 865 is capable of. Additionally, it averaged 138.25 and 58 frames in Aztec Normal and Aztec High testing, respectively. These two results are even more significant as they beat Qualcomm’s latest and greatest mobile GPU by a factor of three.
The first AMD Radeon GPU for Galaxy smartphones is likely to make its way to the Exynos 1000, or however the 2021 successor to the Exynos 990 ends up being called.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Wegen Bluffdale, Utah und wegen Blackrocks Aladdin?Weißt du doch noch gar nicht!
Das, was wir bisher haben ist doch eher mittelprächtiger, mittelmäßige Ware, die eher für "Endanwender" optimiert ist und nicht durchsatz.
Da kann man durchaus auch noch was machen. Und wenn das eh so egal ist: warum gibts dann Optane?
Ich bin ein großer Fan von Betrachtungsweisen die sich ausserhalb der Technikgeilitis wie insgesamt der Foren-Filterblasen bewegen. Also z.B. ohne der Leute die sinnlichst drauf warten einen "headless fileserver" in ihrem Keller bauen zu können. Gilt dann für M.2 genauso wie für die s.g. core-flood.
Als Interconnect auf den Boards selbst wäre es aber imho jetzt schon ein Gewinn.
Zuletzt bearbeitet:
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
tomturbo
Technische Administration, Dinosaurier
- Mitglied seit
- 30.11.2005
- Beiträge
- 9.455
- Renomée
- 665
- Standort
- Österreich
- Aktuelle Projekte
- Universe@HOME, Asteroids@HOME
- Lieblingsprojekt
- SETI@HOME
- Meine Systeme
- Xeon E3-1245V6; Raspberry Pi 4; Ryzen 1700X; EPIC 7351
- BOINC-Statistiken
- Mein Laptop
- Microsoft Surface Pro 4
- Prozessor
- R7 5800X
- Mainboard
- Asus ROG STRIX B550-A GAMING
- Kühlung
- Alpenfön Ben Nevis Rev B
- Speicher
- 2x32GB Mushkin, D464GB 3200-22 Essentials
- Grafikprozessor
- Sapphire Radeon RX 460 2GB
- Display
- BenQ PD3220U, 31.5" 4K
- SSD
- 1x HP SSD EX950 1TB, 1x SAMSUNG SSD 830 Series 256 GB, 1x Crucial_CT256MX100SSD1
- HDD
- Toshiba X300 5TB
- Optisches Laufwerk
- Samsung Brenner
- Soundkarte
- onboard
- Gehäuse
- Fractal Design Define R4
- Netzteil
- XFX 550W
- Tastatur
- Trust ASTA mechanical
- Maus
- irgend eine silent Maus
- Betriebssystem
- Arch Linux, Windows VM
- Webbrowser
- Firefox + Chromium + Konqueror
- Internetanbindung
-
▼300
▲50
Wenns nicht von Nvidia wäre, wäre das glatt was für mich
Stefan Payne
Grand Admiral Special
Hm, gerad drüber gestolpert. Passt hier, da es um AMD geht.
Angeblich soll Zen3 mit 15-17% besserer Performance gerumort werden, aber das finale Produkt mag besser denn das sein...
https://twitter.com/davideneco25320/status/1260944035444920325
k/a, was dran ist. Aber nu habt ihr bisserl fudda
Angeblich soll Zen3 mit 15-17% besserer Performance gerumort werden, aber das finale Produkt mag besser denn das sein...
https://twitter.com/davideneco25320/status/1260944035444920325
k/a, was dran ist. Aber nu habt ihr bisserl fudda
Onkel_Dithmeyer
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.04.2008
- Beiträge
- 12.943
- Renomée
- 4.014
- Standort
- Zlavti
- Aktuelle Projekte
- Universe@home
- Lieblingsprojekt
- Universe@home
- Meine Systeme
- cd0726792825f6f563c8fc4afd8a10b9
- BOINC-Statistiken
- Prozessor
- Ryzen 9 3900X @4000 MHz//1,15V
- Mainboard
- MSI X370 XPOWER GAMING TITANIUM
- Kühlung
- Custom Wasserkühlung vom So. G34
- Speicher
- 4x8 GB @ 3000 MHz
- Grafikprozessor
- Radeon R9 Nano
- Display
- HP ZR30W & HP LP3065
- SSD
- 2 TB ADATA
- Optisches Laufwerk
- LG
- Soundkarte
- Im Headset
- Gehäuse
- Xigmatek
- Netzteil
- BeQuiet Dark Pro 9
- Tastatur
- GSkill KM570
- Maus
- GSkill MX780
- Betriebssystem
- Ubuntu 20.04
- Webbrowser
- Firefox Version 94715469
- Internetanbindung
- ▼100 Mbit ▲5 Mbit
Das ist auf jeden Fall ein wichtiger Design-Win
Onkel_Dithmeyer
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.04.2008
- Beiträge
- 12.943
- Renomée
- 4.014
- Standort
- Zlavti
- Aktuelle Projekte
- Universe@home
- Lieblingsprojekt
- Universe@home
- Meine Systeme
- cd0726792825f6f563c8fc4afd8a10b9
- BOINC-Statistiken
- Prozessor
- Ryzen 9 3900X @4000 MHz//1,15V
- Mainboard
- MSI X370 XPOWER GAMING TITANIUM
- Kühlung
- Custom Wasserkühlung vom So. G34
- Speicher
- 4x8 GB @ 3000 MHz
- Grafikprozessor
- Radeon R9 Nano
- Display
- HP ZR30W & HP LP3065
- SSD
- 2 TB ADATA
- Optisches Laufwerk
- LG
- Soundkarte
- Im Headset
- Gehäuse
- Xigmatek
- Netzteil
- BeQuiet Dark Pro 9
- Tastatur
- GSkill KM570
- Maus
- GSkill MX780
- Betriebssystem
- Ubuntu 20.04
- Webbrowser
- Firefox Version 94715469
- Internetanbindung
- ▼100 Mbit ▲5 Mbit
Hm, gerad drüber gestolpert. Passt hier, da es um AMD geht.
Angeblich soll Zen3 mit 15-17% besserer Performance gerumort werden, aber das finale Produkt mag besser denn das sein...
https://twitter.com/davideneco25320/status/1260944035444920325
k/a, was dran ist. Aber nu habt ihr bisserl fudda
Bei sowas bin ich vorsichtig, das wurde beim Phenom I auch schon mal gemunkelt
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.259
- Renomée
- 1.842
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Nvidia will einfach nur seine GPUs so gut wie möglich verscherbeln. CPUs müssen sie eh zukaufen, da ist es also wurscht, von wem. Und warum sollten sie die Zweitschlechtesten CPUs nehmen, wenn sie die Besten haben können?
Berniyh
Grand Admiral Special
- Mitglied seit
- 29.11.2005
- Beiträge
- 5.206
- Renomée
- 218
Schon, aber das gute hier ist, dass mit dem Zen 2 schon ein super Produkt existiert. Wenn's also doch nicht ganz so gut raus kommt geht die Welt auch nicht unter.Bei sowas bin ich vorsichtig, das wurde beim Phenom I auch schon mal gemunkelt
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Ich sehe da aktuell nicht den früheren Druck, des Überlebenswillen den Leuten Mist zu erzählen.Bei sowas bin ich vorsichtig, das wurde beim Phenom I auch schon mal gemunkelt
Es werden wohl schon die Peaks sein Grad aber bei Multichip gibt es so viele Baustellen aka Schrauben an welchen man noch drehen kann, daß ein Plus von >10%, durchschnittlich, jetzt nicht grad direkt nur wie ein schönes Märchen klingt.
Da ist auch außerhalb der reinen ALU Effizienz noch sehr viel Luft nach oben...
Stefan Payne
Grand Admiral Special
Ja, aber:Bei sowas bin ich vorsichtig, das wurde beim Phenom I auch schon mal gemunkelt
a) war das vor Lisa
b) hat man schon bei Zen2 eher tief gestapelt und eher um die 10% vermutet - am ende Wurde es dann doch 'nen ganzes Stück mehr.
Ist also schon etwas, dass die Möglichkeit hat, wahr zu sein.
--- Update ---
Was bei Zen3 aktuell gemunkelt wird ist, dass die CCX weggeworfen werden oder sowas wie Core2 mit den CCX, dass der L3 Cache nicht mehr geteilt wird sondern 2 CCX die volle Menge bekommen. Oder gar dass es gar keine CCX mehr gibt, nur noch CCD...
Aber ob das eintrifft? gute Frage...
w0mbat
Commodore Special
- Mitglied seit
- 19.05.2006
- Beiträge
- 416
- Renomée
- 18
- Mein Laptop
- Lenovo ThinkPad L450@Ubuntu MATE
- Prozessor
- AMD Ryzen 7 5800X3D
- Mainboard
- MSI MAG B550M Mortar Max WIFI
- Kühlung
- NZXT Kraken X63
- Speicher
- G.SKILL F4-3600C17D-32GTZR
- Grafikprozessor
- XFX Speedster QICK 319 Radeon RX 6800 BLACK Gaming
- Display
- LG 34UC79G-B
- SSD
- 2TB WD_BLACK SN850X | 2TB Samsung 970 EVO Plus
- Soundkarte
- Realtek ALC1220
- Gehäuse
- Lian Li O11 Dynamic Mini
- Netzteil
- Cougar SF750 Platinum
- Tastatur
- CM QuickFire Rapid-i
- Maus
- Logitech G Pro X Superlight 2
- Betriebssystem
- Windows 11 Pro x64
- Webbrowser
- Firefox
Ja, das kommt von einer offiziellen AMD Folie, sehe ich als ziemlich sicher an.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Jetzt ist alles entschieden :
Linus Torvalds drops Intel and adopts 32-core AMD Ryzen Threadripper on personal PC
Linus Torvalds drops Intel and adopts 32-core AMD Ryzen Threadripper on personal PC
In fact, the biggest excitement this week for me was just that I upgraded my main machine, and for the first time in about 15 years, my desktop isn't Intel-based. No, I didn't switch to ARM yet, but I'm now rocking an AMD Threadripper 3970x. My 'allmodconfig' test builds are now three times faster than they used to be, which doesn't matter so much right now during the calming down period, but I will most definitely notice the upgrade during the next merge window.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Bezüglich des Betreffs des Threads... und Torvalds "...for the first time in about 15 years, my desktop isn't Intel-based. No, I didn't switch to ARM yet,..."
Und dem was Apple nun gebastelt hat...
Ist ja nicht so, daß Apple erst dran bastelt seitdem es klar wurde, daß Intel sich mit 10nm langlegt. Mit Ivy gings noch, aber sie haben schon 2013 mit Haswell rumgemeckert (Leistung/Watt) und haben sich mit Broadwell nur bestätigt gefühlt und mt KabyLake haben sie dann die Eigenentwicklung auch nicht wieder aufgegeben...
Risc-V und OpenRisc treiben ARM das Geschäftsmodell weniger autoritär zu fahren
https://www.theregister.com/2020/04/29/arm_flexible_access_startups/
Ich schätze Apple hat durch Risc-V ganz brauchbare Verträge mit ARM schliessen können... Und Apple hat Kohle wie Dreck. Sie kaufen sich das talentierteste auf dem Markt. Jetzt brauchen sie weder eine CPU noch eine GPU.
Schon ein A12Z ist mit 4 Vortex Threads ist mit Rosetta2 (x86-> ARM-Emu) in etwa so schnell wie ein Core i5-1030NG7 mit 8 Threads. A12Z läuft mit 2.49Ghz. 1030NG7 mit 3.5Ghz. Nativ ist er so schnell wie ein i7-1068NG7...
"Silicon" soll aber auf dem A14 basieren. Das ist eine andere Nummer als A12Z und A12Z ist eine Iphone/Ipad CPU. In Macbooks und iMacs brauchen sie nicht auf die TDP so streng achten. Da gehen auch 25W und auch 60W
Ab Mitte 2018 kann auch Win10 ARM. Linux eh schon länger.
Ich erwarte auch, daß deren erste GPU-Toplösung real nicht schlechter sein wird als eine RX480 und unter 100W brauchen. Mit dem Unterschied, daß sie die potzenzielle Leistung solchen Chips auch ordentlich auf die Straße bringen.
Fujitsus SPARC64 XII, ist von 2017. Seitdem ist Ruhe um SPARC64. Dafür gibt es bei denen nun A64FX. Mit SVE-512 (ähnlich AVX-512). Und es gab und gibt es mit Neon schon sowas wie SSE4.
AMD wird sich damit auseinandersetzen müssen. Genauso wie Intel. Das wird beiden imho noch weh tun
Und dem was Apple nun gebastelt hat...
Ist ja nicht so, daß Apple erst dran bastelt seitdem es klar wurde, daß Intel sich mit 10nm langlegt. Mit Ivy gings noch, aber sie haben schon 2013 mit Haswell rumgemeckert (Leistung/Watt) und haben sich mit Broadwell nur bestätigt gefühlt und mt KabyLake haben sie dann die Eigenentwicklung auch nicht wieder aufgegeben...
Risc-V und OpenRisc treiben ARM das Geschäftsmodell weniger autoritär zu fahren
https://www.theregister.com/2020/04/29/arm_flexible_access_startups/
Ich schätze Apple hat durch Risc-V ganz brauchbare Verträge mit ARM schliessen können... Und Apple hat Kohle wie Dreck. Sie kaufen sich das talentierteste auf dem Markt. Jetzt brauchen sie weder eine CPU noch eine GPU.
Schon ein A12Z ist mit 4 Vortex Threads ist mit Rosetta2 (x86-> ARM-Emu) in etwa so schnell wie ein Core i5-1030NG7 mit 8 Threads. A12Z läuft mit 2.49Ghz. 1030NG7 mit 3.5Ghz. Nativ ist er so schnell wie ein i7-1068NG7...
"Silicon" soll aber auf dem A14 basieren. Das ist eine andere Nummer als A12Z und A12Z ist eine Iphone/Ipad CPU. In Macbooks und iMacs brauchen sie nicht auf die TDP so streng achten. Da gehen auch 25W und auch 60W
Ab Mitte 2018 kann auch Win10 ARM. Linux eh schon länger.
Ich erwarte auch, daß deren erste GPU-Toplösung real nicht schlechter sein wird als eine RX480 und unter 100W brauchen. Mit dem Unterschied, daß sie die potzenzielle Leistung solchen Chips auch ordentlich auf die Straße bringen.
Fujitsus SPARC64 XII, ist von 2017. Seitdem ist Ruhe um SPARC64. Dafür gibt es bei denen nun A64FX. Mit SVE-512 (ähnlich AVX-512). Und es gab und gibt es mit Neon schon sowas wie SSE4.
AMD wird sich damit auseinandersetzen müssen. Genauso wie Intel. Das wird beiden imho noch weh tun
Zuletzt bearbeitet:
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 2.979
- Renomée
- 232
Sehe ich auch so. Allerdings wird es bei Desktops und Notebooks eine Weile dauern, bis ARM auch Software-seitig genügend Unterstützung findet. Vielleicht wird ARM dort erst richtig Fuß fassen können, wenn die meiste Software sowieso nur noch in der Cloud rechnet und die verwendete Hardware egal geworden ist. Aber im Serverbereich wird ARM schon in Bälde wildern und X86-64 kräftig Marktanteile abjagen.
MfG
MfG
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
@Woerns
Bei Apple sehe ich da nicht mehr Probleme aufkommen als damals von PowerPC auf x86. Dazu brauchen die keine Cloud... Übrigens wurde auch PowerPC nur deswegen ausgemustert, weil sie das Design irgendwann für das was IBM damit machte für nicht zukunftsfähig genug empfanden. Diese Meinung bekamen sie diesmal von x86-64
Übrigens zu der Zeit als Intel noch recht gut dabei war und sie zu 100% wussten was Zen bald wird und was mit Zen2 geplant ist und daß nichts dagegen spricht, daß dies bei AMD klappt. Die Entwickeln den Desktop-ARM nicht erst seit 3 Jahren.
Ich hege keine Zweifel darüber, daß AMD sich da auch immer mal anbot. Die Verbindungen zu AMD sind über das GPU-Geschäft mit Sicherheit sehr gut.
Jetzt braucht Apple weder eine CPU noch eine GPU von Firmen, von welchen wir glauben, jeder der da nun mitmischen wollen würde muss erstmal Jahrzehnte aufholen und um 1001 Patente herummanövrieren. Für Apple scheint das nicht problematisch
Während wir also die Designs und Leistungen der letzten Jahre feiern und das ehrlicherweise auch bei Intel bis zum 10nm-fail alles andere als dürftig fanden, findet Apple wohl, das wäre alles Grütze.
Die Wahrscheinlichkeit also, daß sie uns nicht nur bisschen ärgern werden, sondern direkt recht hart von unserer Wolke7 holen, ist leider garnicht mal so niedrig.
Bei Apple sehe ich da nicht mehr Probleme aufkommen als damals von PowerPC auf x86. Dazu brauchen die keine Cloud... Übrigens wurde auch PowerPC nur deswegen ausgemustert, weil sie das Design irgendwann für das was IBM damit machte für nicht zukunftsfähig genug empfanden. Diese Meinung bekamen sie diesmal von x86-64
Übrigens zu der Zeit als Intel noch recht gut dabei war und sie zu 100% wussten was Zen bald wird und was mit Zen2 geplant ist und daß nichts dagegen spricht, daß dies bei AMD klappt. Die Entwickeln den Desktop-ARM nicht erst seit 3 Jahren.
Ich hege keine Zweifel darüber, daß AMD sich da auch immer mal anbot. Die Verbindungen zu AMD sind über das GPU-Geschäft mit Sicherheit sehr gut.
Jetzt braucht Apple weder eine CPU noch eine GPU von Firmen, von welchen wir glauben, jeder der da nun mitmischen wollen würde muss erstmal Jahrzehnte aufholen und um 1001 Patente herummanövrieren. Für Apple scheint das nicht problematisch
Während wir also die Designs und Leistungen der letzten Jahre feiern und das ehrlicherweise auch bei Intel bis zum 10nm-fail alles andere als dürftig fanden, findet Apple wohl, das wäre alles Grütze.
Die Wahrscheinlichkeit also, daß sie uns nicht nur bisschen ärgern werden, sondern direkt recht hart von unserer Wolke7 holen, ist leider garnicht mal so niedrig.
Zuletzt bearbeitet:
seTTam
Vice Admiral Special
- Mitglied seit
- 16.08.2009
- Beiträge
- 887
- Renomée
- 79
- Mitglied der Planet 3DNow! Kavallerie!
- BOINC-Statistiken
- Folding@Home-Statistiken
Schon ein A12Z ist mit 4 Vortex Threads ist mit Rosetta2 (x86-> ARM-Emu) in etwa so schnell wie ein Core i5-1030NG7 mit 8 Threads. A12Z läuft mit 2.49Ghz. 1030NG7 mit 3.5Ghz. Nativ ist er so schnell wie ein i7-1068NG7...
Wo kann ich das nachlesen? Klingt interessant.
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Letzte Woche paar Sachen überflogen. Die Links wie meist nicht gespeichert. Lässt sich aber bestimmt anhand der Stichwörter wieder ergoogeln.
Zuletzt bearbeitet:
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 2.979
- Renomée
- 232
@HalbeHälfte
Bei Apple ist der Fall klar. Ich stimme deiner Beschreibung zu. Das klappt, weil Apple sein ganzes Ökosystem im Griff hat. Vereinfacht gesagt entwickelt Apple neue Hardware und kompiliert einmal neu. Fertig.
Unter Windows sieht die Sache anders aus. Die Software Landschaft ist diversifiziert, und Microsoft kann sein Betriebssystem und sein Office, etc. einfach neu kompilieren, aber eben nicht die diversifizierte Anwendersoftware von Millionen Herstellern. Dem Zustand kommt dann der Trend entgegen, wenn Software generell in die Cloud verlagert wird, wo im übrigen ja auch kein X86-64 laufen muss. Im Idealfall wäre die lokale Hardware nicht viel mehr als der Bildschirm und die Tastatur.
So meinte ich das.
MfG
Bei Apple ist der Fall klar. Ich stimme deiner Beschreibung zu. Das klappt, weil Apple sein ganzes Ökosystem im Griff hat. Vereinfacht gesagt entwickelt Apple neue Hardware und kompiliert einmal neu. Fertig.
Unter Windows sieht die Sache anders aus. Die Software Landschaft ist diversifiziert, und Microsoft kann sein Betriebssystem und sein Office, etc. einfach neu kompilieren, aber eben nicht die diversifizierte Anwendersoftware von Millionen Herstellern. Dem Zustand kommt dann der Trend entgegen, wenn Software generell in die Cloud verlagert wird, wo im übrigen ja auch kein X86-64 laufen muss. Im Idealfall wäre die lokale Hardware nicht viel mehr als der Bildschirm und die Tastatur.
So meinte ich das.
MfG
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
Jein. Man sollte dann doch nicht so tun als wenn das ganze Ökosystem bei Apple, aus appleeigener Software bestehen würde Wenn wir Millionen "Hersteller" haben, haben die immernoch Zehntausende.
Den "gap" über von Rosetta2 kann man sich aber wie oben aufgeführt ausrechnen. Für Tools, reicht das aus. Sachen die mehr rumrechnen kommen entweder neu oder es gab eh schon länger keinen Support mehr. Dann kommt jemand und schreibt soetwas neu. vor allem jetzt, wo die App-Progger bald mit gleichen Devkits auch was für Desktops machen können. Die müssen dann nur die GUI kleinwenig anpassen.
Wofür es bald die meiste Hilfe im Devkit gibt (!)
Das ist aber deren Sache. "Spanisch" wird es erst, wenn sie mit A14-Desktop nativ direkt die Leistung von z.B. 3300X fahren können. Und alle können mit ARM-nativ mind. Neon (man erinnert sich, SSE4), wenn nicht gar SVE voraussetzen.
Die Leistung von 95W x86-64 Zen2, mit 40-50W? Ou ou ou
Den "gap" über von Rosetta2 kann man sich aber wie oben aufgeführt ausrechnen. Für Tools, reicht das aus. Sachen die mehr rumrechnen kommen entweder neu oder es gab eh schon länger keinen Support mehr. Dann kommt jemand und schreibt soetwas neu. vor allem jetzt, wo die App-Progger bald mit gleichen Devkits auch was für Desktops machen können. Die müssen dann nur die GUI kleinwenig anpassen.
Wofür es bald die meiste Hilfe im Devkit gibt (!)
Das ist aber deren Sache. "Spanisch" wird es erst, wenn sie mit A14-Desktop nativ direkt die Leistung von z.B. 3300X fahren können. Und alle können mit ARM-nativ mind. Neon (man erinnert sich, SSE4), wenn nicht gar SVE voraussetzen.
Die Leistung von 95W x86-64 Zen2, mit 40-50W? Ou ou ou
Zuletzt bearbeitet:
ONH
Grand Admiral Special
Schon ein A12Z ist mit 4 Vortex Threads ist mit Rosetta2 (x86-> ARM-Emu) in etwa so schnell wie ein Core i5-1030NG7 mit 8 Threads. A12Z läuft mit 2.49Ghz. 1030NG7 mit 3.5Ghz. Nativ ist er so schnell wie ein i7-1068NG7...
Nehme mal an der Vergleich war mit einem Macbook Air 2020, dazu gibt es zu sagen, dass die Macbooks mindestens Teilweise mit nicht aufsetzendem Kühler ausgeliefert werden. Was heisst das wohl für die Taktraten, die sind nie und nimmer bei den up to 3.5GHz, wohl eher bei den 1.1 GHz Basistakt.
Die ARM Testkits sind warscheinlich ausreichend gekühlt relativ dazu.
Apple kann auch nicht zaubern, und bremsen (un-)absichtlich die neuste Generation x86_64 aus. Verschwörungstheoretiker würden behaupten das sei absicht, damit sie mit der ersten ARM Generation besser da stehen.
Für AMD heisst das eigenlich nur, dass sie sich mit Intel darauf einigen sollten, das x86_64 endlich alten Müll raustragens soll, der nur für Kompatibilität zu Steinzeitsystemen (Space Shuttle) vorhanden ist, eg. ein neues Feature Grundlevel mit nur noch x86_64 (Long Mode, ohne compatibility Mode) + AVX2 definieren.
Apple tut dies, in der Regel relativ schnell. Ihren ARM Kerne sind vermutlich seit 2018 reine 64bit CPU ohne 32bit Support. Brauchen sie ja auch nicht, alle Gerät werden seit 2018 nur noch mit 64bit gefüttert.
ARMv9 wird auch gemunkelt das da die 32bit Kompatibilität raus fällt und ein AVX äquivalent verpflichtend wird.
Gute PCIe 4.0 SSDs werden bald ein neuer Marketinggag.
Ja PCIE 4.0 SSD mit OLC NAND
Aber viele feiern auch QLC auch wenn die SSD wenn der Schreibcache voll ist langsamer ist als eine 5400er HDD8)
HalbeHälfte
Vice Admiral Special
- Mitglied seit
- 30.07.2006
- Beiträge
- 674
- Renomée
- 8
@BluSky
Sobald die ersten ernsten Ports von der PS5 losgehen wird eine sauschnelle Nvme und desgleichen schnell angebunde Graka relevant sein. Das geht nur mit PCIe 4.0.
@ONH
Wer hat eigentlich wann vernünftig durchgerechnet was irgendwelche "Altlasten" eine x86-64 CPU auf einem 64bit OS mit einer 64bit Anwendung an Leistung kosten?
Mit AVX sollte man sachte umgehen Intels Folien z.B. erzählen immer von Steigerungen gegenüber SSE4.x, wenn die CPU gleich schnell Taktet. Den AVX-Offset vergessen sie irgendwie öftersmal... "slightly lower frequency" gabs/gibts bei paar Xeons. Die "normalen" CPUs takten da schon zuweilen spürbar runter. Die Temps auf Ryzen(2) mit AVX gehen dagegen ja auch ordentlich hoch. Turbotakt und so...
Einerseits. Andererseits muss der Coder beim Handlig mit AVX2 schon ziemlich und mit AVX-512 sehr gut aufpassen was so alles abgeht oder abgehen kann. Wenn die Daten immer mal durch Kontextswitch aus dem L2data fliegen, bricht AVX2/AVX-512 wesentlich schmerzvoller ein als SSE oder AVX.
Real kann man von AVX schon im Schnitt 40-60% mehr erwarten als von SSE. Damit wäre das gut genug um es mitzunehmen und Leute können sich immernoch ohne größere Umstellungen im Code einarbeiten.
Und trotzdem ist die Realität seit dem ersten SSE anders. Nur weil es das gesichert gibt laufen die Leute dir nicht die Bude ein. Auch die Spieleindustrie schaut noch heute drauf, daß genug Leute (halt auch die mit FHD Hardware) das Spiel noch starten können.
PhaseOne hat sich jetzt erst - Mai 2020 - mit CaptureOne 13.1 getraut die alten SSE2 Routinen nach SSE 4.2 umzuschreiben. Und lernt dabei... da die Leute grad ganz schön am poltern sind, daß die Auslastung der einzelnen Threads plötzlich sehr zu wünschen lässt
Ich weiß aber nicht, ob das der Grund dafür ist, daß Adobe angeblich immernoch so fest an ihrem SSE2 Code und der Optimierung für 4 Threads festhält
Sobald die ersten ernsten Ports von der PS5 losgehen wird eine sauschnelle Nvme und desgleichen schnell angebunde Graka relevant sein. Das geht nur mit PCIe 4.0.
@ONH
Wer hat eigentlich wann vernünftig durchgerechnet was irgendwelche "Altlasten" eine x86-64 CPU auf einem 64bit OS mit einer 64bit Anwendung an Leistung kosten?
Mit AVX sollte man sachte umgehen Intels Folien z.B. erzählen immer von Steigerungen gegenüber SSE4.x, wenn die CPU gleich schnell Taktet. Den AVX-Offset vergessen sie irgendwie öftersmal... "slightly lower frequency" gabs/gibts bei paar Xeons. Die "normalen" CPUs takten da schon zuweilen spürbar runter. Die Temps auf Ryzen(2) mit AVX gehen dagegen ja auch ordentlich hoch. Turbotakt und so...
Einerseits. Andererseits muss der Coder beim Handlig mit AVX2 schon ziemlich und mit AVX-512 sehr gut aufpassen was so alles abgeht oder abgehen kann. Wenn die Daten immer mal durch Kontextswitch aus dem L2data fliegen, bricht AVX2/AVX-512 wesentlich schmerzvoller ein als SSE oder AVX.
Real kann man von AVX schon im Schnitt 40-60% mehr erwarten als von SSE. Damit wäre das gut genug um es mitzunehmen und Leute können sich immernoch ohne größere Umstellungen im Code einarbeiten.
Und trotzdem ist die Realität seit dem ersten SSE anders. Nur weil es das gesichert gibt laufen die Leute dir nicht die Bude ein. Auch die Spieleindustrie schaut noch heute drauf, daß genug Leute (halt auch die mit FHD Hardware) das Spiel noch starten können.
PhaseOne hat sich jetzt erst - Mai 2020 - mit CaptureOne 13.1 getraut die alten SSE2 Routinen nach SSE 4.2 umzuschreiben. Und lernt dabei... da die Leute grad ganz schön am poltern sind, daß die Auslastung der einzelnen Threads plötzlich sehr zu wünschen lässt
Ich weiß aber nicht, ob das der Grund dafür ist, daß Adobe angeblich immernoch so fest an ihrem SSE2 Code und der Optimierung für 4 Threads festhält
Ähnliche Themen
- Antworten
- 728
- Aufrufe
- 50K
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 760
- Aufrufe
- 99K