App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD Zen - 14nm, 8 Kerne, 95W TDP & DDR4?
- Ersteller UNRUHEHERD
- Erstellt am
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Dazu empfehle ich dir diesen Artikel bei Anand zu Evergreen und wie AMD damals Geheimhaltung für einzelne Features etablieren konnte, nicht nur vor den Medien sondern auch vor dem eigenen Management - schon lustig was ein Ingenieur heute so alles machen muss damit seine Arbeit im Endprodukt auch enthalten istNunja, hier ist sicherlich etwas Wahres dran. Z.B. gehe ich davon aus, dass Intel bewusst im Vorfeld Informationen streut, um die nach Mehr gierende Anhängerschaft bei Laune zu halten. Andererseits halte ich es für unmöglich, dass wir nur deshalb keine Informationen über eventuelle weitere Plattformen zu Ryzen haben, weil AMD so gut ist und keine Info-Löcher mehr hat. Die Wahrheit liegt hier sicherlich irgendwo dazwischen. Leaks minimieren ja, komplett abstellen sicherlich nein.
Preventing Espionage at AMD: How The Eyefinity Project Came to Be
Yoshi 2k3
Admiral Special
- Mitglied seit
- 18.01.2003
- Beiträge
- 1.319
- Renomée
- 180
- BOINC-Statistiken
- Mein Laptop
- Apple Mac Book Pro 14" 2023
- Prozessor
- AMD Epyc 7F52
- Mainboard
- TYAN S8030 GM2NE
- Kühlung
- Watercool Heatkiller IV
- Speicher
- 128 GB Samsung M393A4K40DB3-CWEGQ
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- Nixeus NX-EDG27
- Soundkarte
- SMSL SU-9 USB DAC
- Gehäuse
- Caselabs SM8
- Netzteil
- Cooler Master SFX Gold 850W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
Irgendwie hab ich jetzt den Überblick verloren... Sind die 2x x8 3.0 denn jetzt Fakt oder Gerücht?
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Die Ryzen CPUs für AM4 haben keine 32 PCIe 3.0 Lanes die man benötigen würde für mehr als 2x 8 PCIe3 Setups. Das selbe gilt auch für sämtliche 1151-basierenden Systeme von Intel. Hier ist der Stromverbrauch einfach die wichtigere Größe im Konkurrenzkampf.#
Edit: jo zu spät.
Edit: jo zu spät.
MusicIsMyLife
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.02.2002
- Beiträge
- 15.579
- Renomée
- 2.567
- Standort
- in der Nähe von Cottbus
- Lieblingsprojekt
- Asteroids@Home
- Meine Systeme
- Alltags-PC, Test-PC (wechselnde Hardware)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Alltags-PC
- Mein Laptop
- HP DV7-2225sg
- Prozessor
- AMD Ryzen 9 7950X
- Mainboard
- ASRock B650M PG Riptide
- Kühlung
- Watercool Heatkiller IV Pro Copper
- Speicher
- 2x 32 GB G.Skill TridentZ 5 TGB (F5-6000J3040G32X2-TZ5RS)
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- ASUS ROG PG42UQ (3840x2160), Philips BDM4065UC (3840x2160), Samsung C27HG70 (2560x1440)
- SSD
- Micron 9300 Pro 7,68 TB (U.2), Samsung 850 Evo 4 TB (SATA)
- HDD
- keine, SSD only...
- Optisches Laufwerk
- LG CH08LS10 Blu-ray Disc-Player
- Soundkarte
- Creative SoundBlasterX AE-5 Plus
- Gehäuse
- Dimastech BenchTable EasyXL (vorübergehend)
- Netzteil
- Corsair RM850i
- Tastatur
- ASUS ROG Strix Flare
- Maus
- Steelseries Sensei 310
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼250 MBit ▲45 MBit
Im Zweifel gibt es bestimmt Boards mit PLX PCIe-Brückenchip, der aus den PCIe x16 zur CPU zwei x16 für jede GPU macht. Bei halbwegs intelligentem Routing der Daten, kann das bei Multi-GPU sogar schneller sein als den Umweg über die CPU für jeden Mist (z.B. das Ausgabebild) nehmen zu müssen.
Richtig, es gibt Lösungsmöglichkeiten. Was dabei aber für ein Chaos rauskommt, wenn Mainboard-Hersteller die Limitierungen der CPU-Hersteller zu umschiffen versuchen, kann man hier gut erkennen:
TweakTown schrieb:The PCI-E layout of the X99-Designare EX is one of the most complex so I will go slowly. For starters, the two U.2 ports, the M.2, and the Alpine Ridge each require 4x of PCI-E 3.0, so GIGABYTE is using a PEX8747 to expand lanes. Next up, both 28 and 40 lane CPUs provide 4x PCI-E 3.0 directly to Intel's Alpine Ridge USB 3.1/Thunderbolt 3 controller. CPUs with 40 lanes will get both U.2 ports; one is directly wired to the CPU, and the other comes from the PEX8747, but 28 lane CPUs won't have the U.2 directly wired to the CPU. Instead, they will get only one through the PEX8747. The third PCI-E 16x slot is a 4x electrical PCI-E 2.0 slot connected to the PCH. Next, for both 28 and 40 lane CPUs, the first slot is routed 16x of bandwidth, and the last slot gets 8x from the first slot if it is occupied.
Now, a 40 lane CPU will provide the remaining 16x of bandwidth to the PEX8747, and a 28 lane CPU will provide 8x to the PEX8747. The PEX8747 will output 32 lanes, even if it only gets 8x, so the PCI-E layout is the same for both lane count CPUs. The second to last PCI-E 16x slot (slot number four if we skip the 1x slot), gets 16x of bandwidth and will downshift to 8x if an M.2 drive is installed (it will give 4x to the M.2 slot, and 4x will just not be used). The second PCI-E 16x slot is given the other 16x from the PEX8747, and it will downshift to 8x if the first U.2 slot is used (4x to U.2 and 4x not used). If you need further clarification, please read the manual to determine bandwidth allotment and determine how to proceed.
It's clear that both 28 and 40 lane CPUs get the same PCI-E slot layout/bandwidth, but the 28 lane CPU gets one less U.2 port, and the PEX8747 will provide fewer lanes. With this layout, 40-lane CPU users will be able to use both U.2, M.2, USB 3.1/TB3, and all PCI-E ports simultaneously.
Ich bin der Meinung, letztens einen Artikel darüber gelesen zu haben, wo verschiedene Z170-Boards hinsichtlich ihres PCIe-Routings und der PLX-Switche verglichen wurde. Leider finde ich den Artikel nicht mehr. Fakt ist aber, dass dieses mitunter extrem komplexe Routing dazu führt, dass die Mainboards unnötig komplex, dadurch teurer und durch Verwendung von einem oder gar mehreren Switchen noch zusätzlich teurer werden.
Ich selbst muss mich zwischen M.2 und einem bestimmten PCIe-x16-Slot entscheiden, kann trotz 40 Lanes nicht beides gleichzeitig verwenden. Soll heißen: Ich finde selbst die 40 Lanes für das Jahr 2017 nicht mehr angemessen (die 40 Lanes 3.0 bietet Intel inoffiziell seit 11/2011 und offiziell seit 9/2013).
LGA1151 Boardpreise 48,79 - 574,85 und LGA2011-3 Boardpreise 196,94 - 802,96 - da brauch man nicht diskutieren welche Plattform teuer ist. Was man kauft hängt von den eigenen Ansprüchen ab.
Dagegen gibt es von mir ja auch kein Veto. Ein Veto gibt es deshalb, weil ein 2011-3-Setup nicht automatisch deshalb teurer als ein S1151-Setup ist, nur weil es eben 2011-3 ist. Denn diese Aussage ist falsch und du belegst sie selbst.
Nach deiner Argumentation ist die RX 480 auch High-End weil AMD nichts schnelleres im Portfolio hat. Das kann definitiv als falsch bezeichnen, wodurch dein Argument auch seine Gültigkeit verliert.
AMD bietet noch eine Fury X an, welche je nach Auflösung auch mal rund ein Drittel schneller sein kann als die RX 480. Also kann auch nach meiner Definition die RX 480 kein High End sein.
Bisher habe ich dieses Thema gerne gelesen und intensiv verfolgt. Schon wieder okkupieren hier einige Personen das Thema um Kleinigkeiten die mit dem eigentlichen Thema nur am Rande zu tun haben bis ins Letzte auszudiskutieren. Brechfaktor hoch 15.
Ob jetzt Rizen High-End oder nur High-Performance bietet. Ob es 2x16 PCIe oder 2x8 entweder als 3.0 oder 2.0 sind ist doch eigentlich totoal egal. AM4 ist als Plattform für den Desktop vorgesehen. Nicht als HIGH-MEGA-ULTRON-MULTI-GPU-PLATTFORM. Auch wenn ein Board 2 oder mehr PCIe 16x Slots besitzt heißt es noch lange nicht: Alles TipTop angeschlossen. Dafür ist die Architektur des Prozessors als auch der Plattform gar nicht entwickelt worden. Ich möchte gar nicht wissen wieviele Mainboards verkauft werden die vermeindlich für 2-4 Grafikkarten gebaut wurden und trotzdem nicht wirklich schneller damit sind als eine andere Kiste mit einer Top-Grafikkarte. Ist ungefähr genau das Gleiche ob ich einen Feuerwehrschlauch an der Badewannenarmatur anschließe. Geht zwar, ist aber prinzipiell kac|<e.
Oder ist das hier nur der Wunsch von AMD-Anhängern einer GTX-Titan nahekommen zu wollen mit 2 oder 3 AMD Karten? Standardausstattung wird ein Mittel- bis Unterklassenmainboard mit genau einer Grafikkarte sein.
Ob AMD mit einem Enthusiasten wirklich mehr Geld verdient als mit 12 Normalkunden lasse ich jetzt mal dahingestellt, da AMD oder INtel mit hochpreisigen Mainboards nicht mehr verdient als Chipsatz bzw. CPU-Lieferant.
Auch ich habe hier sehr gerne mitgelesen. Und wenn in ich einem Thread im Tech-Talk-Forum der Meinung bin, meinen Standpunkt darzulegen und zu verteidigen, dann tue ich das.
Dass dir und p4z1f1st das missfällt tut mir einerseits leid, lässt mich andererseits aber doch etwas fragend zurück. Denn ohne dass jemand was schreibt, könnt ihr auch nichts im Thread lesen. Und okkupiert halte ich angesichts meiner vielleicht ein Dutzend Beiträge in einem mehr als 3.300 Posts enthaltenen Thread auch für die falsche Bezeichnung.
Dennoch habe ich verstanden, dass ich hier mit meiner Meinung nicht willkommen bin und beende das Thema hiermit. Zerpflückt meine Aussagen und macht daraus, was ihr wollt - meine Meinung steht.
Viel Vergnügen weiterhin im Thread...
Captn-Future
Moderation DC, P3DN Vize-Kommandant
- Mitglied seit
- 16.08.2004
- Beiträge
- 8.430
- Renomée
- 313
- Standort
- VIP Lounge
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- QMC, Simap
- Lieblingsprojekt
- QMC
- Meine Systeme
- X4 940 BE
- BOINC-Statistiken
- Prozessor
- Intel Xeon E3-1230v2
- Mainboard
- GA-Z77-UD3
- Kühlung
- Thermalright Macho Rev. A
- Speicher
- 16 GB Kingston blue
- Grafikprozessor
- Gigabyte GTX 660
- Display
- HP ZR2440w 1920x1200
- SSD
- Samsung SSD 830 256 GB
- HDD
- WD Blue 1 TB
- Optisches Laufwerk
- LG GSA-H10N
- Gehäuse
- LianLi V1000 Silber
- Netzteil
- Cougar SE400
- Betriebssystem
- Windows 7
- Webbrowser
- FireFox
Auch wenn der Eindruck entstehen sollte, dass ich oder auch andere jemdanden nicht willkommen heißen könnten oder Beiträge nicht erwünscht wären: Dem ist eigentlich nicht so. Mir geht es nur darum, dass die Anzahl an PCI-Lanes dieser neuen Architektur hier bis ins kleinste auseinander genommen werden. Es ist schon länger bekannt, dass es nur 24 Lanes sind. Natürlich hätte man auch 40 oder 56 haben wollen. Das sind Erwartungen oder Bedürfnisse von einer geringen Anzahl von Usern. Wenn AMD gesagt hätte: Das ist der Mount Everest der Computer nicht blos der Feldberg, dann würde ich jedem der statt 24 40 Lanes haben wollte beifplichten. Aber es ist leider nur das Matterhorn geworden. Deswegen wird AMD jetzt nicht alles einstampfen nur weil in bestimmten Fällen Leistungseinbußen zu erwarten sind. Jeder wird sich wünschen mehr Leistung, mehr Bandbreite, mehr mehr mehr zu bekommen.
Auch wenn wir hier in einem Tech-Talk-Forum sind, hatte ich das Gefühl, dass hier einige Tauziehen spielen, aber beide das Seil um einen Baum geschwungen haben.
Auch wenn wir hier in einem Tech-Talk-Forum sind, hatte ich das Gefühl, dass hier einige Tauziehen spielen, aber beide das Seil um einen Baum geschwungen haben.
Yoshi 2k3
Admiral Special
- Mitglied seit
- 18.01.2003
- Beiträge
- 1.319
- Renomée
- 180
- BOINC-Statistiken
- Mein Laptop
- Apple Mac Book Pro 14" 2023
- Prozessor
- AMD Epyc 7F52
- Mainboard
- TYAN S8030 GM2NE
- Kühlung
- Watercool Heatkiller IV
- Speicher
- 128 GB Samsung M393A4K40DB3-CWEGQ
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- Nixeus NX-EDG27
- Soundkarte
- SMSL SU-9 USB DAC
- Gehäuse
- Caselabs SM8
- Netzteil
- Cooler Master SFX Gold 850W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
aber 1 x16 3.0 sollte doch für 98% der Anwender genügen?! Verstehe die Aufregung auch nicht so ganz. Berechtigte Kritik, ja. Aber aktuell auch "marktüblich". Außerdem stehen bei den Server-CPUs doch dann mehr Lanes zur Verfügung. Also auch für dicke Workstations ist dann gesorgt, zum entsprechenden Preis.
@Complicated / Limit64: Danke für die Infos.
@Complicated / Limit64: Danke für die Infos.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Wie jetztAMD bietet noch eine Fury X an, welche je nach Auflösung auch mal rund ein Drittel schneller sein kann als die RX 480. Also kann auch nach meiner Definition die RX 480 kein High End sein.
Trotz dem High-End 8GB Speicherausbau? Sag bloß der AMD 32-Core Naples wird dann der High-End sein mit 128 PCIe-Lanes und nicht der Ryzen mit 8-Core und 24 Lanes?
Da sind wir uns doch jetzt einig, oder?
Was du als Unterscheidung einbringst ist lediglich der Launchtermin. Das funktioniert allerdings auch nur wenn jeder Hersteller so wie Nvidia von Tops abwärts seine Produkte in den Markt bringt. Das nenne ich typisch dem falschen Marketing aufgesessen, auch wenn sie es gut machen. AMD hat ganz klar eine Zielgruppe definiert mit Ryzen und das ist der Gamer.
Zuletzt bearbeitet:
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.716
- Renomée
- 431
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
aber 1 x16 3.0 sollte doch für 98% der Anwender genügen?! Verstehe die Aufregung auch nicht so ganz.
So ist es.
Dresdenboy
Redaktion
☆☆☆☆☆☆
Jetzt war ich doch etwas platt über das, was bei Wikipedia steht.Grundsätzlich ist Intels Hyperthreading (HTT) kein richtiges vollwertiges SMT. Siehe Basisinfo:
https://de.wikipedia.org/wiki/Hyper-Threading
Ich mache es kurz:
http://www.intel.com/content/dam/ww...2002-vol06-iss-1-intel-technology-journal.pdfIntel Technology Journal schrieb:Intel’s Hyper-Threading Technology brings the concept of simultaneous multi-threading to the Intel Architecture.
Sinnlos diese SMT/HTT Diskussion.
Warum bei Intels HTT eine Priorisierung genutzt wird?
Weil eine gleichwertige Nutzung in dem Markt dieses Produktes das denkbar dämlichste ist was man machen kann.
IBMs Prozessoren treffen auf eine hoch optimierte Softwareumgebung, Intels Prozessoren wohl eher selten und müssen sich mit Software mit einem mehr als mangelhaften Multicore Support rumschlagen. Aufgrund dessen hätte man einen massiven Leistungseinbruch wenn z.B. 2 Threads anstatt auf 2 physischen Kernen auf den beiden virtuellen Kernen eines Kerns laufen würden.
Zudem kann man dafür nicht ernsthaft einen Skalierungsfaktor festlegen weil aufgrund der Arbeitsweise z.B. bei 2 fach SMT im Bereich zwischen einer Verdoppelung der Leistung und einem Leistungsrückgang alles drin ist.
Ich mache es auch hier kurz:
http://www.cs.sfu.ca/~fedorova/Teaching/CMPT886/Spring2007/papers/hyper-threading.pdfIntel schrieb:Priority is not given to one logical processor above the other.
Und meine eigenen Untersuchungen auf einem Broadwell haben das als immer noch gültig bestätigt (low prio FPU-Threads bremsen high prio Prime95-Threads auf bis zu 50% ab). Ich hatte mich ja einmal damit befasst, als ich die Patente von AMD zu SMT-Prioritäten sah.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.337
- Renomée
- 1.974
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Dann bist du aber bereits im Bereich der Nutzung aller Kerne bei dem alle Threads des Prozessors genutzt werden, was ich schrieb ist der Bereich der Teilauslastung bei dem zuerst ein Thread der Kerne belegt werden soll bevor der zweite drauf kommt, gerade damit sich die beiden Threads nicht gegenseitig das Wasser abgraben oder im Fall der Bulldozer Architektur die FPU nicht aufgespaltet werden muss. Das ist auch eine Priorisierung.
Dresdenboy
Redaktion
☆☆☆☆☆☆
Ach, du meintest das Scheduling. Richtig, da wird auch priorisiert.Dann bist du aber bereits im Bereich der Nutzung aller Kerne bei dem alle Threads des Prozessors genutzt werden, was ich schrieb ist der Bereich der Teilauslastung bei dem zuerst ein Thread der Kerne belegt werden soll bevor der zweite drauf kommt, gerade damit sich die beiden Threads nicht gegenseitig das Wasser abgraben oder im Fall der Bulldozer Architektur die FPU nicht aufgespaltet werden muss. Das ist auch eine Priorisierung.
Jetzt war ich doch etwas platt über das, was bei Wikipedia steht.
Ich mache es kurz:
http://www.intel.com/content/dam/ww...2002-vol06-iss-1-intel-technology-journal.pdf
Ich mache es auch hier kurz:
http://www.cs.sfu.ca/~fedorova/Teaching/CMPT886/Spring2007/papers/hyper-threading.pdf
Und meine eigenen Untersuchungen auf einem Broadwell haben das als immer noch gültig bestätigt (low prio FPU-Threads bremsen high prio Prime95-Threads auf bis zu 50% ab). Ich hatte mich ja einmal damit befasst, als ich die Patente von AMD zu SMT-Prioritäten sah.
Jetzt bin ich etwas verwirrt. Welche Meinung untermauerst du hier?
Ich sehe aber aufgrund deiner Infos und dieser Info
https://en.wikipedia.org/wiki/Bulldozer_%28microarchitecture%29 das wir im Sprachgebrauch sehr ungenau waren.
Ich für meinen Teil bleibe noch immer auf dem Standpunkt: Intels HT ungleich AMD`s CMT.
Intel - Zitat:
Hyper-Threading Technology makes a single physical processor appear as two logical processors; the physical execution resources are shared
and the architecture state is duplicated for the two logical processors.
Kurz die nutzen die Hardware zur Laufzeit besser aus - nur der "architecture state" ist verdoppelt.
AMD - Zitat:
Bulldozer introduced a "Clustered MultiThreading"(CMT) where some parts of the processor are shared between two threads and some parts are unique for each thread.
In terms of hardware complexity and functionality, the Bulldozer CMT module is equal to a dual-core processor in its integer power, and to either a single-core processor or a dual core in its floating-point power, depending on whether the code is saturated in floating point instructions in both threads running on the same CMT module, and whether the FPU is performing 128-bit or 256-bit floating point operations.
Kurz, streng genommen eine Mischform aus zur Laufzeit die Hardware besser nutzen + Hardwareressourcen doppelt vorhalten (splitten im Fall der 128 Bit Befehle FPU?).
Jetzt macht auch eines Sinn für mich - bei Zen spricht man im Moment von SMT - und ich meinte auch Gerüchteweise ghört zu haben nicht unähnlich von Intel. Inzischen spekulieren hier ja einige eher in Richtung der Implementation von IBM. Ist das nun eher klassisches SMT (ich sag mal leistungssteigerung durch Pipline pro Takt besser füllen) oder CMT (Leisterungssteigerung durch doppelt vorhandene "Hardware")?
Dresdenboy
Redaktion
☆☆☆☆☆☆
Dich hatte ich doch gar nicht zitiert.Jetzt bin ich etwas verwirrt. Welche Meinung untermauerst du hier?
Meine Meinung ist: Intel HT = SMT, AMD BD = CMT, AMD BD-FPU = SMT, Zen = SMT mit Priorisierung (steht alles irgendwo in Papers oder Präsentationen)
IBM hat seit Power 5 SMT mit expliziter Priorisierung (also nichts, wo sich der Prozessor mit irgendwelchen Metriken automatisch anpasst).
Daher kann ich deinen Punkten zustimmen mit kleinem Klärungsbedarf. Ansonsten müssten wir mit alternativen Fakten arbeiten.
Bei AMD könnte man noch etwas korrigieren:
AMD schreibt bei der FPU ganz klar "SMT" hin (siehe Legende):AMD - Zitat:
Bulldozer introduced a "Clustered MultiThreading"(CMT) where some parts of the processor are shared between two threads and some parts are unique for each thread.
In terms of hardware complexity and functionality, the Bulldozer CMT module is equal to a dual-core processor in its integer power, and to either a single-core processor or a dual core in its floating-point power, depending on whether the code is saturated in floating point instructions in both threads running on the same CMT module, and whether the FPU is performing 128-bit or 256-bit floating point operations.
Kurz, streng genommen eine Mischform aus zur Laufzeit die Hardware besser nutzen + Hardwareressourcen doppelt vorhalten (splitten im Fall der 128 Bit Befehle FPU?).
Jetzt macht auch eines Sinn für mich - bei Zen spricht man im Moment von SMT - und ich meinte auch Gerüchteweise ghört zu haben nicht unähnlich von Intel. Inzischen spekulieren hier ja einige eher in Richtung der Implementation von IBM. Ist das nun eher klassisches SMT (ich sag mal leistungssteigerung durch Pipline pro Takt besser füllen) oder CMT (Leisterungssteigerung durch doppelt vorhandene "Hardware")?
Was sie oben im Zitat meinen könnten, ist wohl: "either a physical processor or two logical processors", also wie eine FPU in einem SMT-fähigen Kern, wo ein oder zwei Threads aktiv sind. Und natürlich blocken sich zwei Threads auch mal die Ressourcen, erst recht, wenn die zwei FMAC-Einheiten FPU für einen 256-Bit-Befehl sozusagen verbunden werden.
Zens SMT wird eher so etwas wie eine Zwischenvariante von HT und IBM SMT-2.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.224
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
?Oder ist das hier nur der Wunsch von AMD-Anhängern einer GTX-Titan nahekommen zu wollen mit 2 oder 3 AMD Karten? Standardausstattung wird ein Mittel- bis Unterklassenmainboard mit genau einer Grafikkarte sein.
Wer gibt sich bitte mit einer GTX Titan zufrieden, wenn er schon mal Multi-GPU hatte?
Klar geht das nicht über all, aber wenn es läuft dann musst schon größere Geschütze auffahren um mit Muli-GPU mitzuhalten.
+50% sind da keine Seltenheit, wann gab es bei einer GPU Neuvorstellung zu letzt ein Performance + von 50% gegenüber dem Vorgänger?
Es ist inzwischen sogar so, dass es weniger Leistung gibt bei GPUs (DP).
Ich weiß nicht ob ich diese Spar-Maßnahmen wirklich gut heißen soll, als könnte der Kunde nicht selbst entscheiden was er braucht.
Was jetzt noch interessant wäre, wenn nun alle bei PCIsig antanzen und ihre Mainboards zertifizieren: https://pcisig.com/developers/compliance-program
könnte ich mir ein Stau vorstellen, so das zuerst wirklich nur Boards mit 1x x16 kommen, da 2x x16 einfach länger dauert um es zu testen.
IBM hat seit Power 5 SMT mit expliziter Priorisierung (also nichts, wo sich der Prozessor mit irgendwelchen Metriken automatisch anpasst).
Zens SMT wird eher so etwas wie eine Zwischenvariante von HT und IBM SMT-2.
Bezüglich des "wo sich der Prozessor mit irgendwelchen Metriken automatisch anpasst" - in meiner Theorie hätte das nie der Prozessor selbst gemacht sondern eher der Treiber/OS. Wenn ich IBM aber richtig verstehe ist es noch viel besser. Es kann der Programmierer und somit die Applikation selbst. Natürlich in Zusammenarbeit mit dem OS - da man ja wissen muss was sonst noch so läuft.
Aber genial ist auch, IBM`s Lösung kann sich dynamisch anpassen und fährt Workload der durch SMT verlangsamt werden würde dann halt gar nicht mit SMT. So kommt wenigstens im Worstcase keine schlechtere Leistung raus als bei einem NON-SMT Prozessor. Muss schon sagen, bei IBM schaffen schon Käpsele...
Gab es daran Zweifel? Es gibt zwar fließende Übergänge dazwischen, aber die beiden sind so, wie sie bei Intel und AMD implementiert sind eindeutig zu unterscheiden. IBMs SMT-Implementierung steht noch zwischen den beiden.Ich für meinen Teil bleibe noch immer auf dem Standpunkt: Intels HT ungleich AMD`s CMT.
Du kannst SMT unterschiedlich auslegen. Hauptstellschraube ist dabei die Zahl der Ausführungseinheiten (ALUs, FPUs, usw.). Intels Kerne sind von der Breite so ausgelegt, dass ein einzelner Thread die Einheiten unter optimalen Bedingungen durchaus auslasten kann. IBM legt seine Power-CPUs breiter aus. Mit einem einzelnen Thread lassen sich die Kerne kaum auslasten. Man verschwendet also im Single-Thread Betrieb Resourcen. Der Vorteil ist aber, dass man mehr freie Resourcen für einen zweiten Thread hat und die Gewinne durch SMT entsprechend höher ausfallen. IBMs Methode verlagert also einen Teil des Parallelisierungsaufwandes von der CPU auf die Entwickler und deren Tools. Bei gut parallelisierbaren Problemen kann man so die Effizienz deutlich steigern, denn die Kerne müssen nicht so stark optimiert werden um sie auszulasten. Der Haken liegt bei schlecht parallelisierbaren Aufgaben. Dort kommt es auf die Leistung pro Thread an und da haben die Intel-CPUs Vorteile.Jetzt macht auch eines Sinn für mich - bei Zen spricht man im Moment von SMT - und ich meinte auch Gerüchteweise ghört zu haben nicht unähnlich von Intel. Inzischen spekulieren hier ja einige eher in Richtung der Implementation von IBM. Ist das nun eher klassisches SMT (ich sag mal leistungssteigerung durch Pipline pro Takt besser füllen) oder CMT (Leisterungssteigerung durch doppelt vorhandene "Hardware")?
AMD wird vermutlich versuchen ähnlich wie Intel die Leistung pro Thread möglichst hoch zu bekommen. Herankommen an Intel werden sie vermutlich aber nicht, denn die sind sehr gut darin und haben lange Zeit gehabt zu optimieren. Diesen Nachteil wird AMD durch mehr Resourcen für SMT versuchen auszugleichen. Im Endeffekt würde das bedeuten: schlechtere Leistung und Effizienz bei wenigen Threads. Im Gegenzug steigt bei vielen Threads die Leistung und Energieeffizienz bei AMD stärker an als bei Intel. Daher könnte es sein, dass sie im Server-Bereich gegenüber Intel konkurrenzfähiger sein werden als im Desktop-Segment.
Das erinnert mich an meine Studienarbeit. Dabei ging es darum die Performance-Counter der CPU zu benutzen um Profile der Threads zu erzeugen und diese im Scheduler zu nutzen um ähnliche Threads nicht auf die selben physischen Kern zu legen.Bezüglich des "wo sich der Prozessor mit irgendwelchen Metriken automatisch anpasst" - in meiner Theorie hätte das nie der Prozessor selbst gemacht sondern eher der Treiber/OS. Wenn ich IBM aber richtig verstehe ist es noch viel besser. Es kann der Programmierer und somit die Applikation selbst. Natürlich in Zusammenarbeit mit dem OS - da man ja wissen muss was sonst noch so läuft.
Captn-Future
Moderation DC, P3DN Vize-Kommandant
- Mitglied seit
- 16.08.2004
- Beiträge
- 8.430
- Renomée
- 313
- Standort
- VIP Lounge
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- QMC, Simap
- Lieblingsprojekt
- QMC
- Meine Systeme
- X4 940 BE
- BOINC-Statistiken
- Prozessor
- Intel Xeon E3-1230v2
- Mainboard
- GA-Z77-UD3
- Kühlung
- Thermalright Macho Rev. A
- Speicher
- 16 GB Kingston blue
- Grafikprozessor
- Gigabyte GTX 660
- Display
- HP ZR2440w 1920x1200
- SSD
- Samsung SSD 830 256 GB
- HDD
- WD Blue 1 TB
- Optisches Laufwerk
- LG GSA-H10N
- Gehäuse
- LianLi V1000 Silber
- Netzteil
- Cougar SE400
- Betriebssystem
- Windows 7
- Webbrowser
- FireFox
?
Wer gibt sich bitte mit einer GTX Titan zufrieden, wenn er schon mal Multi-GPU hatte?
Klar geht das nicht über all, aber wenn es läuft dann musst schon größere Geschütze auffahren um mit Muli-GPU mitzuhalten.
+50% sind da keine Seltenheit, wann gab es bei einer GPU Neuvorstellung zu letzt ein Performance + von 50% gegenüber dem Vorgänger?
Es ist inzwischen sogar so, dass es weniger Leistung gibt bei GPUs (DP).
Na was denn jetzt Grafikleistung oder DP-Rechenpower? Abgesehen von wirklicher Mehrleistung in einigen Spielen, dann wohl auch nur in 4k oder entsprechend großen Auflösungen bzw. Multi-Monitor-Setups, geht es ja bei CF oder SLI meistens nur um das technisch Machbare. Oder hat man von Mikrorucklern und dem enormen Kühlbedarf auch sonst noch Vorteile?
Glaube nicht, dass da viel Zertifiziert wird. Da werden wohl nur die Spezifikationen eingehalten und dann geht das Teil auf den Markt.Ich weiß nicht ob ich diese Spar-Maßnahmen wirklich gut heißen soll, als könnte der Kunde nicht selbst entscheiden was er braucht.
Was jetzt noch interessant wäre, wenn nun alle bei PCIsig antanzen und ihre Mainboards zertifizieren: https://pcisig.com/developers/compliance-program
könnte ich mir ein Stau vorstellen, so das zuerst wirklich nur Boards mit 1x x16 kommen, da 2x x16 einfach länger dauert um es zu testen.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.224
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Hm, VR ist bei deiner Aufzählung nicht dabei, Warum?Na was denn jetzt Grafikleistung oder DP-Rechenpower? Abgesehen von wirklicher Mehrleistung in einigen Spielen, dann wohl auch nur in 4k oder entsprechend großen Auflösungen bzw. Multi-Monitor-Setups, geht es ja bei CF oder SLI meistens nur um das technisch Machbare. Oder hat man von Mikrorucklern und dem enormen Kühlbedarf auch sonst noch Vorteile?
Es gibt Mittel und Wege µ Ruckler "auszuschließen" das funktioniert schon sehr gut.
DOOM 2016 mit 1080p läuft zwischen 60 und 100 (min/avg FPS) bei ~ 350W (2nd GPU im sleep state)
Aha, das glaubst doch selbst nicht!Glaube nicht, dass da viel Zertifiziert wird. Da werden wohl nur die Spezifikationen eingehalten und dann geht das Teil auf den Markt.
Das erinnert mich an meine Studienarbeit. Dabei ging es darum die Performance-Counter der CPU zu benutzen um Profile der Threads zu erzeugen und diese im Scheduler zu nutzen um ähnliche Threads nicht auf die selben physischen Kern zu legen.
Das kann möglicherweise die Lokalität der Daten zerstören. Oder was sind "ähnliche Threads"?
Die Ähnlichkeit von Threads war über deren Profil definiert, also in welchem Maße sie die einzelnen Einheiten des Kerns nutzen. Da das eigentliche Ziel dabei die Vermeidung von Hotspots war und die SMT-Optimierung nur ein Extra war, spielte die Lokalität der Daten keine übermäßig große Rolle bei der Untersuchung. Es wurde allerdings versucht Migrationen zu vermeiden indem zuerst einmal nur die Scheduling-Reihenfolge geändert wurde. Das hat zwar auch einen Einfluss auf die temporäre Datenlokalität aber bei ausreichend großen Caches ist der Effekt vernachlässigbar. Wenn Threads häufig unterbrochen wurden (z.B. durch Cache-Misses), passte sich das Scheduling häufig mit der Zeit von selbst an, da der CFS sich merkt wieviel Rechenzeit jeder Thread effektiv genutzt hat.Das kann möglicherweise die Lokalität der Daten zerstören. Oder was sind "ähnliche Threads"?
Ich weiß gar nicht, ob die SMT-Optimierungen überhaupt irgendwas gebracht haben. Bewertet (und daher getestet) wurden in erster Linie das Erstellen der Thread-Profile und das "Um-Schedulen" von gleichartigen Threads. Weiterführende Tests oder Optimierungen wurden aufgrund des Zeitrahmens nicht gemacht.
MR2
Vice Admiral Special
https://www.ptt.cc/bbs/PC_Shopping/M.1485365573.A.E03.html
Ein AMD Ryzen: ZD3601BAM88F4_40/36_Y in ashes
Fake? ZD360 und AMD fanboy klingt schon seltsam...
-------------------------------------------------------
edit: ist ein i7 6900K
Ein AMD Ryzen: ZD3601BAM88F4_40/36_Y in ashes
Fake? ZD360 und AMD fanboy klingt schon seltsam...
-------------------------------------------------------
edit: ist ein i7 6900K
Zuletzt bearbeitet:
Oi!Olli
Grand Admiral Special
- Mitglied seit
- 24.12.2006
- Beiträge
- 16.409
- Renomée
- 780
- Mein Laptop
- HP Elitebook 8760W
- Prozessor
- Ryzen R7 5800X3D
- Mainboard
- Asus B 550 Strix F Wifi
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x 32 GB Kingston FURY DIMM DDR4 3600
- Grafikprozessor
- XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
- Display
- Acer Predator XB253QGP
- SSD
- Samsung 980 Pro 2 TB, Samsung 970 Evo Plus 2 TB
- HDD
- Samsung TB, 2x2 TB 1x3 TB 1x8 TB
- Optisches Laufwerk
- GH-22NS50
- Soundkarte
- Soundblaster Recon 3d
- Gehäuse
- Raijintek Zofos Evo Silent
- Netzteil
- BeQuiet Straight Power 750 Platinum
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Opera 101 (der Browser aktualisiert sich natürlich immer)
- Verschiedenes
- X-Box One Gamepad, MS Sidewinder Joystick
Mich würde ja mal interessieren, wie gut SMT implantiert ist. HTT schafft ja selbst in synthetischen Benchmarks maximal 50%.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.468
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
WhyCry von Videocardz hat anscheinend auch ein Raven Ridge Sample gefunden: AMD Eng Sample: 2M3001C3T4MF2_33/30_N with AMD 15DD iGPU
M dürfte für Mobile stehen.
Jetzt müsste man nur noch die Stelle finden, wo er das her hat.
0x15DD ist 100% die Raven Ridge iGPU PCI Device ID.
M dürfte für Mobile stehen.
Jetzt müsste man nur noch die Stelle finden, wo er das her hat.
0x15DD ist 100% die Raven Ridge iGPU PCI Device ID.
Dresdenboy
Redaktion
☆☆☆☆☆☆
Bezüglich des "wo sich der Prozessor mit irgendwelchen Metriken automatisch anpasst" - in meiner Theorie hätte das nie der Prozessor selbst gemacht sondern eher der Treiber/OS. Wenn ich IBM aber richtig verstehe ist es noch viel besser. Es kann der Programmierer und somit die Applikation selbst. Natürlich in Zusammenarbeit mit dem OS - da man ja wissen muss was sonst noch so läuft.
Aber genial ist auch, IBM`s Lösung kann sich dynamisch anpassen und fährt Workload der durch SMT verlangsamt werden würde dann halt gar nicht mit SMT. So kommt wenigstens im Worstcase keine schlechtere Leistung raus als bei einem NON-SMT Prozessor. Muss schon sagen, bei IBM schaffen schon Käpsele...
Hier gibt es etwas zu IBMs Umsetzung inkl. Extrembeispiele mit Execution Unit Contention: http://www.cslab.ece.ntua.gr/course... Multi-threading Implementation in POWER5.pdf
Das Konzept funktioniert natürlich gut in den POWER-Zielmärkten. Bei x86 wird es natürlich nicht so schnell etwas mit von der App selbst gesetzten Prioritäten. Das OS könnte zwar solche vorgeben, aber das wäre auch nicht thread-granular und ist z.B. für die meisten Windows-Anwendungen der Normalwert. Dann macht eine Automatik sogar sinn.
--- Update ---
Die Ähnlichkeit von Threads war über deren Profil definiert, also in welchem Maße sie die einzelnen Einheiten des Kerns nutzen. Da das eigentliche Ziel dabei die Vermeidung von Hotspots war und die SMT-Optimierung nur ein Extra war, spielte die Lokalität der Daten keine übermäßig große Rolle bei der Untersuchung. Es wurde allerdings versucht Migrationen zu vermeiden indem zuerst einmal nur die Scheduling-Reihenfolge geändert wurde. Das hat zwar auch einen Einfluss auf die temporäre Datenlokalität aber bei ausreichend großen Caches ist der Effekt vernachlässigbar. Wenn Threads häufig unterbrochen wurden (z.B. durch Cache-Misses), passte sich das Scheduling häufig mit der Zeit von selbst an, da der CFS sich merkt wieviel Rechenzeit jeder Thread effektiv genutzt hat.
Ich weiß gar nicht, ob die SMT-Optimierungen überhaupt irgendwas gebracht haben. Bewertet (und daher getestet) wurden in erster Linie das Erstellen der Thread-Profile und das "Um-Schedulen" von gleichartigen Threads. Weiterführende Tests oder Optimierungen wurden aufgrund des Zeitrahmens nicht gemacht.
Das klingt interessant! Über so ein ähnliches Thema in einem Paper bin ich gestern bei der kurzen Recherche für die erste Antwort auch gestolpert..
Ähnliche Themen
- Antworten
- 93
- Aufrufe
- 8K
- Antworten
- 14
- Aufrufe
- 935
- Antworten
- 102
- Aufrufe
- 11K
- Antworten
- 3
- Aufrufe
- 2K