App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News Legt AMD beim Sockel AM3+ nochmal nach - FX-8370 und FX-8370E?
- Ersteller Nero24
- Erstellt am
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.766
- Renomée
- 2.139
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Dafür profitiert Intel stärker von AVX und hat beim Haswell bereits dessen Nachfolger.
Ich halte es für wichtiger das die aktuellen Befehlssätze überhaupt erstmal genutzt wird, ob FMA3 oder 4 ist mir an der Stelle relativ egal.
Ich halte es für wichtiger das die aktuellen Befehlssätze überhaupt erstmal genutzt wird, ob FMA3 oder 4 ist mir an der Stelle relativ egal.
Das die SW den Möglichkeiten der HW meist Jahre wenn nicht teils Jahrzehnte zurückhängt, ist ja nicht neu, leider. Aber das liegt auch daran, dass es aufwendig ist diese zu implementieren und wenn es dann noch eine Sackgasse ist oder das Feature Fehler enthält, war der ganze Aufwand auch noch umsonst oder schlimmer.Unterm Strich habe ich eher den Eindruck das es an der Software Front noch fast genauso traurig ausschaut wie vor 3 Jahren.
OK, der Multicore Support hat sich im Schnitt verbessert aber wirklich viel hat sich nicht geändert.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.766
- Renomée
- 2.139
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Wäre es so wahnsinnig fehlerhaft dann würde es keine Benchmarks geben die sie nutzen können.
Ich denke eher das es hier um Bequemlichkeit geht. Wozu etwas neues implentieren wenn das Alte für die meisten ausreichend ist und der Kunde nicht weiss auf wieviel Leistung er verzichtet?
Siehe Mantle.....wie schnell es auf einmal mit Direct3D und OpenGL ging vergleichbares anzukündigen als für jeden sichtbar war wieviel es bringt.
Ich denke eher das es hier um Bequemlichkeit geht. Wozu etwas neues implentieren wenn das Alte für die meisten ausreichend ist und der Kunde nicht weiss auf wieviel Leistung er verzichtet?
Siehe Mantle.....wie schnell es auf einmal mit Direct3D und OpenGL ging vergleichbares anzukündigen als für jeden sichtbar war wieviel es bringt.
Es geht auch im den Aufwand, der ist ja nicht zu unterschätzen. Neue API muss man erst lernen, dann muss man alles umschreiben und komplett neu testen, dass verursacht Kosten und zwar nicht zu knapp und wofür? Der Kunden bezahlt es nicht, weil er ja eben nicht weiß, wie viel er mehr dadurch bekommt und ggf. an HW für die gleiche Geschwindigkeit hätte einsparen können. Das ist so und war schon immer so. Bei neuen APIs wie Mantle kommt noch das Risiko hinzu, wie diese sich entwickelt, ob man also vielleicht für die Version 2.0 dann einiger umschreiben muss oder ob es dann für Win 9 überhaupt eine passende Version gibt, oder das ganze wieder einschläft, dann wären die Investitionen in die Unterstützung umsonst gewesen. Daher wartet man erstmal ab, wie die Sache sich entwickelt.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.766
- Renomée
- 2.139
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Das ist nunmal so oder so nötig wenn man sich weiterentwickeln will, womit wir wieder beim Thema "Trend verschlafen" sind.
Der Kunde bezahlt solche Weiterentwicklungen sehr wohl, nämlich mit jedem Programm was er kauft. Davon geht schließlich auch das Entwicklungsbudget ab.
Der Kunde bezahlt solche Weiterentwicklungen sehr wohl, nämlich mit jedem Programm was er kauft. Davon geht schließlich auch das Entwicklungsbudget ab.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.238
- Renomée
- 538
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Zumal Intel nur mit Legacy Code wirklich sparsam ist, wenn die neuen Sätze genutzt werden kleben die auch ganz schnell im Powerlimit!Dafür profitiert Intel stärker von AVX und hat beim Haswell bereits dessen Nachfolger.
Ich halte es für wichtiger das die aktuellen Befehlssätze überhaupt erstmal genutzt wird, ob FMA3 oder 4 ist mir an der Stelle relativ egal.
Schon Ironisch, nutzt die alten Befehlssätze dann sind die CPUs auch sparsam! Ein Schelm wer hier nichts denkt!
David64
Admiral Special
- Mitglied seit
- 08.03.2011
- Beiträge
- 1.003
- Renomée
- 12
- Standort
- Irgendwo in Bayern
- Mein Laptop
- Thinkpad X201
- Prozessor
- AMD Athlon X4 860K @ 4,2 GHz
- Mainboard
- ASUS A88X-PRO
- Kühlung
- Thermaltake Macho HR-02
- Speicher
- 16 Gigabyte
- Grafikprozessor
- Radeon RX 480 8 Gigabyte
- Display
- 27", Acer K272HUL Ebmidpx, 2560x1440
- SSD
- Samsung 840 Pro 120 GB
- HDD
- 3x WD Caviar Green
- Optisches Laufwerk
- LG DVD-Brenner
- Gehäuse
- Coolermaster Silencio 650
- Betriebssystem
- Win 9.1 x64 Prof, ArchLinux x64
- Webbrowser
- Cyberfox
- Schau Dir das System auf sysprofile.de an
Zumal Intel nur mit Legacy Code wirklich sparsam ist, wenn die neuen Sätze genutzt werden kleben die auch ganz schnell im Powerlimit!
Schon Ironisch, nutzt die alten Befehlssätze dann sind die CPUs auch sparsam! Ein Schelm wer hier nichts denkt!
Hast du dafür zufällig Belege?^^ Das würde mich doch mal sehr interessieren...könnte ich so manchem Kunden von mir dann mal unter die Nase halten, die mir Versuchen jedes mal zu erzählen wie viel besser Intel doch ist
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.123
- Renomée
- 986
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X (100-100000071)
- Mainboard
- ASUS ProArt B550-Creator
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB (11324-01-20G)
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64) Xfce
- Verschiedenes
- ASUS TPM-SPI (Nuvoton NPCT750A)
Es stimmt schon, dass die TDP bei der Nutzung von AVX(2) Code deutlich weiter ausgeschöpft wird bei den Core i3/i5/i7, aber dafür macht die Effizienz noch viel größere Sprünge, weil die Rechenleistung je nach Anwendungsfall um Größenordnungen ansteigen kann. Insofern ist dies ein Verhalten, welches man nicht ankreiden sollte. Dem Mehrverbrauch im Vergleich zu SSE Code steht eine mehr als angemessene Mehrleistung gegenüber.
Diese Beobachtungen macht die c't zu einem Core i7-4770:
Die 60% Steigerung bezieht sich allein auf die Verbesserungen seit Ivy Bridge; und bei den 95W sind die Wandlerverluste inbegriffen.
Diese Beobachtungen macht die c't zu einem Core i7-4770:
Quelle: http://heise.de/-1868226Mit Software, die tatsächlich alle Kerne, deren AVX2-Einheiten sowie die Grafik voll auslastet, liegt die Leistungsaufnahme unter Volllast allerdings höher als bisher. Während wir mit einem älteren, nur für AVX optimierten Linpack-Kompilat 82 Watt über die 12-Volt-Schiene zur CPU gemessen haben, sind es mit AVX2-Software 95 Watt. Das dürfte auch der Grund dafür sein, dass Intel die TDP von 77 auf 84 Watt angehoben hat. (...) Kein Wunder, denn die Neuerungen betreffen im wesentlichen die AVX-Einheiten, die wiederum spezielle Software erfordern. Nutzt diese bereits AVX2 und insbesondere die neuen FMA-Befehle (Fused Multiply-Accumulate), so zieht Haswell auf und davon. Im hoch optimierten Linpack bringt alleine das über 60 Prozent Performance-Zuwachs.
Die 60% Steigerung bezieht sich allein auf die Verbesserungen seit Ivy Bridge; und bei den 95W sind die Wandlerverluste inbegriffen.
Zuletzt bearbeitet:
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.238
- Renomée
- 538
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Naja, warum Belegen? Schau mal in die BF4 Foren rein, fast alle die da schreien habe ihr System übertaktet.Hast du dafür zufällig Belege?^^ Das würde mich doch mal sehr interessieren...könnte ich so manchem Kunden von mir dann mal unter die Nase halten, die mir Versuchen jedes mal zu erzählen wie viel besser Intel doch ist
Obs nun an der IPC liegt oder den PowerLimits überlasse ich mal jedem selbst.
Intel ist schon auch Fuchs, nur zaubern können die beim besten Willen nicht!
@SPINA
Effizienz Steigerungen sind immer gern gesehen, aber Bitte beim Kühler nicht sparen! (der geht an Artic!)
David64
Admiral Special
- Mitglied seit
- 08.03.2011
- Beiträge
- 1.003
- Renomée
- 12
- Standort
- Irgendwo in Bayern
- Mein Laptop
- Thinkpad X201
- Prozessor
- AMD Athlon X4 860K @ 4,2 GHz
- Mainboard
- ASUS A88X-PRO
- Kühlung
- Thermaltake Macho HR-02
- Speicher
- 16 Gigabyte
- Grafikprozessor
- Radeon RX 480 8 Gigabyte
- Display
- 27", Acer K272HUL Ebmidpx, 2560x1440
- SSD
- Samsung 840 Pro 120 GB
- HDD
- 3x WD Caviar Green
- Optisches Laufwerk
- LG DVD-Brenner
- Gehäuse
- Coolermaster Silencio 650
- Betriebssystem
- Win 9.1 x64 Prof, ArchLinux x64
- Webbrowser
- Cyberfox
- Schau Dir das System auf sysprofile.de an
http://www.planet3dnow.de/vbulletin...lting-Thread?p=4938478&viewfull=1#post4938478
Dann wären wir aber wieder hier. Die 40 Watt mehr, die der AMD bei absoluter Vollast auf 8 Kernen dann an der 12V Leitung braucht sind zwar nicht wenig, aber bei weitem nicht so "extrem", wie beim Intel. Denn wenn beim FX Alles Optimal benutzt wird, ist er auch (teilweise) deutlich schneller als der i7.
Dann wären wir aber wieder hier. Die 40 Watt mehr, die der AMD bei absoluter Vollast auf 8 Kernen dann an der 12V Leitung braucht sind zwar nicht wenig, aber bei weitem nicht so "extrem", wie beim Intel. Denn wenn beim FX Alles Optimal benutzt wird, ist er auch (teilweise) deutlich schneller als der i7.
Dann erkläre dem Entwicklungsleiter aber mal, dass die neue Version keine neuen Features enthält, sondern die Entwicklungsresorucen nur zur Steigerung der Performance der bekannten Funktionen verwendet werden, dass würde ich gerne mal miterleben.Der Kunde bezahlt solche Weiterentwicklungen sehr wohl, nämlich mit jedem Programm was er kauft. Davon geht schließlich auch das Entwicklungsbudget ab.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.766
- Renomée
- 2.139
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Erkläre das den Kunden die das vorbehaltlos kaufen und somit erst garkeinen Anlass geben etwas zu ändern.
@WindHund
Das der Strombedarf steigt ist mir persönlich relativ egal, sofern er innerhalb der TDP Angaben bleibt und der Leistungszuwachs stimmt.
Der Turbo ist dann vermutlich das erste was gestrichen wird allerdings sollte man dann auch nicht unter den Grundtakt fallen.
Am interessantesten finde ich das ausgerechnet die Werte vom A10 fehlen denn hier hätte mich dann doch interessiert wie hoch die Steigerung durch FMA ausfallen würde. Sowohl beim Strombedarf als auch bei der Rechenleistung.
Kann man die aufgebohrte Version für eigene Tests runterladen?
Edit: OK, die FMA Version kommt offenbar von Intel selbst und ist natürlich nur zu Intel Prozessoren kompatibel....
@WindHund
Das der Strombedarf steigt ist mir persönlich relativ egal, sofern er innerhalb der TDP Angaben bleibt und der Leistungszuwachs stimmt.
Der Turbo ist dann vermutlich das erste was gestrichen wird allerdings sollte man dann auch nicht unter den Grundtakt fallen.
Diese Beobachtungen macht die c't zu einem Core i7-4770:Quelle: http://heise.de/-1868226
Die 60% Steigerung bezieht sich allein auf die Verbesserungen seit Ivy Bridge; und bei den 95W sind die Wandlerverluste inbegriffen.
Am interessantesten finde ich das ausgerechnet die Werte vom A10 fehlen denn hier hätte mich dann doch interessiert wie hoch die Steigerung durch FMA ausfallen würde. Sowohl beim Strombedarf als auch bei der Rechenleistung.
Kann man die aufgebohrte Version für eigene Tests runterladen?
Edit: OK, die FMA Version kommt offenbar von Intel selbst und ist natürlich nur zu Intel Prozessoren kompatibel....
Zuletzt bearbeitet:
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.238
- Renomée
- 538
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Hi, ohne Turbo beschneidest aber die Single Threadleistung, wenn dann das Programm nicht auf die Kerne zugewiesen wird, läuft ein Kern bei 100% und schon gibt es ein Overhead.Erkläre das den Kunden die das vorbehaltlos kaufen und somit erst garkeinen Anlass geben etwas zu ändern.
@WindHund
Das der Strombedarf steigt ist mir persönlich relativ egal, sofern er innerhalb der TDP Angaben bleibt und der Leistungszuwachs stimmt.
Der Turbo ist dann vermutlich das erste was gestrichen wird allerdings sollte man dann auch nicht unter den Grundtakt fallen.
Die Entwickler sind sich der Turbo Funktion auch bewusst.
Bei AVX konnte ich ein Unterschied von 30W weniger gegenüber SSE3 Code bei Boinc beobachten.
Mit FMA4 und XOP ist der Verbrauch ~ Gleich hoch, aber selbst mit 8x 4.7GHz @ 1.45Vcore weit entfernt von 220W nur für die CPU!
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.766
- Renomée
- 2.139
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ich fürchte das wir hier an einander vorbei reden.
Ich rede vom Turbo Spielraum innerhalb der TDP und nicht von einer generellen Deaktivierung.
Ist man dank Turbo ohnehin schon sehr nahe am TDP Limit bleibt kein Spielraum für Verbrauchssteigerungen durch die Nutzung der neuen Befehlssätze.
In Folge dessen wird der Turbo Takt runtergeschraubt bis er dann womöglich nur noch auf dem Grundtakt läuft.
Wo Intel hier noch Spielraum hat arbeiten arbeitet AMD oftmals bereits nahe bei der Grenze. Bei solchen Vergleichstests wäre also ein Blick auf die reale Taktfrequenz durchaus interessant.
Werden allerdings nicht alle Kerne genutzt könnte es relativ egal sein da bei mangelhafter Auslastung auch der Strombedarf sinkt.....trotz Turbo.
http://www.hartware.de/review_1668_4.html
Ich rede vom Turbo Spielraum innerhalb der TDP und nicht von einer generellen Deaktivierung.
Ist man dank Turbo ohnehin schon sehr nahe am TDP Limit bleibt kein Spielraum für Verbrauchssteigerungen durch die Nutzung der neuen Befehlssätze.
In Folge dessen wird der Turbo Takt runtergeschraubt bis er dann womöglich nur noch auf dem Grundtakt läuft.
Wo Intel hier noch Spielraum hat arbeiten arbeitet AMD oftmals bereits nahe bei der Grenze. Bei solchen Vergleichstests wäre also ein Blick auf die reale Taktfrequenz durchaus interessant.
Werden allerdings nicht alle Kerne genutzt könnte es relativ egal sein da bei mangelhafter Auslastung auch der Strombedarf sinkt.....trotz Turbo.
http://www.hartware.de/review_1668_4.html
Unbekannter Krieger
Grand Admiral Special
- Mitglied seit
- 04.10.2013
- Beiträge
- 4.535
- Renomée
- 89
- Mein Laptop
- HP 15-bq102ng (sackteuer u. ab Werk instabil)
- Prozessor
- FX-8320E@4,2 GHz & 2,6 GHz Northbridge (jeweils mit UV)
- Mainboard
- Asus M5A99X Evo R2.0 (eher enttäuschend ggü. ASRock E3)
- Kühlung
- Raijintek Nemesis (Lüfter mittig im sowie hinter dem Kühler; erstklassig)
- Speicher
- 4x4 GiB Hynix DDR3-1866 ECC
- Grafikprozessor
- XFX RX 570 8G (P8DFD6)@1180 & 2150 MHz@starkem, fortdauerndem UV | ASRock RX 570 8G@das Gleiche
- Display
- BenQ XL2411T ~ nach 3 RMAs und 6 Monaten wieder brauchbar
- SSD
- Crucial MX100 256 GB (ein Glückskauf) | SanDisk Ultra Plus 256 GB (ein Glückskauf)
- HDD
- WD20EZRZ u. a. (Seagate, Hitachi, WD)
- Optisches Laufwerk
- TSST SH-222AL
- Gehäuse
- Corsair Carbide 300R (ein Fehlkauf)
- Netzteil
- CoolerMaster V450S (ein Glückskauf)
- Betriebssystem
- Win8.x x64, Win7 x64
- Webbrowser
- welche mit minimalem Marktanteil & sinnvollen Konzepten (nicht Chrome-Seuche und Sieche-Fuchs)
- Verschiedenes
- frühere GPUs: , Asus RX 480 O8G@580 O8G, VTX3D 7850 1G
AMD soll bzgl. der TDP näher an der Grenze liegen als Intel? Das kenne ich definitiv anders. Liest man doch auch in Tests immer wieder, dass Intel-CPUs außerhalb der TDP landen.
Bei GPUs gibt AMD schließlich auch eine TDP an, die nur bei Komplettnutzung samt GPGPU gilt, Nvidia dagegen einen Fantasiewert ohne Letzteres (und schon sind die Karten effizienter).
Bei GPUs gibt AMD schließlich auch eine TDP an, die nur bei Komplettnutzung samt GPGPU gilt, Nvidia dagegen einen Fantasiewert ohne Letzteres (und schon sind die Karten effizienter).
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.123
- Renomée
- 986
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X (100-100000071)
- Mainboard
- ASUS ProArt B550-Creator
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB (11324-01-20G)
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64) Xfce
- Verschiedenes
- ASUS TPM-SPI (Nuvoton NPCT750A)
Das war einmal. In den letzten Reviews haben auch Radeons regelmäßig die TDP gesprengt. So schlimm ist das nicht...Bei GPUs gibt AMD schließlich auch eine TDP an, die nur bei Komplettnutzung samt GPGPU gilt...
MusicIsMyLife
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.02.2002
- Beiträge
- 15.594
- Renomée
- 2.610
- Standort
- in der Nähe von Cottbus
- Lieblingsprojekt
- Asteroids@Home
- Meine Systeme
- Alltags-PC, Test-PC (wechselnde Hardware)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Alltags-PC
- Mein Laptop
- HP DV7-2225sg
- Prozessor
- AMD Ryzen 9 7950X
- Mainboard
- ASRock B650M PG Riptide
- Kühlung
- Watercool Heatkiller IV Pro Copper
- Speicher
- 2x 32 GB G.Skill TridentZ 5 TGB (F5-6000J3040G32X2-TZ5RS)
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- ASUS ROG PG42UQ (3840x2160), Philips BDM4065UC (3840x2160), Samsung C27HG70 (2560x1440)
- SSD
- Micron 9300 Pro 7,68 TB (U.2), Samsung 850 Evo 4 TB (SATA)
- HDD
- keine, SSD only...
- Optisches Laufwerk
- LG CH08LS10 Blu-ray Disc-Player
- Soundkarte
- Creative SoundBlasterX AE-5 Plus
- Gehäuse
- Dimastech BenchTable EasyXL (vorübergehend)
- Netzteil
- MSI MPG A1000G PCIE5
- Tastatur
- ASUS ROG Strix Flare
- Maus
- Steelseries Sensei 310
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼270 MBit ▲45 MBit
AMD soll bzgl. der TDP näher an der Grenze liegen als Intel? Das kenne ich definitiv anders. Liest man doch auch in Tests immer wieder, dass Intel-CPUs außerhalb der TDP landen.
Ich will da keine generelle Aussage tätigen, aber auch AMDs Bulldozer-CPUs kann man ohne Probleme über die TDP bringen. Man nehme einfach LinX und schon taktet der FX-8350 plötzlich nur noch mit 3,4 GHz. Und es dürfte noch weitere Software geben, die das schafft.
Zudem würde ich sagen, dass Intel bei einigen CPUs tendenziell näher an der TDP-Grenze liegt als AMD. Das lässt sich aber auch erklären.
"Früher" gab es die TDP-Klassen 65 Watt, 95 Watt und 125 Watt. Seit geraumer Zeit nutzt Intel jetzt solche Zwischensprünge wie zum Beispiel 55, 69, 77 oder 84 Watt. Warum nimmt man solch "krumme" Zahlen? Warum nicht 60, 70, 80 und 90 Watt? Ich für meinen Teil denke, dass man die TDP so niedrig wie möglich angeben will, damit man schlichtweg gut dasteht. Ist ja auch irgendwie logisch, denn warum sollte man eine 69-Watt-CPU als 95-Watt-CPU klassifizieren? 69 sieht doch wesentlich freundlicher aus als 95, weshalb man eben diesen Weg geht. Habe ich jetzt eine 69 Watt verbrauchende CPU und sortiere diese in die 69-Watt-Klasse ein, so habe ich keinerlei TDP-Spielraum für z.B. neue Befehlssätze. Würde man die gleiche CPU zu 95 Watt einsortieren, so hätte man noch ordentliche Reserven. Bei AMD hingegen würde eine 69-Watt-CPU in einer 80-Watt-Klasse einsortiert (die gibt es bei AMD mittlerweile auch) und hätte noch ein paar Reserven.
Ich denke, dass prinzipbedingt Intel-CPUs eher am TDP-Limit sind. Nicht, weil Intel schlechtere CPUs baut, sondern schlichtweg, weil sie ihre TDP-Klassen wesentlich feiner gestalten und so keine großen Reserven haben können.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.766
- Renomée
- 2.139
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@ Unbekannter Krieger
Die ganzen Turbo Varianten, egal ob Grafikkarte oder CPU, erlauben unter bestimmten Umständen die kurzfristige Überschreitung der TDP (Stichwort Trägheit der Temperatursteigerung), was ich persönlich als Benchmark Feature sehe.
Daran ändert aber nichts das die meisten Intel CPUs bei der heutigen Software unterhalb von diesem Limit liegen, es sei denn man nutzt Auslastungstools die einen Belastungszustand erzeugen der mit der Realität nichts zu tuen hat und damit meine ich nicht die übliche multicore Problematik.
Dazu komme natürlich auch Standard Fehler wie die Missachtung das es sich um den System Bedarf handelt oder Wandlerverlußte in dem Wert nichts verloren haben.
Die ganzen Turbo Varianten, egal ob Grafikkarte oder CPU, erlauben unter bestimmten Umständen die kurzfristige Überschreitung der TDP (Stichwort Trägheit der Temperatursteigerung), was ich persönlich als Benchmark Feature sehe.
Daran ändert aber nichts das die meisten Intel CPUs bei der heutigen Software unterhalb von diesem Limit liegen, es sei denn man nutzt Auslastungstools die einen Belastungszustand erzeugen der mit der Realität nichts zu tuen hat und damit meine ich nicht die übliche multicore Problematik.
Dazu komme natürlich auch Standard Fehler wie die Missachtung das es sich um den System Bedarf handelt oder Wandlerverlußte in dem Wert nichts verloren haben.
Zuletzt bearbeitet:
David64
Admiral Special
- Mitglied seit
- 08.03.2011
- Beiträge
- 1.003
- Renomée
- 12
- Standort
- Irgendwo in Bayern
- Mein Laptop
- Thinkpad X201
- Prozessor
- AMD Athlon X4 860K @ 4,2 GHz
- Mainboard
- ASUS A88X-PRO
- Kühlung
- Thermaltake Macho HR-02
- Speicher
- 16 Gigabyte
- Grafikprozessor
- Radeon RX 480 8 Gigabyte
- Display
- 27", Acer K272HUL Ebmidpx, 2560x1440
- SSD
- Samsung 840 Pro 120 GB
- HDD
- 3x WD Caviar Green
- Optisches Laufwerk
- LG DVD-Brenner
- Gehäuse
- Coolermaster Silencio 650
- Betriebssystem
- Win 9.1 x64 Prof, ArchLinux x64
- Webbrowser
- Cyberfox
- Schau Dir das System auf sysprofile.de an
Werden allerdings nicht alle Kerne genutzt könnte es relativ egal sein da bei mangelhafter Auslastung auch der Strombedarf sinkt.....trotz Turbo.
http://www.hartware.de/review_1668_4.html
Und ich dachte ich kenne die meisten Tests zum Verbrauch.
Aber das ist schon gewaltig wie viel Strom LGA2011 braucht. Da hätte ich erwatet, dass der FX nicht den hauch einer Chance hat...in einigen Tests steht der aber gar nich so schlecht da.
Man muss halt auch immer im Hinterkopf behalten, was die Dinger kosten. Wenn ein FX für 150 Euro mit einer High-End CPU von Intel für mehrere 100 Euro zumindest halbwegs mithalten kann und im Stromverbrauch sogar darunter liegt, ist das allerdings doch beachtlich. You get, what you pay for.
Zuletzt bearbeitet:
Werden allerdings nicht alle Kerne genutzt könnte es relativ egal sein da bei mangelhafter Auslastung auch der Strombedarf sinkt.....trotz Turbo.
http://www.hartware.de/review_1668_4.html
Man muss sich immer auch die Verwendete Testhardware ansehen, wenn man Ergebnisse sinnvoll bewerten will und da schneidet das ASUS Rampage IV Formula in Einzeltest bei der Leistungsaufnahme ganz mies ab und das System braucht im Idle 103W, während es mit dem Intel DX79SI nur 75W sind, dass ist schon mal eine ganz andere Hausnummer.Aber das ist schon gewaltig wie viel Strom LGA2011 braucht.
Das für die AM3+ CPUs verendete ASUS Crosshair V Formula ist im Einzeltest dagegen eines der sparsamsten Bretter, liegt im Idle mit 108W gerade ein Watt über dem allersparsamten und volle 12W unter dem Gigabyte 880GA-UD3H welches am meisten braucht. Der Test ist bei der Auswahl der Boards also wohl kaum als wirklicher Vergleich der Leistungsaufnahmen der unterschiedlichen System geeignet.
Außerdem ist der S.2011 ja auch keine ausgesprochene Stromsparplattform, mit dem i7-4770K sieht es dann auch anders aus und der reicht auch locker in Anwendungen und Spielen aus um den AMD FX-8350 @ 4,6 GHz im Schach zu halten (bei Lost Planet 2 DX11 Test A liegen sie gleich auf, da sind die Unterschiede zwischen allen CPUs aber sowieso marginal).
Den Stromverbrauch muss aber ebenso wie den Preis immer im Verhältnis zur Leistung sehen, sonst passt es ja nicht zusammen und ebenso den Preis. Daher ist ein Vergleich des FX mit den S.2011 CPU auch recht unsinnig, weil die S.1150 i7 dafür auch reichen um die Leistung zu überbieten und da schlägt ein i7-4770k @ Stock den FX-8350 selbst bei 4,6 GHz und braucht mit 151W zu 322W (bei Auslastung aller Kerne) nicht einmal halb so viel.Man muss halt auch immer im Hinterkopf behalten, was die Dinger kosten. Wenn ein FX für 150 Euro mit einer High-End CPU von Intel für mehrere 100 Euro zumindest halbwegs mithalten kann und im Stromverbrauch sogar darunter liegt, ist das allerdings doch beachtlich.
Natürlich kommt gleich wieder mit einem ausgesuchten Benchmark wo das anders ist und der FX vorne liegt, aber es ändert ja nichts am allgemeinen Leistungsniveau.
So ist es und da lässt AMD eben alle im Regen stehen, die mehr als 150€ für eine CPU ausgeben wollen und dafür entsprechende Performance erwarten, ohne dass die Leistungsaufnahme weit von gut und böse liegt. Die werden auch nicht alle auf den S. 2011(-3) schielen. Denen muss AMD wieder ein passendes Angebot machen können und die jetzt vorgestellten FX8370(E) CPUs sind das sicher nicht.You get, what you pay for.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.766
- Renomée
- 2.139
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@David64
Nun ja....ich würde es eher so formulieren das beide Plattformen die gleiche Grundprobleme haben.
Sie bieten zwar viele Anschlussmöglichkeiten und kräftige Wandler, diese gehen aber auch auf den Idle Strombedarf.
Des weiteren sind beide Plattformen von der Ausstattung her in die Jahre gekommen. Hier sieht man recht schnell das die Komplexität auch ihren Preis hat und erneut wird deutlich dass das größte Problem der Bullis die vergleichsweise geringe Einzelkernleistung ist.
Nun ja....ich würde es eher so formulieren das beide Plattformen die gleiche Grundprobleme haben.
Sie bieten zwar viele Anschlussmöglichkeiten und kräftige Wandler, diese gehen aber auch auf den Idle Strombedarf.
Des weiteren sind beide Plattformen von der Ausstattung her in die Jahre gekommen. Hier sieht man recht schnell das die Komplexität auch ihren Preis hat und erneut wird deutlich dass das größte Problem der Bullis die vergleichsweise geringe Einzelkernleistung ist.
y33H@
Admiral Special
- Mitglied seit
- 16.05.2011
- Beiträge
- 1.768
- Renomée
- 10
Du bekommst deutlich mehr CPU-Leistung, die doppelte RAM-Bandbreite und 40 PCIe-3.0-Lanes. Alleine das braucht mehr Strom als die zwei Channels und die paar Lanes des AM3+. Der Sockel 2011-3 mit X99 wird übrigens sparsamer.Man muss halt auch immer im Hinterkopf behalten, was die Dinger kosten. Wenn ein FX für 150 Euro mit einer High-End CPU von Intel für mehrere 100 Euro zumindest halbwegs mithalten kann und im Stromverbrauch sogar darunter liegt, ist das allerdings doch beachtlich. You get, what you pay for.
Wow. Der uralte RD990 hat "nur" 42 PCIe-Lanes.... 40 PCIe-3.0-Lanes. ...
Dazu kommen noch 4 PCIe-Lanes von der Southbridge.
Zuletzt bearbeitet:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.766
- Renomée
- 2.139
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Dazu kommt noch das der X79 Chipsatz ebendso wenig USB 3.0 unterstützt wie die der AM3(+) Plattform und nur mit 2 SATA III Ports daher kommt (die anderen 4 sind SATA II. Da war die 5 Monate eher erschienene 900er Chipsatz Serie von AMD weiter und brachte 6 SATA III Ports mit.
Ähnliche Themen
- Antworten
- 7
- Aufrufe
- 4K
- Antworten
- 63
- Aufrufe
- 20K
- Antworten
- 22
- Aufrufe
- 10K
- Antworten
- 128
- Aufrufe
- 27K
- Antworten
- 2
- Aufrufe
- 3K