App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Habt ihr schon mal einen Superlinearen Speedup bemerkt oder gemessen?
- Ersteller M-D
- Erstellt am
Hallo, ich weiß jetzt nicht genau, ob das unter "Spekulation" fällt.
Da ich hier mit meiner 462er Gurke rumkrückel, kann ich leider selbst nichts nachprüfen, was im entferntesten auch nur nach nicht "leicht angeschimmelter Hardware" aussieht.
Ok, also um es mal kurz zu machen. Ich habe vor einiger Zeit mal in einer PC-Zeitschrift (Ich kann leider nicht mehr sagen welche, vllt. PC-Praxis, sorry) einen Test über Mehrkehrnprozessoren gelesen (unter anderem wie sich ein X3er so schlägt, was er taugt)
Naja, ich meine da wurde PhenomI&II sowie Core2&i7 jeweils als Singel,- Dual-, Tripel-(Bei Intel durch abschalten eines Cores) und Quadcore bei vergleichbaren Taktfrequenzen gemessen. Naja, jedenfalls ist das erstaunlichste Ergebnis, welches mir im Gedächtnis geblieben ist, folgendes: Es wurde ein Benchmark gemacht, bei dem jede CPU zuerst mit nur einem Kern lief und danach mit allen.
Der Nehalem hatte mit vier Kernen mehr als die vierfache Leistung gegenüber dem einem Kern. Also einen Effizienzfaktor von > 100%; Das schien für mich so unglaublich wie ein Perpetuum Mobile, das Energie erzeugen kann. Ich habe das als schlampige Durchführung seitens der Redaktion angesehen oder sonst einen Fehler, der sich eingeschlichen hat. Das Ergebnis wurde nicht mal groß kommentiert oder als Besonderheit herausgestellt, naja wie dem auch sei.
Später habe ich dann auf Wikipedia gelesen, dass in der Informatiktheorie durchaus eine superlineare Beschleunigung möglich ist und ich Frage mich nun, ob dieser spezielle Fall mit Nehalem erstmals grenzweise im Heimanwenderbereich angekommen ist und ob das mit kommenden Architekturen (evt. auch von AMD) vermehrt auftauchen wird. Habt ihr sowas schon mal gemessen oder kennt ihr Tests in denen dieses Phänomen aufgetaucht und kommentiert oder diskutiert wurde?
^^Eigentlich wollte ich das noch im Themenabend ansprechen, aber es war 22Uhr
Edit:
Also bisher habe ich mich immer aufgeregt, wenn die Leute "2 * 3Ghz = 6Ghz!!!" oder "4 * 2Ghz = 8Ghz! ergo besser als als 2 * 3Ghz" gerechnet und damit auch noch versucht haben zu argumentieren. Aber in Spezialfällen der Parallelisierung hieße es dann ja vllt bald:
10 * 2,5Ghz sind zwischen 2,5- und >25Ghz (nicht ernst gemeint)
Da ich hier mit meiner 462er Gurke rumkrückel, kann ich leider selbst nichts nachprüfen, was im entferntesten auch nur nach nicht "leicht angeschimmelter Hardware" aussieht.
Ok, also um es mal kurz zu machen. Ich habe vor einiger Zeit mal in einer PC-Zeitschrift (Ich kann leider nicht mehr sagen welche, vllt. PC-Praxis, sorry) einen Test über Mehrkehrnprozessoren gelesen (unter anderem wie sich ein X3er so schlägt, was er taugt)
Naja, ich meine da wurde PhenomI&II sowie Core2&i7 jeweils als Singel,- Dual-, Tripel-(Bei Intel durch abschalten eines Cores) und Quadcore bei vergleichbaren Taktfrequenzen gemessen. Naja, jedenfalls ist das erstaunlichste Ergebnis, welches mir im Gedächtnis geblieben ist, folgendes: Es wurde ein Benchmark gemacht, bei dem jede CPU zuerst mit nur einem Kern lief und danach mit allen.
Der Nehalem hatte mit vier Kernen mehr als die vierfache Leistung gegenüber dem einem Kern. Also einen Effizienzfaktor von > 100%; Das schien für mich so unglaublich wie ein Perpetuum Mobile, das Energie erzeugen kann. Ich habe das als schlampige Durchführung seitens der Redaktion angesehen oder sonst einen Fehler, der sich eingeschlichen hat. Das Ergebnis wurde nicht mal groß kommentiert oder als Besonderheit herausgestellt, naja wie dem auch sei.
Später habe ich dann auf Wikipedia gelesen, dass in der Informatiktheorie durchaus eine superlineare Beschleunigung möglich ist und ich Frage mich nun, ob dieser spezielle Fall mit Nehalem erstmals grenzweise im Heimanwenderbereich angekommen ist und ob das mit kommenden Architekturen (evt. auch von AMD) vermehrt auftauchen wird. Habt ihr sowas schon mal gemessen oder kennt ihr Tests in denen dieses Phänomen aufgetaucht und kommentiert oder diskutiert wurde?
^^Eigentlich wollte ich das noch im Themenabend ansprechen, aber es war 22Uhr
Edit:
Also bisher habe ich mich immer aufgeregt, wenn die Leute "2 * 3Ghz = 6Ghz!!!" oder "4 * 2Ghz = 8Ghz! ergo besser als als 2 * 3Ghz" gerechnet und damit auch noch versucht haben zu argumentieren. Aber in Spezialfällen der Parallelisierung hieße es dann ja vllt bald:
10 * 2,5Ghz sind zwischen 2,5- und >25Ghz (nicht ernst gemeint)
Zuletzt bearbeitet:
boidsen
Grand Admiral Special
- Mitglied seit
- 21.11.2004
- Beiträge
- 18.214
- Renomée
- 153
- Standort
- Negnidürtressaw
- Mein Laptop
- DIN-A 5, kariert, ohne Rand
- Prozessor
- Brain 2.0
- Verschiedenes
- System?!? Ähhh - bin total unsystematisch... LOL
Gebencht hab sowas noch ned, aber das Vorhandensein solcher Effekte ist mir vollkommen klar und einsehbar.
Superlinearen Anstieg von Arbeitsleistung gibts in ganz vielen Bereichen und ist absolut alltäglich!
V.a. in der Natur, aber auch in der menschlichen Arbeitswelt gibts dafür zahllose, leicht begreifbare Beispiele. Solche Effekte treten immer dann auf, wenn eine Zusammenarbeit im Team neue, effektivere Wege zum Erledigen einer Aufgabe eröffnet.
So ist das Erlegen eines Hirschs für ein Wolfsrudel kein Problem - ein einziger, in Körperkraft dem Rudel Wölfe durchaus gleichgestellter Bär hingegen, hat dabei so gut wie keine Chance.
Ein einzelner Maurer braucht für das Erstellen des Rohbau eines Hauses ungleich viel länger, als ein eingespieltes Team - falls es der Einzelne überheupt schafft.
Und so gibt es unzählige weitere Beispiele, die verdeutlichen, welchen unschätzbaren Vorteil die gezielte Bündelung von Ressourcen haben kann.
So kann man IMHO durchaus mit Fug und Recht sagen, dass superlinearer Leistungszuwachs eigentlich völlig selbstverständlich zu erwarten wäre bei Multiprozessorsystemen und sein bislang sehr seltenes Auftreten von dem noch sehr frühen Anfangsstadium zeugt, in dem sich unsere Hard- und Software befindet!
Mit der Biologie verglichen, ist unsere IT noch auf der Stufe der allerprimitivsten Zellkolonien - selbst Quallen sind deutlich teamfähiger und somit effizienter organisiert...
Superlinearen Anstieg von Arbeitsleistung gibts in ganz vielen Bereichen und ist absolut alltäglich!
V.a. in der Natur, aber auch in der menschlichen Arbeitswelt gibts dafür zahllose, leicht begreifbare Beispiele. Solche Effekte treten immer dann auf, wenn eine Zusammenarbeit im Team neue, effektivere Wege zum Erledigen einer Aufgabe eröffnet.
So ist das Erlegen eines Hirschs für ein Wolfsrudel kein Problem - ein einziger, in Körperkraft dem Rudel Wölfe durchaus gleichgestellter Bär hingegen, hat dabei so gut wie keine Chance.
Ein einzelner Maurer braucht für das Erstellen des Rohbau eines Hauses ungleich viel länger, als ein eingespieltes Team - falls es der Einzelne überheupt schafft.
Und so gibt es unzählige weitere Beispiele, die verdeutlichen, welchen unschätzbaren Vorteil die gezielte Bündelung von Ressourcen haben kann.
So kann man IMHO durchaus mit Fug und Recht sagen, dass superlinearer Leistungszuwachs eigentlich völlig selbstverständlich zu erwarten wäre bei Multiprozessorsystemen und sein bislang sehr seltenes Auftreten von dem noch sehr frühen Anfangsstadium zeugt, in dem sich unsere Hard- und Software befindet!
Mit der Biologie verglichen, ist unsere IT noch auf der Stufe der allerprimitivsten Zellkolonien - selbst Quallen sind deutlich teamfähiger und somit effizienter organisiert...
Zuletzt bearbeitet:
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Wenn eine CPU ausgelastet ist, dann sind selten wirklich alle Elemente voll beschäftigt, normalerweise limitiert immer ein Glied der Verarbeitungskette und die anderen hätten noch Kapazität.
Intel hat dafür das Hyperthreading entwickelt, um auf diesen nicht ausgelasteten Bereichen einer "100%"-belasteten CPU trotzdem noch was rechnen zu können. Bei mehreren Kernen dürfte der Effekt auch größer sein als bei einem einzelnen, das könnte die Ergebnisse schon erklären.
Weiterhin kann es auch sein, daß beim Abschalten der Kerne auch gewisse Bremswirkungen auftreten. Wenn die CPU intern auf 4 Kerne ausgelegt ist, z.B. die Timings des Cachezugriffs oder ähnliche Algorithmen, dann "verhaspeln" die sich ggf., wenn ein Kern abgeschaltet wird. Nicht so stark, daß Fehler auftreten, aber eben gewisse kleine Wartezeiten, die die Performance negativ beeinflussen.
Diese Effekte bedeuten aber nicht, daß vier Kerne mehr als 4mal besser sind als 4 einzelne, sondern daß ein Viertel eines 4-Kern-Prozessors auch schlechter als 25% werden kann.
Im Allgemeinen sind diese Effekte aber selten und nicht sehr stark und werden meist von Gesetz des abnehmenden Ertrags überdeckt. D.h. wenn man eine Komponente im System stärkt, ohne daß die anderen mitwachsen, kann diese Zusatzleistung nicht 1:1 umgesetzt werden. Das kommt nur dann nicht zum Tragen, wenn die anderen leistungsbestimmenden Komponenten bereits stark genug sind, so daß sie vorher schon nicht ausgelastet waren, man also die schwächste Komponente im System stärkt.
Beim Core i7 im Sockel 1366 ist es nun mal so, daß eigentlich zuviel Speicherbandbreite vorhanden ist, man hier also nicht damit rechnen muß, daß die CPU durch den RAM ausgebremst wird. Wäre z.B. nur ein einzelner Kanal mit langsamem vorhanden, würden 4 Kerne ausgebremst, ein einzelner Kern hätte jedoch wohl noch genug RAM-Bandbreite und wäre nicht oder kaum gebremst. Ergo würde man eine schlechte Skalierung von 1 auf 4 Kerne messen, sicher nicht über 100%, sondern deutlich darunter.
Intel hat dafür das Hyperthreading entwickelt, um auf diesen nicht ausgelasteten Bereichen einer "100%"-belasteten CPU trotzdem noch was rechnen zu können. Bei mehreren Kernen dürfte der Effekt auch größer sein als bei einem einzelnen, das könnte die Ergebnisse schon erklären.
Weiterhin kann es auch sein, daß beim Abschalten der Kerne auch gewisse Bremswirkungen auftreten. Wenn die CPU intern auf 4 Kerne ausgelegt ist, z.B. die Timings des Cachezugriffs oder ähnliche Algorithmen, dann "verhaspeln" die sich ggf., wenn ein Kern abgeschaltet wird. Nicht so stark, daß Fehler auftreten, aber eben gewisse kleine Wartezeiten, die die Performance negativ beeinflussen.
Diese Effekte bedeuten aber nicht, daß vier Kerne mehr als 4mal besser sind als 4 einzelne, sondern daß ein Viertel eines 4-Kern-Prozessors auch schlechter als 25% werden kann.
Im Allgemeinen sind diese Effekte aber selten und nicht sehr stark und werden meist von Gesetz des abnehmenden Ertrags überdeckt. D.h. wenn man eine Komponente im System stärkt, ohne daß die anderen mitwachsen, kann diese Zusatzleistung nicht 1:1 umgesetzt werden. Das kommt nur dann nicht zum Tragen, wenn die anderen leistungsbestimmenden Komponenten bereits stark genug sind, so daß sie vorher schon nicht ausgelastet waren, man also die schwächste Komponente im System stärkt.
Beim Core i7 im Sockel 1366 ist es nun mal so, daß eigentlich zuviel Speicherbandbreite vorhanden ist, man hier also nicht damit rechnen muß, daß die CPU durch den RAM ausgebremst wird. Wäre z.B. nur ein einzelner Kanal mit langsamem vorhanden, würden 4 Kerne ausgebremst, ein einzelner Kern hätte jedoch wohl noch genug RAM-Bandbreite und wäre nicht oder kaum gebremst. Ergo würde man eine schlechte Skalierung von 1 auf 4 Kerne messen, sicher nicht über 100%, sondern deutlich darunter.
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Ragas
Grand Admiral Special
- Mitglied seit
- 24.05.2005
- Beiträge
- 4.470
- Renomée
- 85
- Prozessor
- AMD Athlon 64 X2 3800+ @2520MHz; 1,4V; 53°C
- Mainboard
- Asus A8N-E
- Kühlung
- Thermaltake Sonic Tower (doppelt belüftet)
- Speicher
- 4x Infineon DDR400 512MB @207MHz
- Grafikprozessor
- Nvidia GeForce FX 7800GT
- Display
- 1.: 24", Samsung SyncMaster 2443BW, 1920x1200 TFT 2.: 19", Schneider, 1280x1024 CRT
- HDD
- Seagate Sata1 200GB 7200rpm, 2x250GB Seagate SATA2 im Raid0
- Optisches Laufwerk
- DVDBrenner LG GSA 4167
- Soundkarte
- Creative X-Fi Extreme Music
- Gehäuse
- Thermaltake Soprano Silber
- Netzteil
- Be-quiet! Darkpower 470W
- Betriebssystem
- Windows XP; Linux Mandriva 2007.1 (Kernel: 2.6.22.2 Ragas-Edition :D )
- Webbrowser
- Firefox
- Verschiedenes
- -Lüftersteuerung: Aerogate3
Gebencht hab sowas noch ned, aber das Vorhandensein solcher Effekte ist mir vollkommen klar und einsehbar.
Superlinearen Anstieg von Arbeitsleistung gibts in ganz vielen Bereichen und ist absolut alltäglich!
V.a. in der Natur, aber auch in der menschlichen Arbeitswelt gibts dafür zahllose, leicht begreifbare Beispiele. Solche Effekte treten immer dann auf, wenn eine Zusammenarbeit im Team neue, effektivere Wege zum Erledigen einer Aufgabe eröffnet.
So ist das Erlegen eines Hirschs für ein Wolfsrudel kein Problem - ein einziger, in Körperkraft dem Rudel Wölfe durchaus gleichgestellter Bär hingegen, hat dabei so gut wie keine Chance.
Ein einzelner Maurer braucht für das Erstellen des Rohbau eines Hauses ungleich viel länger, als ein eingespieltes Team - falls es der Einzelne überheupt schafft.
Und so gibt es unzählige weitere Beispiele, die verdeutlichen, welchen unschätzbaren Vorteil die gezielte Bündelung von Ressourcen haben kann.
So kann man IMHO durchaus mit Fug und Recht sagen, dass superlinearer Leistungszuwachs eigentlich völlig selbstverständlich zu erwarten wäre bei Multiprozessorsystemen und sein bislang sehr seltenes Auftreten von dem noch sehr frühen Anfangsstadium zeugt, in dem sich unsere Hard- und Software befindet!
Mit der Biologie verglichen, ist unsere IT noch auf der Stufe der allerprimitivsten Zellkolonien - selbst Quallen sind deutlich teamfähiger und somit effizienter organisiert...
Fail!
boidsen
Grand Admiral Special
- Mitglied seit
- 21.11.2004
- Beiträge
- 18.214
- Renomée
- 153
- Standort
- Negnidürtressaw
- Mein Laptop
- DIN-A 5, kariert, ohne Rand
- Prozessor
- Brain 2.0
- Verschiedenes
- System?!? Ähhh - bin total unsystematisch... LOL
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Es kann auch durch algorithmische Sachen auftreten dass es deutliche speeups gibt.
Beispiel: Jeder Speicherzugriff ist "teuer" in Sachen Performance.
Rechne ich mit 1 Kern auf den Daten herum und muss sie Fetchen, ergibt das einen gewissen Faktor, den das laden aus dem Speicher an der gesamten Laufzeit ausmacht.
Hab ich nun 4 Kerne, die mit den selben Daten arbeiten, kann ich danke L3-Cache, 1 mal fetchen und alle 4 kerne dafür Versorgen, d.h. nicht mur meine rohe Rechenleistung ist vervierfacht, sondern auch die Kosten einer Operation die alle Kerne gemeinam betrifft ist wesentlich verringert. 4 Fache Leistung und nur 1/4 der Kosten eines Speicherzugriffs im verhältnis zu 1:1 beim einzelnen Kern. Ich habe also nicht nur meine Leistung erhöht bei nutzung mehrerer Kerne, sondern auch meine Kosten verringert.
Ergo könnte es durchaus mehr als 4 mal schneller gehen, sofern es wirklich so ist, dass die Kerne in dem Beispiel mit den selben Daten arbeiten können.
Das ist zwar nicht wahrscheinlich, aber auch nicht unmöglich.
grüßchen
ich
Beispiel: Jeder Speicherzugriff ist "teuer" in Sachen Performance.
Rechne ich mit 1 Kern auf den Daten herum und muss sie Fetchen, ergibt das einen gewissen Faktor, den das laden aus dem Speicher an der gesamten Laufzeit ausmacht.
Hab ich nun 4 Kerne, die mit den selben Daten arbeiten, kann ich danke L3-Cache, 1 mal fetchen und alle 4 kerne dafür Versorgen, d.h. nicht mur meine rohe Rechenleistung ist vervierfacht, sondern auch die Kosten einer Operation die alle Kerne gemeinam betrifft ist wesentlich verringert. 4 Fache Leistung und nur 1/4 der Kosten eines Speicherzugriffs im verhältnis zu 1:1 beim einzelnen Kern. Ich habe also nicht nur meine Leistung erhöht bei nutzung mehrerer Kerne, sondern auch meine Kosten verringert.
Ergo könnte es durchaus mehr als 4 mal schneller gehen, sofern es wirklich so ist, dass die Kerne in dem Beispiel mit den selben Daten arbeiten können.
Das ist zwar nicht wahrscheinlich, aber auch nicht unmöglich.
grüßchen
ich
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Ich ziehe die Antwort vor, die explizit auf die SMT-Funktionalität des Nehalem hinweist. So wächst die Anzahl der Kerne von 4 auf 8 Logische Prozessoren.
So gesehen ist der Geschwindigkeitsgewinn um den Faktor von etwas mehr als 4 eher ernüchternd bei 8 logischen Prozessorkernen. Es gibt durchaus Fälle, wo mit SMT-Technik ein deutlich höherer Leistungssteigerung möglich ist.
MFG Bobo(2009)
So gesehen ist der Geschwindigkeitsgewinn um den Faktor von etwas mehr als 4 eher ernüchternd bei 8 logischen Prozessorkernen. Es gibt durchaus Fälle, wo mit SMT-Technik ein deutlich höherer Leistungssteigerung möglich ist.
MFG Bobo(2009)
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.227
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Der Nehalem hat dank HyperThreading 8 logische Kerne, was einen Speed-Up von einem zu allen Kernen von mehr als 4x erklärt. Gemeint sein könnte gut der Speed-Up in CineBench, der beim Nehalem leicht über 4x liegt:
In dem Fall wäre der Speedup aber etwas bescheiden, bei 8 logischen Kernen
gegenüber 1 Kern!
Da ist AMD mit "nur" 3,9x Speedup und nur 4 logischen Kernen durchaus effektiver!?
Natürlich ist das nur auf Cinebench zu übertragen, bei neuer Software (optimiert) wird es wieder ganz anders aus sehen!
Gruß
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Oder der Nehalem wird durch CineBench einfach sehr gut ausgelastet. Trifft ja auch durchaus zu, dass der Nehalem beim Single-Render-Test alles andere ziemlich nass macht.In dem Fall wäre der Speedup aber etwas bescheiden, bei 8 logischen Kernen
gegenüber 1 Kern!
Da ist AMD mit "nur" 3,9x Speedup und nur 4 logischen Kernen durchaus effektiver!?
Natürlich ist das nur auf Cinebench zu übertragen, bei neuer Software (optimiert) wird es wieder ganz anders aus sehen!
Gruß
Je besser die Anbindung und je schlechter die Rechenleistung, desto höher kann so ein Speed-Up ausfallen. Deshalb sieht es beim Phenom I so gut und beim Core 2 Quad so "schlecht" aus, obwohl beide nur vier reale Kerne haben.
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
In der ct war ein Test, wahrscheinlich meinst du diesen http://www.heise.de/kiosk/archiv/ct/2009/7/96_kiosk da gab es ein Speedup von 6x und mehr.
Es ist mehr als eine Beschleunigung als 4x bei einem Quad- Core im vergleich zum Singel- Core möglich, wenn die Thread oder Prozesse sich auf dem Singel Core gegenseitig im weg stehen und die Software für Multi-Core ausgelegt ist.
Die Prozesse müssen z.b. auf die Ergebnisse des anderen warten, und ein SC muss nun die Daten in den Cache löschen, laden, Prozess bearbeiten, löschen laden...
Das ist dann ein ähnlicher Effekt wie beim Swappen vom BS wenn der Ram nicht reicht und auf die HDD zurück greift, und der PC sehr langsam wird.
3Dcenter.de hast in diesem Test unter Supreme Commander auch den Effekt entdeckt, allerdings ging es damals Singel vs. DualCore (bzw. HTT)
Bei großen Schlachten liegt der Faktor deutlich über 2x.
Deswegen empfehle ich schon länger QuadCores, denn im besten Fall ist ein DC 15% schneller im schlimmsten Fall ist des auf einem DC unbrauchbar.
Das eine Anwendung unter einem QC wegen ein Paar Mhz nicht läuft wird wohl es nicht geben und selbst, wenn mit ein bisschen OC kann man das ausgleichen, ein DC hilft dann auch kein OC mehr.
Wenn ich dann solche Thread wie: "Wie lange ist ein DC noch aktuell?" lese und dann solche antworten wie 2 Jahre noch dann stellen sich mir die Nackenhaare, ich denke das DC in 1 bis max 2 Jahren häufiger in die Situation kommen werden gegen einen QC mehr als nur die hälfte der Performance zu "verlieren"... das ist meine Meinung die natürlich nicht eintreten muss.
Es ist mehr als eine Beschleunigung als 4x bei einem Quad- Core im vergleich zum Singel- Core möglich, wenn die Thread oder Prozesse sich auf dem Singel Core gegenseitig im weg stehen und die Software für Multi-Core ausgelegt ist.
Die Prozesse müssen z.b. auf die Ergebnisse des anderen warten, und ein SC muss nun die Daten in den Cache löschen, laden, Prozess bearbeiten, löschen laden...
Das ist dann ein ähnlicher Effekt wie beim Swappen vom BS wenn der Ram nicht reicht und auf die HDD zurück greift, und der PC sehr langsam wird.
3Dcenter.de hast in diesem Test unter Supreme Commander auch den Effekt entdeckt, allerdings ging es damals Singel vs. DualCore (bzw. HTT)
Bei großen Schlachten liegt der Faktor deutlich über 2x.
Deswegen empfehle ich schon länger QuadCores, denn im besten Fall ist ein DC 15% schneller im schlimmsten Fall ist des auf einem DC unbrauchbar.
Das eine Anwendung unter einem QC wegen ein Paar Mhz nicht läuft wird wohl es nicht geben und selbst, wenn mit ein bisschen OC kann man das ausgleichen, ein DC hilft dann auch kein OC mehr.
Wenn ich dann solche Thread wie: "Wie lange ist ein DC noch aktuell?" lese und dann solche antworten wie 2 Jahre noch dann stellen sich mir die Nackenhaare, ich denke das DC in 1 bis max 2 Jahren häufiger in die Situation kommen werden gegen einen QC mehr als nur die hälfte der Performance zu "verlieren"... das ist meine Meinung die natürlich nicht eintreten muss.
Hallo, nach vielen Jahren schreibe ich nochmal.
Ich fand es damals immer blöd von mir mich nicht mehr gemeldet zu haben, aber ich bin ein recht introvertierter Mensch der echt ungerne schreibt/redet. Ich möchte es nochmal mit ein paar neuen Beiträgen hier versuchen, doch zuvor wollte ich das hier endlich abschließen.
Vielen Dank an die damaligen Antworter und es war übrigens wirklich der CineBench damals.
Sorry für mein unhöfliches rüberkommen.
Ich fand es damals immer blöd von mir mich nicht mehr gemeldet zu haben, aber ich bin ein recht introvertierter Mensch der echt ungerne schreibt/redet. Ich möchte es nochmal mit ein paar neuen Beiträgen hier versuchen, doch zuvor wollte ich das hier endlich abschließen.
Vielen Dank an die damaligen Antworter und es war übrigens wirklich der CineBench damals.
Sorry für mein unhöfliches rüberkommen.
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Du elender Leichenschänder.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 142K
- Antworten
- 0
- Aufrufe
- 235K
- Antworten
- 0
- Aufrufe
- 354K