App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
CPU-Limits und Spiele
- Ersteller unl34shed
- Erstellt am
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Nur damit wir mal klären worum es hier in diesem Thread geht:eigentlich wollte ich hier nichts mehr schreiben, aber mittlerweile wirds hier amüsant und zum Lesen empfehle ich Popcorn. Ihr bewegt euch mittlerweile teilweise sehr stark im Gebiet der Korinthenkacker. Nur mal zwei Einwürfe (was ich auch schon geschrieben habe): In dem Thread gehts um CPU-Limits in Spielen und mit der Argumentation, dass mit Spielen kein CPU-Limit abgebildet werden kann, stellt ihr euch selbst ins Abseits und solltet dann dieser Diskusion fernbleiben.
Bitte von Anfang an lesen bevor man beurteilen will wer einer Diskussion fern bleiben soll. Das Thema habe ich angefragt und die Moderation hat dies dann so definiert. Es geht hier darum dass keine CPU-Limits in Spielen abgebildet werden können.Es ist leider so, dass das ständige falsche wiederholen bei Lesern dazu führt, dass sich die Dinge festsetzen. Und wenn man dann mal in einem Thema die Dinge gerade rücken will kommt ein Moderator und splittet das Thema. Auch hier wieder durch dich geschehen.
Ähnliches passiert mit dieser Kern-Diskussion in allen Foren. Alleine hier auf P3D dutzende Male durchgekaut und dennoch hast selbst du als Moderator es noch nicht mitgekriegt.
Ich schlage daher vor zumindest das Thema in "CPU-Limits und Spiele" umzubenennen. Dann hat man eine Referenz zum verlinken und muss das ganze nicht von vorne starten alle 3 Wochen.
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
@Devastators
Lesen bildet,aber bitte doch nicht immer nur die Bild.
http://m.welt.de/motor/article1864525/Audis-schoenster-Tabubruch-heisst-R8-TDI.html
http://m.focus.de/auto/neuheiten/sp...t-verkauf-des-panamera-diesel_id_5009248.html
http://m.spiegel.de/auto/aktuell/a-906603.html
http://www.motorsport-total.com/meh...nft_im_Motorsport_heisst_Diesel_08020503.html
Dann frag ich mich noch wo liegt das Problem.......
Lebewesen = Vom Einzeller zum ........= Evolution
Warum schafft es manch ein Einzeller nicht seinen 50 Jahre alten Algorithmus über Bord zu werfen und seine eine Zelle an zu strengen?!
Will er den Fortschritt aufhalten?
Wenn alle Menschen so denken würden,dann würden wir uns jetzt noch mit Rauchzeichen verständigen.
Lesen bildet,aber bitte doch nicht immer nur die Bild.
http://m.welt.de/motor/article1864525/Audis-schoenster-Tabubruch-heisst-R8-TDI.html
http://m.focus.de/auto/neuheiten/sp...t-verkauf-des-panamera-diesel_id_5009248.html
http://m.spiegel.de/auto/aktuell/a-906603.html
http://www.motorsport-total.com/meh...nft_im_Motorsport_heisst_Diesel_08020503.html
Dann frag ich mich noch wo liegt das Problem.......
Lebewesen = Vom Einzeller zum ........= Evolution
Warum schafft es manch ein Einzeller nicht seinen 50 Jahre alten Algorithmus über Bord zu werfen und seine eine Zelle an zu strengen?!
Will er den Fortschritt aufhalten?
Wenn alle Menschen so denken würden,dann würden wir uns jetzt noch mit Rauchzeichen verständigen.
Zuletzt bearbeitet:
Devastators
Grand Admiral Special
- Mitglied seit
- 03.06.2001
- Beiträge
- 17.242
- Renomée
- 149
- Standort
- Bochum
- Mein Laptop
- Acer 8730 & 3810T & VN7 791G
- Prozessor
- Intel Q9550
- Mainboard
- -
- Kühlung
- Arctic Freezer 7 Pro
- Speicher
- 4* 1 Gig DC
- Grafikprozessor
- Asus GTX 750TI
- Display
- Asus VW246H 24" FHD
- SSD
- Samsung 850 EVO
- HDD
- 2 * Sata Maxtor 200GB 1 * WD 250 Gig IDE
- Optisches Laufwerk
- Plextor PX750A
- Soundkarte
- -
- Gehäuse
- Antec P180
- Netzteil
- BeQuiet 450Watt Straight Power
- Betriebssystem
- Win7 64
- Webbrowser
- IExplorer 8
- Verschiedenes
- DigiCam: Canon EOS 300D, Canon 50D , Beamer: SanyoZ3 , Camcorder: Canon HF200 HD , PS3 , Wii
@Devastators
Lesen bildet,aber bitte doch nicht immer nur die Bild.
http://m.welt.de/motor/article1864525/Audis-schoenster-Tabubruch-heisst-R8-TDI.html
http://m.focus.de/auto/neuheiten/sp...t-verkauf-des-panamera-diesel_id_5009248.html
http://m.spiegel.de/auto/aktuell/a-906603.html
http://www.motorsport-total.com/meh...nft_im_Motorsport_heisst_Diesel_08020503.html
Dann frag ich mich noch wo liegt das Problem.......
Lebewesen = Vom Einzeller zum ........= Evolution
Warum schafft es manch ein Einzeller nicht seinen 50 Jahre alten Algorithmus über Bord zu werfen und seine eine Zelle an zu strengen?!
Will er den Fortschritt aufhalten?
Wenn alle Menschen so denken würden,dann würden wir uns jetzt noch mit Rauchzeichen verständigen.
Ich schrieb von "spontan" fällt mir nichts ein.
Mit dem Wissen der Welt im Nacken und einer Suchmaschine hätte ich auch ein paar Autos finden können.
ansonsten zu Deiner Einzeller-Theorie:
Auch hier hilft Google in 0,3s weiter.
https://de.wikipedia.org/wiki/Paralleler_Algorithmus
Mal von dem einzelnen Individuum abgesehen (in Form eines 0815 Programmierers) wird dort von Forschern gesprochen die noch nichts gefunden haben.
Es ist also etwas Überheblich mit einem Wisch eine ganze Wissenschaft zu denunzieren.
Dabei ist die Wirtschaftlichkeit möglicher Optimierungen noch gar nicht inbegriffen.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Die Parallelisierung findet im Compiler statt und muss weniger vom Entwickler beachtet werden, es sei den er will es selbst Managen dann hat er natürlich auch die Möglichkeit.
Z.B. hier: http://www.planet3dnow.de/cms/20750...s-add-openacc-support-for-x86-multicore-cpus/
Single Thread ist was für Fred Feuerstein.
Z.B. hier: http://www.planet3dnow.de/cms/20750...s-add-openacc-support-for-x86-multicore-cpus/
•Effective utilization of all cores of a multicore CPU or multi-socket server for parallel execution
•Common programming model across CPUs and GPUs in Fortran, C and C++
•Rapid exploitation of existing multicore parallelism in a program using the KERNELS directive, which enables incremental optimization for parallel execution
•Scalable performance across multicore CPUs and GPUs
Single Thread ist was für Fred Feuerstein.
Devastators
Grand Admiral Special
- Mitglied seit
- 03.06.2001
- Beiträge
- 17.242
- Renomée
- 149
- Standort
- Bochum
- Mein Laptop
- Acer 8730 & 3810T & VN7 791G
- Prozessor
- Intel Q9550
- Mainboard
- -
- Kühlung
- Arctic Freezer 7 Pro
- Speicher
- 4* 1 Gig DC
- Grafikprozessor
- Asus GTX 750TI
- Display
- Asus VW246H 24" FHD
- SSD
- Samsung 850 EVO
- HDD
- 2 * Sata Maxtor 200GB 1 * WD 250 Gig IDE
- Optisches Laufwerk
- Plextor PX750A
- Soundkarte
- -
- Gehäuse
- Antec P180
- Netzteil
- BeQuiet 450Watt Straight Power
- Betriebssystem
- Win7 64
- Webbrowser
- IExplorer 8
- Verschiedenes
- DigiCam: Canon EOS 300D, Canon 50D , Beamer: SanyoZ3 , Camcorder: Canon HF200 HD , PS3 , Wii
Die Parallelisierung findet im Compiler statt und muss weniger vom Entwickler beachtet werden, es sei den er will es selbst Managen dann hat er natürlich auch die Möglichkeit.
Z.B. hier: http://www.planet3dnow.de/cms/20750...s-add-openacc-support-for-x86-multicore-cpus/
Single Thread ist was für Fred Feuerstein.
Ich muss zugeben, die automatische Parallelisierung ist mir etwas suspekt, da ich mir kaum noch vorstellen kann, dass komplexe und umfangreiche Algorithmen vollständig automatisch auf Parallelisierbarkeit überprüft und optimiert werden können.
Soweit mir bekannt, bezieht sich diese Automatik lediglich auf das Suchen und Überprüfen von z.B. kleineren Schleifen ohne größere Komplexität.
Wenn bei einer größeren Schleife ein Durchgang das Ergebnis vom Vorgänger benötigt, war es das schon mit parallelisieren, das geht dann nur sequentiell.
Ob sich ein krampfhaftes Parallelisieren immer positiv auswirkt muss man auch individuell entscheiden, da dabei ein Overhead entsteht der sich erst Mal amortisieren muss.
Wenn ich mich jedoch für einen parallele Schleife bewusst entscheide, regelt dann zur Laufzeit tatsächlich der Rechner selber in wie viele Threads diese Schleife aufgeteilt werden kann und soll. Damit habe ich als Entwickler nichts mehr am Hut.
Ich denke die Parallelisierung liegt bei spielen eher im größeren Bereich als ein paar Schleifen zu verteilen.
Die KI könnte komplett getrennt von der Geometrieberechnung oder von möglicher Physik berechnet werden.
Solche Aufteilungen muss m.E. der Entwickler selber programmieren, da würde mich eine Vollautomatik doch sehr wundern.
Wenn das alles so easy gehen würde, wundert es mich wieso die meißten Programme noch Single Core laufen
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
Ich schrieb von "spontan" fällt mir nichts ein.
Mit dem Wissen der Welt im Nacken und einer Suchmaschine hätte ich auch ein paar Autos finden können.
Dann sollte man mit solchen Sachen nicht anfangen......Allein ein Zahnarztbesuch jedes Jahr reicht aus um von Jedem etwas ab zu bekommen.
ansonsten zu Deiner Einzeller-Theorie:
Auch hier hilft Google in 0,3s weiter.
https://de.wikipedia.org/wiki/Paralleler_Algorithmus
Mal von dem einzelnen Individuum abgesehen (in Form eines 0815 Programmierers) wird dort von Forschern gesprochen die noch nichts gefunden haben.
Es ist also etwas Überheblich mit einem Wisch eine ganze Wissenschaft zu denunzieren.
Dabei ist die Wirtschaftlichkeit möglicher Optimierungen noch gar nicht inbegriffen.
Hmmmm wo kann ich das Spiel runter laden,würd ich mich gern mal selber von überzeugen?!
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Den Overhead denn du meinst ist aber nur vorhanden, wenn der Kernel nicht parallelisierbar ist, also nur auf einem Kern die Verwaltung läuft.Ich muss zugeben, die automatische Parallelisierung ist mir etwas suspekt, da ich mir kaum noch vorstellen kann, dass komplexe und umfangreiche Algorithmen vollständig automatisch auf Parallelisierbarkeit überprüft und optimiert werden können.
Soweit mir bekannt, bezieht sich diese Automatik lediglich auf das Suchen und Überprüfen von z.B. kleineren Schleifen ohne größere Komplexität.
Wenn bei einer größeren Schleife ein Durchgang das Ergebnis vom Vorgänger benötigt, war es das schon mit parallelisieren, das geht dann nur sequentiell.
Ob sich ein krampfhaftes Parallelisieren immer positiv auswirkt muss man auch individuell entscheiden, da dabei ein Overhead entsteht der sich erst Mal amortisieren muss.
Wenn ich mich jedoch für einen parallele Schleife bewusst entscheide, regelt dann zur Laufzeit tatsächlich der Rechner selber in wie viele Threads diese Schleife aufgeteilt werden kann und soll. Damit habe ich als Entwickler nichts mehr am Hut.
Ich denke die Parallelisierung liegt bei spielen eher im größeren Bereich als ein paar Schleifen zu verteilen.
Die KI könnte komplett getrennt von der Geometrieberechnung oder von möglicher Physik berechnet werden.
Solche Aufteilungen muss m.E. der Entwickler selber programmieren, da würde mich eine Vollautomatik doch sehr wundern.
Wenn das alles so easy gehen würde, wundert es mich wieso die meißten Programme noch Single Core laufen
Der Kernel ist inzwischen aber ebenfalls auf alle Kerne verteilt, somit vermindert man den Verwaltungs Overhead.
Single Thread ist eben der einfachste Weg der Programmierung.
Zudem kann man so die Konkurenz klein halten, da nur die Hardware mit mehr Leistung profitiert womit das Programm auch compiliert wurde z.B. mit dem Intel Compiler.
AMD hat noch nicht so lang einen eigenen Windows Compiler.
Zuletzt bearbeitet:
RedBaron
Admiral Special
- Mitglied seit
- 23.08.2006
- Beiträge
- 1.634
- Renomée
- 115
- Mein Laptop
- HP14s-dq2222ng Pentium Gold 7505 2,0GHz,16GB DDR4-3200 MHz(2x8GB),256GB NVMe SSD,Windows 11 Pro 23H2
- Prozessor
- AMD Ryzen 9 7900X B2 Stepping
- Mainboard
- ASRock B650E PG Riptide WiFi UEFI Ver. 2.10
- Kühlung
- AiO: AC Liquid Freezer 240 4xF12 120mm Lüfter, Gehäuse: 1 Pure Wings 2 140mm, 1 Pure Wings 2 120mm
- Speicher
- 128 GiB Kingston DDR5 4200MHz@1.1V KVR56U46BD8-32 (SK Hynix A-Die)
- Grafikprozessor
- PowerColor RX 7700 XT 12G-F/OC, 12GB GDDR6
- Display
- LG 35WN65C-B Professional 35 Zoll, 3440x1440 Pixel, 100Hz, UWQHD, HDR
- SSD
- Kingston KC3000 2TB, Samsung 970 EVO 1 TB, Crucial MX200 256 GB, SanDisk SDSSDP128GS 128 GB
- HDD
- Seagate Ironwolf ST4000VN006-3CW104 4TB SATA3, gedämmt, 2x Seagate 4TB USB 3.2 extern
- Optisches Laufwerk
- LG Electronics BH16NS40 Blu-ray Disc Writer, gedämmt montiert
- Soundkarte
- Realtek ALC897
- Gehäuse
- Be Quiet Silent Base 600 Schall-gedämmt
- Netzteil
- Be Quiet Straight Power E8 580W 80+ Gold
- Tastatur
- Logitech K280e Corded Keyboard
- Maus
- Logitech M500 Corded Mouse
- Betriebssystem
- Linux Mint 21.3 Cinnamon x64, Windows 11 Pro 23H2 x64
- Webbrowser
- Firefox 126
- Verschiedenes
- 3D Connexion SpaceNavigator, HP Color LaserJet Pro MFP M181fw, Fritzbox 7590 AX-V2 & 7530 als Mesh, Creative i-Trigue 330, Speedlink Competition Pro USB, 3,5"Disketten-Laufwerk, RS232-Port
- Internetanbindung
- ▼250 ▲40
Hallo
In vielen Linuxdistributionen existiert ein "cpulimit"
http://manpages.ubuntu.com/manpages/natty/man1/cpulimit.1.html
Da hier auch die Begriffe wie "Parallelität" genannt werden, sollte u.a. der Task-Scheduler als
variable Größe in verschiedenen Betriebssystemen berücksichtigt werden
für die Auslastung der Ausführungseinheiten.
MfG
RedBaron
In vielen Linuxdistributionen existiert ein "cpulimit"
http://manpages.ubuntu.com/manpages/natty/man1/cpulimit.1.html
NAME
cpulimit -- limits the CPU usage of a process
Da hier auch die Begriffe wie "Parallelität" genannt werden, sollte u.a. der Task-Scheduler als
variable Größe in verschiedenen Betriebssystemen berücksichtigt werden
für die Auslastung der Ausführungseinheiten.
MfG
RedBaron
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Habs gefunden via ToolTips: http://abload.de/img/vulkan_siv64_loadsgu5o.pngGrün und Rot sind klar, was ist die blaue Linie dazwischen?
DPC und Interrupt Last wird als dunkel blau und Türkis dargestellt im CPU Diagramm.
Keine Ahnung was ich damit anfangen soll, könnte aber evt. nützlich für die Entwickler sein.
Devastators
Grand Admiral Special
- Mitglied seit
- 03.06.2001
- Beiträge
- 17.242
- Renomée
- 149
- Standort
- Bochum
- Mein Laptop
- Acer 8730 & 3810T & VN7 791G
- Prozessor
- Intel Q9550
- Mainboard
- -
- Kühlung
- Arctic Freezer 7 Pro
- Speicher
- 4* 1 Gig DC
- Grafikprozessor
- Asus GTX 750TI
- Display
- Asus VW246H 24" FHD
- SSD
- Samsung 850 EVO
- HDD
- 2 * Sata Maxtor 200GB 1 * WD 250 Gig IDE
- Optisches Laufwerk
- Plextor PX750A
- Soundkarte
- -
- Gehäuse
- Antec P180
- Netzteil
- BeQuiet 450Watt Straight Power
- Betriebssystem
- Win7 64
- Webbrowser
- IExplorer 8
- Verschiedenes
- DigiCam: Canon EOS 300D, Canon 50D , Beamer: SanyoZ3 , Camcorder: Canon HF200 HD , PS3 , Wii
Den Overhead denn du meinst ist aber nur vorhanden, wenn der Kernel nicht parallelisierbar ist, also nur auf einem Kern die Verwaltung läuft.
Der Kernel ist inzwischen aber ebenfalls auf alle Kerne verteilt, somit vermindert man den Verwaltungs Overhead.
Dann ist mir gar nicht klar wie die Compiler Option läuft.
Soweit mir bis jetzt bewusst, wird der Quellcode, der grundlegend erstmal immer sequenziell abgearbeitet wird, auf parallelisierbarkeit überprüft.
Findet sich dort z.B. eine Schleife, kann diese u.U. parallel abgearbeitet werden, der Compiler richtet die notwendigen Schritte selber ein.
Dafür müssen aber neue Threads erstellt werden die am Ende der Schleife wieder beendet werden.
Das Programm wird also nur temporär parallel verarbeitet, was eine menge Overhead produziert.
Du sprichst von kompletter Parallelisierung?
irgendwann und irgendwo müssen die Daten aber verteilt und wieder gesammelt werden.
Wenn das alles ach so einfach wäre, verstehe ich nicht wieso manche sehr gut parallelisierbare Codes (Encodieren von Videos) nicht mit einem Compiler-Mausklick alle Kerne auslasten.
AFAIK nutzt DivX erst bei den neueren Codecs mehr als 2 Kerne aus.
Und wenn das alles so einfach wäre, dürfte die Diskussion gar nicht existieren, dass ein Programmcode nur ein Kern auslasten kann.
--- Update ---
Meiner hat nur die Auto-Bild, die darf ich ja nicht lesen.Dann sollte man mit solchen Sachen nicht anfangen......Allein ein Zahnarztbesuch jedes Jahr reicht aus um von Jedem etwas ab zu bekommen.
Kennst Du denn jetzt den Unterschied zwischen Nm und kW?
Nebelkerze?Hmmmm wo kann ich das Spiel runter laden,würd ich mich gern mal selber von überzeugen?!
Muss ich raten was Du mir jetzt mitteilen willst?
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Mir ebenfalls nicht, aber ich konnte noch keinen Single Thread mit 100% Auslastung loggen bei Spiele.Dann ist mir gar nicht klar wie die Compiler Option läuft.
Soweit mir bis jetzt bewusst, wird der Quellcode, der grundlegend erstmal immer sequenziell abgearbeitet wird, auf parallelisierbarkeit überprüft.
Findet sich dort z.B. eine Schleife, kann diese u.U. parallel abgearbeitet werden, der Compiler richtet die notwendigen Schritte selber ein.
Dafür müssen aber neue Threads erstellt werden die am Ende der Schleife wieder beendet werden.
Das Programm wird also nur temporär parallel verarbeitet, was eine menge Overhead produziert.
Du sprichst von kompletter Parallelisierung?
irgendwann und irgendwo müssen die Daten aber verteilt und wieder gesammelt werden.
Wenn das alles ach so einfach wäre, verstehe ich nicht wieso manche sehr gut parallelisierbare Codes (Encodieren von Videos) nicht mit einem Compiler-Mausklick alle Kerne auslasten.
AFAIK nutzt DivX erst bei den neueren Codecs mehr als 2 Kerne aus.
Und wenn das alles so einfach wäre, dürfte die Diskussion gar nicht existieren, dass ein Programmcode nur ein Kern auslasten kann.
Schleifen sind eher für den Cache relevant.
ISt dir bewusst wie breit GPUs sind?
Eine NANO hat z.B. so viele shader wie meine beiden HD 7970 zusammen, das sind 4096 Unified shader oder 64 Threads mit CPU Code.
Andersherum kann man auch die GPU als FPU nutzen, wer hoch klettert, kann auch herunter klettern.
Devastators
Grand Admiral Special
- Mitglied seit
- 03.06.2001
- Beiträge
- 17.242
- Renomée
- 149
- Standort
- Bochum
- Mein Laptop
- Acer 8730 & 3810T & VN7 791G
- Prozessor
- Intel Q9550
- Mainboard
- -
- Kühlung
- Arctic Freezer 7 Pro
- Speicher
- 4* 1 Gig DC
- Grafikprozessor
- Asus GTX 750TI
- Display
- Asus VW246H 24" FHD
- SSD
- Samsung 850 EVO
- HDD
- 2 * Sata Maxtor 200GB 1 * WD 250 Gig IDE
- Optisches Laufwerk
- Plextor PX750A
- Soundkarte
- -
- Gehäuse
- Antec P180
- Netzteil
- BeQuiet 450Watt Straight Power
- Betriebssystem
- Win7 64
- Webbrowser
- IExplorer 8
- Verschiedenes
- DigiCam: Canon EOS 300D, Canon 50D , Beamer: SanyoZ3 , Camcorder: Canon HF200 HD , PS3 , Wii
Du redest jetzt von der Parallelisierung innerhalb der GPU.... das ist etwas vollständig anderes.
Du kannst direkt mit einem Vektor oder Parallelrechner anfangen, den haben wir hier aber nicht.
Eine x86/x64 Computer besteht i.d.R. noch immer aus einer CISC-CPU
http://www.bernd-leitenberger.de/cisc-risc.shtml
schön erklärt.
-
Wir reden von CPU Code und der CPU Auslastung.
Und eine 100% Auslastung eines Kernes wirst Du ziemlich leicht hinbekommen, musst Windows nur verbieten permanent den Kern wechseln zu lassen.
Wenn ein Programm auf einem 4-Kerner 25% Auslastung erzeugt, entspricht das bei einem Kern i.d.R. 100%.
Windows verteilt den Thread gleichmäßig auf die 4 Kerne, aber AFAIK nur um die thermische Belastung auf dem Die zu verteilen.
Mit Parallelisierung hat das gar nichts zu tun, die Kerne der CPU werden dabei nacheinander belastet, nicht gleichzeitig!
Du kannst direkt mit einem Vektor oder Parallelrechner anfangen, den haben wir hier aber nicht.
Eine x86/x64 Computer besteht i.d.R. noch immer aus einer CISC-CPU
http://www.bernd-leitenberger.de/cisc-risc.shtml
schön erklärt.
-
Wir reden von CPU Code und der CPU Auslastung.
Und eine 100% Auslastung eines Kernes wirst Du ziemlich leicht hinbekommen, musst Windows nur verbieten permanent den Kern wechseln zu lassen.
Wenn ein Programm auf einem 4-Kerner 25% Auslastung erzeugt, entspricht das bei einem Kern i.d.R. 100%.
Windows verteilt den Thread gleichmäßig auf die 4 Kerne, aber AFAIK nur um die thermische Belastung auf dem Die zu verteilen.
Mit Parallelisierung hat das gar nichts zu tun, die Kerne der CPU werden dabei nacheinander belastet, nicht gleichzeitig!
Zuletzt bearbeitet:
Auto-Parallelisierung kratzt im Allgemeinen nur an der Oberfläche. Häufig müssen die Algorithmen selbst angepasst werden oder sogar komplett ersetzt werden um Teile des Codes überhaupt effizient parallel abarbeiten zu können.
Overhead entsteht nicht nur durch das erzeugen der Threads, sondern auch durch die manchmal notwendige Synchronisation dergleichen. Deswegen muss immer erst eine größere Sequenz komplett parallelisierbar sein bevor es sich lohnt. Bei GPGPU Anwendungen ist das noch viel aufwendiger, obwohl Techniken wie HSA diesen Aufwand zu verringern versuchen.
Overhead entsteht nicht nur durch das erzeugen der Threads, sondern auch durch die manchmal notwendige Synchronisation dergleichen. Deswegen muss immer erst eine größere Sequenz komplett parallelisierbar sein bevor es sich lohnt. Bei GPGPU Anwendungen ist das noch viel aufwendiger, obwohl Techniken wie HSA diesen Aufwand zu verringern versuchen.
Devastators
Grand Admiral Special
- Mitglied seit
- 03.06.2001
- Beiträge
- 17.242
- Renomée
- 149
- Standort
- Bochum
- Mein Laptop
- Acer 8730 & 3810T & VN7 791G
- Prozessor
- Intel Q9550
- Mainboard
- -
- Kühlung
- Arctic Freezer 7 Pro
- Speicher
- 4* 1 Gig DC
- Grafikprozessor
- Asus GTX 750TI
- Display
- Asus VW246H 24" FHD
- SSD
- Samsung 850 EVO
- HDD
- 2 * Sata Maxtor 200GB 1 * WD 250 Gig IDE
- Optisches Laufwerk
- Plextor PX750A
- Soundkarte
- -
- Gehäuse
- Antec P180
- Netzteil
- BeQuiet 450Watt Straight Power
- Betriebssystem
- Win7 64
- Webbrowser
- IExplorer 8
- Verschiedenes
- DigiCam: Canon EOS 300D, Canon 50D , Beamer: SanyoZ3 , Camcorder: Canon HF200 HD , PS3 , Wii
Auto-Parallelisierung kratzt im Allgemeinen nur an der Oberfläche. Häufig müssen die Algorithmen selbst angepasst werden oder sogar komplett ersetzt werden um Teile des Codes überhaupt effizient parallel abarbeiten zu können.
Overhead entsteht nicht nur durch das erzeugen der Threads, sondern auch durch die manchmal notwendige Synchronisation dergleichen. Deswegen muss immer erst eine größere Sequenz komplett parallelisierbar sein bevor es sich lohnt. Bei GPGPU Anwendungen ist das noch viel aufwendiger, obwohl Techniken wie HSA diesen Aufwand zu verringern versuchen.
Danke, das entspricht auch meinem Wissensstand.
Ich denke hier wird sehr vieles sehr wild durcheinander geworfen.
Die GPU, mit ihren tausenden Shadern, ist natürlich in der Lage diese Shader auch parallel arbeiten lassen zu können, aber dafür muss das Grundmodell (Ich nenne es mal Basis-Geometrie) weitegehend aufgebaut/vorberechnet sein, was dann CPU Arbeit wäre.
Wenn die Aufgabenstellung klar ist und nun auf die z.B. 100 Millionen Vertices angewendet werden muss, kann das die GPU relativ eigenständig auf die Shader verteilen.
Die GPU übernimmt dann die geometrischen Berechnungen, das Mapping, Licht und Schatten Effekte und was immer neuere DX-Versionen so alles hergeben.
Bei GPGPU-Anwendungen geht m.E. gar nix automatisiert, was ja grundlegend sehr Schade ist
Ich muss mich mit meinen Algorithmen innerhalb der Möglichkeiten der GPGPU-Schnittstelle bewegen, was u.U. eine komplett andere Programmierung bedeutet.
Man darf auch nicht den Fehler machen und glauben, so eine Grafikengine sei in ein paar Wochen neu aufgebaut.
Da stecken locker einige Zehn- bis Hundert-Tausend Mannstunden hinter.
Da fängt selten eine Spieleschmiede bei 0 an.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Ich meine allgemein Parallelisierung.Du redest jetzt von der Parallelisierung innerhalb der GPU.... das ist etwas vollständig anderes.
Du kannst direkt mit einem Vektor oder Parallelrechner anfangen, den haben wir hier aber nicht.
Eine x86/x64 Computer besteht i.d.R. noch immer aus einer CISC-CPU
http://www.bernd-leitenberger.de/cisc-risc.shtml
schön erklärt.
-
Wir reden von CPU Code und der CPU Auslastung.
Und eine 100% Auslastung eines Kernes wirst Du ziemlich leicht hinbekommen, musst Windows nur verbieten permanent den Kern wechseln zu lassen.
Wenn ein Programm auf einem 4-Kerner 25% Auslastung erzeugt, entspricht das bei einem Kern i.d.R. 100%.
Windows verteilt den Thread gleichmäßig auf die 4 Kerne, aber AFAIK nur um die thermische Belastung auf dem Die zu verteilen.
Mit Parallelisierung hat das gar nichts zu tun, die Kerne der CPU werden dabei nacheinander belastet, nicht gleichzeitig!
Es ist ja z.B. auch möglich openCL zu nutzen, beim LuxMark Renderer rechnen CPU und GPU an der selben Aufgabe nur eben mit "working balance"
Demnach können beide ebenfalls die Berechnungen des anderen übernehmen oder ergänzen.
Das CPU und GPU unterschiedliche Stärken haben ist klar, aber es sind immer noch Integer oder Floating Berechnungen und diese sie eben bei beiden möglich (CPU & GPU)
http://abload.de/img/luxmarkv3_lobby_fx-95uaj79.jpg
Devastators
Grand Admiral Special
- Mitglied seit
- 03.06.2001
- Beiträge
- 17.242
- Renomée
- 149
- Standort
- Bochum
- Mein Laptop
- Acer 8730 & 3810T & VN7 791G
- Prozessor
- Intel Q9550
- Mainboard
- -
- Kühlung
- Arctic Freezer 7 Pro
- Speicher
- 4* 1 Gig DC
- Grafikprozessor
- Asus GTX 750TI
- Display
- Asus VW246H 24" FHD
- SSD
- Samsung 850 EVO
- HDD
- 2 * Sata Maxtor 200GB 1 * WD 250 Gig IDE
- Optisches Laufwerk
- Plextor PX750A
- Soundkarte
- -
- Gehäuse
- Antec P180
- Netzteil
- BeQuiet 450Watt Straight Power
- Betriebssystem
- Win7 64
- Webbrowser
- IExplorer 8
- Verschiedenes
- DigiCam: Canon EOS 300D, Canon 50D , Beamer: SanyoZ3 , Camcorder: Canon HF200 HD , PS3 , Wii
Worauf willst Du jetzt hinaus?
Rendern ist einer der Aufgabengebiete, die sich sehr gut parallelisieren läßt.
Und wenn Dein "LuxMark Renderer" das kann, dann nur weil es entsprechend vorab so programmiert wurde und nicht weil jemand im Compiler das Parallelisierungsflag gesetzt hat.
Um es mal ganz einfach runter zu brechen:
Matheklausur mit 8 Aufgaben.
Eine Klausur kannst Du mit 3 Kollegen zusammen beginnen.
Jeder nimmt sich eine der 8 Aufgaben und rechnet sie unabhängig vom Kollegen.
Insgesamt könnt ihr die Aufgaben parallel abarbeiten und seid im Idealfall 4x schneller fertig.
Jetzt kommt aber die Schwierigkeit hinzu, dass Aufgabe 2 mit dem Ergebnis von Aufgabe 1 weiter rechnet u.s.W.
Da sitzen nun 3 Leute auf Bereitschaft und warten bis Du mit Aufgabe 1 fertig bist.
Geschwindigkeitsvorteil = 0.
Und es macht auch keinen Sinn eine einzige Aufgabe mit 4 Leuten zu berechnen, denn schneller als der beste Matherechner wirst Du nicht werden.
Du kannst diese Aufgabe nicht weiter aufteilen.
So macht es keinen Sinn mehr, ob Du nun alleine, zu zweit, zu 6 oder 256 Leuten vor dieser Aufgabe sitzt, Du wirst keine Sekunde früher fertig mit der Aufgabe.
Es gibt nur einen Weg diese gegebene Aufgabe schneller zu lösen -> eine Person hinsetzen die schneller rechnen kann, denn weitere Parallelisierung bringt Dich hier nicht weiter.
Rendern ist einer der Aufgabengebiete, die sich sehr gut parallelisieren läßt.
Und wenn Dein "LuxMark Renderer" das kann, dann nur weil es entsprechend vorab so programmiert wurde und nicht weil jemand im Compiler das Parallelisierungsflag gesetzt hat.
Um es mal ganz einfach runter zu brechen:
Matheklausur mit 8 Aufgaben.
Eine Klausur kannst Du mit 3 Kollegen zusammen beginnen.
Jeder nimmt sich eine der 8 Aufgaben und rechnet sie unabhängig vom Kollegen.
Insgesamt könnt ihr die Aufgaben parallel abarbeiten und seid im Idealfall 4x schneller fertig.
Jetzt kommt aber die Schwierigkeit hinzu, dass Aufgabe 2 mit dem Ergebnis von Aufgabe 1 weiter rechnet u.s.W.
Da sitzen nun 3 Leute auf Bereitschaft und warten bis Du mit Aufgabe 1 fertig bist.
Geschwindigkeitsvorteil = 0.
Und es macht auch keinen Sinn eine einzige Aufgabe mit 4 Leuten zu berechnen, denn schneller als der beste Matherechner wirst Du nicht werden.
Du kannst diese Aufgabe nicht weiter aufteilen.
So macht es keinen Sinn mehr, ob Du nun alleine, zu zweit, zu 6 oder 256 Leuten vor dieser Aufgabe sitzt, Du wirst keine Sekunde früher fertig mit der Aufgabe.
Es gibt nur einen Weg diese gegebene Aufgabe schneller zu lösen -> eine Person hinsetzen die schneller rechnen kann, denn weitere Parallelisierung bringt Dich hier nicht weiter.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.491
- Renomée
- 2.030
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Es gibt nicht nur das eine oder das andere sondern auch gemischten Workload, also nicht nur schwarz oder weiss sondern einen riesigen grauen Bereich dazwischen.
Casi030
Grand Admiral Special
- Mitglied seit
- 03.10.2012
- Beiträge
- 8.942
- Renomée
- 153
Kennst Du denn jetzt den Unterschied zwischen Nm und kW?
Ist mir als KFZ-Mechatroniker nicht bekannt,aber DU wirst es mir sicherlich erklären.
Nebelkerze?
Muss ich raten was Du mir jetzt mitteilen willst?
Ja,da ich deinen Text leider nicht zu Spielen parallelisieren kann,dauert es noch sehr lange bis ich auf das Ergebnis komme.
Devastators
Grand Admiral Special
- Mitglied seit
- 03.06.2001
- Beiträge
- 17.242
- Renomée
- 149
- Standort
- Bochum
- Mein Laptop
- Acer 8730 & 3810T & VN7 791G
- Prozessor
- Intel Q9550
- Mainboard
- -
- Kühlung
- Arctic Freezer 7 Pro
- Speicher
- 4* 1 Gig DC
- Grafikprozessor
- Asus GTX 750TI
- Display
- Asus VW246H 24" FHD
- SSD
- Samsung 850 EVO
- HDD
- 2 * Sata Maxtor 200GB 1 * WD 250 Gig IDE
- Optisches Laufwerk
- Plextor PX750A
- Soundkarte
- -
- Gehäuse
- Antec P180
- Netzteil
- BeQuiet 450Watt Straight Power
- Betriebssystem
- Win7 64
- Webbrowser
- IExplorer 8
- Verschiedenes
- DigiCam: Canon EOS 300D, Canon 50D , Beamer: SanyoZ3 , Camcorder: Canon HF200 HD , PS3 , Wii
Ist mir als KFZ-Mechatroniker nicht bekannt,aber DU wirst es mir sicherlich erklären.
Ja,da ich deinen Text leider nicht zu Spielen parallelisieren kann,dauert es noch sehr lange bis ich auf das Ergebnis komme.
Da Du scheinbar weder interessiert und/oder nicht in der Lage bist irgendwie Sachlich zu folgen, hat sich das für mich erledigt.
--- Update ---
Es gibt nicht nur das eine oder das andere sondern auch gemischten Workload, also nicht nur schwarz oder weiss sondern einen riesigen grauen Bereich dazwischen.
wen meinst Du jetzt und worauf beziehst Du Dich?
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.491
- Renomée
- 2.030
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Diejenigen die die Einzelkernleistung als Maß aller Dinge hervor heben wolle, da man ja sonst die Programmierart ändern müßte und nicht in allen Lebenslagen ein mehrfaches an Leistung raus bekommen kann.
Devastators
Grand Admiral Special
- Mitglied seit
- 03.06.2001
- Beiträge
- 17.242
- Renomée
- 149
- Standort
- Bochum
- Mein Laptop
- Acer 8730 & 3810T & VN7 791G
- Prozessor
- Intel Q9550
- Mainboard
- -
- Kühlung
- Arctic Freezer 7 Pro
- Speicher
- 4* 1 Gig DC
- Grafikprozessor
- Asus GTX 750TI
- Display
- Asus VW246H 24" FHD
- SSD
- Samsung 850 EVO
- HDD
- 2 * Sata Maxtor 200GB 1 * WD 250 Gig IDE
- Optisches Laufwerk
- Plextor PX750A
- Soundkarte
- -
- Gehäuse
- Antec P180
- Netzteil
- BeQuiet 450Watt Straight Power
- Betriebssystem
- Win7 64
- Webbrowser
- IExplorer 8
- Verschiedenes
- DigiCam: Canon EOS 300D, Canon 50D , Beamer: SanyoZ3 , Camcorder: Canon HF200 HD , PS3 , Wii
Diejenigen die die Einzelkernleistung als Maß aller Dinge hervor heben wolle, da man ja sonst die Programmierart ändern müßte und nicht in allen Lebenslagen ein mehrfaches an Leistung raus bekommen kann.
k.A., ist mir hier niemand aufgefallen.
mir persönlich ging es nur um die kindliche Vorstellung, mit "mal eben" gemachter Parallelisierung (am besten auf Knopfdruck) alle Probleme lösen zu können.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.491
- Renomée
- 2.030
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Es gibt eben immer solche und solche extreme.
Oft genug wurde ja auch bei diversen Diskussionen bei der lausigen CPU Unterstützung von Physx damit argumentiert das eben nicht alles parallelisierbar wäre, nur warum läuft die beschleunigte Variante dann auf extrem parallelisierten Architekturen wie den GPUs, war aber nicht in der Lage alle Kerne der CPU zu verwenden?
Das wird mir einfach viel zu oft als Totschlagargument für fehlende Weiterentwicklung verwendet.
Oft genug wurde ja auch bei diversen Diskussionen bei der lausigen CPU Unterstützung von Physx damit argumentiert das eben nicht alles parallelisierbar wäre, nur warum läuft die beschleunigte Variante dann auf extrem parallelisierten Architekturen wie den GPUs, war aber nicht in der Lage alle Kerne der CPU zu verwenden?
Das wird mir einfach viel zu oft als Totschlagargument für fehlende Weiterentwicklung verwendet.
Devastators
Grand Admiral Special
- Mitglied seit
- 03.06.2001
- Beiträge
- 17.242
- Renomée
- 149
- Standort
- Bochum
- Mein Laptop
- Acer 8730 & 3810T & VN7 791G
- Prozessor
- Intel Q9550
- Mainboard
- -
- Kühlung
- Arctic Freezer 7 Pro
- Speicher
- 4* 1 Gig DC
- Grafikprozessor
- Asus GTX 750TI
- Display
- Asus VW246H 24" FHD
- SSD
- Samsung 850 EVO
- HDD
- 2 * Sata Maxtor 200GB 1 * WD 250 Gig IDE
- Optisches Laufwerk
- Plextor PX750A
- Soundkarte
- -
- Gehäuse
- Antec P180
- Netzteil
- BeQuiet 450Watt Straight Power
- Betriebssystem
- Win7 64
- Webbrowser
- IExplorer 8
- Verschiedenes
- DigiCam: Canon EOS 300D, Canon 50D , Beamer: SanyoZ3 , Camcorder: Canon HF200 HD , PS3 , Wii
genau... Es sind Einzelfälle und müssen individuell entschieden werden.
Wie bereits schon angedeutet, entscheidet letztendlich auch die Wirtschaftlichkeit wie viel Manpower in die Codeoptimierung gesteckt werden kann und soll.
Deine Beispiele bzgl. Physx kenne ich nicht und ich muss auch zugeben, dass ich im Bereich GPGPU Programmierung nicht wirklich praktische Erfahrung habe.
Ich habe mich aber die letzten Jahre durchaus bemüht, meinen zu verwalteten Programmcode, u.A. auch älterer Programme, stellenweise Multi-Thread tauglich zu bekommen.
Das ist eine ziemliche Schweinskramsarbeit altes Zeugs zu durchwühlen und Optimieren und steht oft in keinem Verhältnis zur Möglichen Leistungssteigerung.
Alten Krempel umstellen bedeutet auch oft, die gesamte Debug-Phase zu wiederholen.
Bei einer kompletten Neuentwicklung, mit Berücksichtigung möglicher Parallelisierung von der ersten Zeile an, sieht das ganz anders aus.
Wie bereits schon angedeutet, entscheidet letztendlich auch die Wirtschaftlichkeit wie viel Manpower in die Codeoptimierung gesteckt werden kann und soll.
Deine Beispiele bzgl. Physx kenne ich nicht und ich muss auch zugeben, dass ich im Bereich GPGPU Programmierung nicht wirklich praktische Erfahrung habe.
Ich habe mich aber die letzten Jahre durchaus bemüht, meinen zu verwalteten Programmcode, u.A. auch älterer Programme, stellenweise Multi-Thread tauglich zu bekommen.
Das ist eine ziemliche Schweinskramsarbeit altes Zeugs zu durchwühlen und Optimieren und steht oft in keinem Verhältnis zur Möglichen Leistungssteigerung.
Alten Krempel umstellen bedeutet auch oft, die gesamte Debug-Phase zu wiederholen.
Bei einer kompletten Neuentwicklung, mit Berücksichtigung möglicher Parallelisierung von der ersten Zeile an, sieht das ganz anders aus.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Dann probier mal den LuxMark Bench aus und schau ob deine CPU die selben % Arbeitseinteilung bekommt wie bei meinem Bild.Worauf willst Du jetzt hinaus?
Rendern ist einer der Aufgabengebiete, die sich sehr gut parallelisieren läßt.
Und wenn Dein "LuxMark Renderer" das kann, dann nur weil es entsprechend vorab so programmiert wurde und nicht weil jemand im Compiler das Parallelisierungsflag gesetzt hat.
Um es mal ganz einfach runter zu brechen:
Matheklausur mit 8 Aufgaben.
Eine Klausur kannst Du mit 3 Kollegen zusammen beginnen.
Jeder nimmt sich eine der 8 Aufgaben und rechnet sie unabhängig vom Kollegen.
Insgesamt könnt ihr die Aufgaben parallel abarbeiten und seid im Idealfall 4x schneller fertig.
Jetzt kommt aber die Schwierigkeit hinzu, dass Aufgabe 2 mit dem Ergebnis von Aufgabe 1 weiter rechnet u.s.W.
Da sitzen nun 3 Leute auf Bereitschaft und warten bis Du mit Aufgabe 1 fertig bist.
Geschwindigkeitsvorteil = 0.
Und es macht auch keinen Sinn eine einzige Aufgabe mit 4 Leuten zu berechnen, denn schneller als der beste Matherechner wirst Du nicht werden.
Du kannst diese Aufgabe nicht weiter aufteilen.
So macht es keinen Sinn mehr, ob Du nun alleine, zu zweit, zu 6 oder 256 Leuten vor dieser Aufgabe sitzt, Du wirst keine Sekunde früher fertig mit der Aufgabe.
Es gibt nur einen Weg diese gegebene Aufgabe schneller zu lösen -> eine Person hinsetzen die schneller rechnen kann, denn weitere Parallelisierung bringt Dich hier nicht weiter.
Working balance überprüft während der Laufzeit wie stark die CPU und GPU ist und Teilt die Arbeit in Echtzeit auf.
Wenn die GPU z.B. doppelt so schnell ist wird es zu 25%/75% (CPU/GPU) aufgeteilt.
Mir ist die sequntielle Abarbeitung schon bewusst und dem möchte ich auch nicht wiedersprechen.
Allerdings bestehen Spiele nicht nur aus einfachen Rechenaufgaben (verschiedene Ansichten im 3D Koordinaten System) sonst könnte man auch auf einem Taschenrechner spielen.
Alten Code Multi-threading bei bringen ist gewiss mit Arbeit verbunden, wenn es so viel Arbeit ist, dann lohnt es sich individuell komplett neu zu schreiben.
Allein schon wegen den neuen Befehlssätze, die ganze Seiten alten Code ersetzen können.
HSA kommt ja auch nicht von ungefähr etwa könnte...
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.491
- Renomée
- 2.030
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@Devastators
Das Ding mit physx ist relativ einfach.
Kann die Grafikkarte die erweiterte Form nicht berechnen wird es von der CPU erledig. Bis physx 3.0 mit der wohl lausigsten CPU Unterstützung die es gab (kein multithreading, FPU Code), das ging mitte 2010 durch die Presse.
Man könnte meinen das dies inzwischen Geschichte ist aber als ich neulich mal dem Benchmark von "Metro: Last Light" rumspielte zeigte sich trotz aktuellem Physx genau das Gegenteil. Mit der erweiterten Physik fiel die Framerate ins bodenlose und die CPU wurde dabei entlastet, kein Wunder denn in der Physx System Software ist auch nur von einer Unterstützung bis zur SDK Version 2.8.4 die Rede.
Stolze Leistung dafür das die Aussage vor 5-6 Jahren getroffen wurde.
Das hat wohl kaum etwas mit technischen Gründen sondern vielmehr mit fehlenden Interesse an einer deutlichen Verbesserung der Leistung beim Einsatz auf einer CPU zu tuen.
Mich würde es nicht wundern wenn solche produktpolitischen Entscheidungen in vielen Fällen deutlich entscheidener für mangelhaften Multicore Support sind als technische Gründe.
Seitens Spiele Hersteller will man sich einfach die Kosten sparen. Frei nach dem Motte für die meisten reichts ja. Der Rest darf dann einfach entsprechend tief in die Tasche greifen um diesen Mangel mit stärkerer Hardware oder OC auszugleichen.
Das Ding mit physx ist relativ einfach.
Kann die Grafikkarte die erweiterte Form nicht berechnen wird es von der CPU erledig. Bis physx 3.0 mit der wohl lausigsten CPU Unterstützung die es gab (kein multithreading, FPU Code), das ging mitte 2010 durch die Presse.
Man könnte meinen das dies inzwischen Geschichte ist aber als ich neulich mal dem Benchmark von "Metro: Last Light" rumspielte zeigte sich trotz aktuellem Physx genau das Gegenteil. Mit der erweiterten Physik fiel die Framerate ins bodenlose und die CPU wurde dabei entlastet, kein Wunder denn in der Physx System Software ist auch nur von einer Unterstützung bis zur SDK Version 2.8.4 die Rede.
Stolze Leistung dafür das die Aussage vor 5-6 Jahren getroffen wurde.
Das hat wohl kaum etwas mit technischen Gründen sondern vielmehr mit fehlenden Interesse an einer deutlichen Verbesserung der Leistung beim Einsatz auf einer CPU zu tuen.
Mich würde es nicht wundern wenn solche produktpolitischen Entscheidungen in vielen Fällen deutlich entscheidener für mangelhaften Multicore Support sind als technische Gründe.
Seitens Spiele Hersteller will man sich einfach die Kosten sparen. Frei nach dem Motte für die meisten reichts ja. Der Rest darf dann einfach entsprechend tief in die Tasche greifen um diesen Mangel mit stärkerer Hardware oder OC auszugleichen.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 52K