App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
- Foren
- Planet 3DNow! Community
- Planet 3DNow! Distributed Computing
- Team Planet 3DNow!
- Café Planet 3DNow!
- Vorstellung, Jubiläen und Glückwünsche
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Olle Kalesche stellt sich vor
- Ersteller Olle Kalesche
- Erstellt am
Olle Kalesche
Admiral Special
★ Themenstarter ★
- Mitglied seit
- 02.04.2015
- Beiträge
- 1.126
- Renomée
- 72
- Standort
- Hessen
- Aktuelle Projekte
- Seti , Einstein , und andere
- Meine Systeme
- AMD Athlon 5350 , (AMD Athlon II X4 610e)
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Athlon(tm) 5350 APU with Radeon(tm) R3 @2100
- Mainboard
- ASRock AM1B-ITX
- Kühlung
- standard
- Speicher
- 1x Crucial Technology 8GB, BLT8G3D1608ET3LX0 800.0 MHz (DDR3-1600 / PC3-12800) @8,8,8,1T
- Grafikprozessor
- GTX 750Ti
- Display
- 27", SAMSUNG , T27C370, 1920 x 1080
- HDD
- Seagate ST2000DM001-9YN1
- Optisches Laufwerk
- Liteon, ATAPI iHAS624 B
- Soundkarte
- intern
- Gehäuse
- Sharkoon T28
- Netzteil
- Cooler Master V450S (450W,gold)
"Antworten" , Erweitert" , "+Antworten" ... was ist wofür ... ?
ich wähle jetzt "Direkt antworten" , mal seh'n was passiert ...
-----------------------------------------------------------
Hallo Leute ,
ich bin neu im "Planet 3DNow!"-Forum und bitte um Nachsicht - ich bin lernfähig und offen.
Meine Angaben im Forum sind noch nicht vollständig - wenn's gut läuft kommt mehr.
Also , wenn der Forum-Rechner jetzt bei diesem Versuch abstürzt - ICH WAR'S - habe Mist gebaut !!!
... Spaß muß sein , sorry Roland !
----------------------------------
Der Forumseintrag "Rechner für BOINC optimieren" sollte eigentlich für mein Anliegen passen ...
ich muß offensichtlich nix "Neues Eröffnen" - ich fang' einfach mal an.
----------------------------------
Los gehts :
Demnächst folgt sicherlich wieder der/die/das "BOINC Pentathlon" für 2015 !
Da möchte ich wieder mit dabeisein - ich bin PC mäßig nur 'ne kleine Nummer - "Dabeisein ..." usw. .
Mein PC : AsRock AM1B-ITX , Athlon 5350 , 8GB RAM + Nvidia GeForce GT 530 mit 2GB (super Watt-spar-Kiste !).
Meine "ollen Kamellen" verbrauchen mir zu viel Watt ! ... werden nur im Notfall aktiviert !
Betriebssystem : Wahlweise Win32pro (soll entsorgt werden) oder
Linux Mint 17 KDE (64 Bit , Kernel 3.16.? , System noch auf USB3.0-Stick) - ist absolut passabel lauffähig .
Kubuntu 15.04 ist ein eventueller Folgekandidat , wegen des Kernels 3.19.? (4.0?) - mal sehen.
Unter Win32 sehe ich , daß der/die/das GPU-Core etwa zu 85-90 % ausgelastet ist ,
GPU Memory Controller ist im Mittel etwa zu 75-80% ausgelastet ,
GPU Memory selbst ist nur zu geschätzt 15-20% ausgelastet !
Gewiß , die CPUs sind voll am Arbeiten (ich lasse z.B. "SETI V7 7.00" (cuda32 - LUNATICS 43a)" laufen).
Bei potenten Grakas kann man aber Parameter in Boinc einstellen , die die Auslastung/Effektivität
der Graka in die Höhe treibt - hab' ich hier im Forum irgendwo gelesen -
dummerweise gibt es keine Infos zu den "Mini-Grakas" - nur zu den "dicken Brummern".
Geht da noch was bei der GT 530 (weil der GPU-Speicher fast ungenutzt ist)
Unter Linux Mint 17 habe ich die iGPU des Athlon 5350 zum Laufen gebracht (Standard-Seti - noch kein LUNATICS) ,
danach die GT530 installiert und ...
die iGPU vom Athlon 5350 ist "nicht mehr da" ... - offensichtlich geht hier nur - ENTWEDER AMD-iGPU - ODER Nvidia-GPU ...
ich bin noch Anfängerin im Linux.
Also meine ersten Fragen an die Spezialisten hier im Forum :
1. Geht bei der Nvidia GT 530 noch was per Boinc-Parameter ?
Vermutlich nicht , weil vermutlich zu "dünne" Hardware.
2. Falls mehr ginge ... muß ich die Parameter nur für die Hardware oder auch pro Projekt anpassen ?
3. Eine bessere Graka (und PC) ist aus meiner Sicht geplant (aber noch nicht spruchreif ,
weil AMD den "Zen" bzw. etwas "Passendes" noch nicht anbietet).
Welche bessere Graka wäre sinnvoll für AsRock AM1B-ITX und Boinc
(mit Sicht auf "Zen" als dann passable Graka in Zukunft - um die 100-Watt !) ?
Eine GTX 750Ti oder GTX 960 (GTX 950?) sind wohl zu "dicke" für AsRock AM1B-ITX/ATHLON 5350 -
oder sollte es besser eine AMD-ATI-Graka sein ?
Hat jemand Antworten auf meine Fragen ?
Ich hätte noch tausend Fragen - doch für mein "Intro" hier im Forum soll's erst mal genug sein.
Danke von "Olle Kalesche"
P.S. Vielen Dank für die Hilfe Roland !
-----------------------------------
Sorry , wenn ich jetzt Sch... gebaut habe , aber ... ich muß einfach sehen , was passiert ...
ich wähle jetzt "Direkt antworten" , mal seh'n was passiert ...
-----------------------------------------------------------
Hallo Leute ,
ich bin neu im "Planet 3DNow!"-Forum und bitte um Nachsicht - ich bin lernfähig und offen.
Meine Angaben im Forum sind noch nicht vollständig - wenn's gut läuft kommt mehr.
Also , wenn der Forum-Rechner jetzt bei diesem Versuch abstürzt - ICH WAR'S - habe Mist gebaut !!!
... Spaß muß sein , sorry Roland !
----------------------------------
Der Forumseintrag "Rechner für BOINC optimieren" sollte eigentlich für mein Anliegen passen ...
ich muß offensichtlich nix "Neues Eröffnen" - ich fang' einfach mal an.
----------------------------------
Los gehts :
Demnächst folgt sicherlich wieder der/die/das "BOINC Pentathlon" für 2015 !
Da möchte ich wieder mit dabeisein - ich bin PC mäßig nur 'ne kleine Nummer - "Dabeisein ..." usw. .
Mein PC : AsRock AM1B-ITX , Athlon 5350 , 8GB RAM + Nvidia GeForce GT 530 mit 2GB (super Watt-spar-Kiste !).
Meine "ollen Kamellen" verbrauchen mir zu viel Watt ! ... werden nur im Notfall aktiviert !
Betriebssystem : Wahlweise Win32pro (soll entsorgt werden) oder
Linux Mint 17 KDE (64 Bit , Kernel 3.16.? , System noch auf USB3.0-Stick) - ist absolut passabel lauffähig .
Kubuntu 15.04 ist ein eventueller Folgekandidat , wegen des Kernels 3.19.? (4.0?) - mal sehen.
Unter Win32 sehe ich , daß der/die/das GPU-Core etwa zu 85-90 % ausgelastet ist ,
GPU Memory Controller ist im Mittel etwa zu 75-80% ausgelastet ,
GPU Memory selbst ist nur zu geschätzt 15-20% ausgelastet !
Gewiß , die CPUs sind voll am Arbeiten (ich lasse z.B. "SETI V7 7.00" (cuda32 - LUNATICS 43a)" laufen).
Bei potenten Grakas kann man aber Parameter in Boinc einstellen , die die Auslastung/Effektivität
der Graka in die Höhe treibt - hab' ich hier im Forum irgendwo gelesen -
dummerweise gibt es keine Infos zu den "Mini-Grakas" - nur zu den "dicken Brummern".
Geht da noch was bei der GT 530 (weil der GPU-Speicher fast ungenutzt ist)

Unter Linux Mint 17 habe ich die iGPU des Athlon 5350 zum Laufen gebracht (Standard-Seti - noch kein LUNATICS) ,
danach die GT530 installiert und ...
die iGPU vom Athlon 5350 ist "nicht mehr da" ... - offensichtlich geht hier nur - ENTWEDER AMD-iGPU - ODER Nvidia-GPU ...
ich bin noch Anfängerin im Linux.
Also meine ersten Fragen an die Spezialisten hier im Forum :
1. Geht bei der Nvidia GT 530 noch was per Boinc-Parameter ?
Vermutlich nicht , weil vermutlich zu "dünne" Hardware.
2. Falls mehr ginge ... muß ich die Parameter nur für die Hardware oder auch pro Projekt anpassen ?
3. Eine bessere Graka (und PC) ist aus meiner Sicht geplant (aber noch nicht spruchreif ,
weil AMD den "Zen" bzw. etwas "Passendes" noch nicht anbietet).
Welche bessere Graka wäre sinnvoll für AsRock AM1B-ITX und Boinc
(mit Sicht auf "Zen" als dann passable Graka in Zukunft - um die 100-Watt !) ?
Eine GTX 750Ti oder GTX 960 (GTX 950?) sind wohl zu "dicke" für AsRock AM1B-ITX/ATHLON 5350 -
oder sollte es besser eine AMD-ATI-Graka sein ?
Hat jemand Antworten auf meine Fragen ?
Ich hätte noch tausend Fragen - doch für mein "Intro" hier im Forum soll's erst mal genug sein.
Danke von "Olle Kalesche"
P.S. Vielen Dank für die Hilfe Roland !
-----------------------------------
Sorry , wenn ich jetzt Sch... gebaut habe , aber ... ich muß einfach sehen , was passiert ...
unterstudienrat
Moderator (DC)
☆☆☆☆☆☆
- Mitglied seit
- 14.07.2003
- Beiträge
- 10.162
- Renomée
- 1.841
- Standort
- Anne Elbe
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- SIMAP, F@H, POEM
- Lieblingsprojekt
- F@H; SIMAP
- Meine Systeme
- Opteron170, 175
- BOINC-Statistiken
- Folding@Home-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Opteron 170/175 @2,5-2,8GHz
- Mainboard
- 2x DFI Lanparty UT nf4 Ultra-D
- Kühlung
- AC WaKü
- Speicher
- 8x512MB A-Data Vitesta PC4000 200 MHz @2,5; 3, 3, 11
Hallo und HERZLICH WILLKOMMEN
auf dem GRÜNEN PLANETEN
Habe mir mal erlaubt Deinen Beitrag in einen eigenen Thread zu verschieben.
So sollte er besser aufgehoben sein.
Für "ICH WARs - habe Mist gebaut !!!" sind hier nicht die neuen zuständig
Da haben wir schon den einen oder anderen der Dir das abnimmt
Zu Deinen Fragen wird hier mit Sicherheit noch die eine oder andere Antwort folgen.
Viel Spaß hier bei und mit uns, auch in Hinsicht auf den bevorstehenden Pentathlon.
Gruß
D.U.
auf dem GRÜNEN PLANETEN
Habe mir mal erlaubt Deinen Beitrag in einen eigenen Thread zu verschieben.
So sollte er besser aufgehoben sein.
Für "ICH WARs - habe Mist gebaut !!!" sind hier nicht die neuen zuständig

Da haben wir schon den einen oder anderen der Dir das abnimmt

Zu Deinen Fragen wird hier mit Sicherheit noch die eine oder andere Antwort folgen.
Viel Spaß hier bei und mit uns, auch in Hinsicht auf den bevorstehenden Pentathlon.
Gruß
D.U.
cyrusNGC_224
Grand Admiral Special
- Mitglied seit
- 01.05.2014
- Beiträge
- 5.924
- Renomée
- 117
- Aktuelle Projekte
- POGS, Asteroids, Milkyway, SETI, Einstein, Enigma, Constellation, Cosmology
- Lieblingsprojekt
- POGS, Asteroids, Milkyway
- Meine Systeme
- X6 PII 1090T, A10-7850K, 6x Athlon 5350, i7-3632QM, C2D 6400, AMD X4 PII 810, 6x Odroid U3
- BOINC-Statistiken
Der Athlon 5350 ist in unseren Furparks gern gesehen. Die IGP alleine bringt z.B. eine Menge beim Projekt Collatz.
Die Wahl eine separaten GPU würde ich auf AMD begrenzen, obwohl NV auch funktioniert. Und ja, die IGP scheint exklusiv zu sein, also nicht mehr nutzbar, wenn eine separate eingesteckt wird.
Die kann übrigens so dick sein, wie man mag. Ich habe eine R9 280X, ohne dass diese wegen der schmalen PCIe Anbindung schwächeln würde.
Achja, Unter Linux laufen diese Athlons inklusive IGP auch prima.
Die Wahl eine separaten GPU würde ich auf AMD begrenzen, obwohl NV auch funktioniert. Und ja, die IGP scheint exklusiv zu sein, also nicht mehr nutzbar, wenn eine separate eingesteckt wird.
Die kann übrigens so dick sein, wie man mag. Ich habe eine R9 280X, ohne dass diese wegen der schmalen PCIe Anbindung schwächeln würde.
Achja, Unter Linux laufen diese Athlons inklusive IGP auch prima.
Olle Kalesche
Admiral Special
★ Themenstarter ★
- Mitglied seit
- 02.04.2015
- Beiträge
- 1.126
- Renomée
- 72
- Standort
- Hessen
- Aktuelle Projekte
- Seti , Einstein , und andere
- Meine Systeme
- AMD Athlon 5350 , (AMD Athlon II X4 610e)
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Athlon(tm) 5350 APU with Radeon(tm) R3 @2100
- Mainboard
- ASRock AM1B-ITX
- Kühlung
- standard
- Speicher
- 1x Crucial Technology 8GB, BLT8G3D1608ET3LX0 800.0 MHz (DDR3-1600 / PC3-12800) @8,8,8,1T
- Grafikprozessor
- GTX 750Ti
- Display
- 27", SAMSUNG , T27C370, 1920 x 1080
- HDD
- Seagate ST2000DM001-9YN1
- Optisches Laufwerk
- Liteon, ATAPI iHAS624 B
- Soundkarte
- intern
- Gehäuse
- Sharkoon T28
- Netzteil
- Cooler Master V450S (450W,gold)
@unterstudienrat
Danke für das HERZLICHE WILLKOMMEN .
Daß Du für meine Anfrage einen eigenen Thread angelegt hast ist OK -
Du kannst das besser beurteilen als ich.
Ich werde in jedem Fall versuchen Sinnvolles hier im Forum beizutragen ...
@cyrusNGC_224
Danke für Deine Antwort .
Wie ich erwähnte , ich hab' die IGP des Athlon 5350 (Kalindi) im Linux Mint 17 zum Laufen gebracht.
Wenn ich mich recht erinnere (habe Linux z.Zt. nicht laufen) meldete der Boinc-Start in etwa
knapp 100 GFOLPS peak für die Kalindi.
Unter WinXP32 zeigt der Boinc-Start 269 GFOLPS peak für die GT 530.
Also nutze ich die GT 530 im Augenblick für Win und Linux.
Bei der geplanten GPU achte ich zuerst auf die verbratenen Watt - der PC läuft manchmal 24h und mehr -
währenddessen läuft auch Boinc.
Die GTX 750Ti braucht gerade mal ca. 10 Watt mehr (ca. 60W, übertaktet max. 75W) als meine
GT 530 (ca. 50W) und leistet x-Mal soviel.
Eine GTX 960 braucht etwa 120W , etwas "heruntergetaktet" angeblich unter 100W
bei nur ein paar % Leistungsverlust.
Bei den AMD-GPUs warte ich auf ein ähnliches "Rechenleistung/Watt"-Verhältnis (nächste Generation).
Um die 100W maximal für die GPU ist mein Ziel.
Neue Frage :
Wenn ich mit dem 5350 eine AMD-ATI-GPU laufen lasse , kann Kalindi dann mitrechnen ?
Danke für das HERZLICHE WILLKOMMEN .
Daß Du für meine Anfrage einen eigenen Thread angelegt hast ist OK -
Du kannst das besser beurteilen als ich.
Ich werde in jedem Fall versuchen Sinnvolles hier im Forum beizutragen ...
@cyrusNGC_224
Danke für Deine Antwort .
Wie ich erwähnte , ich hab' die IGP des Athlon 5350 (Kalindi) im Linux Mint 17 zum Laufen gebracht.
Wenn ich mich recht erinnere (habe Linux z.Zt. nicht laufen) meldete der Boinc-Start in etwa
knapp 100 GFOLPS peak für die Kalindi.
Unter WinXP32 zeigt der Boinc-Start 269 GFOLPS peak für die GT 530.
Also nutze ich die GT 530 im Augenblick für Win und Linux.
Bei der geplanten GPU achte ich zuerst auf die verbratenen Watt - der PC läuft manchmal 24h und mehr -
währenddessen läuft auch Boinc.
Die GTX 750Ti braucht gerade mal ca. 10 Watt mehr (ca. 60W, übertaktet max. 75W) als meine
GT 530 (ca. 50W) und leistet x-Mal soviel.
Eine GTX 960 braucht etwa 120W , etwas "heruntergetaktet" angeblich unter 100W
bei nur ein paar % Leistungsverlust.
Bei den AMD-GPUs warte ich auf ein ähnliches "Rechenleistung/Watt"-Verhältnis (nächste Generation).
Um die 100W maximal für die GPU ist mein Ziel.
Neue Frage :
Wenn ich mit dem 5350 eine AMD-ATI-GPU laufen lasse , kann Kalindi dann mitrechnen ?
cyrusNGC_224
Grand Admiral Special
- Mitglied seit
- 01.05.2014
- Beiträge
- 5.924
- Renomée
- 117
- Aktuelle Projekte
- POGS, Asteroids, Milkyway, SETI, Einstein, Enigma, Constellation, Cosmology
- Lieblingsprojekt
- POGS, Asteroids, Milkyway
- Meine Systeme
- X6 PII 1090T, A10-7850K, 6x Athlon 5350, i7-3632QM, C2D 6400, AMD X4 PII 810, 6x Odroid U3
- BOINC-Statistiken
Erfahrungsgemäß nein. Die IGP wird dann einfach ignoriert, also auch nicht gelistet.
Fränki´s Welle
Grand Admiral Special
- Mitglied seit
- 17.11.2007
- Beiträge
- 2.777
- Renomée
- 73
- Meine Systeme
- Intel(R) Core(TM) i7-8700 CPU @ 3.20 Ghz
- BOINC-Statistiken
- Folding@Home-Statistiken
- Details zu meinem Desktop
- Prozessor
- Intel(R) Core(TM) i7-8700 CPU @ 3.20 Ghz
- Mainboard
- Micro_Star Z390-A Pro
- Speicher
- 2 * Corsair DDR4 2132 8 GB
- Grafikprozessor
- NVIDIA GPU GeForce GTX 1060 6 GB
- Display
- Medion 24"
- SSD
- CT 240BX500
- HDD
- TOSHIBA
- Optisches Laufwerk
- GSA-H10N
- Betriebssystem
- Win 10
- Webbrowser
- SeaMonkey
Erstmal willkommen @ Olle Kalesche und viel Spaß bei uns.
Klappt das mit der IGP und einer GPU nur bei AMD nicht?
Ich hab einen Intel i5 und eine Nvidea Grafikkarte in meinem Laptop und unter Boinc werden beide erkannt und rechnen auch beide parallel.
Klappt das mit der IGP und einer GPU nur bei AMD nicht?
Ich hab einen Intel i5 und eine Nvidea Grafikkarte in meinem Laptop und unter Boinc werden beide erkannt und rechnen auch beide parallel.
Unbekannter Krieger
Grand Admiral Special
- Mitglied seit
- 04.10.2013
- Beiträge
- 4.606
- Renomée
- 119
- Mein Laptop
- HP 15-bq102ng (sackteuer u. ab Werk instabil)
- Details zu meinem Desktop
- Prozessor
- FX-8320E@4,2 GHz & 2,6 GHz Northbridge (jeweils mit UV)
- Mainboard
- Asus M5A99X Evo R2.0 (eher enttäuschend ggü. ASRock E3)
- Kühlung
- Raijintek Nemesis (Lüfter mittig im sowie hinter dem Kühler; erstklassig)
- Speicher
- 4x4 GiB Hynix DDR3-1866 ECC
- Grafikprozessor
- XFX RX 570 8G (P8DFD6)@1180 & 2150 MHz@starkem, fortdauerndem UV | ASRock RX 570 8G@das Gleiche
- Display
- BenQ XL2411T ~ nach 3 RMAs und 6 Monaten wieder brauchbar
- SSD
- Crucial MX100 256 GB (ein Glückskauf) | SanDisk Ultra Plus 256 GB (ein Glückskauf)
- HDD
- WD20EZRZ u. a. (Seagate, Hitachi, WD)
- Optisches Laufwerk
- TSST SH-222AL
- Gehäuse
- Corsair Carbide 300R (ein Fehlkauf)
- Netzteil
- CoolerMaster V450S (ein Glückskauf)
- Betriebssystem
- Win8.x x64, Win7 x64
- Webbrowser
- welche mit minimalem Marktanteil & sinnvollen Konzepten (nicht Chrome-Seuche und Sieche-Fuchs)
- Verschiedenes
- frühere GPUs: , Asus RX 480 O8G@580 O8G, VTX3D 7850 1G
Da stecken leider viele Halbwahrheiten drin. Zunächst einmal solltest du dir im klaren sein, wie Nvidia seine GPUs so "effizient" bekommt, also wieso sie wie viel Strom weniger benötigen und wieso sie wie viel weniger Hitze erzeugen. Ein Punkt ist hier die z.T. künstlich beschnittene Double-Precision-Leistung (DP). Die entsprechenden Hardwareeinheiten brauchen Strom. Sind sie nicht vorhanden, braucht der Grafikchip plötzlich weniger Strom selbst in Anwendungsfällen, in denen vorhandene DP-Einheiten gar nicht genutzt würden.Olle Kalesche schrieb:Bei der geplanten GPU achte ich zuerst auf die verbratenen Watt - der PC läuft manchmal 24h und mehr -
währenddessen läuft auch Boinc.
Die GTX 750Ti braucht gerade mal ca. 10 Watt mehr (ca. 60W, übertaktet max. 75W) als meine
GT 530 (ca. 50W) und leistet x-Mal soviel.
Eine GTX 960 braucht etwa 120W , etwas "heruntergetaktet" angeblich unter 100W
bei nur ein paar % Leistungsverlust.
Zweitens berechnet Nvidia - nach dem, was ich vor einigen Monaten las - seine TDP hierbei anders als AMD:
- Bei AMD gibt die TDP an, welche Kühlung typischerweise vonnöten wäre, wenn alle Einheiten der GPU auf übliche Weise (Volllast durch tatsächliche Nutzung, nicht durch "Powerviren" wie Furmark und Prime95) gleichzeitig in Aktion treten;
- Nvidias TDP gibt an, welche Kühlung typischerweise vonnöten wäre, wenn alle Einheiten der GPU bis auf DP-Einheiten auf übliche Weise (Volllast durch tatsächliche Nutzung, nicht durch "Powerviren" wie Furmark und Prime95) gleichzeitig in Aktion treten.
Und nun rate mal, welche Einheiten beim Crunchen/BOINCen sehr profitabel sein können (je nach Projekt).
Drittens werden die Chipträger (keine Ahnung, wie das offiziell heißt; bitte korrigieren, falls bekannt) von Nvidia immer größer gewählt, als nötig wäre, damit die Hitze sich besser verteilen und abgeleitet werden kann. Die größeren Träger kosten Nvidia mehr als die von AMD verwendeten kleineren Exemplare, doch Nvidia kann die Kosten dafür schließlich einfach an den Kunden weiterreichen; das nennt man Premiumaufpreis.
Viertens solltest du ganz allgemein keinem Hersteller allzuweit trauen, der seine Angaben über jede Gebühr (also auch bei geduldiger Hinnahme der branchenüblichen Tricks) schönt. Hier seien genannt:
- eine ARM-CPU samt GPU, die gemäß Nvidia fünfmal schneller als (= sechsmal so schnell wie) der Vorgänger ist; wie sich herausstellte, addierte Nvidia für diese Angabe einfach die Leistungssteigerung vom CPU- und vom GPU-Teil - also dreimal so schnell plus zweimal so schnell gleich fünfmal schneller.
- die tolle neue, dennoch namenlose und nur heimlich bei einem Produkt, das nicht mal die Speerspitze zu dem Zeitpunkt bildete, gebrauchte Technologie, die es ermöglicht, an ein Speicherinterface, welches maximal 3,5 GiB Grafikspeicher performant beliefern kann, weiteren Grafikspeicher anzubinden, der nur mit einem Bruchteil der Geschwindigkeit verwendet werden kann und das auch nur, wenn ein anderer Teil des Speichers zum gleichen Zeitpunkt Ruhepause hat, sodass Mikro- bis Makroruckler schon bei FullHD, vor allem aber darüber entstehen - und das bei einem über 300 bis über 400 Euro teuren und bereits von Spulenfiepen heimgesuchten Produkt. Ein Wunder, dass schon nach einem halben Jahr im Verkauf bekannt gegeben wurde, dass diese grandiose Technologie extra hierfür erfunden wurde.
Um konkret zu werden, die GTX 960 ist maximal ebenbürtig mit der Monate zuvor erschienenen, von Leuten außerhalb von Redaktionen verrissenen, von Nvidia belächelten/geschmähten, von Redaktionen als gut, aber zu teuren und ggf. mit zu wenig Speicher ausgestatteten R9 285. Dazu kommt, dass bei den GeForce-900ern Spulenfiepen und starker Effizienzabfall bei Betrieb außerhalb der Referenzspezifikationen (= schon bei leichter Übertaktung, Änderung des Power Targets, geschweige denn bei direkter Spannungsänderung) an der Tagesordnung sind. Man kann hier also nur entweder Effizienz oder gute Leistung erzielen. Beides zu vereinbaren ist schwierig.
Sapphires ITX-Version der R9 285 ist sehr gut gelungen und beeindruckte HT4Us Tester. Entscheidest du dich noch zu einer leichten bis mittleren Spannungsreduzierung (bei AMD traditionell sehr gut möglich, ohne die Stabilität zu gefährden - leider, denn somit könnte man die Karten theoretisch gleich effizienter auf den Markt bringen), hast du einen sehr guten Kandidaten sowohl für Spiele als auch fürs BOINCen. Das einzig Abschreckende bleibt die relativ geringe Speicherausstattung, wobei manch einer sagt, dass es noch eine ganze Weile reichen wird.* Der verdoppelte Speicher der neuen Sapphire-290X brachte im HT4U-Test immerhin fast keinen Vorteil. Ähnliches war bei der HD 7850 der Fall, weshalb die 1-GiB-Versionen zum Preis-Leistungs-Kracher wurden.
Irgendetwas wollte ich noch ansprechen. Naja, vllt. wird es mir später einfallen.
* - Nachtrag: Ich vergaß, dass ich einen direkten Vergleich von GTX 960 und R9 285 begonnen hatte. In dem Fall ist die Speicherausstattung schon wieder nicht so gering, da beide gleich viel haben.
Zuletzt bearbeitet:
Fränki´s Welle
Grand Admiral Special
- Mitglied seit
- 17.11.2007
- Beiträge
- 2.777
- Renomée
- 73
- Meine Systeme
- Intel(R) Core(TM) i7-8700 CPU @ 3.20 Ghz
- BOINC-Statistiken
- Folding@Home-Statistiken
- Details zu meinem Desktop
- Prozessor
- Intel(R) Core(TM) i7-8700 CPU @ 3.20 Ghz
- Mainboard
- Micro_Star Z390-A Pro
- Speicher
- 2 * Corsair DDR4 2132 8 GB
- Grafikprozessor
- NVIDIA GPU GeForce GTX 1060 6 GB
- Display
- Medion 24"
- SSD
- CT 240BX500
- HDD
- TOSHIBA
- Optisches Laufwerk
- GSA-H10N
- Betriebssystem
- Win 10
- Webbrowser
- SeaMonkey
@ Unbekannter Krieger. Danke für diesen ausführichen Artikel.
NUR: Das wird @ Olle Kalesche nicht viel Info geben bei seiner Suche nach einer GPU die um die 100 W verbraucht und ein gutes "Rechenleistung/Watt"-Verhältnis bestitzt.
Besser wäre es wenn du ihm Vorschläge zu einer GPU geben könntest die seiner Suche entsprechen oder du ihm sagst das es so eine GPU zur Zeit nicht gibt.
NUR: Das wird @ Olle Kalesche nicht viel Info geben bei seiner Suche nach einer GPU die um die 100 W verbraucht und ein gutes "Rechenleistung/Watt"-Verhältnis bestitzt.
Besser wäre es wenn du ihm Vorschläge zu einer GPU geben könntest die seiner Suche entsprechen oder du ihm sagst das es so eine GPU zur Zeit nicht gibt.
Unbekannter Krieger
Grand Admiral Special
- Mitglied seit
- 04.10.2013
- Beiträge
- 4.606
- Renomée
- 119
- Mein Laptop
- HP 15-bq102ng (sackteuer u. ab Werk instabil)
- Details zu meinem Desktop
- Prozessor
- FX-8320E@4,2 GHz & 2,6 GHz Northbridge (jeweils mit UV)
- Mainboard
- Asus M5A99X Evo R2.0 (eher enttäuschend ggü. ASRock E3)
- Kühlung
- Raijintek Nemesis (Lüfter mittig im sowie hinter dem Kühler; erstklassig)
- Speicher
- 4x4 GiB Hynix DDR3-1866 ECC
- Grafikprozessor
- XFX RX 570 8G (P8DFD6)@1180 & 2150 MHz@starkem, fortdauerndem UV | ASRock RX 570 8G@das Gleiche
- Display
- BenQ XL2411T ~ nach 3 RMAs und 6 Monaten wieder brauchbar
- SSD
- Crucial MX100 256 GB (ein Glückskauf) | SanDisk Ultra Plus 256 GB (ein Glückskauf)
- HDD
- WD20EZRZ u. a. (Seagate, Hitachi, WD)
- Optisches Laufwerk
- TSST SH-222AL
- Gehäuse
- Corsair Carbide 300R (ein Fehlkauf)
- Netzteil
- CoolerMaster V450S (ein Glückskauf)
- Betriebssystem
- Win8.x x64, Win7 x64
- Webbrowser
- welche mit minimalem Marktanteil & sinnvollen Konzepten (nicht Chrome-Seuche und Sieche-Fuchs)
- Verschiedenes
- frühere GPUs: , Asus RX 480 O8G@580 O8G, VTX3D 7850 1G
Das ist völlig richtig. Ich empfehle: Warte noch etwas auf die R9 370er und R7 360er. Eine davon wird bestimmt die Kriterien erfüllen.
Die GTX 750Ti macht schon ordentlich Dampf bei Seti und ist dabei noch bescheiden im Verbrauch. Bei den größeren ist bestimmt auch noch ein neues Netzteil fällig !!
In dem System laufen 2 Wus parallel auf der 750 Ti bei Seti:
http://setiathome.berkeley.edu/results.php?hostid=6637658
Grafikkarten bei Seti
http://setiathome.berkeley.edu/gpu_list.php
app_config.xml für Seti (2 Wus parallel auf der Grafik, Cuda)
In dem System laufen 2 Wus parallel auf der 750 Ti bei Seti:
http://setiathome.berkeley.edu/results.php?hostid=6637658
Grafikkarten bei Seti
http://setiathome.berkeley.edu/gpu_list.php
Auf der GeForce GT 530 gehen auch 2 Wus parallel. Ob es sich lohnt, müßtest Du ausprobieren. Geht auch mit den Lunatics -->Olle Kalesche schrieb:Unter Win32 sehe ich , daß der/die/das GPU-Core etwa zu 85-90 % ausgelastet ist ,
GPU Memory Controller ist im Mittel etwa zu 75-80% ausgelastet ,
GPU Memory selbst ist nur zu geschätzt 15-20% ausgelastet !
Die app_config.xml z. B. mit dem Notepad erstellen und in den Projektordner von Seti im BOINC data directory (bei Win7 ist dies gewöhnlich "C:\ProgramData\BOINC\projects\setiathome.berkeley.edu") kopieren. Beachtet, dass die Dateiendung 'xml' lautet und nicht 'xml.txt' oder ähnliches!
app_config.xml für Seti (2 Wus parallel auf der Grafik, Cuda)
<app_config>
<app>
<name>setiathome_v7</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.2</cpu_usage>
</gpu_versions>
</app>
<app>
<name>astropulse_v7</name>
<max_concurrent>1</max_concurrent>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.2</cpu_usage>
</gpu_versions>
</app>
</app_config>
<app>
<name>setiathome_v7</name>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.2</cpu_usage>
</gpu_versions>
</app>
<app>
<name>astropulse_v7</name>
<max_concurrent>1</max_concurrent>
<gpu_versions>
<gpu_usage>0.5</gpu_usage>
<cpu_usage>0.2</cpu_usage>
</gpu_versions>
</app>
</app_config>
Zuletzt bearbeitet:
Olle Kalesche
Admiral Special
★ Themenstarter ★
- Mitglied seit
- 02.04.2015
- Beiträge
- 1.126
- Renomée
- 72
- Standort
- Hessen
- Aktuelle Projekte
- Seti , Einstein , und andere
- Meine Systeme
- AMD Athlon 5350 , (AMD Athlon II X4 610e)
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Athlon(tm) 5350 APU with Radeon(tm) R3 @2100
- Mainboard
- ASRock AM1B-ITX
- Kühlung
- standard
- Speicher
- 1x Crucial Technology 8GB, BLT8G3D1608ET3LX0 800.0 MHz (DDR3-1600 / PC3-12800) @8,8,8,1T
- Grafikprozessor
- GTX 750Ti
- Display
- 27", SAMSUNG , T27C370, 1920 x 1080
- HDD
- Seagate ST2000DM001-9YN1
- Optisches Laufwerk
- Liteon, ATAPI iHAS624 B
- Soundkarte
- intern
- Gehäuse
- Sharkoon T28
- Netzteil
- Cooler Master V450S (450W,gold)
@ cyrusNGC_224
Ja , leider (offensichtlich) , d.h. aber auch , wenn ich eine APU kaufe ,
dann sollte ich die Finger von den GPUs lassen.
Bei AMD und Nvidia verstehe ich noch den Konkurrenzkampf , wenn einer in den Treibern
den ANDEREN "abschaltet" - obwohl das eigentlich mieß ist - ich habe doch für beide
Hardware-Produkte bezahlt - dann will ich auch BEIDE AUSNUTZEN !
Dennoch finde ich es "seltsam" , daß AMD viel APUs verkauft und eine APU mit iGPU plus
zusätzlich eine GPU (sogar aus dem eigenen Haus) in Ihren Treibern offensichtlich nicht unterstützt !?
Ist diese Situation nicht oft genug gegeben ?
Ich könnte mir vorstellen , daß so mancher PC-User mit der iGPU bei Boinc rechnen
und mit der GPU spielen , Fotos bearbeiten oder sonstiges durchführen will ,
evtl. auch umgekehrt - per Boinc-Parameter kann man bestimmen , welche (i)GPU beim Rechnen
benutzt werden soll - keine - beide oder nur eine bestimmte (i)GPU.
@ Fränki's Welle
Danke für das Willkommen.
"Klappt das mit der IGP und einer GPU nur bei AMD nicht?" ...
Vermutlich ist das so - leider - evtl. gibt sich AMD doch mal Mühe um die Treiber
entsprechend anzupassen ... zumindest für die eigenen iGPUs+GPUs ...
@ Unbekannter Krieger
Vielen Dank für die ausführliche Antwort - ich denke ich muß mir das noch ein paar Mal durchlesen ,
bis ich alles verstanden habe.
Dennoch mir ist bewußt , daß Nvidia die DP-Berechnungen vernachlässigt.
Mir ist allerdings nicht bekannt , ob und in welchen Ausmaß DP-Berechnungen wichtig sind -
und bei welchen Boinc-Projekten !
Falls DP-Berechnungen bei Spielen wichtig sind , dann benötige ich das nicht -
ich spiele höchstens mal Mahjongg oder sowas ...
Meine geplante zukünftige GPU ist noch nicht ausgewählt.
Ob Nvidia oder AMD ist mir eigentlich egal - sie sollte nur sparsam im Verbrauch und
optimal für Boinc sein. Die zukünftigen AMD-GPUs habe ich schon im Visier ,
aber da ist noch nichts für mich wichtiges bekannt.
Die von Dir angesprochenen R9 370er und R7 360er hab' ich im Visier.
@ Pollux
Danke für Deine klärenden Infos.
Weil auch ich gehört habe , daß die GTX 750Ti für Boinc geeignet ist und dazu noch wenig Strom verbraucht ,
deshalb habe ich diese GPU im Visier.
Selbst bei einer größeren GPU z.B. 'ner GTX 960 mit 120 Watt hätte ich mit dem Netzteil noch keine Probleme -
ein halbes Jahr , bevor ich mir den Athlon 5350 zugelegt habe - mußte ich für meine olle Kiste ein neues Netzteil kaufen.
Das Cooler Master V450S mit 450 Watt (Gold-Geprüft oder wie das heißt) betreibt jetzt den Athlon 5350.
Sicherlich ist das Netzteil für den Athlon 5350 (max. 25 Watt ?) "zu dick" , mit der GT 530 (max. 50 Watt) ,
alle CPUs und die GPU am Maximum laufend benötigt der PC 70-80 Watt laut Meßgerät an der Steckdose -
ich denke das ist noch OK.
Den Hinweiß , die GT 530 könnte auch 2 WUs bewältigen , werde ich gleich mal ausprobieren.
Ich habe noch ein paar Setis für CUDA32 (gleiche Laufzeit) - die werden zum Test herangezogen.
Zuerst lasse ich eine WU berechnen und merke mir die Zeit , dann probier ich es mit 2 WUs.
Ob es etwas bringt , vermelde ich dann hier.
Falls das erfolgreich ist , könnte ich auch noch die Infos für "Einstein" gebrauchen.
Wo findet man die Angaben für die Parameter der app_config.xml ?
Die entsprechenden Parameter für der/die/das "BOINC Pentathlon" 2015 findet man sicherlich im Forum ,
wenn's losgeht.
Vielen Dank nochmal an ALLE , die mir helfen ...
von Olle Kalesche (Iris)
Ja , leider (offensichtlich) , d.h. aber auch , wenn ich eine APU kaufe ,
dann sollte ich die Finger von den GPUs lassen.
Bei AMD und Nvidia verstehe ich noch den Konkurrenzkampf , wenn einer in den Treibern
den ANDEREN "abschaltet" - obwohl das eigentlich mieß ist - ich habe doch für beide
Hardware-Produkte bezahlt - dann will ich auch BEIDE AUSNUTZEN !
Dennoch finde ich es "seltsam" , daß AMD viel APUs verkauft und eine APU mit iGPU plus
zusätzlich eine GPU (sogar aus dem eigenen Haus) in Ihren Treibern offensichtlich nicht unterstützt !?
Ist diese Situation nicht oft genug gegeben ?
Ich könnte mir vorstellen , daß so mancher PC-User mit der iGPU bei Boinc rechnen
und mit der GPU spielen , Fotos bearbeiten oder sonstiges durchführen will ,
evtl. auch umgekehrt - per Boinc-Parameter kann man bestimmen , welche (i)GPU beim Rechnen
benutzt werden soll - keine - beide oder nur eine bestimmte (i)GPU.
@ Fränki's Welle
Danke für das Willkommen.
"Klappt das mit der IGP und einer GPU nur bei AMD nicht?" ...
Vermutlich ist das so - leider - evtl. gibt sich AMD doch mal Mühe um die Treiber
entsprechend anzupassen ... zumindest für die eigenen iGPUs+GPUs ...
@ Unbekannter Krieger
Vielen Dank für die ausführliche Antwort - ich denke ich muß mir das noch ein paar Mal durchlesen ,
bis ich alles verstanden habe.
Dennoch mir ist bewußt , daß Nvidia die DP-Berechnungen vernachlässigt.
Mir ist allerdings nicht bekannt , ob und in welchen Ausmaß DP-Berechnungen wichtig sind -
und bei welchen Boinc-Projekten !
Falls DP-Berechnungen bei Spielen wichtig sind , dann benötige ich das nicht -
ich spiele höchstens mal Mahjongg oder sowas ...
Meine geplante zukünftige GPU ist noch nicht ausgewählt.
Ob Nvidia oder AMD ist mir eigentlich egal - sie sollte nur sparsam im Verbrauch und
optimal für Boinc sein. Die zukünftigen AMD-GPUs habe ich schon im Visier ,
aber da ist noch nichts für mich wichtiges bekannt.
Die von Dir angesprochenen R9 370er und R7 360er hab' ich im Visier.
@ Pollux
Danke für Deine klärenden Infos.
Weil auch ich gehört habe , daß die GTX 750Ti für Boinc geeignet ist und dazu noch wenig Strom verbraucht ,
deshalb habe ich diese GPU im Visier.
Selbst bei einer größeren GPU z.B. 'ner GTX 960 mit 120 Watt hätte ich mit dem Netzteil noch keine Probleme -
ein halbes Jahr , bevor ich mir den Athlon 5350 zugelegt habe - mußte ich für meine olle Kiste ein neues Netzteil kaufen.
Das Cooler Master V450S mit 450 Watt (Gold-Geprüft oder wie das heißt) betreibt jetzt den Athlon 5350.
Sicherlich ist das Netzteil für den Athlon 5350 (max. 25 Watt ?) "zu dick" , mit der GT 530 (max. 50 Watt) ,
alle CPUs und die GPU am Maximum laufend benötigt der PC 70-80 Watt laut Meßgerät an der Steckdose -
ich denke das ist noch OK.
Den Hinweiß , die GT 530 könnte auch 2 WUs bewältigen , werde ich gleich mal ausprobieren.
Ich habe noch ein paar Setis für CUDA32 (gleiche Laufzeit) - die werden zum Test herangezogen.
Zuerst lasse ich eine WU berechnen und merke mir die Zeit , dann probier ich es mit 2 WUs.
Ob es etwas bringt , vermelde ich dann hier.
Falls das erfolgreich ist , könnte ich auch noch die Infos für "Einstein" gebrauchen.
Wo findet man die Angaben für die Parameter der app_config.xml ?
Die entsprechenden Parameter für der/die/das "BOINC Pentathlon" 2015 findet man sicherlich im Forum ,
wenn's losgeht.
Vielen Dank nochmal an ALLE , die mir helfen ...
von Olle Kalesche (Iris)
cyrusNGC_224
Grand Admiral Special
- Mitglied seit
- 01.05.2014
- Beiträge
- 5.924
- Renomée
- 117
- Aktuelle Projekte
- POGS, Asteroids, Milkyway, SETI, Einstein, Enigma, Constellation, Cosmology
- Lieblingsprojekt
- POGS, Asteroids, Milkyway
- Meine Systeme
- X6 PII 1090T, A10-7850K, 6x Athlon 5350, i7-3632QM, C2D 6400, AMD X4 PII 810, 6x Odroid U3
- BOINC-Statistiken
DP Berechnungen verwendet meines Wissens nur Milkyway exzessiv (deswegen ist AMD Tahiti in jedem Top Rechner dort). Vielleicht auch Primegrid zum Teil. Und Asteroids, aber die haben nur eine Cuda App, welche mit Maxwell recht gut läuft. Deren CPU Apps gehören jedenfalls zu den am besten optimiertesten, schließlich gibt es auch welche für AVX.
Achja, die IGP der Kaveri, oder aller FM(1|2) APUs, werden trotz zusätzlicher GPU ebenfalls genutzt.
Achja, die IGP der Kaveri, oder aller FM(1|2) APUs, werden trotz zusätzlicher GPU ebenfalls genutzt.
Unbekannter Krieger
Grand Admiral Special
- Mitglied seit
- 04.10.2013
- Beiträge
- 4.606
- Renomée
- 119
- Mein Laptop
- HP 15-bq102ng (sackteuer u. ab Werk instabil)
- Details zu meinem Desktop
- Prozessor
- FX-8320E@4,2 GHz & 2,6 GHz Northbridge (jeweils mit UV)
- Mainboard
- Asus M5A99X Evo R2.0 (eher enttäuschend ggü. ASRock E3)
- Kühlung
- Raijintek Nemesis (Lüfter mittig im sowie hinter dem Kühler; erstklassig)
- Speicher
- 4x4 GiB Hynix DDR3-1866 ECC
- Grafikprozessor
- XFX RX 570 8G (P8DFD6)@1180 & 2150 MHz@starkem, fortdauerndem UV | ASRock RX 570 8G@das Gleiche
- Display
- BenQ XL2411T ~ nach 3 RMAs und 6 Monaten wieder brauchbar
- SSD
- Crucial MX100 256 GB (ein Glückskauf) | SanDisk Ultra Plus 256 GB (ein Glückskauf)
- HDD
- WD20EZRZ u. a. (Seagate, Hitachi, WD)
- Optisches Laufwerk
- TSST SH-222AL
- Gehäuse
- Corsair Carbide 300R (ein Fehlkauf)
- Netzteil
- CoolerMaster V450S (ein Glückskauf)
- Betriebssystem
- Win8.x x64, Win7 x64
- Webbrowser
- welche mit minimalem Marktanteil & sinnvollen Konzepten (nicht Chrome-Seuche und Sieche-Fuchs)
- Verschiedenes
- frühere GPUs: , Asus RX 480 O8G@580 O8G, VTX3D 7850 1G
Es gab bei einem bis ein paar Spielen Gerüchte, DP könnte evtl. genutzt werden, vllt. auch mittels Mantle. Die allgemeine Anschauung aber sagt, dass DP für Spiele komplett irrelevant ist. Darum kann Nvidia sie außerhalb des professionellen Markts (Quadro-Karten) künstlich minimieren.Olle Kalesche schrieb:Falls DP-Berechnungen bei Spielen wichtig sind , dann benötige ich das nicht -
ich spiele höchstens mal Mahjongg oder sowas ...
Dort und bei manchen BOINC-Projekten aber ist DP ein wichtiges Kriterium. Welche Projekte es betrifft, da bin ich nicht der richtige Ansprechpartner, eher cyrus über mir z.B.
Zuletzt bearbeitet:
unterstudienrat
Moderator (DC)
☆☆☆☆☆☆
- Mitglied seit
- 14.07.2003
- Beiträge
- 10.162
- Renomée
- 1.841
- Standort
- Anne Elbe
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- SIMAP, F@H, POEM
- Lieblingsprojekt
- F@H; SIMAP
- Meine Systeme
- Opteron170, 175
- BOINC-Statistiken
- Folding@Home-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Opteron 170/175 @2,5-2,8GHz
- Mainboard
- 2x DFI Lanparty UT nf4 Ultra-D
- Kühlung
- AC WaKü
- Speicher
- 8x512MB A-Data Vitesta PC4000 200 MHz @2,5; 3, 3, 11
Die entsprechenden Parameter für der/die/das "BOINC Pentathlon" 2015 findet man sicherlich im Forum ,
wenn's losgeht.
Vielen Dank nochmal an ALLE , die mir helfen ...
von Olle Kalesche (Iris)
Die Vorzeichen zum Pentathlon sind da!!!
LINK
Gruß
D.U.
Zuletzt bearbeitet:
Sabroe SMC
Grand Admiral Special
- Mitglied seit
- 14.05.2008
- Beiträge
- 4.733
- Renomée
- 507
- Standort
- Castrop-Rauxel
- Mein Laptop
- Gigabyte P37, i7 4720HQ, 16 Gb, 128 Gb SSD, 1Tb HD, 17" FHD
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9 7950X3D
- Mainboard
- Asus TUF Gaming X670E Plus
- Kühlung
- Noctua NH-D15 chromax.black
- Speicher
- G.Skill Trident Z5 RGB silber DIMM Kit 64GB DDR5-6400 CL32-39-39-102 on-die ECC
- Grafikprozessor
- Palit GeForce RTX 4090 GameRock
- Display
- Samsung U32H850, 31.5" (3840x2160)
- SSD
- Kingston KC3000 PCIe 4.0 NVMe SSD 2TB
- Optisches Laufwerk
- irgendeins
- Soundkarte
- Onboard
- Gehäuse
- SilverStone Seta D1, schwarz
- Netzteil
- ASUS ROG Strix, ROG-STRIX-850G Gold Aura Edition, 850W ATX 3.0
- Tastatur
- Razer BlackWidow Ultimate
- Maus
- Zowie Gaming Mouse FK1
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Firefox in aktuellster Version
- Verschiedenes
- Teufel Concept C (Schwarz) bestehend aus - 2 Satelliten-Lautsprecher CS 25 FCR Mk3 (Schwarz) 1 Aktiv-Subwoofer CC 2013 SW (Schwarz)
- Internetanbindung
-
▼500 Mbit/s
▲25 Mbit/s
Hi D.U.
Dein Link führt auch im anderen Thread auf eine nicht fertige Seite pschoefer\
Zuletzt bearbeitet:
MikeHammer
Commodore Special
Da ich als Nicht-Zocker und APU-User (Llano) geim Thema Grakas nicht allzuviel mitreden kann (Mein Tip wäre ne Gainward Geforce GTX 750Ti Golden Sample, an ca. gut 150 Euro) ein Tip bezüglich dem Kernel:
Zufällig hab ich selbst Mint Qiana KDE (64bit) im Einsatz, und hab erst heute testweise den Kernel 3.19.3 installiert.
Sollte das der einzige Grund für nen evtl. Umstieg auf KUbuntu sein, ist es keiner
Und auch sonst würd ich raten: bleib bei Qiana, oder zumindest bei ner LTS-Version...
Falls Interesse, hier der Link zum Kernel-PPA:
http://kernel.ubuntu.com/~kernel-ppa/mainline/v3.19.3-vivid/
In dieser Reihenfolge manuell installieren:
linux-headers-..._all.deb
linux-headers-..._amd64.deb
linux-image-..._amd64.deb
Geht meist sogar direkt aus z.B: Firefox, falls nicht, halt die runtergeladenen .debs manuell installieren, sollte per Klick gehen.
...beim 3.16er Kernel zu bleiben ist aber auch kein wirklicher Verlust, ausser man hat Hardware die davon noch nicht unterstützt wird oder man braucht unbedingt eins der neuen Features, z.B richtung Dateisystem oder whatever.
Selber war ich halt neugierig, und der "alte" Kernel ist noch da als Fallback
Echten Grund hatte ich ehrlich gesagt keinen...
Zufällig hab ich selbst Mint Qiana KDE (64bit) im Einsatz, und hab erst heute testweise den Kernel 3.19.3 installiert.
Sollte das der einzige Grund für nen evtl. Umstieg auf KUbuntu sein, ist es keiner

Und auch sonst würd ich raten: bleib bei Qiana, oder zumindest bei ner LTS-Version...
Falls Interesse, hier der Link zum Kernel-PPA:
http://kernel.ubuntu.com/~kernel-ppa/mainline/v3.19.3-vivid/
In dieser Reihenfolge manuell installieren:
linux-headers-..._all.deb
linux-headers-..._amd64.deb
linux-image-..._amd64.deb
Geht meist sogar direkt aus z.B: Firefox, falls nicht, halt die runtergeladenen .debs manuell installieren, sollte per Klick gehen.
...beim 3.16er Kernel zu bleiben ist aber auch kein wirklicher Verlust, ausser man hat Hardware die davon noch nicht unterstützt wird oder man braucht unbedingt eins der neuen Features, z.B richtung Dateisystem oder whatever.
Selber war ich halt neugierig, und der "alte" Kernel ist noch da als Fallback

Echten Grund hatte ich ehrlich gesagt keinen...
Olle Kalesche
Admiral Special
★ Themenstarter ★
- Mitglied seit
- 02.04.2015
- Beiträge
- 1.126
- Renomée
- 72
- Standort
- Hessen
- Aktuelle Projekte
- Seti , Einstein , und andere
- Meine Systeme
- AMD Athlon 5350 , (AMD Athlon II X4 610e)
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Athlon(tm) 5350 APU with Radeon(tm) R3 @2100
- Mainboard
- ASRock AM1B-ITX
- Kühlung
- standard
- Speicher
- 1x Crucial Technology 8GB, BLT8G3D1608ET3LX0 800.0 MHz (DDR3-1600 / PC3-12800) @8,8,8,1T
- Grafikprozessor
- GTX 750Ti
- Display
- 27", SAMSUNG , T27C370, 1920 x 1080
- HDD
- Seagate ST2000DM001-9YN1
- Optisches Laufwerk
- Liteon, ATAPI iHAS624 B
- Soundkarte
- intern
- Gehäuse
- Sharkoon T28
- Netzteil
- Cooler Master V450S (450W,gold)
@Pollux und allen anderen , die es interessiert
Dein Vorschlag app_config.xml auf der GT 530 auszuprobieren führte zu folgenden Ergebnissen :
Teil 1 ohne app_config.xml (je eine WU seriell):
WU-# ohne app_config.xml Zeitvorgabe Zeit real
1 Lokal: setiathome_v7 7.00 (cuda32) 0:52:28 0:38:46
2 Lokal: setiathome_v7 7.00 (cuda32) 0:52:28 0:37:56
für 2 WUs 1:44:56 1:16:42
pro WU 0:52:28 0:38:21
Teil 2 mit app_config.xml (je 2 WUs parallel):
WU-# app_config.xml (2 WUs auf GT 530) Zeitvorgabe Zeit real
3 Lokal: setiathome_v7 7.00 (cuda32) 1:41:18 1:12:06
4 Lokal: setiathome_v7 7.00 (cuda32) 1:41:18 1:11:40
Zwischensumme für WU 3+4 3:22:36 2:23:46
Effektiver Durchschnitt für 2 WUs 1:41:18 1:11:53
WU-# app_config.xml (2 WUs auf GT 530) Zeitvorgabe Zeit real
5 Lokal: setiathome_v7 7.00 (cuda32) 1:41:18 1:11:58
6 Lokal: setiathome_v7 7.00 (cuda32) 1:41:18 1:11:34
Zwischensumme für WU 5+6 3:22:36 2:23:32
Effektiver Durchschnitt für 2 WUs 1:41:18 1:11:46
Teil 3:
Zeitvorgabe Zeit real
2 WUs gleichzeitig auf GT 530 (3+4) 1:41:18 1:11:53
2 WUs gleichzeitig auf GT 530 (5+6) 1:41:18 1:11:46
Zwischensumme für die WUs 3+4 + 5+6 3:22:36 2:23:39
Durchschnitt je 2 WUs auf GT 530 1:41:18 1:11:49
Vergleich seriell 2 WUs auf GT 530 1:44:56 1:16:42
Unterschied 0:03:38 0:04:52
Ich hoffe , die Tabellen kommen einigermaßen spaltengerecht 'rüber.
Ergebnis auf GT 530 :
2WUs seriell = 1h 16m 42s
2WUs parallel = 1h 11m 49s = 0h 4m 52s schneller !
Das ist nicht besonders viel , aber der Mensch freut sich ...
Die GT 530 war mit app_config.xml zu 100% ,
GPU-Controller war etwas mehr als bei seriell und
GPU-Memory etwa zu 30-40% ausgelastet (seriell etwa 15-20%).
Auf den CPUs liefen gleichzeitig :
CPU
1 Lokal: setiathome_v7 7.00
2 Lokal: setiathome_v7 7.00
3 Gravitational Wave search S6Bucket Follow-up #1 1.06 (SSE2)
4 Gamma-ray pulsar search #4 1.05 (FGRP4-SSE2)
Danke Pollux für den Tip !
@cyrusNGC_224
zu "Achja, die IGP der Kaveri, oder aller FM(1|2) APUs, werden trotz zusätzlicher GPU ebenfalls genutzt. " ...
... sorry Zitate einzubinden muß ich noch üben ...
Wenn's bei den "großen" APUs läuft , frage ich mich , warum nicht auch auf den "kleinen" APUs !?
Gerade hier ist doch "jedes Gramm" CPU- bzw. iGPU-Leistung absolut sinnvoll !!!
... zu AVX : ... kann der Athlon 5350 meines Wissens auch.
Vielleicht kommt im "BOINC Pentathlon" 2015 etwas mit AVX , wobei "mein Winzling" ein paar Punkte holen kann.
@Unbekannter Krieger
Ob und wie mein Athlon 5350 "Mantle" kann und wie man das nutzt bzw. aktiviert - keine Ahnung -
das wäre möglicherweise vorteilhaft.
@MikeHammer
Danke für die Info.
Ob ich diesen oder jenen Linux-Kernel brauche (von Vorteil wäre) weiß ich nicht.
Da ich , wie viele PC-User , vom Win herkomme , ist Linux , egal welches , erst einmal eine Herausforderung.
Außerdem , welches Linux ist für mich optisch und von der Bedienung her gefällig ?
Es gibt so viele Versionen/Variationen - ich bin noch am Suchen !
Deshalb habe ich mir 4 64GB-USB-Sticks gekauft. Auf denen übe ich ca. jede Woche einmal Installation ,
Update und auch einmal einen Kernel zu installieren , mit verschiedenen Linuxen ...
Ich muß noch viel lernen und hoffe innerhalb der nächsten Monate komplett auf Linux umstellen zu können.
Deine Hinweise den 3.19.3 einmal zu installieren , werde ich versuchen.
Ich mach mir vorher eine Kopie auf einen "Reserve" USB-Stick.
Übrigens , KUBUNTU 15.04 , einer meiner Testkandidaten hat den 3.19.3 schon eingebaut und soll Ende April ferig sein.
... zu "Warnung!
ein Wechsel von Windows nach Linux kann in Verbindung mit mangelndem Know-How und/oder Faulheit zu übermäßiger Frustration bis hin zu trollhaften Postings führen! Zum Verzehr der Handbücher wird daher dringend geraten!" ...
DAS IST ALLERDING WAHR !
--- Update ---
... war wohl nix mit spaltengerecht ...
Dein Vorschlag app_config.xml auf der GT 530 auszuprobieren führte zu folgenden Ergebnissen :
Teil 1 ohne app_config.xml (je eine WU seriell):
WU-# ohne app_config.xml Zeitvorgabe Zeit real
1 Lokal: setiathome_v7 7.00 (cuda32) 0:52:28 0:38:46
2 Lokal: setiathome_v7 7.00 (cuda32) 0:52:28 0:37:56
für 2 WUs 1:44:56 1:16:42
pro WU 0:52:28 0:38:21
Teil 2 mit app_config.xml (je 2 WUs parallel):
WU-# app_config.xml (2 WUs auf GT 530) Zeitvorgabe Zeit real
3 Lokal: setiathome_v7 7.00 (cuda32) 1:41:18 1:12:06
4 Lokal: setiathome_v7 7.00 (cuda32) 1:41:18 1:11:40
Zwischensumme für WU 3+4 3:22:36 2:23:46
Effektiver Durchschnitt für 2 WUs 1:41:18 1:11:53
WU-# app_config.xml (2 WUs auf GT 530) Zeitvorgabe Zeit real
5 Lokal: setiathome_v7 7.00 (cuda32) 1:41:18 1:11:58
6 Lokal: setiathome_v7 7.00 (cuda32) 1:41:18 1:11:34
Zwischensumme für WU 5+6 3:22:36 2:23:32
Effektiver Durchschnitt für 2 WUs 1:41:18 1:11:46
Teil 3:
Zeitvorgabe Zeit real
2 WUs gleichzeitig auf GT 530 (3+4) 1:41:18 1:11:53
2 WUs gleichzeitig auf GT 530 (5+6) 1:41:18 1:11:46
Zwischensumme für die WUs 3+4 + 5+6 3:22:36 2:23:39
Durchschnitt je 2 WUs auf GT 530 1:41:18 1:11:49
Vergleich seriell 2 WUs auf GT 530 1:44:56 1:16:42
Unterschied 0:03:38 0:04:52
Ich hoffe , die Tabellen kommen einigermaßen spaltengerecht 'rüber.
Ergebnis auf GT 530 :
2WUs seriell = 1h 16m 42s
2WUs parallel = 1h 11m 49s = 0h 4m 52s schneller !
Das ist nicht besonders viel , aber der Mensch freut sich ...
Die GT 530 war mit app_config.xml zu 100% ,
GPU-Controller war etwas mehr als bei seriell und
GPU-Memory etwa zu 30-40% ausgelastet (seriell etwa 15-20%).
Auf den CPUs liefen gleichzeitig :
CPU
1 Lokal: setiathome_v7 7.00
2 Lokal: setiathome_v7 7.00
3 Gravitational Wave search S6Bucket Follow-up #1 1.06 (SSE2)
4 Gamma-ray pulsar search #4 1.05 (FGRP4-SSE2)
Danke Pollux für den Tip !
@cyrusNGC_224
zu "Achja, die IGP der Kaveri, oder aller FM(1|2) APUs, werden trotz zusätzlicher GPU ebenfalls genutzt. " ...
... sorry Zitate einzubinden muß ich noch üben ...
Wenn's bei den "großen" APUs läuft , frage ich mich , warum nicht auch auf den "kleinen" APUs !?
Gerade hier ist doch "jedes Gramm" CPU- bzw. iGPU-Leistung absolut sinnvoll !!!
... zu AVX : ... kann der Athlon 5350 meines Wissens auch.
Vielleicht kommt im "BOINC Pentathlon" 2015 etwas mit AVX , wobei "mein Winzling" ein paar Punkte holen kann.
@Unbekannter Krieger
Ob und wie mein Athlon 5350 "Mantle" kann und wie man das nutzt bzw. aktiviert - keine Ahnung -
das wäre möglicherweise vorteilhaft.
@MikeHammer
Danke für die Info.
Ob ich diesen oder jenen Linux-Kernel brauche (von Vorteil wäre) weiß ich nicht.
Da ich , wie viele PC-User , vom Win herkomme , ist Linux , egal welches , erst einmal eine Herausforderung.
Außerdem , welches Linux ist für mich optisch und von der Bedienung her gefällig ?
Es gibt so viele Versionen/Variationen - ich bin noch am Suchen !
Deshalb habe ich mir 4 64GB-USB-Sticks gekauft. Auf denen übe ich ca. jede Woche einmal Installation ,
Update und auch einmal einen Kernel zu installieren , mit verschiedenen Linuxen ...
Ich muß noch viel lernen und hoffe innerhalb der nächsten Monate komplett auf Linux umstellen zu können.
Deine Hinweise den 3.19.3 einmal zu installieren , werde ich versuchen.
Ich mach mir vorher eine Kopie auf einen "Reserve" USB-Stick.
Übrigens , KUBUNTU 15.04 , einer meiner Testkandidaten hat den 3.19.3 schon eingebaut und soll Ende April ferig sein.
... zu "Warnung!
ein Wechsel von Windows nach Linux kann in Verbindung mit mangelndem Know-How und/oder Faulheit zu übermäßiger Frustration bis hin zu trollhaften Postings führen! Zum Verzehr der Handbücher wird daher dringend geraten!" ...
DAS IST ALLERDING WAHR !
--- Update ---
... war wohl nix mit spaltengerecht ...
unterstudienrat
Moderator (DC)
☆☆☆☆☆☆
- Mitglied seit
- 14.07.2003
- Beiträge
- 10.162
- Renomée
- 1.841
- Standort
- Anne Elbe
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- SIMAP, F@H, POEM
- Lieblingsprojekt
- F@H; SIMAP
- Meine Systeme
- Opteron170, 175
- BOINC-Statistiken
- Folding@Home-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Opteron 170/175 @2,5-2,8GHz
- Mainboard
- 2x DFI Lanparty UT nf4 Ultra-D
- Kühlung
- AC WaKü
- Speicher
- 8x512MB A-Data Vitesta PC4000 200 MHz @2,5; 3, 3, 11
Hi D.U.
Dein Link führt auch im anderen Thread auf eine nicht fertige Seite pschoefer\
Jetzt geht er.
Gruß
D.U.
cyrusNGC_224
Grand Admiral Special
- Mitglied seit
- 01.05.2014
- Beiträge
- 5.924
- Renomée
- 117
- Aktuelle Projekte
- POGS, Asteroids, Milkyway, SETI, Einstein, Enigma, Constellation, Cosmology
- Lieblingsprojekt
- POGS, Asteroids, Milkyway
- Meine Systeme
- X6 PII 1090T, A10-7850K, 6x Athlon 5350, i7-3632QM, C2D 6400, AMD X4 PII 810, 6x Odroid U3
- BOINC-Statistiken
Naja, AVX macht selbst bei Intel erst ab Haswell Sinn, weil es eben da durch die aufgebohrte FPU zu mehr Leistung führen kann. Bei AMD gibt es noch keine CPU, die Mehrleistung durch AVX bringt. Warten auf Zen... zu AVX : ... kann der Athlon 5350 meines Wissens auch.
Vielleicht kommt im "BOINC Pentathlon" 2015 etwas mit AVX , wobei "mein Winzling" ein paar Punkte holen kann.

Erstens gibt es bisher nur Mantle-fähige Spiele für Win und zweitens macht Mantle eben nur in Spielen etwas aus, die mit der vorhandenen Hardware im CPU Limit sind. Mantle entlastet also die Kerne bzw lastet sie besser parallel aus. Für's Computing bringt es gar nichts.@Unbekannter Krieger
Ob und wie mein Athlon 5350 "Mantle" kann und wie man das nutzt bzw. aktiviert - keine Ahnung -
das wäre möglicherweise vorteilhaft.
Bezüglich Linux:
Viele kleine Schritte und viel Geduld. Nicht gleich komplett auf Linux umschwenken wollen!
Das braucht alles Zeit.
Unbekannter Krieger
Grand Admiral Special
- Mitglied seit
- 04.10.2013
- Beiträge
- 4.606
- Renomée
- 119
- Mein Laptop
- HP 15-bq102ng (sackteuer u. ab Werk instabil)
- Details zu meinem Desktop
- Prozessor
- FX-8320E@4,2 GHz & 2,6 GHz Northbridge (jeweils mit UV)
- Mainboard
- Asus M5A99X Evo R2.0 (eher enttäuschend ggü. ASRock E3)
- Kühlung
- Raijintek Nemesis (Lüfter mittig im sowie hinter dem Kühler; erstklassig)
- Speicher
- 4x4 GiB Hynix DDR3-1866 ECC
- Grafikprozessor
- XFX RX 570 8G (P8DFD6)@1180 & 2150 MHz@starkem, fortdauerndem UV | ASRock RX 570 8G@das Gleiche
- Display
- BenQ XL2411T ~ nach 3 RMAs und 6 Monaten wieder brauchbar
- SSD
- Crucial MX100 256 GB (ein Glückskauf) | SanDisk Ultra Plus 256 GB (ein Glückskauf)
- HDD
- WD20EZRZ u. a. (Seagate, Hitachi, WD)
- Optisches Laufwerk
- TSST SH-222AL
- Gehäuse
- Corsair Carbide 300R (ein Fehlkauf)
- Netzteil
- CoolerMaster V450S (ein Glückskauf)
- Betriebssystem
- Win8.x x64, Win7 x64
- Webbrowser
- welche mit minimalem Marktanteil & sinnvollen Konzepten (nicht Chrome-Seuche und Sieche-Fuchs)
- Verschiedenes
- frühere GPUs: , Asus RX 480 O8G@580 O8G, VTX3D 7850 1G
Das stimmt nicht ganz (Verdopplung des nutzbaren Speichers im CrossFire, auch bessere Auslastung der GPU laut neuerer Meldungen), der Rest schon.cyrusNGC_224 schrieb:zweitens macht Mantle eben nur in Spielen etwas aus, die mit der vorhandenen Hardware im CPU Limit sind.
MagicEye04
Grand Admiral Special
- Mitglied seit
- 20.03.2006
- Beiträge
- 23.722
- Renomée
- 2.159
- Standort
- oops,wrong.planet..
- Aktuelle Projekte
- Seti,WCG,Einstein + was gerade Hilfe braucht
- Lieblingsprojekt
- Seti
- Meine Systeme
- R7-1700+GTX1070ti,R7-1700+RadeonVII, FX-8350+GTX1050ti, X4-5350+GT1030, X2-240e+RX460
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Dell Latitude E7240
- Details zu meinem Desktop
- Prozessor
- R9-3950X (@65W)
- Mainboard
- Asus Prime B550plus
- Kühlung
- TR Macho
- Speicher
- 2x16GiB Corsair LPX2666C16
- Grafikprozessor
- Radeon VII
- Display
- LG 32UD99-W 81,3cm
- SSD
- Crucial MX500-250GB, Samsung EVO280 256GB
- HDD
- Seagate 7200.14 2TB (per eSATAp)
- Optisches Laufwerk
- LG DVDRAM GH24NS90
- Soundkarte
- onboard
- Gehäuse
- Nanoxia Deep Silence1
- Netzteil
- BeQuiet StraightPower 11 550W
- Tastatur
- Cherry RS6000
- Maus
- Logitech RX600
- Betriebssystem
- Ubuntu
- Webbrowser
- Feuerfuchs
- Verschiedenes
- 4x Nanoxia Lüfter (120/140mm) , Festplatte in Bitumenbox
Also ich kann mich bei Nvidia und Boinc bei den Maxwells absolut nicht beschweren.
Die Effizienz ist exzellent.
Schon die GTX750ti blieb bei Seti und Einstein weit unter ihrer TDP (Einstein=35W Diff. Last-Idle, idle~10W) und auch die GTX970 kommt da noch einigermaßen mit (Einstein je nach Projekt 85-110W Diff, idle~15W). Ich schätze mal, eine GTX960 würde dann noch sehr deutlich unter 100W bleiben und hat auch keinen 4GB-Bug.
Nur für Boinc hätte ich wohl statt der 970 lieber 2x750ti nehmen sollen - ist billiger und bringt mehr Punkte. Aber ab und zu will ich ja doch mal spielen und auf Microruckler per SLI hatte ich keine Lust.
Dass ein 400W-Netzteil für einen FX-8350+GTX970 locker reicht, hätte ich erst gar nicht geglaubt.
Von Seti hab ich gerade keine Messwerte parat und WUs gibts aktuell auch keine, kann ich aber bei Bedarf gern noch nachreichen.
Meines Wissens konnte AMD früher mal integrierte und zusätzliche GPUs gleichzeitig nutzen, aber auch nur in bestimmten Kombinationen. Das ist natürlich schade, dass das inzwischen nicht mehr geht.
Die Effizienz ist exzellent.
Schon die GTX750ti blieb bei Seti und Einstein weit unter ihrer TDP (Einstein=35W Diff. Last-Idle, idle~10W) und auch die GTX970 kommt da noch einigermaßen mit (Einstein je nach Projekt 85-110W Diff, idle~15W). Ich schätze mal, eine GTX960 würde dann noch sehr deutlich unter 100W bleiben und hat auch keinen 4GB-Bug.
Nur für Boinc hätte ich wohl statt der 970 lieber 2x750ti nehmen sollen - ist billiger und bringt mehr Punkte. Aber ab und zu will ich ja doch mal spielen und auf Microruckler per SLI hatte ich keine Lust.
Dass ein 400W-Netzteil für einen FX-8350+GTX970 locker reicht, hätte ich erst gar nicht geglaubt.
Von Seti hab ich gerade keine Messwerte parat und WUs gibts aktuell auch keine, kann ich aber bei Bedarf gern noch nachreichen.
Meines Wissens konnte AMD früher mal integrierte und zusätzliche GPUs gleichzeitig nutzen, aber auch nur in bestimmten Kombinationen. Das ist natürlich schade, dass das inzwischen nicht mehr geht.
Zuletzt bearbeitet:
Unbekannter Krieger
Grand Admiral Special
- Mitglied seit
- 04.10.2013
- Beiträge
- 4.606
- Renomée
- 119
- Mein Laptop
- HP 15-bq102ng (sackteuer u. ab Werk instabil)
- Details zu meinem Desktop
- Prozessor
- FX-8320E@4,2 GHz & 2,6 GHz Northbridge (jeweils mit UV)
- Mainboard
- Asus M5A99X Evo R2.0 (eher enttäuschend ggü. ASRock E3)
- Kühlung
- Raijintek Nemesis (Lüfter mittig im sowie hinter dem Kühler; erstklassig)
- Speicher
- 4x4 GiB Hynix DDR3-1866 ECC
- Grafikprozessor
- XFX RX 570 8G (P8DFD6)@1180 & 2150 MHz@starkem, fortdauerndem UV | ASRock RX 570 8G@das Gleiche
- Display
- BenQ XL2411T ~ nach 3 RMAs und 6 Monaten wieder brauchbar
- SSD
- Crucial MX100 256 GB (ein Glückskauf) | SanDisk Ultra Plus 256 GB (ein Glückskauf)
- HDD
- WD20EZRZ u. a. (Seagate, Hitachi, WD)
- Optisches Laufwerk
- TSST SH-222AL
- Gehäuse
- Corsair Carbide 300R (ein Fehlkauf)
- Netzteil
- CoolerMaster V450S (ein Glückskauf)
- Betriebssystem
- Win8.x x64, Win7 x64
- Webbrowser
- welche mit minimalem Marktanteil & sinnvollen Konzepten (nicht Chrome-Seuche und Sieche-Fuchs)
- Verschiedenes
- frühere GPUs: , Asus RX 480 O8G@580 O8G, VTX3D 7850 1G
Das sollte auch jetzt noch gehen - abhängig von den GPUs und den Einstellungen im Catalyst.
Olle Kalesche
Admiral Special
★ Themenstarter ★
- Mitglied seit
- 02.04.2015
- Beiträge
- 1.126
- Renomée
- 72
- Standort
- Hessen
- Aktuelle Projekte
- Seti , Einstein , und andere
- Meine Systeme
- AMD Athlon 5350 , (AMD Athlon II X4 610e)
- BOINC-Statistiken
- Details zu meinem Desktop
- Prozessor
- AMD Athlon(tm) 5350 APU with Radeon(tm) R3 @2100
- Mainboard
- ASRock AM1B-ITX
- Kühlung
- standard
- Speicher
- 1x Crucial Technology 8GB, BLT8G3D1608ET3LX0 800.0 MHz (DDR3-1600 / PC3-12800) @8,8,8,1T
- Grafikprozessor
- GTX 750Ti
- Display
- 27", SAMSUNG , T27C370, 1920 x 1080
- HDD
- Seagate ST2000DM001-9YN1
- Optisches Laufwerk
- Liteon, ATAPI iHAS624 B
- Soundkarte
- intern
- Gehäuse
- Sharkoon T28
- Netzteil
- Cooler Master V450S (450W,gold)
Danke für die neuen Antworten.
Ich bleib 'drann am Optimieren meines kleinen PCs.
Doch jetzt habe ich etwas gefunden ...
... laut "fudzilla" "AMD x86 16-core Zen APU detailed" ... vermutlich für den Server ...
Wenn das kein fake ist und wenn ich mir den "Zen"-Dektop halbiert oder geviertelt vorstelle ,
dann hab' ich meinen "um die 100 Watt" Desktop in ca. 2 Jahren ohne zusätzliche GPU.
Super !
... wenn's stimmt ...
... dann könnte ich meinem Athlon 5350 jetzt eine GTX 750Ti gönnen -
das reicht für die Zeit bis dahin.
Ich bleib 'drann am Optimieren meines kleinen PCs.
Doch jetzt habe ich etwas gefunden ...
... laut "fudzilla" "AMD x86 16-core Zen APU detailed" ... vermutlich für den Server ...
Wenn das kein fake ist und wenn ich mir den "Zen"-Dektop halbiert oder geviertelt vorstelle ,
dann hab' ich meinen "um die 100 Watt" Desktop in ca. 2 Jahren ohne zusätzliche GPU.
Super !
... wenn's stimmt ...
... dann könnte ich meinem Athlon 5350 jetzt eine GTX 750Ti gönnen -
das reicht für die Zeit bis dahin.
Warum sollten nicht beide gleichzeitig bei Boinc benutzt werden können? Geht doch bei den Intels auch. Grundsätzlich macht es ja Sinn, daß die iGPU deaktiviert wird, da der normale User nicht im DC Bereich tätig ist. Entweder gibt es im Bios etwas dazu, oder es reicht schon das Einstöpseln des Monitors in die Kalindi.Olle Kalesche schrieb:Unter Linux Mint 17 habe ich die iGPU des Athlon 5350 zum Laufen gebracht (Standard-Seti - noch kein LUNATICS) ,
danach die GT530 installiert und ...
die iGPU vom Athlon 5350 ist "nicht mehr da" ... - offensichtlich geht hier nur - ENTWEDER AMD-iGPU - ODER Nvidia-GPU ...
Eintrag in Boinc ProgramData Ordner nötig: cc_config.xml erstellen mit Parameter
<cc_config>
<options>
<use_all_gpus>1</use_all_gpus>
</options>
</cc_config>
<options>
<use_all_gpus>1</use_all_gpus>
</options>
</cc_config>
Grafik von Athlon 5350 nutzen
Die Berechnungen bei Seti sind etwas irritierend. Die tatsächlichen Wuberechnungszeiten streuen normal erheblich und die Credits (abhängig auch vom Boincmondbenchmark) ebenso.
Der Test sollte schon über ein paar Tage laufen und die erhaltenen Credits berücksichtigt werden. Zum Beispiel 10 fertige Wus mit um die 100 Credits miteinander vergleichen.
Zuerst bitte dem Team beitreten.Olle Kalesche schrieb:Falls das erfolgreich ist , könnte ich auch noch die Infos für "Einstein" gebrauchen.
Wo findet man die Angaben für die Parameter der app_config.xml ?
In Deinem Einstein-Account müßte noch "Run beta/test application versions" aktiviert werden. Die Betas der Parkes PMPS XT haben kürzere Berechnungszeiten bei gleichen Credits und sind auch schon produktiv.
app_config.xml (Einstein, Parkes PMPS XT, 1 Wu, Cuda)
<app_config>
<app>
<name>einsteinbinary_BRP6</name>
<max_concurrent></max_concurrent>
<gpu_versions>
<gpu_usage>1</gpu_usage>
<cpu_usage>0.2</cpu_usage>
</gpu_versions>
</app>
</app_config>
<app>
<name>einsteinbinary_BRP6</name>
<max_concurrent></max_concurrent>
<gpu_versions>
<gpu_usage>1</gpu_usage>
<cpu_usage>0.2</cpu_usage>
</gpu_versions>
</app>
</app_config>
<gpu_usage>0.5</gpu_usage> --> 2 Wus
<gpu_usage>0.33</gpu_usage> --> 3 Wus usw.
Die app_config.xml z. B. mit dem Notepad erstellen und in den Projektordner von Einstein im BOINC data directory (bei Win7 ist dies gewöhnlich "C:\ProgramData\BOINC\projects\einstein.phys.uwm.edu") kopieren. Beachtet, dass die Dateiendung 'xml' lautet und nicht 'xml.txt' oder ähnliches!
app_config.xml
Zuletzt bearbeitet:
cyrusNGC_224
Grand Admiral Special
- Mitglied seit
- 01.05.2014
- Beiträge
- 5.924
- Renomée
- 117
- Aktuelle Projekte
- POGS, Asteroids, Milkyway, SETI, Einstein, Enigma, Constellation, Cosmology
- Lieblingsprojekt
- POGS, Asteroids, Milkyway
- Meine Systeme
- X6 PII 1090T, A10-7850K, 6x Athlon 5350, i7-3632QM, C2D 6400, AMD X4 PII 810, 6x Odroid U3
- BOINC-Statistiken
Unter Win 8.1 erkennt er trotz <use_all_gpus>1</use_all_gpus> nur die zugesteckte dedizierte GPU. Wie gesagt, ist nur bei AM1 so.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 448
- Antworten
- 0
- Aufrufe
- 450
- Antworten
- 0
- Aufrufe
- 513
- Antworten
- 2K
- Aufrufe
- 150K
- Antworten
- 2
- Aufrufe
- 3K