App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News Neuer Artikel: GPU Computing - Review und Analyse
- Ersteller Nero24
- Erstellt am
<center><img src="http://www.planet3dnow.de/photoplog/file.php?n=8783&w=o" alt="" border="1"></center>
Bereits vor knapp einem Jahr konnten wir Gipsel, Mitglied in unserem Distributed Computing Team und mittlerweile Urheber etlicher GPGPU-Anwendungen in verschiedenen DC-Projekten, motivieren einen ausführlichen <a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=362621">Theorie-Artikel über GPGPU-Computing zu schreiben</A>. Wer den Artikel noch nicht kennt oder mit GPGPU-Computing bisher nichts anfangen konnte, dem sei der Artikel noch einmal wärmstens empfohlen.
Heute nun kommt eine weitere Koryphäe aus unserem DC-Team zu Wort: indiana_74, der über Jahre hinweg die Koordination des <a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=303678">Planet 3DNow! Clusters für Distributed Computing</a> übernommen hatte, um Rechenleistung für verschiedene Projekte, in denen Planet 3DNow! mit einem Team vertreten war, zu bündeln.
Der heutige Artikel befasst sich allerdings nicht mit der Theorie, sondern mit der Praxis. Drei aktuelle ATI-Karten mussten gegen drei NVIDIA-Karten antreten und in verschiedenen Distributed-Computing Projekten zeigen, zu welchen GPGPU-Leistungen sie im Stande sind:<ul><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=375718"><b>GPU Computing - Review und Analyse </b></a></li></ul>Viel Spaß beim Lesen...
Bereits vor knapp einem Jahr konnten wir Gipsel, Mitglied in unserem Distributed Computing Team und mittlerweile Urheber etlicher GPGPU-Anwendungen in verschiedenen DC-Projekten, motivieren einen ausführlichen <a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=362621">Theorie-Artikel über GPGPU-Computing zu schreiben</A>. Wer den Artikel noch nicht kennt oder mit GPGPU-Computing bisher nichts anfangen konnte, dem sei der Artikel noch einmal wärmstens empfohlen.
Heute nun kommt eine weitere Koryphäe aus unserem DC-Team zu Wort: indiana_74, der über Jahre hinweg die Koordination des <a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=303678">Planet 3DNow! Clusters für Distributed Computing</a> übernommen hatte, um Rechenleistung für verschiedene Projekte, in denen Planet 3DNow! mit einem Team vertreten war, zu bündeln.
Der heutige Artikel befasst sich allerdings nicht mit der Theorie, sondern mit der Praxis. Drei aktuelle ATI-Karten mussten gegen drei NVIDIA-Karten antreten und in verschiedenen Distributed-Computing Projekten zeigen, zu welchen GPGPU-Leistungen sie im Stande sind:<ul><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=375718"><b>GPU Computing - Review und Analyse </b></a></li></ul>Viel Spaß beim Lesen...
wirklich netter artikel
Leider ist nicht vermerkt, dass die ATI 5770 noch nicht von distributed.net (Artikel S.15) voll unterstützt wird, daher auch das aktuell schlechtere Abschneiden. Sie hat nämlich das Potential bis auf
Domain 808x808, 3 iters @ 11.804559 ms (663673 Kkeys/sec) bzw 663 Mkeys
zu skalieren.
Erstaunlicherweise lieferte eine ATI 5870 bis zur vollen Unterstützung auch "nur" ca 400 MKeys. Jetzt liefert sie aktuell 1.276 Mkeys.
Nein, einzig richtige Erklärung ist:
die Arraygröße, die zum Entschlüsseln verwendet wird, wurde nicht optimal gewählt. Dies führt leider dazu, dass die Auslastung aller 800 Shader nicht immer stattfindet.
Domain 8x8, 230 iters @ 2.920319 ms (20162 Kkeys/sec)
Domain 16x16, 1555 iters @ 14.877662 ms (107027 Kkeys/sec)
Domain 24x24, 1553 iters @ 14.787505 ms (241968 Kkeys/sec)
Domain 32x32, 1569 iters @ 15.125273 ms (424893 Kkeys/sec)
Domain 40x40, 1265 iters @ 14.876036 ms (544231 Kkeys/sec)
Domain 48x48, 961 iters @ 14.928475 ms (593267 Kkeys/sec)
Leider ist nicht vermerkt, dass die ATI 5770 noch nicht von distributed.net (Artikel S.15) voll unterstützt wird, daher auch das aktuell schlechtere Abschneiden. Sie hat nämlich das Potential bis auf
Domain 808x808, 3 iters @ 11.804559 ms (663673 Kkeys/sec) bzw 663 Mkeys
zu skalieren.
Erstaunlicherweise lieferte eine ATI 5870 bis zur vollen Unterstützung auch "nur" ca 400 MKeys. Jetzt liefert sie aktuell 1.276 Mkeys.
....Einzig mögliche Erklärung: Das deutlich langsamere Speicherinterface ist der Flaschenhals....
Nein, einzig richtige Erklärung ist:
die Arraygröße, die zum Entschlüsseln verwendet wird, wurde nicht optimal gewählt. Dies führt leider dazu, dass die Auslastung aller 800 Shader nicht immer stattfindet.
Domain 8x8, 230 iters @ 2.920319 ms (20162 Kkeys/sec)
Domain 16x16, 1555 iters @ 14.877662 ms (107027 Kkeys/sec)
Domain 24x24, 1553 iters @ 14.787505 ms (241968 Kkeys/sec)
Domain 32x32, 1569 iters @ 15.125273 ms (424893 Kkeys/sec)
Domain 40x40, 1265 iters @ 14.876036 ms (544231 Kkeys/sec)
Domain 48x48, 961 iters @ 14.928475 ms (593267 Kkeys/sec)
Zuletzt bearbeitet:
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Danke für den Artikel Indiana_74!
aber eine Verdoppelung der Rechenleistung alle zwei Jahre entspricht keinem linearen Anstieg!
MfG @
PS
Könnte man das nicht mal ändern, dass man bei solchen Artikeln nicht dem Autor danken kann?
Moore's Law ist ein "Gesetz" im Umfeld der Datenverarbeitung, welches vor vielen Dekaden beschrieben wurde. Es besagt, dass sich die Komplexität integrierter Schaltungen alle zwei Jahre verdoppelt, während die Komponentenkosten sich nur minimal verändern. Hierdurch würde sich die Anzahl der Transistoren auf der selben Fläche verdoppeln und damit die verfügbare Rechenleistung ebenfalls um den Faktor Zwei steigen.
...
Doch während dieser Anstieg linear ist, hat sich etwas grundlegendes verändert. ...
aber eine Verdoppelung der Rechenleistung alle zwei Jahre entspricht keinem linearen Anstieg!
MfG @
PS
Könnte man das nicht mal ändern, dass man bei solchen Artikeln nicht dem Autor danken kann?
Zuletzt bearbeitet:
Makso
Grand Admiral Special
- Mitglied seit
- 15.02.2006
- Beiträge
- 3.393
- Renomée
- 142
- Standort
- Österreich
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding@Home, POEM, Docking
- Lieblingsprojekt
- Folding@Home
- Folding@Home-Statistiken
- Mein Laptop
- Desktopsystem
- Prozessor
- AMD Ryzen 5 1400@3,8GHz
- Mainboard
- Asrock B350 Pro4
- Kühlung
- Scythe Mugan 5
- Speicher
- 2x4GB ADATA
- Grafikprozessor
- RX 550
- Display
- BenQ 21,5
- SSD
- Samsung 960Pro
- HDD
- 1TB WD
- Optisches Laufwerk
- LG schwarz
- Soundkarte
- AC 97
- Gehäuse
- NZXT Beta Evo
- Netzteil
- AXP SimplePower 630W
- Betriebssystem
- Win 10
- Webbrowser
- Chrome
erstmals danke an alle die da mitgewirkt habe!!
Das ist einfach genial was hier angeboten un dverständlich gemacht wird.
Alles hab ich verstanden nur eins nicht.
Bei F@H. Ich hab das so verstanden das der Client die GPU nicht so richtig erkennt. oder versteht mein Gehirn was anders. Ich habs 2x nocrmal und 1x rückwerts gelesen und komm eimmer auf das gleiche.
Das ist einfach genial was hier angeboten un dverständlich gemacht wird.
Alles hab ich verstanden nur eins nicht.
Bei F@H. Ich hab das so verstanden das der Client die GPU nicht so richtig erkennt. oder versteht mein Gehirn was anders. Ich habs 2x nocrmal und 1x rückwerts gelesen und komm eimmer auf das gleiche.
heavy-Ions@boinc
Grand Admiral Special
Leicht verständlicher Artikel imho.
Gut gemacht.
Darfst du die Grakas eigentlich nun behalten?
Gut gemacht.
Darfst du die Grakas eigentlich nun behalten?
tspoon
Grand Admiral Special
- Mitglied seit
- 23.04.2006
- Beiträge
- 2.736
- Renomée
- 212
- Standort
- Dresden
- Aktuelle Projekte
- was so anliegt
- Lieblingsprojekt
- WCG FightAIDS@Home
- Meine Systeme
- 2x Intel Xeon E5645 @ 2,4Ghz (Phobya UC-2 LT + 360 MagiCool Magicool G2)
- BOINC-Statistiken
- Prozessor
- Intel i7 4770K
- Mainboard
- Asus Maximus VI Gene 1150
- Kühlung
- XSPC RayStorm Wasserkühler
- Speicher
- 4 x 4GB Patriot Viper Extrem 2133
- Grafikprozessor
- 2 x AMD 290X Crossfire (Watercool HK GPU-X³)
- Display
- 3x27" Samsung S27D590 Curved
- SSD
- ADATA SP900NS34 m,2, 240GB Corsair Force 3
- HDD
- 1 TB WD Green
- Optisches Laufwerk
- LG USB-DVD-Brennder
- Gehäuse
- Xigmatek Aquila Window
- Netzteil
- Coolermaster Silent Pro 1000Watt (Singlerail)
- Betriebssystem
- Windows 8.1
- Webbrowser
- Chrome
- Verschiedenes
- T500Rs + TH8RS
- Schau Dir das System auf sysprofile.de an
danke für die erklärung der einzelnen projekte.
was ich mich aber frage wenn die leistung unter folding@home relativ schlecht bei atis ist. warum dieser client beim catalyst dabei ist. ich hoffe opencl wird bald unterstützt. aktuell rechnet mein rechner nicht mehr für p3d oder andre teams. bei ordentlicher programmen kann ich mir aber vorstellen wieder bei folding einzusteigen.
nen verschlüsselung zu knacken oder irgendwelche zahlenfolgen die auf 4,2,1 enden halte ich nicht für so wichtig, auch wenn die zusammenhänge oder das thema an sich interessant sind.
was ich mich aber frage wenn die leistung unter folding@home relativ schlecht bei atis ist. warum dieser client beim catalyst dabei ist. ich hoffe opencl wird bald unterstützt. aktuell rechnet mein rechner nicht mehr für p3d oder andre teams. bei ordentlicher programmen kann ich mir aber vorstellen wieder bei folding einzusteigen.
nen verschlüsselung zu knacken oder irgendwelche zahlenfolgen die auf 4,2,1 enden halte ich nicht für so wichtig, auch wenn die zusammenhänge oder das thema an sich interessant sind.
indiana_74
Moderator
☆☆☆☆☆☆
- Mitglied seit
- 24.02.2006
- Beiträge
- 8.178
- Renomée
- 481
- Standort
- in der Hauptstadt
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Milkyway - SETI - QMC
- Meine Systeme
- V8 XEON
- BOINC-Statistiken
- Prozessor
- AMD Athlon 64 FX-60
- Mainboard
- Gigabyte GA-K8N PRO-SLI
- Kühlung
- WaKü v. Coolermaster
- Speicher
- 2x1024MB Kingston DDR-RAM
- Grafikprozessor
- Sapphire RADEON X600 128MB
- Display
- 19" Fujitsu Siemens TFT
- HDD
- 250GB Maxtor S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Soprano
- Betriebssystem
- Win XP
- Webbrowser
- Firefox 2.0
wirklich netter artikel
Leider ist nicht vermerkt, dass die ATI 5770 noch nicht von distributed.net (Artikel S.15) voll unterstützt wird, daher auch das aktuell schlechtere Abschneiden. Sie hat nämlich das Potential bis auf
Domain 808x808, 3 iters @ 11.804559 ms (663673 Kkeys/sec) bzw 663 Mkeys
zu skalieren.
Erstaunlicherweise lieferte eine ATI 5870 bis zur vollen Unterstützung auch "nur" ca 400 MKeys. Jetzt liefert sie aktuell 1.276 Mkeys.
Nein, einzig richtige Erklärung ist:
die Arraygröße, die zum Entschlüsseln verwendet wird, wurde nicht optimal gewählt. Dies führt leider dazu, dass die Auslastung aller 800 Shader nicht immer stattfindet.
Domain 8x8, 230 iters @ 2.920319 ms (20162 Kkeys/sec)
Domain 16x16, 1555 iters @ 14.877662 ms (107027 Kkeys/sec)
Domain 24x24, 1553 iters @ 14.787505 ms (241968 Kkeys/sec)
Domain 32x32, 1569 iters @ 15.125273 ms (424893 Kkeys/sec)
Domain 40x40, 1265 iters @ 14.876036 ms (544231 Kkeys/sec)
Domain 48x48, 961 iters @ 14.928475 ms (593267 Kkeys/sec)
Vielen Dank für deine Ausführungen, dieser Umstand war mir nicht bekannt.
Dem Readme der aktuellen distributed.net Version kann man leider nur entnehmen das der Catalyst 9.9 unterstützt wird, da wären ja aber beide aktuelleren Karten noch nicht enthalten.
Ich werde dann demnächst, wenn die 5770 voll unterstützt wird, mal einen Nachtest machen. Evtl. im Zusammenhang mit dem Fermi Test.
Bei F@H. Ich hab das so verstanden das der Client die GPU nicht so richtig erkennt. oder versteht mein Gehirn was anders. Ich habs 2x nocrmal und 1x rückwerts gelesen und komm eimmer auf das gleiche.
Der Aktuelle Folding@home GPU Client erkennt die ATIs nicht als GPU und bricht dann ab.
Erst durch setzen des -forcegpu Flags beim Start lasst er sich zur Mitarbeit überreden, das ist eher Suboptimal und das Ergebnis spricht ja dann auch für sich.
Leicht verständlicher Artikel imho.
Gut gemacht.
Darfst du die Grakas eigentlich nun behalten?
Na ja, zwei waren eh von mir und die drei Nvidias sind schon wieder weg.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Der Intelmitgründer Gordon Moore schrieb lediglich über die Verdopplung der Anzahl der Transistoren pro Flächeneinheit bei annähernd gleichen Kosten in einem bestimmten monatlichen Zeitintervall. Sein nach ihm genanntes "Gesetz" ist keine Prognose zur Verdopplung der Rechenleistung um Faktor 2.
Es ist also eher ein ökonomisches Gesetz im Halbleiterbereich.
Das hat er schon deswegen vermieden so auszusagen, weil er damals ein anderes "Gesetz" ahnte. Amdahls Gesetz. Welches in etwa besagt, dass mit zunehmender Komplexität der Schaltung die Rechenleistung nicht gleichartig steigt, sondern relativ sogar abnimmt.
Um also eine Verdopplung der Rechenleistung zu erreichen, ist der Transistor-Aufwand größer als Faktor 2 notwendig.
Gene Amdahl hat hier ein Gesetz zur ständig wachsenden Rechenleistung von Chips und Prozessoren im Halbleiterbereich gewagt, wenngleich dieses Gesetz auch immer wieder neu bewertet und betrachtet werden muss.
Zum Artikel. Nur weil die Autoren kaum professionelle Programme nutzen, die die GPGPU-Fähigkeiten ausnutzen, bedeutet das nicht, dass es keine "Relevanten Programme" gäbe. Im Bereich von Molekularer IT-Biochemie wird so etwas eingesetzt, genauso wie in Klima- und Geowissenschaften zur Simulation und Auswertung. Da aber die Programme/Module richtig viel Geld kosten können, sind Benchmarks in diesem Bereich "nicht mal so eben" zu machen.
Relevanz ist daher relativ. Spezielle Fachwissenschaften sehen schon eine "Relevanz", wenn es sich der GPGPU-Ansatz lohnt, gegenüber Lösungen mit vernetzten klassischen Prozessoren im Grid.
Für den Standard-PC-Nutzer sehe ich zur Zeit auch noch wenig Relevanz, bis auf wenige Spezialfilter im Foto- und Video-Bereich.
Mit Windows 7 (und Vista) ändert sich das aber potenziell, weil Microsoft eine eigene GPGPU-Schnittstelle einführt, in Konkurrenz zu OpenCL und insbesondere den Proprietären Schnittstellen von AMD/ATI (Stream) und Nvdia (CUDA).
MFG Bobo(2010)
Es ist also eher ein ökonomisches Gesetz im Halbleiterbereich.
Das hat er schon deswegen vermieden so auszusagen, weil er damals ein anderes "Gesetz" ahnte. Amdahls Gesetz. Welches in etwa besagt, dass mit zunehmender Komplexität der Schaltung die Rechenleistung nicht gleichartig steigt, sondern relativ sogar abnimmt.
Um also eine Verdopplung der Rechenleistung zu erreichen, ist der Transistor-Aufwand größer als Faktor 2 notwendig.
Gene Amdahl hat hier ein Gesetz zur ständig wachsenden Rechenleistung von Chips und Prozessoren im Halbleiterbereich gewagt, wenngleich dieses Gesetz auch immer wieder neu bewertet und betrachtet werden muss.
Zum Artikel. Nur weil die Autoren kaum professionelle Programme nutzen, die die GPGPU-Fähigkeiten ausnutzen, bedeutet das nicht, dass es keine "Relevanten Programme" gäbe. Im Bereich von Molekularer IT-Biochemie wird so etwas eingesetzt, genauso wie in Klima- und Geowissenschaften zur Simulation und Auswertung. Da aber die Programme/Module richtig viel Geld kosten können, sind Benchmarks in diesem Bereich "nicht mal so eben" zu machen.
Relevanz ist daher relativ. Spezielle Fachwissenschaften sehen schon eine "Relevanz", wenn es sich der GPGPU-Ansatz lohnt, gegenüber Lösungen mit vernetzten klassischen Prozessoren im Grid.
Für den Standard-PC-Nutzer sehe ich zur Zeit auch noch wenig Relevanz, bis auf wenige Spezialfilter im Foto- und Video-Bereich.
Mit Windows 7 (und Vista) ändert sich das aber potenziell, weil Microsoft eine eigene GPGPU-Schnittstelle einführt, in Konkurrenz zu OpenCL und insbesondere den Proprietären Schnittstellen von AMD/ATI (Stream) und Nvdia (CUDA).
MFG Bobo(2010)
Zuletzt bearbeitet:
Ich denke, dass im Artikel ziemlich deutlich steht "für Endkunden relevante Anwendungen". Was Du beschreibst, sind keine Endkunden-Anwendungen. Der Artikel wurde sicherlich nicht für die 2 Molekular-Biologen und die 3 Mitarbeiter eines Klimaforschungsinstituts geschrieben, die Planet 3DNow! täglich im Auftrag ihres Brötchengebers lesenNur weil die Autoren kaum professionelle Programme nutzen, die die GPGPU-Fähigkeiten ausnutzen, bedeutet das nicht, dass es keine "Relevanten Programme" gäbe. Im Bereich von Molekularer IT-Biochemie wird so etwas eingesetzt, genauso wie in Klima- und Geowissenschaften zur Simulation und Auswertung.
KIDH
Grand Admiral Special
- Mitglied seit
- 09.03.2007
- Beiträge
- 4.837
- Renomée
- 531
- Standort
- Pogotopia
- Aktuelle Projekte
- Folding@Home, (Spinhenge@home, POEM@home, Cosmology@home, milkyway@home, orbit@home)
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- A64 4000+ @3000MHz, (C2D E4400 + ATI Radeon 4850)
- Prozessor
- Athlon 64 4000+ (San Diego, S939) @3000 MHz
- Mainboard
- Abit AV8 3rd Eye
- Kühlung
- Thermaltake Silent Boost K8
- Speicher
- 2x 512 MB A-Data Vitesta DDR500
- Grafikprozessor
- GeForce 6800 GT
- Display
- 19", BenQ FP93GX+, 1280*1024@75Hz
- Optisches Laufwerk
- DVD-ROM / DVD-Brenner
- Soundkarte
- Creative Audigy
- Gehäuse
- noname
- Netzteil
- Enermax Liberty 400W Dual
- Betriebssystem
- Win98SE / WinXP SP3
- Webbrowser
- Firefox 2.0.0.22pre / Firefox 3.6.6
aber eine Verdoppelung der Rechenleistung alle zwei Jahre entspricht keinem linearen Anstieg!
Äh kommt darauf an, was man an die y-Achse schreibt...wenn man die Anzahl der Transistoren nimmt, ist es sicherlich nicht linear, sondern nur in der logarithmischen Darstellung linear. Schreibst du die Integrationsdichte dran, ist es linear.
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Äh kommt darauf an, was man an die y-Achse schreibt...wenn man die Anzahl der Transistoren nimmt, ist es sicherlich nicht linear, sondern nur in der logarithmischen Darstellung linear.
Das wird ja immer von den beiden GPU Herstellern genutzt, um ihre Karten möglichst toll aussehen zu lassen. Die mathematische Beziehung wird dadurch aber nicht "linearer".
Schreibst du die Integrationsdichte dran, ist es linear.
Integrationsdichte = Transistoren / Fläche
Wenn ich die Transistoren alle 18 Monate verdopple bei gleicher Fläche, wo wird da was linear?
KIDH
Grand Admiral Special
- Mitglied seit
- 09.03.2007
- Beiträge
- 4.837
- Renomée
- 531
- Standort
- Pogotopia
- Aktuelle Projekte
- Folding@Home, (Spinhenge@home, POEM@home, Cosmology@home, milkyway@home, orbit@home)
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- A64 4000+ @3000MHz, (C2D E4400 + ATI Radeon 4850)
- Prozessor
- Athlon 64 4000+ (San Diego, S939) @3000 MHz
- Mainboard
- Abit AV8 3rd Eye
- Kühlung
- Thermaltake Silent Boost K8
- Speicher
- 2x 512 MB A-Data Vitesta DDR500
- Grafikprozessor
- GeForce 6800 GT
- Display
- 19", BenQ FP93GX+, 1280*1024@75Hz
- Optisches Laufwerk
- DVD-ROM / DVD-Brenner
- Soundkarte
- Creative Audigy
- Gehäuse
- noname
- Netzteil
- Enermax Liberty 400W Dual
- Betriebssystem
- Win98SE / WinXP SP3
- Webbrowser
- Firefox 2.0.0.22pre / Firefox 3.6.6
Warte...falsch gedacht....*argh*
FalconFly
Admiral Special
Sehr interessanter Artikel
Waere es theoretisch moeglich, auf einen der grossen Knackpunkte von GPGPU-Computing einzugehen :
...die Lebensdauer der Karten, sofern sie ohne massiv verstaerkte Kuehlung betrieben werden ?
IMHO ist das (zusaetzlich zur Laermentwicklung unter Dauerlast) derzeit bei DC bereits ein Thema, dem allerdings kaum Beachtung geschenkt wird.
Ich will gar nicht wissen, wieviele Grafikkarten durch abgerauchte Spannungswandler, defekte Luefter und sonstige Schaeden bereits ihr Leben lassen mussten.
Soweit ich weiss, werden zwar alle neuen Karten mit ihren GPGPU-Faehigkeiten beworben, eine z.B. mit Server-Festplatten vergleichbare 24/7 Spezifikation habe ich dagegen bei den handelsueblichen Desktop-Karten noch nirgends gesehen (?)
Waere interessant, was die grossen Kartenhersteller zu dem Thema zu sagen haben und wie sie damit umgehen.
Waere es theoretisch moeglich, auf einen der grossen Knackpunkte von GPGPU-Computing einzugehen :
...die Lebensdauer der Karten, sofern sie ohne massiv verstaerkte Kuehlung betrieben werden ?
IMHO ist das (zusaetzlich zur Laermentwicklung unter Dauerlast) derzeit bei DC bereits ein Thema, dem allerdings kaum Beachtung geschenkt wird.
Ich will gar nicht wissen, wieviele Grafikkarten durch abgerauchte Spannungswandler, defekte Luefter und sonstige Schaeden bereits ihr Leben lassen mussten.
Soweit ich weiss, werden zwar alle neuen Karten mit ihren GPGPU-Faehigkeiten beworben, eine z.B. mit Server-Festplatten vergleichbare 24/7 Spezifikation habe ich dagegen bei den handelsueblichen Desktop-Karten noch nirgends gesehen (?)
Waere interessant, was die grossen Kartenhersteller zu dem Thema zu sagen haben und wie sie damit umgehen.
HerrKaLeun
Admiral Special
guter Artikel, Danke.
Was mich am GPU computing interessiert, kann man damit auch was machen was dem Computer user nutzt? Ich meine es ist schön wenn mein BOINC schneller geht (und ich mach die klimamodelle, die unterstützen nicht mal die GPU), aber wird es auch mal was geben das mir nutzt? Beim vidocoden etc.? Und wird es immer nötig sein, dass eine software programmiert ist die GPU zu nutzen? Ic hmeine, es dauerte ewich Software dazu zu bringen mehrere Kerne zu nutzen, bis wann ist denn die mesite Software so weit die GPU zu nutzen?
Ich bin 2-d nutzer, hab also nur eine onboard GPU. Für autoCAD etc. könnte ich mir vorstellen ein günstige diskrete GPU zu kaufen, aber so richtig nutzen könnte ich sie nicht, jedenfalls nicht für meine Anwendungen (und distributed computing mach ich ja nicht für mich selbst).
Ich denke wenn jemand hoch paralellisierte anwendungne hat wäre s gut wenn die CPU/Mobo/GPU automatisch die GPU nutzen würde, egal obb der Programmierer der Software das so vorgesehen hat oder nicht.
gerade beim Trend die GPU direct an die CPU anzubinden oder auf der CPU zu integrieren (Sandy Bridge) wäre das gut.
Was mich am GPU computing interessiert, kann man damit auch was machen was dem Computer user nutzt? Ich meine es ist schön wenn mein BOINC schneller geht (und ich mach die klimamodelle, die unterstützen nicht mal die GPU), aber wird es auch mal was geben das mir nutzt? Beim vidocoden etc.? Und wird es immer nötig sein, dass eine software programmiert ist die GPU zu nutzen? Ic hmeine, es dauerte ewich Software dazu zu bringen mehrere Kerne zu nutzen, bis wann ist denn die mesite Software so weit die GPU zu nutzen?
Ich bin 2-d nutzer, hab also nur eine onboard GPU. Für autoCAD etc. könnte ich mir vorstellen ein günstige diskrete GPU zu kaufen, aber so richtig nutzen könnte ich sie nicht, jedenfalls nicht für meine Anwendungen (und distributed computing mach ich ja nicht für mich selbst).
Ich denke wenn jemand hoch paralellisierte anwendungne hat wäre s gut wenn die CPU/Mobo/GPU automatisch die GPU nutzen würde, egal obb der Programmierer der Software das so vorgesehen hat oder nicht.
gerade beim Trend die GPU direct an die CPU anzubinden oder auf der CPU zu integrieren (Sandy Bridge) wäre das gut.
KIDH
Grand Admiral Special
- Mitglied seit
- 09.03.2007
- Beiträge
- 4.837
- Renomée
- 531
- Standort
- Pogotopia
- Aktuelle Projekte
- Folding@Home, (Spinhenge@home, POEM@home, Cosmology@home, milkyway@home, orbit@home)
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- A64 4000+ @3000MHz, (C2D E4400 + ATI Radeon 4850)
- Prozessor
- Athlon 64 4000+ (San Diego, S939) @3000 MHz
- Mainboard
- Abit AV8 3rd Eye
- Kühlung
- Thermaltake Silent Boost K8
- Speicher
- 2x 512 MB A-Data Vitesta DDR500
- Grafikprozessor
- GeForce 6800 GT
- Display
- 19", BenQ FP93GX+, 1280*1024@75Hz
- Optisches Laufwerk
- DVD-ROM / DVD-Brenner
- Soundkarte
- Creative Audigy
- Gehäuse
- noname
- Netzteil
- Enermax Liberty 400W Dual
- Betriebssystem
- Win98SE / WinXP SP3
- Webbrowser
- Firefox 2.0.0.22pre / Firefox 3.6.6
...Beim vidocoden etc.?...
Soweit ich weiß, gibt es schon länger Software, die dabei CUDA unterstützt.
Und wird es immer nötig sein, dass eine software programmiert ist die GPU zu nutzen?
Ja, wie soll das sonst gehen? Eine Software muß auch entsprechend programmiert/kompiliert sein um Befehlssätze wie SSEx oder 3DNow! zu nutzen.
(und distributed computing mach ich ja nicht für mich selbst).
Also ich schon...man weiß ja nie, welche Krankheit einen mal befällt. Auch von anderen Projekten wird man sicherlich mal selber einen Nutzen haben.
oldDirty
Gesperrt
- Mitglied seit
- 12.11.2006
- Beiträge
- 1.016
- Renomée
- 3
- Standort
- Hamburg
- Aktuelle Projekte
- Poem, Primegrid, WCG, GPUgrid
- Lieblingsprojekt
- WCG, GPUGrid
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- E5200 Wolfdale 3,5Ghz
- Mainboard
- Asus P5QL-EM mATX
- Kühlung
- EKL Matterhorn
- Speicher
- 2x1024 Corsair DDR²800@933
- Grafikprozessor
- GTX460 evga
- HDD
- Samsung HD103SJ
- Gehäuse
- LianLi Tower
- Netzteil
- Seasonic 320W
- Betriebssystem
- Win7 x64
- Webbrowser
- FF
- Schau Dir das System auf sysprofile.de an
Ob die GPU nun im CPU-Die sitzt oder auf dedizierter HArdware ist dem Programm eigentlich wurscht. Im Moment lassen sich jedoch nur bescheidene Grafikchips in einer CPU integrieren, zudem muss der Grafikchip auf den sehr langsamen FSB des Hauptspeicher zugreifen, dabei limitiert auch noch das enge Speicherinterface, falls dieses beim 1156 noch immer 128Bit breit/schmal sein sollte. Die Grafikkarte hat noch lange nicht ihre Daseinsberechtigung verloren. Ich erinnere nur mal an die Flexibilität einer separaten Grafikkarte.
Zuletzt bearbeitet:
HerrKaLeun
Admiral Special
Ja, wie soll das sonst gehen? Eine Software muß auch entsprechend programmiert/kompiliert sein um Befehlssätze wie SSEx oder 3DNow! zu nutzen.
Also ich schon...man weiß ja nie, welche Krankheit einen mal befällt. Auch von anderen Projekten wird man sicherlich mal selber einen Nutzen haben.
Windows 7 und Vista nutzen bei bestimmter Software auch meherere Kerne besser als XP und das ha tnichts mit der software slebst zu tun. z.B. Trane TRACE ist 20% schneller in Vista/W7 auf dualcore rigs als XP mit der exact gleichen Hardware. Dann müsste es eben universelle Befehlsätze geben. zu Zeith ist ja schon ein unterschied ob man ATI oder NVIDIa hat. Alle Software läuft auf AMD und Intel CPUs. Genau so könnte es auch mit GPUs sein. Genau so wie die CPU entscheidet ob was im L1 oder L2 cache landet. Das wird auch nicht in die anwendungssoftware programmiert. die CPU könnte dann entscheiden das wäre besser für die GPU. Das wird sicher erst mal bei GPU-on-die möglich sein, wäre aber ein Fortschritt.
Du kaufst aber nicht extra Hardware um distributed computing zu machen? Du würdest aber bessere GPU kaufen wenn du selbst etwas schneller machen könntest.
KIDH
Grand Admiral Special
- Mitglied seit
- 09.03.2007
- Beiträge
- 4.837
- Renomée
- 531
- Standort
- Pogotopia
- Aktuelle Projekte
- Folding@Home, (Spinhenge@home, POEM@home, Cosmology@home, milkyway@home, orbit@home)
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- A64 4000+ @3000MHz, (C2D E4400 + ATI Radeon 4850)
- Prozessor
- Athlon 64 4000+ (San Diego, S939) @3000 MHz
- Mainboard
- Abit AV8 3rd Eye
- Kühlung
- Thermaltake Silent Boost K8
- Speicher
- 2x 512 MB A-Data Vitesta DDR500
- Grafikprozessor
- GeForce 6800 GT
- Display
- 19", BenQ FP93GX+, 1280*1024@75Hz
- Optisches Laufwerk
- DVD-ROM / DVD-Brenner
- Soundkarte
- Creative Audigy
- Gehäuse
- noname
- Netzteil
- Enermax Liberty 400W Dual
- Betriebssystem
- Win98SE / WinXP SP3
- Webbrowser
- Firefox 2.0.0.22pre / Firefox 3.6.6
Windows XY ist auch nur Software...so what!? Wenn das Grundsystem Mehrkern-CPUs bzw Mehrprozessor-Systeme besser unterstützt, kann das die darauf laufende Software je nach eigener Begabung dann auch.
Die Software läuft auf AMD/Intel CPUs, weil sie einen gemeinsamen Nenner haben (im Groben und Ganzen), nämlich x86er- und AMD64-Technik. Die Software wird dafür lauffähig gemacht mit den entsprechenden Compilern...je nach Gusto auch durch Ausnutzung von SSEx usw.
Natürlich kannst du so programmieren, dass du L1/L2/L3 Cache gut ausnutzt...das geschieht dann nur indirekt, aber du kannst es sehr wohl beeinflussen.
Das alles hat eigentlich nichts mti GPU on/off Die zu tun, denn GPU bleibt GPU...sonst wären wir wieder da wo wir angefangen haben -> CPU berechnet alles, Grafikchip ist nur für Bildausgabe verantwortlich.
BTW: Ich hab mir meine Radeon 4850 weigentlich nur für Folding@home geholt...hab bisher noch nie drauf gespielt in dem ganzen Jahr seitdem ich sie habe.
Die Software läuft auf AMD/Intel CPUs, weil sie einen gemeinsamen Nenner haben (im Groben und Ganzen), nämlich x86er- und AMD64-Technik. Die Software wird dafür lauffähig gemacht mit den entsprechenden Compilern...je nach Gusto auch durch Ausnutzung von SSEx usw.
Natürlich kannst du so programmieren, dass du L1/L2/L3 Cache gut ausnutzt...das geschieht dann nur indirekt, aber du kannst es sehr wohl beeinflussen.
Das alles hat eigentlich nichts mti GPU on/off Die zu tun, denn GPU bleibt GPU...sonst wären wir wieder da wo wir angefangen haben -> CPU berechnet alles, Grafikchip ist nur für Bildausgabe verantwortlich.
BTW: Ich hab mir meine Radeon 4850 weigentlich nur für Folding@home geholt...hab bisher noch nie drauf gespielt in dem ganzen Jahr seitdem ich sie habe.
HerrKaLeun
Admiral Special
Das alles hat eigentlich nichts mti GPU on/off Die zu tun, denn GPU bleibt GPU...sonst wären wir wieder da wo wir angefangen haben -> CPU berechnet alles, Grafikchip ist nur für Bildausgabe verantwortlich.
BTW: Ich hab mir meine Radeon 4850 weigentlich nur für Folding@home geholt...hab bisher noch nie drauf gespielt in dem ganzen Jahr seitdem ich sie habe.
Ich meinte ja, wenn die GPU on-die ist weiss der CPU Hersteller ja ganz genau was die kann und kann das nutzen. Wenn es eien separate GPU ist, dann weiss der CPU Hersteller ja nicht was das ist und es is schwieriger die GPU zu nutzen.
Wie du sicher bemerkt hast, ich bin mehr Anwender als Programmierer der die genauen Befehle kennt und wie sie mit der software-Hardware zusammenarbeiten. Aber ich fände es gut (und sicher auch machbar wenn die Firmen sich mal einigen könnten) die rieseigen Parall computing Potentiale der GPU zunutzen. Es wäre ja im Sinne der GPU Hersteller, weil sie dann auch mal Leute wie mich zum Kauf animieren könnten.
Das ist nobel von dir... aber 99.999% kaufen sich nur Hardware wenn sie es auch selber nutzen, für games etc. Mir wären jetzt die 100$ nicht zu viel, aber eine diskrete GPU braucht ja auch mehr Strom
Ja, idle Verbrauch bei GPUs zu senken wäre mein nächster Wunsch.
KIDH
Grand Admiral Special
- Mitglied seit
- 09.03.2007
- Beiträge
- 4.837
- Renomée
- 531
- Standort
- Pogotopia
- Aktuelle Projekte
- Folding@Home, (Spinhenge@home, POEM@home, Cosmology@home, milkyway@home, orbit@home)
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- A64 4000+ @3000MHz, (C2D E4400 + ATI Radeon 4850)
- Prozessor
- Athlon 64 4000+ (San Diego, S939) @3000 MHz
- Mainboard
- Abit AV8 3rd Eye
- Kühlung
- Thermaltake Silent Boost K8
- Speicher
- 2x 512 MB A-Data Vitesta DDR500
- Grafikprozessor
- GeForce 6800 GT
- Display
- 19", BenQ FP93GX+, 1280*1024@75Hz
- Optisches Laufwerk
- DVD-ROM / DVD-Brenner
- Soundkarte
- Creative Audigy
- Gehäuse
- noname
- Netzteil
- Enermax Liberty 400W Dual
- Betriebssystem
- Win98SE / WinXP SP3
- Webbrowser
- Firefox 2.0.0.22pre / Firefox 3.6.6
Wenn du einen AMD Prozessor und eine ATI-Grafikkarte hast, ist die Hardware ja schon vom gleichen Hersteller. Ob die GPU nun noch mit auf den Prozessor wandert, dürfte in der Hinsicht nicht viel ändern. Ich verstehe dein Anliegen und sehe das teils selber so, aber trotzdem muss Software stets angepasst sein, das ist einfach so...und es war schon immer so.
Ich bin übrigens auch kein Programmierer, sonder eher nur Anwender.
Klar, dass ich nicht den Regelfall darstelle mit meiner Folding@home-Karte, habe ich auch nicht behauptet...du hast mich aber direkt gefragt und ich hab dir widersprochen, weil es anders ist als du dir dachtest. Allerdings bin ich durchaus nicht der einzige hier, der Hardware extra für DC beschafft und betreibt.
Ich bin übrigens auch kein Programmierer, sonder eher nur Anwender.
Klar, dass ich nicht den Regelfall darstelle mit meiner Folding@home-Karte, habe ich auch nicht behauptet...du hast mich aber direkt gefragt und ich hab dir widersprochen, weil es anders ist als du dir dachtest. Allerdings bin ich durchaus nicht der einzige hier, der Hardware extra für DC beschafft und betreibt.
ShiningDragon
Grand Admiral Special
- Mitglied seit
- 19.09.2008
- Beiträge
- 3.898
- Renomée
- 143
*hust**müll**kotz**würg**nutzlos*Soweit ich weiß, gibt es schon länger Software, die dabei CUDA unterstützt.
Es gibt derzeit einige Programme, die mittels CUDA Videos transkodieren können. Doch leider kann man diese derzeit nicht ernsthaft gebrauchen. Der Großteil der Programme nutzt fixe Konfigurationen, sind unflexibel (ein no-go in Sachen Videobearbeitung, für den MiniClip im Handyformat sollte es jedoch reichen). Dann haben einige (selbst kostenpflichtige Programme wie die Palette von Cyberlink) eine hundsmiserable Qualität. Andere Programme wiederum sind auf der GPU nicht schneller, als ein normaler Quad.Was mich am GPU computing interessiert, kann man damit auch was machen was dem Computer user nutzt? Beim vidocoden etc.?
Also zum derzeitigen Zeitpunkt bist Du als Endanwender... "verarscht". Mit dicken Versprechungen umworben, wie toll und schön die neue GPGPU Welt doch ist, doch die Realität beweist gähnende Leere.
Es ist ja auch nicht so, das jedes h264, vc-1 oder mpeg Video automatisch hardwarebeschleunigt wiedergegeben würde. Alles ist an Bedingungen und Spezifikationen geknüpft.
Ich mutmaße dreist, das GPGPU im Endkundenbereich eine Rand- und Nischenerscheinung bleiben wird. Jetzt haben sich gerade mal DualCore Prozessoren etabliert; etliche Spiele sind nachwievor nicht nativ quadoptimiert. Eine GPU unterscheidet sich von der Programmierung einer CPU nochmals erheblich (man sieht es ja selbst an den großen Forschungsprogrammen von Folding und BOINC wie langwierig der Optimierungsprozess auf GPUs ist).Ich hmeine, es dauerte ewich Software dazu zu bringen mehrere Kerne zu nutzen, bis wann ist denn die mesite Software so weit die GPU zu nutzen?
Wenn's kommt, dann kommt es. Wenn nicht, dann halt nicht. Zumindest fällt das Kriterium GPGPU Leistung bei Kaufentscheidungen für mich weg. Das hat absolut 0 Gewicht.
Zuletzt bearbeitet:
KIDH
Grand Admiral Special
- Mitglied seit
- 09.03.2007
- Beiträge
- 4.837
- Renomée
- 531
- Standort
- Pogotopia
- Aktuelle Projekte
- Folding@Home, (Spinhenge@home, POEM@home, Cosmology@home, milkyway@home, orbit@home)
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- A64 4000+ @3000MHz, (C2D E4400 + ATI Radeon 4850)
- Prozessor
- Athlon 64 4000+ (San Diego, S939) @3000 MHz
- Mainboard
- Abit AV8 3rd Eye
- Kühlung
- Thermaltake Silent Boost K8
- Speicher
- 2x 512 MB A-Data Vitesta DDR500
- Grafikprozessor
- GeForce 6800 GT
- Display
- 19", BenQ FP93GX+, 1280*1024@75Hz
- Optisches Laufwerk
- DVD-ROM / DVD-Brenner
- Soundkarte
- Creative Audigy
- Gehäuse
- noname
- Netzteil
- Enermax Liberty 400W Dual
- Betriebssystem
- Win98SE / WinXP SP3
- Webbrowser
- Firefox 2.0.0.22pre / Firefox 3.6.6
(man sieht es ja selbst an den großen Forschungsprogrammen von Folding und BOINC wie langwierig der Optimierungsprozess auf GPUs ist).
Bei BOINC-Projekten -> signed...aber bei Folding@Home? WTF?
Die haben mit dem ganzen Kram angefangen...die haben damals noch über DirectX GPU1 auf den Radeon X1000er Modellen laufen lassen als es von ATI noch gar nichts dazu gab. An GPU2 hat sich seit dem Release auch nicht allzu viel geändert, der nächste Schritt wird OpenCL, und damit GPU3, sein.
ShiningDragon
Grand Admiral Special
- Mitglied seit
- 19.09.2008
- Beiträge
- 3.898
- Renomée
- 143
HerrKaLeun
Admiral Special
*hust**müll**kotz**würg**nutzlos*
Ich mutmaße dreist, das GPGPU im Endkundenbereich eine Rand- und Nischenerscheinung bleiben wird. Jetzt haben sich gerade mal DualCore Prozessoren etabliert; etliche Spiele sind nachwievor nicht nativ quadoptimiert. Eine GPU unterscheidet sich von der Programmierung einer CPU nochmals erheblich (man sieht es ja selbst an den großen Forschungsprogrammen von Folding und BOINC wie langwierig der Optimierungsprozess auf GPUs ist).
Wenn's kommt, dann kommt es. Wenn nicht, dann halt nicht. Zumindest fällt das Kriterium GPGPU Leistung bei Kaufentscheidungen für mich weg. Das hat absolut 0 Gewicht.
Ja, dass CUDA nicht so toll ist hab ich auch gehört.
Mit den Multi-core CPUs bin ich aber anderer Meinung. Ja, bei Benchmarks zeigen die nicht immer lineare Leistungssteigerung mit mehr Kernen. aber Benchmarks sind im Labor gemacht. Im realen Leben hab ich virenscanner, Firewall, outlook, viel Browser fesnteretc. an. Defraggler, virenscanner nutzen auch gern mehrere Kerne.
Ich denke sogar, dass alles was man mit CPUGPU machen könnte von hyperthreading erledigt werden kann. Mit der GPU ist das so eine Sache, klar kann man 100e von Sachen gleichzetig machen, aber nur primitive Sachen. aber die GPU braucht auch ein bisschen CPU (wegen gleitkomma, oder floating point... oder sowas). Mit einer sehr starken GPU wird die CPU dann zum bottleneck. Deswegen denke ich auch, die on-die GPU sind da eher geeignet, weil die ja nicht so leistungsfähig sind, dass sie die CPU als bottleneck haben, und auch besser kontrolliert werden können. Selbst wenn ich eine ATI GPU habe mit einer AMD CPU... da es ja so viel Modelle gibt ist das schwerer umzusetzen als mit in-die GPU. und auch potentiell weniger Latenzen mit on-die GPU. Sandybridge (und AMD arbeitet sicher auch an was ähnlichen) wird das eher möglich machen.
OT: persönlich hoffe ich, dass weniger Leute Aliens suchen würden. SETI kann uns alle umbringen. Schon mal dran gedacht, dass die Aliens die wir finden uns überlegen sind wenn sie herkommen? Und es ist ja wohl klar (und die Menschen haben das bewiesen in der Geschichte) was passiert wenn Zivilisationen aufeinandertreffen und die eine der anderen technologisch überlegen ist?
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 629
- Antworten
- 0
- Aufrufe
- 535
- Antworten
- 0
- Aufrufe
- 1K