App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News Neuer Artikel: GPU Computing - Review und Analyse
- Ersteller Nero24
- Erstellt am
Ich find es etwas enttäuschend, dass sich in einem Artikel über GPU Computing nur mit Distributed Computing beschäftigt wird, aber "produktive" Software bspw. zum Video Encoding, was mich persönlich interessieren würde, außen vor gelassen wird.
tomturbo
Technische Administration, Dinosaurier
- Mitglied seit
- 30.11.2005
- Beiträge
- 9.450
- Renomée
- 664
- Standort
- Österreich
- Aktuelle Projekte
- Universe@HOME, Asteroids@HOME
- Lieblingsprojekt
- SETI@HOME
- Meine Systeme
- Xeon E3-1245V6; Raspberry Pi 4; Ryzen 1700X; EPIC 7351
- BOINC-Statistiken
- Mein Laptop
- Microsoft Surface Pro 4
- Details zu meinem Desktop
- Prozessor
- R7 5800X
- Mainboard
- Asus ROG STRIX B550-A GAMING
- Kühlung
- Alpenfön Ben Nevis Rev B
- Speicher
- 2x32GB Mushkin, D464GB 3200-22 Essentials
- Grafikprozessor
- Sapphire Radeon RX 460 2GB
- Display
- BenQ PD3220U, 31.5" 4K
- SSD
- 1x HP SSD EX950 1TB, 1x SAMSUNG SSD 830 Series 256 GB, 1x Crucial_CT256MX100SSD1
- HDD
- Toshiba X300 5TB
- Optisches Laufwerk
- Samsung Brenner
- Soundkarte
- onboard
- Gehäuse
- Fractal Design Define R4
- Netzteil
- XFX 550W
- Tastatur
- Trust ASTA mechanical
- Maus
- irgend eine silent Maus
- Betriebssystem
- Arch Linux, Windows VM
- Webbrowser
- Firefox + Chromium + Konqueror
- Internetanbindung
-
▼300
▲50
Es gibt dzt. keine Software die nur einigermaßen vernünftige Qualität liefert.Ich find es etwas enttäuschend, dass sich in einem Artikel über GPU Computing nur mit Distributed Computing beschäftigt wird, aber "produktive" Software bspw. zum Video Encoding, was mich persönlich interessieren würde, außen vor gelassen wird.
Von Problemen mit den unterschiedlichen Tonformaten gar nicht zu reden.
Von daher sind Tests von bestenfalls Alpha-ware sinnlos, denke ich.
lg
__tom
Ist ja schön, dass ihr da so gut Bescheid weißt, aber auf viele andere trifft das sicher nicht zu. Deshalb halte ich es nicht für sinnlos, etwas zu testen, was evtl. nicht so gut funktioniert. Zudem darf man fragen, woher ihr das wisst? Gibt es andere Artikel dazu, eigene Erfahrungen oder einfach nur Hörensagen?
Auch würde ich bezweifeln, dass das pauschal so stimmt. MediaCoder ist bspw. ein gutes und universelles Transcoding-Tool, was auch CUDA unterstützt. Da würde ich mich schon stark wundern, wenn das nur schlechte Qualität liefert, sondern frag mich nur, wie es da mit der Performance aussieht. Mangels nVidia Karte kann ich das aber nicht selbst testen.
Auch würde ich bezweifeln, dass das pauschal so stimmt. MediaCoder ist bspw. ein gutes und universelles Transcoding-Tool, was auch CUDA unterstützt. Da würde ich mich schon stark wundern, wenn das nur schlechte Qualität liefert, sondern frag mich nur, wie es da mit der Performance aussieht. Mangels nVidia Karte kann ich das aber nicht selbst testen.
Zuletzt bearbeitet:
tomturbo
Technische Administration, Dinosaurier
- Mitglied seit
- 30.11.2005
- Beiträge
- 9.450
- Renomée
- 664
- Standort
- Österreich
- Aktuelle Projekte
- Universe@HOME, Asteroids@HOME
- Lieblingsprojekt
- SETI@HOME
- Meine Systeme
- Xeon E3-1245V6; Raspberry Pi 4; Ryzen 1700X; EPIC 7351
- BOINC-Statistiken
- Mein Laptop
- Microsoft Surface Pro 4
- Details zu meinem Desktop
- Prozessor
- R7 5800X
- Mainboard
- Asus ROG STRIX B550-A GAMING
- Kühlung
- Alpenfön Ben Nevis Rev B
- Speicher
- 2x32GB Mushkin, D464GB 3200-22 Essentials
- Grafikprozessor
- Sapphire Radeon RX 460 2GB
- Display
- BenQ PD3220U, 31.5" 4K
- SSD
- 1x HP SSD EX950 1TB, 1x SAMSUNG SSD 830 Series 256 GB, 1x Crucial_CT256MX100SSD1
- HDD
- Toshiba X300 5TB
- Optisches Laufwerk
- Samsung Brenner
- Soundkarte
- onboard
- Gehäuse
- Fractal Design Define R4
- Netzteil
- XFX 550W
- Tastatur
- Trust ASTA mechanical
- Maus
- irgend eine silent Maus
- Betriebssystem
- Arch Linux, Windows VM
- Webbrowser
- Firefox + Chromium + Konqueror
- Internetanbindung
-
▼300
▲50
Ich habs mit ATI Karten ausprobiert und kann nur sagen Totalversagen!
Besser kann man es nicht bezeichnen.
Wenn man aus HD handy-video machen will ist man allerdings gut damit bedient
Fein wäre es wenn Du Erfahrungen anderer auch anerkennen würdest auch wenn sie Deinen persönlichen Erwartungen nicht entsprechen, aspro.
lg
__tom
Besser kann man es nicht bezeichnen.
Wenn man aus HD handy-video machen will ist man allerdings gut damit bedient

Fein wäre es wenn Du Erfahrungen anderer auch anerkennen würdest auch wenn sie Deinen persönlichen Erwartungen nicht entsprechen, aspro.
lg
__tom
Es sieht so aus:Ich find es etwas enttäuschend, dass sich in einem Artikel über GPU Computing nur mit Distributed Computing beschäftigt wird, aber "produktive" Software bspw. zum Video Encoding, was mich persönlich interessieren würde, außen vor gelassen wird.
Bis auf Badaboom nutzen alle Programme Nvidias Cuda-Encoder und ATis AVIVO-Xcoder. Letztes ist totaler Schrott. Dagegen verdient Nvidia Riesenlob.
Das Problem ist: Wenn man zB MediaShow Espresso auf verschiedenen Grafikkarten plus CPU testet, so hat man eigentlich drei verschiedene Encoder mit unterschiedlichen Einstellungen getestet. Des Weiteren sind die Ergebnisse schon deswegen sinnlos, wenn die Bildqualität unterschiedlich ist. Aber das scheint die meisten Redakteure nicht zu stören, insbesondere wenn der Reviewerguide auch die Tests mit MSE oder PowerDirector nahelegt, um die Dominanz gegenüber CPUs zu zeigen.
Man hätte schon einige Worte darüber verlieren können, aber keine (absolute) Vergleichbarkeit möglich ist, steht der Aufwand in keinem Verhältnis zum Nutzen. Insbesondere wenn mit x264 die Alternative verfügbar ist.
Was mich an dem Artikel stört, ist das:
http://www.planet3dnow.de/vbulletin/showthread.php?t=375718&garpg=16#content_start
Das ist schon klar, dass die Grafikkarte über CAL angesprochen wird (ist ja Endstation), der Client selbst ist in Brook+ geschrieben (ihr wisst schon, was ich meine), der IL-Code, denn der Brook+ Compiler ausspuckt ist so optimal, so dass eine nachträgliche Optimierung des IL-Codes nicht nötig ist. Dass die Radeons ggü Geforces so abkacken, liegt es einmal an der Hardware, aber insbesondere daran, weil der GPU2-Client für die R600er geschrieben wurde und seitdem nicht weiterentwickelt wird. Es würde mich nicht überraschen, dass die Basis der GPU1-Client war.Der folding@home Client GPU2 stammt aus dem April 2008, mit diesem "neuen" Client wurde die ATI/AMD Version auf CAL umgestellt. Ziel dieser Vorgehensweise war es, eine von der Hardware unabhängigere Version zu schaffen und dies ist auch teilweise gelungen
KIDH
Grand Admiral Special
- Mitglied seit
- 09.03.2007
- Beiträge
- 4.837
- Renomée
- 531
- Standort
- Pogotopia
- Aktuelle Projekte
- Folding@Home, (Spinhenge@home, POEM@home, Cosmology@home, milkyway@home, orbit@home)
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- A64 4000+ @3000MHz, (C2D E4400 + ATI Radeon 4850)
- Details zu meinem Desktop
- Prozessor
- Athlon 64 4000+ (San Diego, S939) @3000 MHz
- Mainboard
- Abit AV8 3rd Eye
- Kühlung
- Thermaltake Silent Boost K8
- Speicher
- 2x 512 MB A-Data Vitesta DDR500
- Grafikprozessor
- GeForce 6800 GT
- Display
- 19", BenQ FP93GX+, 1280*1024@75Hz
- Optisches Laufwerk
- DVD-ROM / DVD-Brenner
- Soundkarte
- Creative Audigy
- Gehäuse
- noname
- Netzteil
- Enermax Liberty 400W Dual
- Betriebssystem
- Win98SE / WinXP SP3
- Webbrowser
- Firefox 2.0.0.22pre / Firefox 3.6.6
Das ist schon klar, dass die Grafikkarte über CAL angesprochen wird (ist ja Endstation), der Client selbst ist in Brook+ geschrieben (ihr wisst schon, was ich meine), der IL-Code, denn der Brook+ Compiler ausspuckt ist so optimal, so dass eine nachträgliche Optimierung des IL-Codes nicht nötig ist. Dass die Radeons ggü Geforces so abkacken, liegt es einmal an der Hardware, aber insbesondere daran, weil der GPU2-Client für die R600er geschrieben wurde und seitdem nicht weiterentwickelt wird. Es würde mich nicht überraschen, dass die Basis der GPU1-Client war.Der folding@home Client GPU2 stammt aus dem April 2008, mit diesem "neuen" Client wurde die ATI/AMD Version auf CAL umgestellt. Ziel dieser Vorgehensweise war es, eine von der Hardware unabhängigere Version zu schaffen und dies ist auch teilweise gelungen
Dass die Graka über CAL angesprochen wird ist nicht so klar, denn GPU1 lief über DirectX und kann damit schonmal nicht direkt Basis für GPU2 gewesen sein.
Und warum werden immer Clients und Cores durcheinandergeworfen? Nicht der Client ist in Brook+ geschrieben, sondern der Core / die Cores. Der Client verwaltet/steuert nur WUs, Cores, Serverzugriffe usw - mit der Berechnung hat der gar nichts am Hut.
[P3D] Crazy_Chris
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.451
- Renomée
- 116
- Mein Laptop
- Sony Vaio VPC-CW2S1E/R (14,1", Core i3 330M, GeForce GT 330M, Intel X25-M G2 80 GB)
- Details zu meinem Desktop
- Prozessor
- Intel Core i5-750 @ 3.36Ghz (1,18V)
- Mainboard
- Gigabyte GA-P55M-UD2
- Kühlung
- Scythe Mugen 2 Rev. B
- Speicher
- 4x 2GB G.Skill F3-12800CL9D-4GBNQ (DDR3-1600)
- Grafikprozessor
- Gigabyte GV-N570OC-13I (GeForce GTX 570 OC 1280MB GDDR5)
- Display
- Dell UltraSharp 2407WFP
- HDD
- Crucial RealSSD C300 128 GB, Samsung SpinPoint F3 1TB
- Optisches Laufwerk
- LG GGC-H20L SATA *Blu-ray*
- Soundkarte
- Creative Sound Blaster X-Fi Titanium PCIe
- Gehäuse
- Silverstone Temjin TJ08 µATX
- Netzteil
- ELVT NesteQ NA4501 (450 W, Semipassiv)
- Betriebssystem
- Windows 7 und Ubuntu (x64)
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- guckguck :-P
Auf http://www.3dcenter.org/ gibs in den News ein Kommentar zu Test.
"Der Planet 3DNow! ist einen eher ungewöhnlichen Grafikkarten-Test angetreten: Radeon HD 4890 vs. Radeon HD 5850 vs. GeForce GTX 275 – und dies nicht unter Spielen, sondern unter GPU-Computing. Die landläufige Meinung hierzu ist ja, daß nVidia in dieser Disziplin klar führend ist, was sich aber laut den Erhebungen des Planet 3DNow! nicht bestätigen läßt: Hier führt in den praktischen Tests weiterhin die Radeon HD 4890 vor der GeForce GTX 275, die Radeon HD 5850 marschiert dann weit voran. Dies hängt zum einen damit zusammen, daß ATI trotz keiner besonderen GPGPU-Neigung seiner Grafikchips dieses Thema gerade in der RV8xx-Generation einfach mit massig Shader-Performance erschlagen kann: Bei einer Peakleistung von 2720 GFlops bei der Radeon HD 5870 kommt nVidia schon lange nicht mehr mit.
Zum anderen hängt dieser Benchmark-Sieg der ATI-Karten aber natürlich auch an den benutzten Test-Programmen, welche allesamt aus der Sparte "Distributed Computing @ Home" stammen. Dies ist insofern verfälschend, als daß im professionellen Segment gänzlich andere Software benutzt wird, weil dort eben keine Distributed-Computing-Projekte zum Einsatz kommen. Gut möglich, daß nVidia bei eben dieser professionellen Software wieder deutlich besser darsteht – anders ist es auch kaum zu erklären, daß nVidia beim Vergleich Quadro- zu FireGL-Karten derzeit ca. 90 Prozent Marktanteil verbuchen kann. Hier spielen natürlich auch noch solche (von außen schlecht erkennbare) Punkte wie Treiberarbeit, Gewährleistung und Support ihre gewichtige Rolle, währenddessen der hohe Anschaffungspreis in diesem Spezialsegment nicht so wild gesehen wird."

"Der Planet 3DNow! ist einen eher ungewöhnlichen Grafikkarten-Test angetreten: Radeon HD 4890 vs. Radeon HD 5850 vs. GeForce GTX 275 – und dies nicht unter Spielen, sondern unter GPU-Computing. Die landläufige Meinung hierzu ist ja, daß nVidia in dieser Disziplin klar führend ist, was sich aber laut den Erhebungen des Planet 3DNow! nicht bestätigen läßt: Hier führt in den praktischen Tests weiterhin die Radeon HD 4890 vor der GeForce GTX 275, die Radeon HD 5850 marschiert dann weit voran. Dies hängt zum einen damit zusammen, daß ATI trotz keiner besonderen GPGPU-Neigung seiner Grafikchips dieses Thema gerade in der RV8xx-Generation einfach mit massig Shader-Performance erschlagen kann: Bei einer Peakleistung von 2720 GFlops bei der Radeon HD 5870 kommt nVidia schon lange nicht mehr mit.
Zum anderen hängt dieser Benchmark-Sieg der ATI-Karten aber natürlich auch an den benutzten Test-Programmen, welche allesamt aus der Sparte "Distributed Computing @ Home" stammen. Dies ist insofern verfälschend, als daß im professionellen Segment gänzlich andere Software benutzt wird, weil dort eben keine Distributed-Computing-Projekte zum Einsatz kommen. Gut möglich, daß nVidia bei eben dieser professionellen Software wieder deutlich besser darsteht – anders ist es auch kaum zu erklären, daß nVidia beim Vergleich Quadro- zu FireGL-Karten derzeit ca. 90 Prozent Marktanteil verbuchen kann. Hier spielen natürlich auch noch solche (von außen schlecht erkennbare) Punkte wie Treiberarbeit, Gewährleistung und Support ihre gewichtige Rolle, währenddessen der hohe Anschaffungspreis in diesem Spezialsegment nicht so wild gesehen wird."
CapJo
Admiral Special
[P3D] Crazy_Chris;4146661 schrieb:Dies ist insofern verfälschend, als daß im professionellen Segment gänzlich andere Software benutzt wird, weil dort eben keine Distributed-Computing-Projekte zum Einsatz kommen.
Gut möglich, daß nVidia bei eben dieser professionellen Software wieder deutlich besser darsteht – anders ist es auch kaum zu erklären, daß nVidia beim Vergleich Quadro- zu FireGL-Karten derzeit ca. 90 Prozent Marktanteil verbuchen kann. Hier spielen natürlich auch noch solche (von außen schlecht erkennbare) Punkte wie Treiberarbeit, Gewährleistung und Support ihre gewichtige Rolle, währenddessen der hohe Anschaffungspreis in diesem Spezialsegment nicht so wild gesehen wird."
Meiner Ansicht nach gibt es im GPGPU-Bereich noch keine professionelle Software. Keine die mir Bekannt ist und reif für den produktiven Einsatz wäre.
Das ist genau das Thema meiner Masterarbeit, ob GPU-Computing überhaupt bereit ist für den Einsatz im Kommerziellen Umfeld. Derzeit gibt es gleich einige Punkte die dagegen Sprechen, die sich aber mit Einführung von Fermi (GF100) und dem neuen integrierten Debugger Nexus bessern werden.
Das ist zum einen, dass es derzeit unter Windows nicht möglich ist sein Programm auf der Hardware zu debuggen. Es gibt zwar den Emulator, dieser ist jedoch weit von der echten Hardware entfernt, unglaublich langsam und viele Bugs treten nur auf der Grafikkarte selbst auf. So wird das Fehler finden wirklich zum Gedultsspiel - Fehler tritt in der Emulation nicht auf und das debuggen auf der Hardware ist nicht möglich. Da GT200 basierende Karten nur einen Kernel (Algorithmus) gleichzeitig ausführen können, benötigt man 2 Grafikkarten um auf der Hardware debuggen zu können. Die GF100 unterschützt mehrere gleichzeitige Kernel und es wird angenommen, dass dann eine GPU ausreichend ist um sein Programm auf der Hardware zu debuggen. Die Emulation wird auch in der nächsten Release von CUDA verschwinden. Unter Linux ist es schon länger möglich auf einer compute-only Karte per CUDA-GDB Schnittstelle zu debuggen
Der 2. Punkt ist die fehlende Unterstützung von ECC-Cache. Ohne ECC kann man sich nicht sicher sein, dass das Ergebnis einer langen Berechnung (Stunden, Tage) korrekt ist. Dies ist insbesondere für HPC-Systeme wichtig.
Der nächste Punkt ist, dass viele Firmen den Aufwand für CUDA scheuen. Es muss ja sichergestellt werden, dass die Anwendung auch ohne CUDA-fähige Karte nutzbar ist. Also muss ein 2. redundanter Code-Pfad erstellt und gepflegt werden und das will eigentlich keiner machen. Das Problem könnte in Zukunft auch besser werden, einerseits durch OpenCL für Grafikkarte und CPU. AMD hat das bereits jetzt, aber die Software ist noch nicht für den produktiven Einsatz geeignet. NVIDA verfolgt wahrscheinlich einen anderen Weg. Der PTX-Zwischencode, wird verwendet um über einen Backend-Compiler den x86 Code zu erzeugen - ähnlich Ocelot (PhD-Thesis-Projekt).
DonGeilo
Grand Admiral Special
- Mitglied seit
- 01.09.2005
- Beiträge
- 2.073
- Renomée
- 8
- Standort
- Hamburg
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- ABC@Home
- Lieblingsprojekt
- ABC@Home
- Folding@Home-Statistiken
Ich grabe das hier mal aus, da ja heute die GTX480 vorgestellt wurde und ich ein wenig von der Flop Leistung erschrocken bin,
5870 = 2.720 GFLOPs
GTX480 = 1.345 GFLOPs
laut Computerbase
Nun frage ich mich wie schnell wird die GTX beim DC !?
Und kann mir vllt einer erklären warum die AMD in Tesselation so schlecht abschneidet ähnelt die Berechnung nicht dem was beim DC getan wird !??
Ich stelle die frage extra hier weil hier ja die Spezi´s unterwegs sind.
5870 = 2.720 GFLOPs
GTX480 = 1.345 GFLOPs
laut Computerbase
Nun frage ich mich wie schnell wird die GTX beim DC !?
Und kann mir vllt einer erklären warum die AMD in Tesselation so schlecht abschneidet ähnelt die Berechnung nicht dem was beim DC getan wird !??
Ich stelle die frage extra hier weil hier ja die Spezi´s unterwegs sind.
Emploi
Grand Admiral Special
- Mitglied seit
- 20.10.2005
- Beiträge
- 10.744
- Renomée
- 1.013
- Standort
- Elbflorenz
- Aktuelle Projekte
- WCG
- Lieblingsprojekt
- LatticeProject, Virtual Prairie (ViP), World Community Grid
- Meine Systeme
- Ein Haswell, Cloudnet GO RK3188, CX-919
- BOINC-Statistiken
- Mein Desktopsystem
- Tanz der Bonbonfee
- Mein Laptop
- HP Envy x360 Ryzen 5 2500u Vega 8
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- MSI MAG B550 TOMAHAWK
- Kühlung
- Raijintek Orcus Core 360
- Speicher
- 2x32GB Thermaltake R009R432GX2-3600C18A
- Grafikprozessor
- AMD Radeon RX 6900 XT Biggest Navi21 XTX
- Display
- AORUS FV43U + Viewsonic VP2365WB
- SSD
- Kingston FYR 4TB, HP SSD EX950 2TB (HP 8088), Samsung 840 EVO 1TB
- HDD
- 2015 abgeschafft
- Optisches Laufwerk
- 2005 abgeschafft
- Gehäuse
- Sharkoon REV200
- Netzteil
- Corsair AX760i Platinum
- Tastatur
- Logitech K120
- Maus
- Speedlink TARIOS / DECUS
- Betriebssystem
- Win11 Pro AMD64
- Webbrowser
- Diverse
- Verschiedenes
- TIE Studio TUR88 Supernova, X-Board V2 (nur Headshots)
- Internetanbindung
-
▼1,2 Gbit/s
▲54 Mbit/s
Tessellation
So schlecht finde ich das gar nicht, aber auf dem Metro 2033 (was zur "Nvidia the way it's ment to be played" Serie gehört und NVIDIA PhysX nutzt) Spiel würde ich nicht soviel geben.
Bei der "Unigine Heaven" Demo sieht man für den GTX 480 140% einer 5780, eine eher schwache Vorstellung, wenn man sieht das der gesamte PC unter Volllast 148% mehr verbraucht.
147 Watt mehr Verbrauch, da kann man bedenkenlos noch eine zweite 5780 dazu stecken. 
So schlecht finde ich das gar nicht, aber auf dem Metro 2033 (was zur "Nvidia the way it's ment to be played" Serie gehört und NVIDIA PhysX nutzt) Spiel würde ich nicht soviel geben.
Bei der "Unigine Heaven" Demo sieht man für den GTX 480 140% einer 5780, eine eher schwache Vorstellung, wenn man sieht das der gesamte PC unter Volllast 148% mehr verbraucht.


Zuletzt bearbeitet:
[P3D] Crazy_Chris
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.451
- Renomée
- 116
- Mein Laptop
- Sony Vaio VPC-CW2S1E/R (14,1", Core i3 330M, GeForce GT 330M, Intel X25-M G2 80 GB)
- Details zu meinem Desktop
- Prozessor
- Intel Core i5-750 @ 3.36Ghz (1,18V)
- Mainboard
- Gigabyte GA-P55M-UD2
- Kühlung
- Scythe Mugen 2 Rev. B
- Speicher
- 4x 2GB G.Skill F3-12800CL9D-4GBNQ (DDR3-1600)
- Grafikprozessor
- Gigabyte GV-N570OC-13I (GeForce GTX 570 OC 1280MB GDDR5)
- Display
- Dell UltraSharp 2407WFP
- HDD
- Crucial RealSSD C300 128 GB, Samsung SpinPoint F3 1TB
- Optisches Laufwerk
- LG GGC-H20L SATA *Blu-ray*
- Soundkarte
- Creative Sound Blaster X-Fi Titanium PCIe
- Gehäuse
- Silverstone Temjin TJ08 µATX
- Netzteil
- ELVT NesteQ NA4501 (450 W, Semipassiv)
- Betriebssystem
- Windows 7 und Ubuntu (x64)
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- guckguck :-P
Ich grabe das hier mal aus, da ja heute die GTX480 vorgestellt wurde und ich ein wenig von der Flop Leistung erschrocken bin,
5870 = 2.720 GFLOPs
GTX480 = 1.345 GFLOPs
Das sind wohl nur Angaben für "Single-Precision" Berechnungen. Bei Double-Precision, also 64bit Float, sieht es wieder anders aus und auf die kommt es in vielen GPGPU Projekten eher an. Fermi schafft übrigens 712 GFLOPs mit double-precision. Die HD 5870 so um die 500 GFLOPs soweit ich weiß. Man sieht eben schon wo ein Schwerpunkt der GTX 480 liegt und wo es wohl damit hingehen soll. Tesla ahoi.

Zuletzt bearbeitet:
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Weil bei Nvidia Geforce 100 alle Einheiten daran rumrechnen, während bei ATIs Evergreens das eine eigene Einheit ist.... Und kann mir vllt einer erklären warum die AMD in Tesselation so schlecht abschneidet ähnelt die Berechnung nicht dem was beim DC getan wird !??
Ich stelle die frage extra hier weil hier ja die Spezi´s unterwegs sind.
Gut für Nvidia wenig dynamische weitere Inhalte berechnet werden müssen.
Gut für ATI, da die Rechenleistung der Tesselation völlig entkoppelt ist von den anderen Grafikberechnungen.
MFG Bobo(2010)
DonGeilo
Grand Admiral Special
- Mitglied seit
- 01.09.2005
- Beiträge
- 2.073
- Renomée
- 8
- Standort
- Hamburg
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- ABC@Home
- Lieblingsprojekt
- ABC@Home
- Folding@Home-Statistiken
während bei ATIs Evergreens das eine eigene Einheit ist.
MFG Bobo(2010)
Sehr interessant, dann sollte es für AMD ja ein leichtes sein, diese Einheit auf einer Zukünftigen Karte zu verbessern, ich dachte das hat was mit den Shadern zutuen....
.
EDIT :
.
[P3D] Crazy_Chris;4180678 schrieb:Das sind wohl nur Angaben für "Single-Precision" Berechnungen. Bei Double-Precision, also 64bit Float, sieht es wieder anders aus und auf die kommt es in vielen GPGPU Projekten eher an. Fermi schafft übrigens 712 GFLOPs mit double-precision. Die HD 5870 so um die 500 GFLOPs soweit ich weiß. Man sieht eben schon wo ein Schwerpunkt der GTX 480 liegt und wo es wohl damit hingehen soll. Tesla ahoi.![]()
Danke auch das wollte ich wissen also wäre eine GTX480 im DC Theoretisch schneller aber die DP Leistung hat bei AMD nichts mit der Tesselation Leistung zutuhen.
[P3D] Crazy_Chris
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.451
- Renomée
- 116
- Mein Laptop
- Sony Vaio VPC-CW2S1E/R (14,1", Core i3 330M, GeForce GT 330M, Intel X25-M G2 80 GB)
- Details zu meinem Desktop
- Prozessor
- Intel Core i5-750 @ 3.36Ghz (1,18V)
- Mainboard
- Gigabyte GA-P55M-UD2
- Kühlung
- Scythe Mugen 2 Rev. B
- Speicher
- 4x 2GB G.Skill F3-12800CL9D-4GBNQ (DDR3-1600)
- Grafikprozessor
- Gigabyte GV-N570OC-13I (GeForce GTX 570 OC 1280MB GDDR5)
- Display
- Dell UltraSharp 2407WFP
- HDD
- Crucial RealSSD C300 128 GB, Samsung SpinPoint F3 1TB
- Optisches Laufwerk
- LG GGC-H20L SATA *Blu-ray*
- Soundkarte
- Creative Sound Blaster X-Fi Titanium PCIe
- Gehäuse
- Silverstone Temjin TJ08 µATX
- Netzteil
- ELVT NesteQ NA4501 (450 W, Semipassiv)
- Betriebssystem
- Windows 7 und Ubuntu (x64)
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- guckguck :-P
Theoretisch schon. Es kommt aber immernoch stark auf die Software an und wie stark auf die jeweilige Architektur optimiert wird. Zumal sind APIs wie OpenCL, CUDA 3.0 oder Direct Compute und Treiber erst am Anfang und es fehlen sicher noch einige Erfahrungen um das ganze Potenzial zu nutzen. Es werden sich auch Anwendungen finden lassen wo die vermeintlich unterlegene ATI schneller ist. In einigen Monaten kann man da sicher mehr sagen wenn die GTX 480 großflächig verfügbar ist und es optimierte Anwendungen direkt für diese Karte gibt. Das Optimierungspotenzial ist im Gegensatz zu x86 höher denke ich da sich die Architekturen der GPUs untereinander deutlich unterscheiden.
Zuletzt bearbeitet:
Es gab ja vor einiger Zeit das Gerücht, dass die Desktop-Fermis in der DP-Leistung beschnitten werden, um die Teslas nicht zu gefährden....
Danke auch das wollte ich wissen also wäre eine GTX480 im DC Theoretisch schneller aber die DP Leistung hat bei AMD nichts mit der Tesselation Leistung zutuhen.
http://forum.beyond3d.com/showpost.php?p=1414410&postcount=42
cho schrieb:the FMA DP is about 168 GFLOPS in opencl, 1/4 tesla.
Ich konnte keinen einzigen Tests entdecken, wo die DP-Performance gemessen wurde, selbst nicht mit SiSoft Sandra 2010.
Zumindest für den, der Gipsels Artikel gelesen hat, sollte es klar sein.Dass die Graka über CAL angesprochen wird ist nicht so klar, denn GPU1 lief über DirectX und kann damit schonmal nicht direkt Basis für GPU2 gewesen sein.
Der GPU1-Client lief über BrookGPU mit DX als Backend. GPU2 über Brook+ und dann CAL als Backend (Ich weiß, dass dieser Satz wenig Sinn ergibt, aber die Richtung der Aussage sollte stimmen).
Zuletzt bearbeitet:
[P3D] Crazy_Chris
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 9.451
- Renomée
- 116
- Mein Laptop
- Sony Vaio VPC-CW2S1E/R (14,1", Core i3 330M, GeForce GT 330M, Intel X25-M G2 80 GB)
- Details zu meinem Desktop
- Prozessor
- Intel Core i5-750 @ 3.36Ghz (1,18V)
- Mainboard
- Gigabyte GA-P55M-UD2
- Kühlung
- Scythe Mugen 2 Rev. B
- Speicher
- 4x 2GB G.Skill F3-12800CL9D-4GBNQ (DDR3-1600)
- Grafikprozessor
- Gigabyte GV-N570OC-13I (GeForce GTX 570 OC 1280MB GDDR5)
- Display
- Dell UltraSharp 2407WFP
- HDD
- Crucial RealSSD C300 128 GB, Samsung SpinPoint F3 1TB
- Optisches Laufwerk
- LG GGC-H20L SATA *Blu-ray*
- Soundkarte
- Creative Sound Blaster X-Fi Titanium PCIe
- Gehäuse
- Silverstone Temjin TJ08 µATX
- Netzteil
- ELVT NesteQ NA4501 (450 W, Semipassiv)
- Betriebssystem
- Windows 7 und Ubuntu (x64)
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- guckguck :-P
Es gab ja vor einiger Zeit das Gerücht, dass die Desktop-Fermis in der DP-Leistung beschnitten werden, um die Teslas nicht zu gefährden.
Aber doch nur bei der GTX 470 und dem GF104, GF108?

Bei den GF104 und kleiner wird IMHO gar keine DP-Fähigkeit geben (wie beim RV830 und kleiner).[P3D] Crazy_Chris;4181153 schrieb:Aber doch nur bei der GTX 470 und dem GF104, GF108?![]()
Sonst: Ehrlich gesagt, keine Ahnung. Nirgendwo wurde die DP-Leistung gemessen, und glaube kaum, dass das ein Zufall ist.
Ich hab's:
http://www.ixbt.com/video3/gf100-2-part1.shtml (http://translate.google.de/translat...bt.com/video3/gf100-2-part1.shtml&sl=ru&tl=de )
In Etwa:??
??,
![]()
?? ??
??
?
? ?
?
, ??
?
??
?? Fermi,
?
? ??
?
? GF100
![]()
?
![]()
??
?
,
![]()
![]()
??.
64-
![]()
? ? GeForce GTX 480
![]()
?
??. ?
GTX 480 — ?? 168
??
![]()
672.
Die DP-Performance der GTX480 wird künstlich auf ein Viertel gebremst.
Zuletzt bearbeitet:
Emploi
Grand Admiral Special
- Mitglied seit
- 20.10.2005
- Beiträge
- 10.744
- Renomée
- 1.013
- Standort
- Elbflorenz
- Aktuelle Projekte
- WCG
- Lieblingsprojekt
- LatticeProject, Virtual Prairie (ViP), World Community Grid
- Meine Systeme
- Ein Haswell, Cloudnet GO RK3188, CX-919
- BOINC-Statistiken
- Mein Desktopsystem
- Tanz der Bonbonfee
- Mein Laptop
- HP Envy x360 Ryzen 5 2500u Vega 8
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- MSI MAG B550 TOMAHAWK
- Kühlung
- Raijintek Orcus Core 360
- Speicher
- 2x32GB Thermaltake R009R432GX2-3600C18A
- Grafikprozessor
- AMD Radeon RX 6900 XT Biggest Navi21 XTX
- Display
- AORUS FV43U + Viewsonic VP2365WB
- SSD
- Kingston FYR 4TB, HP SSD EX950 2TB (HP 8088), Samsung 840 EVO 1TB
- HDD
- 2015 abgeschafft
- Optisches Laufwerk
- 2005 abgeschafft
- Gehäuse
- Sharkoon REV200
- Netzteil
- Corsair AX760i Platinum
- Tastatur
- Logitech K120
- Maus
- Speedlink TARIOS / DECUS
- Betriebssystem
- Win11 Pro AMD64
- Webbrowser
- Diverse
- Verschiedenes
- TIE Studio TUR88 Supernova, X-Board V2 (nur Headshots)
- Internetanbindung
-
▼1,2 Gbit/s
▲54 Mbit/s
Das ist einer der Sprachen die ich vollständig verdrängt habe, und der g00gleübersetzer teilweise auch, wo steht das


















mit der DP Leistung?
EDIT
Ich habe es gefunden, kann aber nix damit anfangen...




















EDIT
Ich habe es gefunden, kann aber nix damit anfangen...
Zuletzt bearbeitet:
[MTB]JackTheRipper
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 7.814
- Renomée
- 49
- Standort
- Reutlingen
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding@Home, QMC, Spinhenge, Simap, Poem
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- 2x X2 3800+
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- HP NC2400
- Details zu meinem Desktop
- Display
- Samsung SyncMaster 305T
- Gehäuse
- Antec P180B
D.h. für GPGPU sollte man im privaten Bereich weiterhin auf ATi setzen, sollten sich diese Werte bewahrheiten.
Würdest du wirklich mit einer GTX480, wie sie jetzt ist, folden?[MTB]JackTheRipper;4181289 schrieb:D.h. für GPGPU sollte man im privaten Bereich weiterhin auf ATi setzen, sollten sich diese Werte bewahrheiten.
[MTB]JackTheRipper
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 7.814
- Renomée
- 49
- Standort
- Reutlingen
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding@Home, QMC, Spinhenge, Simap, Poem
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- 2x X2 3800+
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- HP NC2400
- Details zu meinem Desktop
- Display
- Samsung SyncMaster 305T
- Gehäuse
- Antec P180B
Nein, die Aussage war rein hypothetisch zu sehen 

indiana_74
Moderator
☆☆☆☆☆☆
- Mitglied seit
- 24.02.2006
- Beiträge
- 8.195
- Renomée
- 548
- Standort
- in der Hauptstadt
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Milkyway - Rosetta
- Lieblingsprojekt
- SETI
- Meine Systeme
- Linux VM auf AMD Ryzen 5
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Apple iMac (21,5 Zoll, Ende 2015)
- Details zu meinem Desktop
- Prozessor
- Intel 1,6 GHz Dual-Core Intel Core i5 (Turbo Boost bis zu 2,7 GHz)
- Mainboard
- -
- Kühlung
- -
- Speicher
- 8 GB 1867 MHz LPDDR3 Arbeitsspeicher (On-Board)
- Grafikprozessor
- Intel HD Graphics 6000
- Display
- 21,5" Display (54,61 cm Diagonale) mit LED-Hintergrund-Beleuchtung und IPS Technologie
- SSD
- 256GB
- HDD
- -
- Optisches Laufwerk
- -
- Soundkarte
- -
- Gehäuse
- -
- Netzteil
- -
- Tastatur
- Apple Magic Keyboard
- Maus
- Apple Magic Mouse
- Betriebssystem
- macOS 12.7.6
- Webbrowser
- Safari
Bei veröffentlichung des Artikels kam schnell die Vermutung auf, dass der verwendete distributed.net Client die HD5850 nicht voll auslasten würde, ich habe die HD5850 daher nun mit einem aktuellen Client (v2.9108.517 vom 28.06.2010) erneut getestet.
Ergebnis war: 958.946.983 key/s
Ergebnis ist: 1.443.596.978 key/s (+50.54%)
Die Vermutung war also richtig und das Ergebnis ist mehr als beeindruckend.
Mal wieder ein schönes Beispiel dafür wie wichtig eine saubere Programmierung ist.
Ergebnis war: 958.946.983 key/s
Ergebnis ist: 1.443.596.978 key/s (+50.54%)
Die Vermutung war also richtig und das Ergebnis ist mehr als beeindruckend.
Mal wieder ein schönes Beispiel dafür wie wichtig eine saubere Programmierung ist.
mibo
Grand Admiral Special
- Mitglied seit
- 05.01.2003
- Beiträge
- 2.297
- Renomée
- 65
- Standort
- Hannover
- Mein Laptop
- Lenovo P14s
- Details zu meinem Desktop
- Prozessor
- Ryzen 7800X3D
- Mainboard
- ASUS TUF A620M-PLUS
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x16GB DDR5 ECC
- Grafikprozessor
- AMD 6800XT
- Display
- HP X27i
- SSD
- Samsung 860EVO, 960EVO, WD 850X, KC3000 :-)
- Optisches Laufwerk
- DVD-Brenner :-)
- Netzteil
- BQ Dark Power 12 750W
- Betriebssystem
- Suse Tumbleweed / Win10 64Bit
- Webbrowser
- Firefox
Das ist ja ein ordentlicher Schub 
Danke für die Nachmeldung. Ob es bei Nvidia auch Performance-Verbesserungen gab?

Danke für die Nachmeldung. Ob es bei Nvidia auch Performance-Verbesserungen gab?
Sabroe SMC
Grand Admiral Special
- Mitglied seit
- 14.05.2008
- Beiträge
- 4.764
- Renomée
- 529
- Standort
- Castrop-Rauxel
- Mein Laptop
- Gigabyte P37, i7 4720HQ, 16 Gb, 128 Gb SSD, 1Tb HD, 17" FHD
- Details zu meinem Desktop
- Prozessor
- AMD Ryzen 9 7950X3D
- Mainboard
- Asus TUF Gaming X670E Plus
- Kühlung
- Noctua NH-D15 chromax.black
- Speicher
- G.Skill Trident Z5 RGB silber DIMM Kit 64GB DDR5-6400 CL32-39-39-102 on-die ECC
- Grafikprozessor
- Palit GeForce RTX 4090 GameRock
- Display
- Samsung U32H850, 31.5" (3840x2160)
- SSD
- Kingston KC3000 PCIe 4.0 NVMe SSD 2TB
- Optisches Laufwerk
- irgendeins
- Soundkarte
- Onboard
- Gehäuse
- SilverStone Seta D1, schwarz
- Netzteil
- ASUS ROG Strix, ROG-STRIX-850G Gold Aura Edition, 850W ATX 3.0
- Tastatur
- Razer BlackWidow Ultimate
- Maus
- Zowie Gaming Mouse FK1
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Firefox in aktuellster Version
- Verschiedenes
- Teufel Concept C (Schwarz) bestehend aus - 2 Satelliten-Lautsprecher CS 25 FCR Mk3 (Schwarz) 1 Aktiv-Subwoofer CC 2013 SW (Schwarz)
- Internetanbindung
-
▼500 Mbit/s
▲25 Mbit/s
Hab mal meine 5870 dran gesetzt: 2,073,527,822 keys/s
Ähnliche Themen
- Antworten
- 5
- Aufrufe
- 739
- Antworten
- 0
- Aufrufe
- 529
- Antworten
- 2
- Aufrufe
- 290
- Antworten
- 13
- Aufrufe
- 1K
- Antworten
- 0
- Aufrufe
- 676