App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
User-Review: Phenom II X6 vs. Haswell i3
- Ersteller miriquidi
- Erstellt am
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.457
- Renomée
- 2.014
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Nur geht es nicht um bitgleiche Ergebnisse sondern um qualitativ gleichwertige Ergebnisse und einen direkten Vergleich macht man ganz sicher nicht mit unterschiedlichen Codecs. Genau an der Stelle ist der Vergleich absoluter Murks.
Geht es primär darum ein Video möglichst schnell umzuwandeln und die Qualität des Videos ist relativ nebensächlich dann kann man das gern machen, brauch sich dann aber nicht über Qualitätseinstellungen auszulassen.
Geht es primär darum ein Video möglichst schnell umzuwandeln und die Qualität des Videos ist relativ nebensächlich dann kann man das gern machen, brauch sich dann aber nicht über Qualitätseinstellungen auszulassen.
Um das Qualitätsargument zu objektivieren, müsste man es quantifizieren können. Das ist jedoch sehr schwierig, da sich die menschliche Wahrnehmung schlecht in quantitative Raster pressen lässt. Wo nun die Schwelle ist, aber der der mittlere Betrachter (wer auch immer das ist) einen Unterschied sieht, ist eine reine Glaubensfrage.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.457
- Renomée
- 2.014
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Das sollte doch nun wirklich kein Problem sein das anhand von Screenshorts zu vergleichen.
Wer noch nicht einmal das schafft sollte sich die Vergleiche gleich ganz schenken.
Mist bleibt Mist auch wenn man karamellisierten Zucker drüber streut.
Wer noch nicht einmal das schafft sollte sich die Vergleiche gleich ganz schenken.
Mist bleibt Mist auch wenn man karamellisierten Zucker drüber streut.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.457
- Renomée
- 2.014
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Und was hat das mit meinem Posting zu tuen?
Ich bin zwar nicht miriquidi, denke aber, dass Folgendes gemeint ist:Und was hat das mit meinem Posting zu tuen?
Auf den Beitrag
hast du damit geantwortet:Um das Qualitätsargument zu objektivieren, müsste man es quantifizieren können. ... quantitative ...
... vergleichen. ... Vergleiche ...
@sompe: Die Encodierzeiten ins H264-Format können wir recht präzise messen und schlussfolgern Produkt A ist 1,5fach so schnell wie Produkt B.
In Sachen Encodierqualität ist das schwer. Es gibt verschiedene Algorithmen zur Bewertung der Videoqualität, aber auch die sind empirische Modelle der menschlichen Wahrnehmung und unterscheiden sich in ihren Ergebnissen.
Wir wissen, dass Quick Sync und z.B. x264 unterschiedliche Videoqualitäten liefern, man sieht es im Vergleich Seite an Seite. Aber wir können das nicht in Zahlen packen und sagen Produkt A ist 1,5fach besser als Produkt B. Damit ist jede Diskussion über die Qualität eine reine Geschmackssache und nicht objektiv. Das ist wie über Religion zu diskutieren.
"!=" steht für "ist nicht" - war etwas missverständlich.
In Sachen Encodierqualität ist das schwer. Es gibt verschiedene Algorithmen zur Bewertung der Videoqualität, aber auch die sind empirische Modelle der menschlichen Wahrnehmung und unterscheiden sich in ihren Ergebnissen.
Wir wissen, dass Quick Sync und z.B. x264 unterschiedliche Videoqualitäten liefern, man sieht es im Vergleich Seite an Seite. Aber wir können das nicht in Zahlen packen und sagen Produkt A ist 1,5fach besser als Produkt B. Damit ist jede Diskussion über die Qualität eine reine Geschmackssache und nicht objektiv. Das ist wie über Religion zu diskutieren.
"!=" steht für "ist nicht" - war etwas missverständlich.
Nein, mache ich auch so.... "!=" steht für "ist nicht" - war etwas missverständlich.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.457
- Renomée
- 2.014
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
So wie ich das lese versucht er Qualitätsunterschiede zu relativieren wodurch sich für mich der Eindruck bildet das er die Ergebnisse dennoch verwerten will und warum ich von einem Vergleich schreibe? Weil es schließlich um einen Vergleichstest geht.
Dazu fängt er an mit hochgestochenen Begriffen um sich zu werfen die der Aussage offenbar seine Aussage bekräftigen sollen....eine Taktik die ich allgemein als lächerlich empfinde. Und ja, ich habe verstanden was mit quantifizieren gemeint ist, genau deshalb stellte ich ja auch die Frage was das mit meinem Posting zu tuen hat. Es ging schließlich nicht darum Qualitätsunterschiede zu messen sondern darum das die Qualität beider Ergebnisse lediglich vergleichbar ist um überhaupt sowas wie eine Basis für Geschwindigkeitsvergleiche zu haben.
Ich kann seine Aussage auch überspitzen und sagen das sich selbst eine Wiederholung der gleichen Berechnung auf dem gleichen Prozessor mit dem gleichen Kern u.A. wegen gekippter Bits unterscheiden kann sodass kein Bit gleiches Ergenis dabei rauskommt.
Nach der gleichen Argumentation kann man auch 2 unterschiedlich schnelle Grafikkarten mit unterschiedlichen Bildeinstellungen testen wodurch die langsamere Karte schneller ist und diese zu Sieger krönen weil sie ja eine höhere Framerate brachte oder noch besser, wir testen mit der gleichen qualitätseinstellung aber mit unterschiedlichen DirectX Versionen. Die eine mit DX10 und die andere mit DX11 und Tesselation, beide natürlich auf der max. Einstellung. Wer da wohl schneller wäre...?
Glückwunsch! Damit können wir uns jegliche Vergleichstests jeglicher Produkte sparen.
Damit bleibe ich bei meiner zuvor getätigten Aussage die sich natürlich auf den Test dieses Topics bezieht:
Dazu fängt er an mit hochgestochenen Begriffen um sich zu werfen die der Aussage offenbar seine Aussage bekräftigen sollen....eine Taktik die ich allgemein als lächerlich empfinde. Und ja, ich habe verstanden was mit quantifizieren gemeint ist, genau deshalb stellte ich ja auch die Frage was das mit meinem Posting zu tuen hat. Es ging schließlich nicht darum Qualitätsunterschiede zu messen sondern darum das die Qualität beider Ergebnisse lediglich vergleichbar ist um überhaupt sowas wie eine Basis für Geschwindigkeitsvergleiche zu haben.
Ich kann seine Aussage auch überspitzen und sagen das sich selbst eine Wiederholung der gleichen Berechnung auf dem gleichen Prozessor mit dem gleichen Kern u.A. wegen gekippter Bits unterscheiden kann sodass kein Bit gleiches Ergenis dabei rauskommt.
Nach der gleichen Argumentation kann man auch 2 unterschiedlich schnelle Grafikkarten mit unterschiedlichen Bildeinstellungen testen wodurch die langsamere Karte schneller ist und diese zu Sieger krönen weil sie ja eine höhere Framerate brachte oder noch besser, wir testen mit der gleichen qualitätseinstellung aber mit unterschiedlichen DirectX Versionen. Die eine mit DX10 und die andere mit DX11 und Tesselation, beide natürlich auf der max. Einstellung. Wer da wohl schneller wäre...?
Glückwunsch! Damit können wir uns jegliche Vergleichstests jeglicher Produkte sparen.
Damit bleibe ich bei meiner zuvor getätigten Aussage die sich natürlich auf den Test dieses Topics bezieht:
Geht es primär darum ein Video möglichst schnell umzuwandeln und die Qualität des Videos ist relativ nebensächlich dann kann man das gern machen, brauch sich dann aber nicht über Qualitätseinstellungen auszulassen.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Mir wäre selbst das Quell Material, dass TARDIS genutzt hat zu schlecht.
Hier mal ein Vergleich Original DVD vs 1080p@60FPS ins h264 Format umgewandelt:
DVD: http://abload.de/img/dvd_snapshot_04.36_200yu1v.jpg
h264: http://abload.de/img/bbb_vlc_qualitt_fsy0rnk.jpg
Die 60FPS machen das Bild erst richtig scharf (deutlich).
Hier mal ein Vergleich Original DVD vs 1080p@60FPS ins h264 Format umgewandelt:
DVD: http://abload.de/img/dvd_snapshot_04.36_200yu1v.jpg
h264: http://abload.de/img/bbb_vlc_qualitt_fsy0rnk.jpg
Die 60FPS machen das Bild erst richtig scharf (deutlich).
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.457
- Renomée
- 2.014
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Ich hoffe dass das mit der Schärfe nicht auf den Hasen bezogen war.
Ich wollte mit meinem Hinweis auf der letzten Seite nur darauf hinweisen, neben der Nutzung von Quick Sync auch bereits das Multithreading auf einer normalen CPU Einfluss auf das Komprimierergebnis hat. Es ist jedoch üblich zu sagen, dass ein FX 8xxx z.B. signifikant schneller als ein Athlon II X2 konvertiert ohne darauf einzugehen, dass beide etwas unterschiedliches berechnet haben. Ob das jetzt (sichtbare) Qualitätsmängel nach sich zieht, ist eine ganz andere Frage. Dem müsste man auf den Grund gehen.So wie ich das lese versucht er Qualitätsunterschiede zu relativieren wodurch sich für mich der Eindruck bildet das er die Ergebnisse dennoch verwerten will und warum ich von einem Vergleich schreibe? Weil es schließlich um einen Vergleichstest geht.
Dazu fängt er an mit hochgestochenen Begriffen um sich zu werfen die der Aussage offenbar seine Aussage bekräftigen sollen....eine Taktik die ich allgemein als lächerlich empfinde. Und ja, ich habe verstanden was mit quantifizieren gemeint ist, genau deshalb stellte ich ja auch die Frage was das mit meinem Posting zu tuen hat. Es ging schließlich nicht darum Qualitätsunterschiede zu messen sondern darum das die Qualität beider Ergebnisse lediglich vergleichbar ist um überhaupt sowas wie eine Basis für Geschwindigkeitsvergleiche zu haben.
So wie ich das verstanden habe, zerlegt der x264 Konverter die Bilder in Segmente (erster Kern die linke Hälfte + Überlappung; zweiter Kern die rechte Hälfte + Überlappung) und erzeugt dadurch eine Datenstruktur die ein Stück weit parallel abgearbeitet werden kann. Wobei ich mich damit nicht en detail beschäftigt habe. Inwiefern man das dann wirklich sieht? Keine Ahnung.
EDIT: Hier ist ein Link. Ganz unten ist der Kommentar ("A note on threads"):
Im strengen Sinn ist x264 damit aus meiner Sicht kein Benchmark, weil je nach Kernzahl etwas anderes rauskommt. Das scheint jedoch keinen in der PC-Branche zu stören.
Das wäre ein einmaliger Rechenfehler. Das zählt nicht.Ich kann seine Aussage auch überspitzen und sagen das sich selbst eine Wiederholung der gleichen Berechnung auf dem gleichen Prozessor mit dem gleichen Kern u.A. wegen gekippter Bits unterscheiden kann sodass kein Bit gleiches Ergenis dabei rauskommt.
Ich spiele am PC nicht. Jedoch wird meines Wissens meist die FPS-Rate oder die Zeit zwischen den Bildern analysiert. Die Qualität lässt man hinten herunter fallen.Nach der gleichen Argumentation kann man auch 2 unterschiedlich schnelle Grafikkarten mit unterschiedlichen Bildeinstellungen testen wodurch die langsamere Karte schneller ist und diese zu Sieger krönen weil sie ja eine höhere Framerate brachte oder noch besser, wir testen mit der gleichen qualitätseinstellung aber mit unterschiedlichen DirectX Versionen. Die eine mit DX10 und die andere mit DX11 und Tesselation, beide natürlich auf der max. Einstellung. Wer da wohl schneller wäre...?
Glückwunsch! Damit können wir uns jegliche Vergleichstests jeglicher Produkte sparen.
Wer sagt denn, dass selbst mit gleichem DirectX Stack ein Intel-Bild genauso aussieht wie eines von AMD oder nVidia? Das prüft keiner nach.
@Windhund: Du müsstest dann schon die gleichen Frames gegenüber stellen. Sonst ist das sinnfrei.
Zuletzt bearbeitet:
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
@sompe
Es ist eben nicht einfach das richtige Timming für den Screenshot zu finden, etwas unschärfe hast bei 60 Bilder pro Sekunde in Bewegung immer.
Ich kann jedoch mit gutem Gewissen behaupten, ein viertel so große h264 Datein sind bei der Wiedergabe wesentlich qualitativer als DVDs.
Was mich etwas nervt, seit Jahren werden GPUs mit höhere TDP verkauft als CPUs, nur um ein bessere Bildqualität zu erreichen.
Nun soll es von einer iGPU abgelöst werden, welche wieder eine schlechtere Qualtität bietet? Nein, Danke.
Es ist eben nicht einfach das richtige Timming für den Screenshot zu finden, etwas unschärfe hast bei 60 Bilder pro Sekunde in Bewegung immer.
Ich kann jedoch mit gutem Gewissen behaupten, ein viertel so große h264 Datein sind bei der Wiedergabe wesentlich qualitativer als DVDs.
Was mich etwas nervt, seit Jahren werden GPUs mit höhere TDP verkauft als CPUs, nur um ein bessere Bildqualität zu erreichen.
Nun soll es von einer iGPU abgelöst werden, welche wieder eine schlechtere Qualtität bietet? Nein, Danke.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.457
- Renomée
- 2.014
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@ WindHund
Ich weiss, wollte aber sicherheitshalber nochmal nachfragen, nicht das jemand noch der klassischen Bewegungsunschärfe aufsitzt denn bei der DVD Version sieht man schon das an der Stelle deutlich mehr Bewegung im Spiel war.
Ich hatte auch schon Sachen wie das eine DVD das für mich bessere Ergebnis hatte als ein anderer Film der auf Blu-Ray daher kam, weil letzterer einfach nur überschärft war und ersterer noch in einer ordentliche Qualität erstellt wurde. Das ist heutzutage leider alles andere als selbstverständlich.
@ miriquidi
Bei einem Vergleich mit dem gleichen Programm, dem gleichen Codec, den gleichen Qualitätseinstellungen (damit man ausschließen kann das der qualitative Unterschied hier entsteht) und die qualitativen Unterschiede sind ähnlich hoch wie bei QuickSync?
Wenn nein dann mißt du mit zweierlei Maß und eine weitere Diskussion ist in meinen Augen sinnlos.
Ob sie Bit genau gleich sind interessiert letztendlich niemanden sofern das Ergebnis qualitativ nahezu gleich ist. Sichtbare Unterschiede interessieren hingegen sehr wohl.
Zum Thema Spieletests...dann solltest du dir mal ein paar durchlesen denn es wird für den Vergleich der Karten mit dem gleichen Spiel, die gleiche Bildeinstellung und die gleiche Testszene verwendet um rauszufinden wer nun schneller ist. Das beide Karten in dem Spiel auf der gleichen DX Version laufen versteht sich dabei von selbst denn sonst läuft die andere Karte außer Konkurrenz.
Übertrage ich das Prinzip auf den auf den X6 CPU vs. i3 QuickSync konvertier Test Vergleich dann kämen unterschiedliche Spiele (Programm/Video Codec) aus dem gleichen Genre (Testszene) mit unterschiedlichen DX Versionen (Bildqualität) zum einsatz die lediglich beide bei maximaler Einstellung getestet wurden umd dann zu sagen das Karte A besser ist weil sie bei Spiel B schneler ist. Das dies Vorgehen absoluter Blödsinn ist sollte jedem mit gesunden Menschenverstand einleuchten.
Und doch, bei guten Tests wird auch die Bildqualität verglichen denn warum wurde wohl seinerzeit sonst die AF Schwäche der HD 5000/600 Serie bemängelt? Auch hier muss das Ergebnis nicht absolut identisch aber vergleichbar sein.
Ich weiss, wollte aber sicherheitshalber nochmal nachfragen, nicht das jemand noch der klassischen Bewegungsunschärfe aufsitzt denn bei der DVD Version sieht man schon das an der Stelle deutlich mehr Bewegung im Spiel war.
Ich hatte auch schon Sachen wie das eine DVD das für mich bessere Ergebnis hatte als ein anderer Film der auf Blu-Ray daher kam, weil letzterer einfach nur überschärft war und ersterer noch in einer ordentliche Qualität erstellt wurde. Das ist heutzutage leider alles andere als selbstverständlich.
@ miriquidi
Bei einem Vergleich mit dem gleichen Programm, dem gleichen Codec, den gleichen Qualitätseinstellungen (damit man ausschließen kann das der qualitative Unterschied hier entsteht) und die qualitativen Unterschiede sind ähnlich hoch wie bei QuickSync?
Wenn nein dann mißt du mit zweierlei Maß und eine weitere Diskussion ist in meinen Augen sinnlos.
Ob sie Bit genau gleich sind interessiert letztendlich niemanden sofern das Ergebnis qualitativ nahezu gleich ist. Sichtbare Unterschiede interessieren hingegen sehr wohl.
Zum Thema Spieletests...dann solltest du dir mal ein paar durchlesen denn es wird für den Vergleich der Karten mit dem gleichen Spiel, die gleiche Bildeinstellung und die gleiche Testszene verwendet um rauszufinden wer nun schneller ist. Das beide Karten in dem Spiel auf der gleichen DX Version laufen versteht sich dabei von selbst denn sonst läuft die andere Karte außer Konkurrenz.
Übertrage ich das Prinzip auf den auf den X6 CPU vs. i3 QuickSync konvertier Test Vergleich dann kämen unterschiedliche Spiele (Programm/Video Codec) aus dem gleichen Genre (Testszene) mit unterschiedlichen DX Versionen (Bildqualität) zum einsatz die lediglich beide bei maximaler Einstellung getestet wurden umd dann zu sagen das Karte A besser ist weil sie bei Spiel B schneler ist. Das dies Vorgehen absoluter Blödsinn ist sollte jedem mit gesunden Menschenverstand einleuchten.
Und doch, bei guten Tests wird auch die Bildqualität verglichen denn warum wurde wohl seinerzeit sonst die AF Schwäche der HD 5000/600 Serie bemängelt? Auch hier muss das Ergebnis nicht absolut identisch aber vergleichbar sein.
Auch zwischen dem K10 X2 und dem FX8xxx sind die Einstellungen unterschiedlich. Einmal nutzt der Codec 2, einmal 8 Threads.Bei einem Vergleich mit dem gleichen Programm, dem gleichen Codec, den gleichen Qualitätseinstellungen (damit man ausschließen kann das der qualitative Unterschied hier entsteht) und die qualitativen Unterschiede sind ähnlich hoch wie bei QuickSync?
Wenn nein dann mißt du mit zweierlei Maß und eine weitere Diskussion ist in meinen Augen sinnlos.
Ob sie Bit genau gleich sind interessiert letztendlich niemanden sofern das Ergebnis qualitativ nahezu gleich ist. Sichtbare Unterschiede interessieren hingegen sehr wohl
Wir drehen uns im Kreis: Was ist ein "sichtbarer Unterschied" und für wen sichtbar? Das ist schwer messbar. Damit wird man darüber keine Einigkeit erzielen.
Ich würde deshalb auf den x264-Test nicht viel geben, die Unsicherheit ist zu groß.
Bei GPUs halte ich mich wegen grober Unkenntnis raus. *g*
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.457
- Renomée
- 2.014
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
@ miriquidi
Ich wiederhole mich:
Das für einen Geschwindigkeitsvergleich von 2 Prozessoren auch die gleiche softwarebasis verwendet wird um überhaupt eine Vergleichsbasis zu haben sollte jedem mit gesundem Menschenverstand einleuchten. In dem Test wurde lediglich geschaut wer irgendwie schneller ist, wobei die Qualität des Ergebnis recht unwichtig war. Masse statt Klasse eben aber das scheint ja eh in Mode zu sein.
Da kann ich dem i3 auch ein Programm/Codec unterjubeln das nur einen Kern nutzt und dem X6 mit alle Kernen rechnen lassen und oh Wunder..der X6 ist mit Sicherheit deutlich schneller. Das ist keine Basis für einen Vergleichstest sonder einfach nur Pfusch um das gewünschte Ergebnis zu bekommen. Wäre der Vergleich mit QuickSync aufgrund mangelhafter Vergleichbarkeit außer Konkurrenz gelaufen und der i3 beim Haupttest mit dem gleichen Programm/Codec wie der X6 getestet worden wäre alles in bester Ordnung denn schon hat man eine Vergleichsbasis und sieht dennoch die Vor- und Nachteile von QuickSync. Da kann dann jeder für sich entscheiden ob ihm die Qualität oder die Geschwindigkeit wichtiger ist.
Damit steht allerdings für mich fest das du mit zweierlei Maß mißt und ich schenke mir weitere Diskussionen zu diesem Thema.
Ich wiederhole mich:
Ob sie Bit genau gleich sind interessiert letztendlich niemanden sofern das Ergebnis qualitativ nahezu gleich ist.
Das für einen Geschwindigkeitsvergleich von 2 Prozessoren auch die gleiche softwarebasis verwendet wird um überhaupt eine Vergleichsbasis zu haben sollte jedem mit gesundem Menschenverstand einleuchten. In dem Test wurde lediglich geschaut wer irgendwie schneller ist, wobei die Qualität des Ergebnis recht unwichtig war. Masse statt Klasse eben aber das scheint ja eh in Mode zu sein.
Da kann ich dem i3 auch ein Programm/Codec unterjubeln das nur einen Kern nutzt und dem X6 mit alle Kernen rechnen lassen und oh Wunder..der X6 ist mit Sicherheit deutlich schneller. Das ist keine Basis für einen Vergleichstest sonder einfach nur Pfusch um das gewünschte Ergebnis zu bekommen. Wäre der Vergleich mit QuickSync aufgrund mangelhafter Vergleichbarkeit außer Konkurrenz gelaufen und der i3 beim Haupttest mit dem gleichen Programm/Codec wie der X6 getestet worden wäre alles in bester Ordnung denn schon hat man eine Vergleichsbasis und sieht dennoch die Vor- und Nachteile von QuickSync. Da kann dann jeder für sich entscheiden ob ihm die Qualität oder die Geschwindigkeit wichtiger ist.
Damit steht allerdings für mich fest das du mit zweierlei Maß mißt und ich schenke mir weitere Diskussionen zu diesem Thema.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Obwohl der Freemaker nur 2 Threads im Taskmanager nutzt, ist mein custom FX-9650 (8x 4.8GHz) schneller beim erstellen der DVD.iso: http://abload.de/img/bigbugbunny_convertdvwgurk.jpg
2m:30s vs. 3m:01 vs 4m:30s (FX-9, I3, X6)
Eine HDD ist übrigens immer noch schnell genug, sofern man das Quell Material klein rechnet und nicht größer.
Erst bei 4K@60FPS explodiert die Datenmenge und die Laufwerksgeschwindigkeit nimmt einfluß.
2m:30s vs. 3m:01 vs 4m:30s (FX-9, I3, X6)
Eine HDD ist übrigens immer noch schnell genug, sofern man das Quell Material klein rechnet und nicht größer.
Erst bei 4K@60FPS explodiert die Datenmenge und die Laufwerksgeschwindigkeit nimmt einfluß.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.457
- Renomée
- 2.014
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Dann sind wir uns ja einig was Quick Sync betrifft. *g*
Man misst aber auch in den oft genutzen CPU-Benchmark-Tests mit x264 mit zweierlei Maß. Das ist alles, was ich sagen wollte.
Aber immernoch besser als dieser x264 CPU vs. H.264 QuickSync Vergleich bei dem offenbar auch noch unterschiedliche Programme zum Einsatz kamen.
Selbst das Programm an sich hat schon einen Einfluss auf das Ergebnis und ich glaube kaum das der CPU seitige Unterschied zwischen dem X6 und dem i3 mit dem gleichen Programm und dem gleichen Codec großartig sichtbar wäre. Beim X6 läuft die Berechnung dann auf 6 und meim i3 auf 4 (virtuellen) Kernen. Multithreading ist also so oder so angesagt.
Hier ist ein qualitativer Vergleich zwischen Haswells Quick Sync und x264. Die nutzen das PSNR-Verfahren, über das will ich mich jetzt nicht auslassen.
http://www.tetrachromesoftware.com/q264Test1Analysis/q264test_5.html
http://www.tetrachromesoftware.com/q264Test1Analysis/q264test_5.html
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Yes, we can!Ohhh was sind die Intel CPU den sooooo langsam.........?!
Die Übersetzer/Compiler laufen auf Hochtouren, leider nur auf ATOM CPUs, wir wollen ja keine Energie verschwenden.
Ähnliche Themen
- Antworten
- 2K
- Aufrufe
- 135K
- Antworten
- 6
- Aufrufe
- 3K
- Antworten
- 89
- Aufrufe
- 10K
- Antworten
- 815
- Aufrufe
- 223K