User-Review: Phenom II X6 vs. Haswell i3

Nur geht es nicht um bitgleiche Ergebnisse sondern um qualitativ gleichwertige Ergebnisse und einen direkten Vergleich macht man ganz sicher nicht mit unterschiedlichen Codecs. Genau an der Stelle ist der Vergleich absoluter Murks.
Geht es primär darum ein Video möglichst schnell umzuwandeln und die Qualität des Videos ist relativ nebensächlich dann kann man das gern machen, brauch sich dann aber nicht über Qualitätseinstellungen auszulassen.
 
Um das Qualitätsargument zu objektivieren, müsste man es quantifizieren können. Das ist jedoch sehr schwierig, da sich die menschliche Wahrnehmung schlecht in quantitative Raster pressen lässt. Wo nun die Schwelle ist, aber der der mittlere Betrachter (wer auch immer das ist) einen Unterschied sieht, ist eine reine Glaubensfrage.
 
Das sollte doch nun wirklich kein Problem sein das anhand von Screenshorts zu vergleichen.
Wer noch nicht einmal das schafft sollte sich die Vergleiche gleich ganz schenken.

Mist bleibt Mist auch wenn man karamellisierten Zucker drüber streut.
 
Und was hat das mit meinem Posting zu tuen?
 
@sompe: Die Encodierzeiten ins H264-Format können wir recht präzise messen und schlussfolgern Produkt A ist 1,5fach so schnell wie Produkt B.

In Sachen Encodierqualität ist das schwer. Es gibt verschiedene Algorithmen zur Bewertung der Videoqualität, aber auch die sind empirische Modelle der menschlichen Wahrnehmung und unterscheiden sich in ihren Ergebnissen.
Wir wissen, dass Quick Sync und z.B. x264 unterschiedliche Videoqualitäten liefern, man sieht es im Vergleich Seite an Seite. Aber wir können das nicht in Zahlen packen und sagen Produkt A ist 1,5fach besser als Produkt B. Damit ist jede Diskussion über die Qualität eine reine Geschmackssache und nicht objektiv. Das ist wie über Religion zu diskutieren.

"!=" steht für "ist nicht" - war etwas missverständlich.
 
Man kann die Qualität aber anpassen und dann sagen Produkt A ist so schnell und B so schnell.
 
So wie ich das lese versucht er Qualitätsunterschiede zu relativieren wodurch sich für mich der Eindruck bildet das er die Ergebnisse dennoch verwerten will und warum ich von einem Vergleich schreibe? Weil es schließlich um einen Vergleichstest geht.
Dazu fängt er an mit hochgestochenen Begriffen um sich zu werfen die der Aussage offenbar seine Aussage bekräftigen sollen....eine Taktik die ich allgemein als lächerlich empfinde. Und ja, ich habe verstanden was mit quantifizieren gemeint ist, genau deshalb stellte ich ja auch die Frage was das mit meinem Posting zu tuen hat. Es ging schließlich nicht darum Qualitätsunterschiede zu messen sondern darum das die Qualität beider Ergebnisse lediglich vergleichbar ist um überhaupt sowas wie eine Basis für Geschwindigkeitsvergleiche zu haben.

Ich kann seine Aussage auch überspitzen und sagen das sich selbst eine Wiederholung der gleichen Berechnung auf dem gleichen Prozessor mit dem gleichen Kern u.A. wegen gekippter Bits unterscheiden kann sodass kein Bit gleiches Ergenis dabei rauskommt.
Nach der gleichen Argumentation kann man auch 2 unterschiedlich schnelle Grafikkarten mit unterschiedlichen Bildeinstellungen testen wodurch die langsamere Karte schneller ist und diese zu Sieger krönen weil sie ja eine höhere Framerate brachte oder noch besser, wir testen mit der gleichen qualitätseinstellung aber mit unterschiedlichen DirectX Versionen. Die eine mit DX10 und die andere mit DX11 und Tesselation, beide natürlich auf der max. Einstellung. Wer da wohl schneller wäre...?
Glückwunsch! Damit können wir uns jegliche Vergleichstests jeglicher Produkte sparen.

Damit bleibe ich bei meiner zuvor getätigten Aussage die sich natürlich auf den Test dieses Topics bezieht:
Geht es primär darum ein Video möglichst schnell umzuwandeln und die Qualität des Videos ist relativ nebensächlich dann kann man das gern machen, brauch sich dann aber nicht über Qualitätseinstellungen auszulassen.
 
Ich hoffe dass das mit der Schärfe nicht auf den Hasen bezogen war. ;)
 
So wie ich das lese versucht er Qualitätsunterschiede zu relativieren wodurch sich für mich der Eindruck bildet das er die Ergebnisse dennoch verwerten will und warum ich von einem Vergleich schreibe? Weil es schließlich um einen Vergleichstest geht.
Dazu fängt er an mit hochgestochenen Begriffen um sich zu werfen die der Aussage offenbar seine Aussage bekräftigen sollen....eine Taktik die ich allgemein als lächerlich empfinde. Und ja, ich habe verstanden was mit quantifizieren gemeint ist, genau deshalb stellte ich ja auch die Frage was das mit meinem Posting zu tuen hat. Es ging schließlich nicht darum Qualitätsunterschiede zu messen sondern darum das die Qualität beider Ergebnisse lediglich vergleichbar ist um überhaupt sowas wie eine Basis für Geschwindigkeitsvergleiche zu haben.
Ich wollte mit meinem Hinweis auf der letzten Seite nur darauf hinweisen, neben der Nutzung von Quick Sync auch bereits das Multithreading auf einer normalen CPU Einfluss auf das Komprimierergebnis hat. Es ist jedoch üblich zu sagen, dass ein FX 8xxx z.B. signifikant schneller als ein Athlon II X2 konvertiert ohne darauf einzugehen, dass beide etwas unterschiedliches berechnet haben. Ob das jetzt (sichtbare) Qualitätsmängel nach sich zieht, ist eine ganz andere Frage. Dem müsste man auf den Grund gehen.

So wie ich das verstanden habe, zerlegt der x264 Konverter die Bilder in Segmente (erster Kern die linke Hälfte + Überlappung; zweiter Kern die rechte Hälfte + Überlappung) und erzeugt dadurch eine Datenstruktur die ein Stück weit parallel abgearbeitet werden kann. Wobei ich mich damit nicht en detail beschäftigt habe. Inwiefern man das dann wirklich sieht? Keine Ahnung.
EDIT: Hier ist ein Link. Ganz unten ist der Kommentar ("A note on threads"):
Im strengen Sinn ist x264 damit aus meiner Sicht kein Benchmark, weil je nach Kernzahl etwas anderes rauskommt. Das scheint jedoch keinen in der PC-Branche zu stören.

Ich kann seine Aussage auch überspitzen und sagen das sich selbst eine Wiederholung der gleichen Berechnung auf dem gleichen Prozessor mit dem gleichen Kern u.A. wegen gekippter Bits unterscheiden kann sodass kein Bit gleiches Ergenis dabei rauskommt.
Das wäre ein einmaliger Rechenfehler. Das zählt nicht.

Nach der gleichen Argumentation kann man auch 2 unterschiedlich schnelle Grafikkarten mit unterschiedlichen Bildeinstellungen testen wodurch die langsamere Karte schneller ist und diese zu Sieger krönen weil sie ja eine höhere Framerate brachte oder noch besser, wir testen mit der gleichen qualitätseinstellung aber mit unterschiedlichen DirectX Versionen. Die eine mit DX10 und die andere mit DX11 und Tesselation, beide natürlich auf der max. Einstellung. Wer da wohl schneller wäre...?
Glückwunsch! Damit können wir uns jegliche Vergleichstests jeglicher Produkte sparen.
Ich spiele am PC nicht. Jedoch wird meines Wissens meist die FPS-Rate oder die Zeit zwischen den Bildern analysiert. Die Qualität lässt man hinten herunter fallen.
Wer sagt denn, dass selbst mit gleichem DirectX Stack ein Intel-Bild genauso aussieht wie eines von AMD oder nVidia? Das prüft keiner nach.

@Windhund: Du müsstest dann schon die gleichen Frames gegenüber stellen. Sonst ist das sinnfrei.
 
Zuletzt bearbeitet:
@sompe
Es ist eben nicht einfach das richtige Timming für den Screenshot zu finden, etwas unschärfe hast bei 60 Bilder pro Sekunde in Bewegung immer.
Ich kann jedoch mit gutem Gewissen behaupten, ein viertel so große h264 Datein sind bei der Wiedergabe wesentlich qualitativer als DVDs.

Was mich etwas nervt, seit Jahren werden GPUs mit höhere TDP verkauft als CPUs, nur um ein bessere Bildqualität zu erreichen.
Nun soll es von einer iGPU abgelöst werden, welche wieder eine schlechtere Qualtität bietet? Nein, Danke.
 
@ WindHund
Ich weiss, wollte aber sicherheitshalber nochmal nachfragen, nicht das jemand noch der klassischen Bewegungsunschärfe aufsitzt denn bei der DVD Version sieht man schon das an der Stelle deutlich mehr Bewegung im Spiel war. ;)
Ich hatte auch schon Sachen wie das eine DVD das für mich bessere Ergebnis hatte als ein anderer Film der auf Blu-Ray daher kam, weil letzterer einfach nur überschärft war und ersterer noch in einer ordentliche Qualität erstellt wurde. Das ist heutzutage leider alles andere als selbstverständlich. :(


@ miriquidi
Bei einem Vergleich mit dem gleichen Programm, dem gleichen Codec, den gleichen Qualitätseinstellungen (damit man ausschließen kann das der qualitative Unterschied hier entsteht) und die qualitativen Unterschiede sind ähnlich hoch wie bei QuickSync?
Wenn nein dann mißt du mit zweierlei Maß und eine weitere Diskussion ist in meinen Augen sinnlos.
Ob sie Bit genau gleich sind interessiert letztendlich niemanden sofern das Ergebnis qualitativ nahezu gleich ist. Sichtbare Unterschiede interessieren hingegen sehr wohl.

Zum Thema Spieletests...dann solltest du dir mal ein paar durchlesen denn es wird für den Vergleich der Karten mit dem gleichen Spiel, die gleiche Bildeinstellung und die gleiche Testszene verwendet um rauszufinden wer nun schneller ist. Das beide Karten in dem Spiel auf der gleichen DX Version laufen versteht sich dabei von selbst denn sonst läuft die andere Karte außer Konkurrenz.
Übertrage ich das Prinzip auf den auf den X6 CPU vs. i3 QuickSync konvertier Test Vergleich dann kämen unterschiedliche Spiele (Programm/Video Codec) aus dem gleichen Genre (Testszene) mit unterschiedlichen DX Versionen (Bildqualität) zum einsatz die lediglich beide bei maximaler Einstellung getestet wurden umd dann zu sagen das Karte A besser ist weil sie bei Spiel B schneler ist. Das dies Vorgehen absoluter Blödsinn ist sollte jedem mit gesunden Menschenverstand einleuchten.
Und doch, bei guten Tests wird auch die Bildqualität verglichen denn warum wurde wohl seinerzeit sonst die AF Schwäche der HD 5000/600 Serie bemängelt? Auch hier muss das Ergebnis nicht absolut identisch aber vergleichbar sein.
 
Bei einem Vergleich mit dem gleichen Programm, dem gleichen Codec, den gleichen Qualitätseinstellungen (damit man ausschließen kann das der qualitative Unterschied hier entsteht) und die qualitativen Unterschiede sind ähnlich hoch wie bei QuickSync?
Wenn nein dann mißt du mit zweierlei Maß und eine weitere Diskussion ist in meinen Augen sinnlos.
Ob sie Bit genau gleich sind interessiert letztendlich niemanden sofern das Ergebnis qualitativ nahezu gleich ist. Sichtbare Unterschiede interessieren hingegen sehr wohl
Auch zwischen dem K10 X2 und dem FX8xxx sind die Einstellungen unterschiedlich. Einmal nutzt der Codec 2, einmal 8 Threads.
Wir drehen uns im Kreis: Was ist ein "sichtbarer Unterschied" und für wen sichtbar? Das ist schwer messbar. Damit wird man darüber keine Einigkeit erzielen.
Ich würde deshalb auf den x264-Test nicht viel geben, die Unsicherheit ist zu groß.

Bei GPUs halte ich mich wegen grober Unkenntnis raus. *g*
 
@ miriquidi
Ich wiederhole mich:
Ob sie Bit genau gleich sind interessiert letztendlich niemanden sofern das Ergebnis qualitativ nahezu gleich ist.

Das für einen Geschwindigkeitsvergleich von 2 Prozessoren auch die gleiche softwarebasis verwendet wird um überhaupt eine Vergleichsbasis zu haben sollte jedem mit gesundem Menschenverstand einleuchten. In dem Test wurde lediglich geschaut wer irgendwie schneller ist, wobei die Qualität des Ergebnis recht unwichtig war. Masse statt Klasse eben aber das scheint ja eh in Mode zu sein.
Da kann ich dem i3 auch ein Programm/Codec unterjubeln das nur einen Kern nutzt und dem X6 mit alle Kernen rechnen lassen und oh Wunder..der X6 ist mit Sicherheit deutlich schneller. Das ist keine Basis für einen Vergleichstest sonder einfach nur Pfusch um das gewünschte Ergebnis zu bekommen. Wäre der Vergleich mit QuickSync aufgrund mangelhafter Vergleichbarkeit außer Konkurrenz gelaufen und der i3 beim Haupttest mit dem gleichen Programm/Codec wie der X6 getestet worden wäre alles in bester Ordnung denn schon hat man eine Vergleichsbasis und sieht dennoch die Vor- und Nachteile von QuickSync. Da kann dann jeder für sich entscheiden ob ihm die Qualität oder die Geschwindigkeit wichtiger ist.
Damit steht allerdings für mich fest das du mit zweierlei Maß mißt und ich schenke mir weitere Diskussionen zu diesem Thema.
 
Dann sind wir uns ja einig was Quick Sync betrifft. *g*
Man misst aber auch in den oft genutzen CPU-Benchmark-Tests mit x264 mit zweierlei Maß. Das ist alles, was ich sagen wollte. ;)
 
Obwohl der Freemaker nur 2 Threads im Taskmanager nutzt, ist mein custom FX-9650 (8x 4.8GHz) schneller beim erstellen der DVD.iso: http://abload.de/img/bigbugbunny_convertdvwgurk.jpg
2m:30s vs. 3m:01 vs 4m:30s (FX-9, I3, X6)

Eine HDD ist übrigens immer noch schnell genug, sofern man das Quell Material klein rechnet und nicht größer.
Erst bei 4K@60FPS explodiert die Datenmenge und die Laufwerksgeschwindigkeit nimmt einfluß.
 
Dann sind wir uns ja einig was Quick Sync betrifft. *g*
Man misst aber auch in den oft genutzen CPU-Benchmark-Tests mit x264 mit zweierlei Maß. Das ist alles, was ich sagen wollte. ;)

Aber immernoch besser als dieser x264 CPU vs. H.264 QuickSync Vergleich bei dem offenbar auch noch unterschiedliche Programme zum Einsatz kamen.
Selbst das Programm an sich hat schon einen Einfluss auf das Ergebnis und ich glaube kaum das der CPU seitige Unterschied zwischen dem X6 und dem i3 mit dem gleichen Programm und dem gleichen Codec großartig sichtbar wäre. Beim X6 läuft die Berechnung dann auf 6 und meim i3 auf 4 (virtuellen) Kernen. Multithreading ist also so oder so angesagt.
 
Ohhh was sind die Intel CPU den sooooo langsam.........?!
 
Ohhh was sind die Intel CPU den sooooo langsam.........?!
Yes, we can! ;D

Die Übersetzer/Compiler laufen auf Hochtouren, leider nur auf ATOM CPUs, wir wollen ja keine Energie verschwenden. *chatt*
 
Zurück
Oben Unten