Kaveri - der Trinity Nachfolger

Intel baut gute CPUs die auf dem konventionellen Pfad hervorragende Ergebnisse erzielen. Aber die allgemeine Aussage das Intel die performanteren CPU bietet und AMD die lahmen Enten, stimmt einfach nicht mehr. OpenCL ist längst in der Praxis angekommen.

Eben und ich denke das der Pfad eher genutzt wird als klassicher multicore support.

Ich stand auch kurz davor mir den hoch gelobten E3-1230 V3 zu kaufen.
Nur frag ich mich dann eines: Und dann ?

Dann hab ich nen Prozessor für dem ich 200 Euro gezahlt habe und darf dann Multicore Anwendungen suchen um mir wenigsten einbilden zu können das ich das tatsächlich brauche.
Ja, ich kann Full HD Videos rendern! Nur leider witzlos wenn die GPU zukünftig das vollständig und vor allem deutlich schneller erledigen darf.
Winrar (uups.. Winzip) mit opencl support. YES, meine Nvidia GTS 250 Green zip(t) heute schon genauso schnell wie mein X4@(das licht im Wohnzimmer flackert wenn das Teil auf vollast geht)GHz.

Der preisliche (CPU) gegner zum Kaveri 7850 ist der i3 4130 da ich für eine passive Graka mit Mantle support mit etwa 70 Euro rechnen muss.

Wieviel innovation bietet der i3 nochmal: Blub.
ich kann mit der AMD Graka Mantle nutzen. Ich kann sicherlich noch etwas opencl mitnehmen.
Crossfire geht auch. Das kann ich alles mit der Intel CPU...

Wenn ich die TDP der i3 CPU und der angepeilten Graka rechne wo lande ich dann ?
i3 54 Watt + Graka max 40 Watt. Mega was gespart.

Was fehlt:
HSA, true Audio.

Wie sexy ist das i3 Ding:
Übertakten? Ja! 7 mhz Base clock (falls das jemanden entgangen sein sollte : Bei alle intel cpus ohne K). Geil. Da geht was. Aber OC macht ja niemand.
Intel - Cinebench: i3 verliert gegen einen Kaveri @ stock. Aber wer spielt schon Cinebench.

Der i3 verliert immer dann wenn echte CPU Kerne (Kerle) benötigt werden.
Und dann fehlen da so Dinge wie I/O Virtualization. Aber wer Virtualisiert schon...

Gut also lassen wir die Scherze.
Die einzige Intel CPU die ich kaufen würde ist ein i5-3330.
Damit wär ich etwa 15% schneller unterwegs als der Kaveri. Mist, den Kaveri kann man übertakten. Sinds halt blos 14,95%.
Aber der Aufpreis beträgt 70 Euro. Ich brauche immer noch eine Graka und das ist kein Witz.

Und das schlimmste. Irgendwann ist HSA bei OpenCL de facto Standard.
Ja und nun?.
Ich habe doch soviel geld in mein Intel System gesteckt. Das ist mir jetzt aber zu schade zum entsorgen. Das Ding ist erst 2 Jahre alt (also 4 Handygenerationen).
IDEE: Ich übertakte die CPU auf 30x107 mhz und/oder ich kaufe mir eine noch bessere(geilere) Graka. Die Graka muss blos Faktor 3 schneller sein als die momentan verbaute Graka (Annahme: Die Grakas haben bis dahin eine massive Effizienzsteigerung in GPUcomputing erfahren da sonst faktor 6-7!). Die zieht dann halt 120 (oder 200 Watt) und das ganze nur weil sie HSA nicht nutzen kann.

Was ? Du nutzt bei deinen Kaveri Crossfire ?? HSA und dann noch Crossfire ????

Versteht ihr nun mein Problem?
Helft mir. Ich will doch so sehr eine Intel CPU.
 
Zuletzt bearbeitet:
@ONH

Mach dir keinen Kopf, ich hab's schon nicht falsch verstanden. ;) Ich schätze mal, dass einfach noch etwas Zeit vergehen muss - immerhin ist Kaveri ziemlich noch ziemlich neu.

Dennoch gefällt Kaveri ziemlich gut - schade ist nur, dass AMD immer noch mit der Fertigung ordentliche Probleme hat. Sicherlich ist 28nm gegenüber 32nm ein (kleiner) Fortschritt, aber naja... ihr wisst schon was ich meine. Irgendwie überlege ich ja schon, ob ich meinen Phenom II X4 955 in Rente schicken sollte, bin aber noch unschlüssig... der PC meiner Freundin wird definitiv upgegradet... dafür ist Kaveri 100%ig die richtige APU.

Gerade eben noch auf Phoronix entdeckt: LLVM Clang vs. GCC Compilers For AMD's Steamroller (A10-7850K)
 
Abgesehen davon, sind die meisten Compiler ehh schlecht programmiert - bisher hatte, von den von mir verwendeten Programmen, nur Turbo Pascal und die ersten paar Delphi Versionen von Borland einen wirklich schnellen Compiler - jedenfalls im Vergleich zu allen C/C++-Compilern zu ihrer Zeit.

In der Regel will man schnellen Code erzeugen und nicht schnell compilieren. IMHO war das Compilat von den Borland Produkten nicht besonders schnell.
 
In der Regel will man schnellen Code erzeugen und nicht schnell compilieren.
Also am besten beides. ;D Aber stimmt schon, schneller Code hat mehr Priorität als schnelle Kompilierung. Zumindest was statische Kompilierung betrifft. Einmal kompiliert, x-mal ausgeführt. Bei JIT mag das etwas anders ausschauen. Man sollte auch nicht vergessen, was Sprachen wie C++, gerade in ihrer aktuellen Spezifikation (C++11), für einen Umfang haben. Dagegen war Pascal Kleinkram. Das macht Compiler auch entsprechend langsam oder schnell.
 
Ja, ich kann Full HD Videos rendern! Nur leider witzlos wenn die GPU zukünftig das vollständig und vor allem deutlich schneller erledigen darf.
Bei schlechterer Bildqualität - top!

Wenn ich die TDP der i3 CPU und der angepeilten Graka rechne wo lande ich dann? i3 54 Watt + Graka max 40 Watt. Mega was gespart.
Keine Sorge, unter Last und vor allem von der Effizienz her sind ein i3 samt dGPU deutlich besser als ein 95W-Kaveri. TDP ungleich reale Leistungsaufnahme.

Der i3 verliert immer dann wenn echte CPU Kerne (Kerle) benötigt werden. Intel - Cinebench: i3 verliert gegen einen Kaveri @ stock.
Beide Aussagen sind falsch. Im CB 11.5 schlägt ein 4130 den 7850K (ST wie MT).

Aber OC macht ja niemand. Und dann fehlen da so Dinge wie I/O Virtualization. Aber wer Virtualisiert schon.
Die allerwenigsten Käufer einer APU werden diese übertakten und damit auch keine VMs fahren.
 
Die allerwenigsten Käufer einer APU werden damit auch keine VMs fahren?? ;D Nene diese ewige künstliche Feature-Beschneiderei von Intelkann nicht gutgeheißen werden.
 
Danke, und dpm scheint tatsächlich disabled gewesen zu sein, nur sehr schade dass Mr. Larabel mal wieder eine der entscheidenden Infos vergessen hat zu erwähnen. Tja, so isser halt, aber wenigstens haben wir mit Phoronix eine interessante Linux-Benchmark- und -Info-Seite, wenn die richtigen Filter immer mitlaufen ;)

Alex heißt übrigens Deucher ohne "t", aber das war sicher nur ein Flüchtigkeitsfehler.

Gut, nach John Bridgmans Aussage kommt DPM on by default für Kaveri schon mit Linux 3.14 und der Treiber scheint schon jetzt (ohne DPM) zu funktionieren, das sind doch sehr angenehme Aussagen! Und das hier ist auch nicht zu verachten:
John Bridgman@Phoronix Forums schrieb:
Actually there's a lot of Linux HSA work going on now, it's just being going through the "nothing seems to be happening" phase as well but that won't last much longer.
Übersetzungsversuch: Bezüglich HSA (als Open Source, wenn ich das richtig deute) ist ggw. viel in der Mache, nur ist es nach außen noch in der "es scheint nix zu passieren" Phase, aber das wird nicht lange so bleiben. Das mag mal wieder an den juristischen Nervereien liegen - meine Deutung.

Für alle die's nicht wissen und auf dass ich jetzt nix durcheinander Bringe: John Bridgman und Alex Deucher gehören beide zu AMDs OpenSource Dev Team.
 
Die allerwenigsten Käufer einer APU werden damit auch keine VMs fahren?? ;D Nene diese ewige künstliche Feature-Beschneiderei von Intelkann nicht gutgeheißen werden.

Sicher werden die auch mit einer APU virtualisieren wollen, aber ob es dafür unbedingt VT-d im privaten Bereich braucht ist die andere Frage.
Ich virtualisiere häufig auf meinem Ivy-I3. Das läuft wunderbar flott.
 
Bei schlechterer Bildqualität - top!

Das ist nicht zwangsläufig. Rovi bekommt das ohne Qualitätseinbußen hin.

Keine Sorge, unter Last und vor allem von der Effizienz her sind ein i3 samt dGPU deutlich besser als ein 95W-Kaveri. TDP ungleich reale Leistungsaufnahme.

Unter Last vielleicht. Idle, und das ist der Löwenanteil, ist die Kombination chancenlos.

Beide Aussagen sind falsch. Im CB 11.5 schlägt ein 4130 den 7850K (ST wie MT).
Die allerwenigsten Käufer einer APU werden diese übertakten und damit auch keine VMs fahren.

Die allerwenigsten Käufer werden Maxxon Produkte nutzen.

Die Frage ist ob AMD oder Intel ist unweigerlich mit der Frage verknüpft, ob man an HSA glaubt oder nicht. Wer es nicht tut, ist vermutlich mit Intel besser bedient, wer es glaubt ist mit einem Kaveri besser aufgehoben. Diese Entscheidung muss jeder für sich selbst treffen.
 
Nicht nur HSA, es geht auch allgemein um die Performance und Kompatibilität/Treiberqualität der iGPU. Der CPU-Teil ist eh schnell genug und hat alle Features.;D
 
Unter Last vielleicht. Idle, und das ist der Löwenanteil, ist die Kombination chancenlos.
.

Ist da so? Eine HD 7750 braucht @Idle 5 Watt. mit deaktivierter iGPU sollten da unterm Strich nicht mehr als zusätzliche 3Watt dazu kommen.
Ein Haswell System bekommt @Idle schon ohne probleme (mit den richtigen Komponenten) auf unter 20 Watt [laut Heise sogar auf 10Watt].
Wo sollen da die 3-5Watt mehr für die dGPU@Idle chancenlos sein?
 
Also am besten beides. ;D Aber stimmt schon, schneller Code hat mehr Priorität als schnelle Kompilierung. Zumindest was statische Kompilierung betrifft. Einmal kompiliert, x-mal ausgeführt. Bei JIT mag das etwas anders ausschauen. Man sollte auch nicht vergessen, was Sprachen wie C++, gerade in ihrer aktuellen Spezifikation (C++11), für einen Umfang haben. Dagegen war Pascal Kleinkram. Das macht Compiler auch entsprechend langsam oder schnell.

Ja, das stimmt alles schon. Ich wollte damit nur drauf hinweisen, dass Compiler als Benchmark eigentlich schlecht sind - außer man möchte testen, wie gut weitestgehend unoptimierter Code auf der CPU läuft.
 
Ein Haswell System bekommt @Idle schon ohne probleme (mit den richtigen Komponenten) auf unter 20 Watt [laut Heise sogar auf 10Watt].
Wo sollen da die 3-5Watt mehr für die dGPU@Idle chancenlos sein?

10 Watt Systeme, so habe ich hier im Forum erfahren, soll schon mit Llano problemlos möglich gewesen sein. Finde den Link nur gerade nicht, aber vielleicht kann jemand aushelfen. Sagen wir mal so, Richland ist da auf Augenhöhe mit Haswell. Kaveri liegt aktuell noch ein gutes Stück drüber, da werden die Boardhersteller vermutlich noch etwas Feinschliff leisten müssen. Nehme Richland als Masstab und packe zu einem Haswell noch 6W für eine 7750 liegt man schon etwas drüber, auch wenn das wahrscheinlich nicht ausschlagebend für eine Kaufentscheidung ist. Es sei denn, das Gerät rennt Tag und Nacht.

Es bleibt auch die Frage ob das nicht eine Milchmädchenrechnung ist. In der Praxis ist kaum eine Review zu finden in der ein Intel+7750 weniger als 80W im Leerlauf braucht.

Quelle

---------- Beitrag hinzugefügt um 10:36 ---------- Vorheriger Beitrag um 10:34 ----------

Ja, das stimmt alles schon. Ich wollte damit nur drauf hinweisen, dass Compiler als Benchmark eigentlich schlecht sind - außer man möchte testen, wie gut weitestgehend unoptimierter Code auf der CPU läuft.

*lach* Korrekt. Gut optimiert sind allenfalls JIT, die aber höchtens indirekt Teil eines Benchmarks sind.
 
Zuletzt bearbeitet:
Deine Quelle hat z.B. das verwendet: PC Power & Cooling Silencer 750W PSU *kopfkratz
http://www.pcpower.com/power-supply/silencer-750-quad-black.html = 80 Plus Bronze

Ich habe vor kurzem meinen HTPC etwas erneuert, mit SSD, BD Laufwerk, CPU Lüfter und 2 Gehäuselüftern, BT USB für Denovotastaur und der PCIe TV Karte liegt es bei 28 im Idle. Hier ist aber noch ein älteres BQ Netzteil verbaut. Testweise mit einem Seasonic X-Series X-400FL lag es bei 15w.

Die c't hat auch ziemlich ausführlich dokumentiert wie man auf 10w kommt, mit einer Quadcore CPU. 38w für einen Intel Core i3-4330 (3.5GHz) im idle sind jedenfalls heftig. Vermutlich sind alle Plattformen wegen des Netzteils betroffen ob alle gleich kann ich nicht sagen.
 
Unter Last vielleicht. Idle, und das ist der Löwenanteil, ist die Kombination chancenlos.
Wir sprechen idle durch die GraKa von wenn überhaupt 5W mehr, das ist völlig irrelevant - außer bei 24/7 und selbst da kostet es nicht wirklich viel.

1In der Praxis ist kaum eine Review zu finden in der ein Intel+7750 weniger als 80W im Leerlauf braucht.
Mit einem sparsamen B85-Board und einer R9 255 sind im idle mit einem gescheiten 400W-Gold-Netzteil problemlos 25W bis 30W machbar. Selbst mit einer High-End-Karte sind Setups mit 40W inklusive SSD, HDD und Soundkarte normal (außer man nutzt eine verschwenderische OC-Platine mit 1337 Phasen und Unmengen an Controllern, die brach liegen).

Das ist nicht zwangsläufig. Rovi bekommt das ohne Qualitätseinbußen hin.
Hast du da mehr Infos zu? Klingt interessant.

Die Frage ist ob AMD oder Intel ist unweigerlich mit der Frage verknüpft, ob man an HSA glaubt oder nicht. Wer es nicht tut, ist vermutlich mit Intel besser bedient, wer es glaubt ist mit einem Kaveri besser aufgehoben. Diese Entscheidung muss jeder für sich selbst treffen.
Ich glaube an HSA, ich spiele aber idR am PC oder betreibe Bildbearbeitung. Gerade für Gaming ist HSA bisher nicht mal eine Randerscheinung, zumal ich Mantle auch mit meinem 3770K und einer 290X nutzen kann.
 
Ich glaube an HSA, ich spiele aber idR am PC oder betreibe Bildbearbeitung. Gerade für Gaming ist HSA bisher nicht mal eine Randerscheinung, zumal ich Mantle auch mit meinem 3770K und einer 290X nutzen kann.

HSA != Mantle, solltest du eigentlich wissen.

Eine Randerscheinung hat man mit HSA eigentlich schon (in der Theorie) mit dem vor kurzem erschienen Slide, in dem die APU zB. für die Physikberechnung her halten soll. Klar ist das noch sehr weit weg von einem fertigen Produkt, zeigt aber auch, zu was HSA in games genutzt werden kann, bzw. in den Konsolen vermutlich sogar schon genutzt wird. Bleibt nur die Frage, wie bei jeder HSA Software (da neue Technologie), wann kommt es auf den Markt?
 
Wir sprechen idle durch die GraKa von wenn überhaupt 5W mehr, das ist völlig irrelevant - außer bei 24/7 und selbst da kostet es nicht wirklich viel.

Lassen wir das, muss jeder für sich entscheiden.

Hast du da mehr Infos zu? Klingt interessant.
Qualitativ soll dieser Encoder keine schlechteren Ergebnisse liefern als CPU only. Quelle hab ich leider nicht mehr.
http://www.mainconcept.com/products/sdks/gpu-acceleration/opencltm-h264avc.html


Gerade für Gaming ist HSA bisher nicht mal eine Randerscheinung, zumal ich Mantle auch mit meinem 3770K und einer 290X nutzen kann.

Das wäre auch etwas viel verlangt, gab es bisher keine HSA-Hardware. Entwickler hatten lediglich die Möglichkeit Trockenübungen zu machen.
Gerade Mantle ist viel flexibler was das Zusammenspiel zwischen iGPU und dGPU angeht. Während mit DX nur das relativ unflexible Framepacing möglich, ist mit Mantle alles mögliche denkbar.
 
HSA != Mantle, solltest du eigentlich wissen.
Mir ist der Unterschied schon klar, allerdings bezweifle ich, dass auf absehbare Zeit Spiele von HSA so sehr profitieren, dass eine 2M/4T-APU einen 4C-Haswell oder Broadwell knackt. Und wenn doch, dann bin ich der erste, der sein Intel-System verschachert.

Eine Randerscheinung hat man mit HSA eigentlich schon (in der Theorie) mit dem vor kurzem erschienen Slide, in dem die APU zB. für die Physikberechnung her halten soll. Klar ist das noch sehr weit weg von einem fertigen Produkt, zeigt aber auch, zu was HSA in games genutzt werden kann, bzw. in den Konsolen vermutlich sogar schon genutzt wird. Bleibt nur die Frage, wie bei jeder HSA Software (da neue Technologie), wann kommt es auf den Markt?
Die HSA-Nummer ist für Exklusiv-Titel spannend, wobei es hier freilich nur eine GPU gibt und keine zwei. Entsprechende Titel sehen wir vielleicht in ein bis drei Jahren, im PC-Markt höchstens als Techdemo oder möglicherweise im Rahmen von Gaming Evolved. So langsam wandert die Physik via OpenCL etc ja auf die GPU.
 
@Rovi ohne Qualitätseinbusen. ...
Hast du da mehr Infos zu? Klingt interessant.

Gibt hier ein pdf dazu, ist aber schon etwas angestaubt.
zudem haben Sie es nur mit dem eigenen Encoder@CPU verglichen und auch nur psnr ... na, ja...

Das x264 Dev Team hatte damit ja auch rumexperimentiert.
Fazit: Sie haben dem openCL encode@gpu qualitativ eine Absage erteilt, das wird schon seine Gründe haben.
 
Zuletzt bearbeitet:
Hm?? Ich sehe höhere FPS-Raten mit der GPU und auf Seite 7 für beide Transcodirungs-Arten als einzig in den Grafen abgebildetem Qualitätsmerkmal PSNR mit identischen Werten für beide Verfahren.

Was x264 angeht: Ich vermute, die haben mit OpenCL 1.x gearbeitet, aber nicht mit HSA. Da könnte sich noch ein ganz anderes Bild ergeben.

Aber ich muss zugeben, dass ich das Thema nur ungenau beobachtet hab, also möge man mich mit Fakten erleuchten. Die Folie ist aus meiner Sicht jedenfalls kein Argument gegen HSA bzw GPGPU-Transcodierung.
 
Was x264 angeht: Ich vermute, die haben mit OpenCL 1.x gearbeitet, aber nicht mit HSA. Da könnte sich noch ein ganz anderes Bild ergeben.

Da spielen auch immer subjektive Entscheidungen der Entwickler eine Rolle. Eine Packsoftware kann man auch mit OpenCl entwickeln(Winzip) oder auch ohne.
Bei MultiCoreWare, die eigentlich ziemlich fit sind, hat man auch gesagt das h.264 und OpenCL 1.2, keine Idealkombination sind. Mit OpenCl 2.0 kommt das sicher noch mal auf den Prüfstand. Fest steht aber, dass h.265 OpenCL sehr liegt.
 
Ok danke, letzteres ist jedenfalls eine gute Nachricht :)
 
Hm?? Ich sehe höhere FPS-Raten mit der GPU und auf Seite 7 für beide Transcodirungs-Arten als einzig in den Grafen abgebildetem Qualitätsmerkmal PSNR mit identischen Werten für beide Verfahren.

Was x264 angeht: Ich vermute, die haben mit OpenCL 1.x gearbeitet, aber nicht mit HSA. Da könnte sich noch ein ganz anderes Bild ergeben.

Aber ich muss zugeben, dass ich das Thema nur ungenau beobachtet hab, also möge man mich mit Fakten erleuchten. Die Folie ist aus meiner Sicht jedenfalls kein Argument gegen HSA bzw GPGPU-Transcodierung.

Wie in meinem Artikel zu diesem Thema geschrieben, nutzt x.264 die GPU über OpenCL nur für die Berechnung der lookahead-Funktion. Entsprechend gering war und ist der Effekt. Jene OpenCL-lookahead ist auch weiterhin in x.264 enthalten. Allerdings hat die Multi-Core-Version der lookahead-Funktion ihr den Rang abgelaufen.


Einen besseren Effekt wird es hier erst geben, wenn auch andere Teile des Encoders mit der GPU beschleunigt werden können. x.265 ist hierfür besser geeignet. Hierfür sind auch bereits HSA-Versionen eines En- und Decoders angekündigt.-
 
Netter Test ,würde aber doch mehr Sinn machen, sich auf Opencl zu konzentrieren wo die RAM Bandbreite weniger ein Problem ist als bei Games. Dort war eh schon klar, dass die Bandbreite des RAM ein Problem ist vorallem mit dan 2133 welche Phoronix nutzt, wenn AMD eigentlich mehr unterstützt. Beim GPUTest sieht man auch teilweise ein plus von 1/3. Interessant wäre da ein Lastverbrauchstest und max direkt unterstütztem RAM.

Mit den bis 900/960MHz für die GPU, sollte die APU dann auch die Zielleistung in GPLOPS erreichen, das ist ein Plus von 25/33% und mit 856 GFLOPS als Basis ergibt das ca. die 1 TFLOPS, welche Kaveri anfänglich vorgesehen waren.
Gibt es die Option unter Windows nicht oder hat die einfach niemand in den von mir gelesenen Reviews die Catalyst Option getestet.
 
Zurück
Oben Unten