Carrizo - volles HSA, UVD6/VCE3.1/ACP2, HDMI 2.0 - und: SOC, aber immernoch DDR3?

wäre nur schön, könnte ich die hd7870 bei bedarf abschalten, bzw. per ccc festlegen,
welche anwendung durch die integrierte gpu und welche durch die hd 7870 bedient werden soll.

Kann hier jemand im Forum mit einer Kaveri-GPU-Kombination mal schildern, wie sich mit actuellen CCC eine APU-GPU Kombination aktuell ansprechen lässt?

AMD "Enduro" wurde ~ 2012 als Lösung des Problems vermarktet. Ist das mittlerweile praxistauglich?

Oder gibt es da für Carrizo noch Nachholbedarf?
 
Oder gibt es da für Carrizo noch Nachholbedarf?

iGPU Werte sind echt RaR, wäre schön wenn jemand Werte hätte!
Kennst du Pacific Rim, den Film? (Sky cinema)
Wenn nein, here is your "Bildungslücke"!
 
@FredD
Das letzte, was ich von Enduro hörte, war eine offizielle Meldung hier, dass mit Version 5.5 alles umgekrempelt werden solle.
 
Als ich mein Kaveri System neu aufgebaut habe ich ein paar Test gemacht

http://www.planet3dnow.de/vbulletin/showthread.php/415369-Gigabyte-GA-F2A88XN-WIFI

An dieser Stelle wollte ich noch schauen, ob bei dem Verwenden einer Grafikkarte die interne Grafik besser abschalten oder eingeschalten sein sollte.
...
Vom Stromverbrauch her ist der Verbrauch mit der internen Grafik seltsamerweise niedriger. Allerdings ist bekannt das Grafkkarten mit Zero Core bei „Dual Graphics“ das Displaysignal durchschleifen können. http://www.golem.de/news/dual-graphi...-104829-2.html

Zumindest von dem Ergebnis unterscheiden sich die 3 Fälle nicht. Ich habe nur eine Radeon HD7770 OC. Ich hoffe mal das das mit größeren Grafikkarten genauso funktioniert. Dann wäre die Auswirkungen auch deutlicher. Leider kann ich das nicht ausprobieren, weil ich keine größer Grafikkarte habe und in ein LL Q11 auch nicht viel größere Grafikkarten reinpasst. Ich finde die Technik interessant, nur man findet nicht viel dazu.
 
Zuletzt bearbeitet:
Dein Golem-Link ist unvollständig. Nicht Text kopieren und einfügen, sondern Rechte Maustaste -> Link kopieren und einfügen bitte *lol*

---------- Beitrag hinzugefügt um 11:07 ---------- Vorheriger Beitrag um 11:06 ----------

Ah, Du hast aus dem eignen Review kopiert. Dort hab ich mal den korrekten Link rauskopiert: http://www.golem.de/news/dual-graph...ymbiose-aus-kern-und-karte-1402-104829-2.html

---------- Beitrag hinzugefügt um 11:10 ---------- Vorheriger Beitrag um 11:07 ----------

Ähm, warum wundert es Dich, dass der Verbrauch mit iGPU niedriger ist als mit dedizierter? Ich muss zugeben, dass ich Dein Review jetzt nur sehr sehr grob überflogen hab.
 
Mit einem Verbraucher weniger erwarte ich auch geringeren Stromverbrauch oder, sofern nur die Ausgabe abgeschalten wird, gleichen Stromverbrauch. Schließlich ist die iGPU neben der ex. GPU noch aktiv.
 
Zuletzt bearbeitet:
Wo steht denn sowas?
ist die "Ganze" GPU aktiv oder nur ein Bruchteil? Wieviele Transistoren schalten tatsächlich bzw. stehen unter Spannung? - und unter welcher Spannung, mit welchem Fertingungsprozess?
Eine Menge Fragezeichen für so eine einfache aussage...
 
das hatte ich mich damals auch gefragt. Falls jemand mehr wissen sollte.
Zumindest war ich froh das das wirklich eine Absenkung des Stromverbrauchs ist. Ich hatte das Gegenteil erwartet und war sehr verwundert. Deswegen hatte ich den Rechner kurz ausgeschalten und dann erneut gemessen. Das Ergebnis blieb. 4 W waren mir zuviel, es es nur für Abweichung beim Messen abzutuen.
Die Beschreibungungen zu Zero Core sind dürftig. Zumindest was man so im Net findet.
 
das hatte ich mich damals auch gefragt. Falls jemand mehr wissen sollte.
Zumindest war ich froh das das wirklich eine Absenkung des Stromverbrauchs ist. Ich hatte das Gegenteil erwartet und war sehr verwundert. Deswegen hatte ich den Rechner kurz ausgeschalten und dann erneut gemessen. Das Ergebnis blieb. 4 W waren mir zuviel, es es nur für Abweichung beim Messen abzutuen.
Die Beschreibungungen zu Zero Core sind dürftig. Zumindest was man so im Net findet.
Also wenn der Monitor an der dGPU angeschlossen ist und die iGPU aktiviert ist, sind es 4W weniger als mit deaktivierter iGPU? (Dual Graphics aktiv?)

Zu ZCP, bei mir ist der Monitor an der ersten (obersten) dGPU angeschlossen (DVI) mit aktiviertem CrossfireX gibt es dann zwei Zustände:
1. Desktop und Video werden genutzt, die zweite Karte ist im ULPS (GPUz)
2. Monitor geht aus, die erste Karte geht auch in den ULPS Mode, CPU kann weiterhin arbeiten und Aufgaben erledigen im Hintergrund.
(3) Beim spielen sind je nach Profil dann auch beide GPUs an, beim laden schaltet die 2te trotzdem ab und zu ab.

gpuz_zcp7yz0l.jpg
 
Als ich mein Kaveri System neu aufgebaut habe ich ein paar Test gemacht

http://www.planet3dnow.de/vbulletin/showthread.php/415369-Gigabyte-GA-F2A88XN-WIFI

Schönes System, und danke für den ausführlichen Bericht!

Wie ausgereift würdest du jetzt "Enduro" aka "Switchable Graphics" sehen? Kann man manuell von iGPU auf die diskrete GPU umschalten, und auch für Programme bzw. Spiele entsprechende Profile anlegen? Wird da reibungsfrei gewechselt, oder meinst du, dass da für Carrizo (respektive die diskreten GCN2.0 GPUs) noch Verbesserungen (die sich nicht rein auf Treiberbasis lösen lassen) nötig sind?
 
@ WindHund
Ja, Monitor mit einem HDMI Kabel (hat sonst noch VGA) an der dGPU angeschlossen.Ich hatte noch vor das HDMI Kabel mal an die iGPU anzuschließen. Ich hatte hier nur gelesen, dass es dabei zu Leistungseinbußen kommt. Was es nun genau ist kann ich nicht sagen. Ich habe nichts weiteres Eingestellt. (Im Bios war schon Automatisch vorgewählt, welches die iGPU aktiviert lässt). Ich hatte das Ergebnis nicht erwartet und auch nichts dazu vorher gelesen. Die Kombination aus Kaveri und extra Grafikkarte war damals selten. Den Preis der 7700k mit 130 € ist in meinen Augen zu hoch für eine 2 Module CPU. Das kriegt man mit einem FX4300 oder 760k billiger hin. Oder halt mehr Leistung. Ich hatte wegen der Verfügbarkeit und meinem Speicher den 7700k genommen. Ein 7850k ist in meinen Augen besser (kaum teurer, aber höher getaktet und mehr Einheiten).

@ FredD
Danke
Ehrlich gesagt habe ich das mit der Grafikkarte am Anfang ausprobiert um die Leistung und Stromaufnahme der iGPU besser beurteilen zu können. Ich hatte gehofft, durch Zero Core bei Aufnahme noch diese Stromdifferenz einsparen zu können. Der Monitor ist dabei eh aus. Allerdings habe ich keine Information über Zero Core und APU gefunden. Wäre die Differenz zu niedrig hätte ich mir gleich den Aufwand mit einem anderen Monitor gespart.
Extra Eingestellt habe ich nichts. Es wäre schön wenn ein paar Einstellmöglichkeiten gäbe. Im CCC habe ich nichts gefunden, den RadeonPro auch auf die schnelle nichts (wobei das Programm sehr umfangreich ist, leider eingestellt). Das Crossfire Profile habe ich mir nicht angeschaut. Ich sehe das ganze nicht mehr am Anfang Es gibt eine "funktionierende" Basis. Der Effekt ist nicht sehr hoch, allerdings kann er mit größeren oder aktuelleren Grafikkarte auch größer sein (Jeweils 9 W Mehrverbrauch bei einer Asus R7 250 und einer Sapphire Radeon HD 7770). Von Umschalten habe ich nichts gemerkt. Es war über ein Programmstart und Ende. Ich kann mir ein paar Verbesserungen vorstellen. Das fängt schon mit Zero Core, welches mit allen Ausgängen und nicht nur DVI funktioniert, an. Die 9 W können noch etwas bestimmt gedrückt werden ( Zero Core braucht 4 W). Wichtiger ware es, wenn auch mit Videos und normalen Programmen automatisch auf der iGPU laufen würde (manipulierbar). Bei den Hardwareverbesserungen bin ich überfragt. Ich denke mal, dass es bei einem gemeinsamen Speicher das Umschalten sehr schnell funktioniert und nur noch eine Auslastungsabfrage geben muss.

Ich hatte die Grafikkarte nur für die Test eingebaut. Da das nur ein ITX Gehäuse ist, wird der Steckplatz für die DVB-S Karte benötigt. Als HTPC sollte dieser ständig läufen (eigentlich für die Aufnahmen im Ruhemodus befinden) sollte, wollte ich keine extra Grafikkarte. Deswegen habe ich mich nicht so sehr hintergehängt. Zumal das ganze wegen der wenigen Informationen frustrierend ist.
 
Zuletzt bearbeitet:
Die HBM für GPU können ja problemlos als 2,5 angebunden werden. Um den GPU Chip herum ist reichlich Platz vorhanden um mehrere DRAM Chips zu verbauen. Bei einer APU ist der Platz begrenzter und vielleicht die 2,5 Anbindung nicht möglich aus Platzmangel, so dass eine 3D Anbindung zwingend ist. Damit wäre es sinnvoll erst die zweite Generation zu verwenden.

Wobei ich hier noch nicht sicher bin ob CB das richtig interpretiert hat.
2Gb Chips werden verwendet - OK
4 Stapel hoch geht es maximum - OK

Warum wird hier auf 1 GB RAM maximal geschlossen? Wer sagt denn, dass pro Stapel nur ein Chip verbaut wird? Auf dieser Folie ist das deutlich so beschrieben, dass je Stapel 4 DRAM Chips verbaut werden, die zusammen 256b-Anbindung haben. Somit ist ein 4xHi DRAM Stack bis 4 GB Ausbau möglich.

AMD-Volcanic-Islands-2.0-HBM-Memory-635x357.jpeg
 
Zuletzt bearbeitet:
2 Gbit * 4 = 8 Gbit = 1 GByte
 
2Gbit*4*4 = 4GByte
Also 4 dies/stack und 4 Stacks auf dem Träger.
Aus den AMD Folien könnte man das zumindest so interpretieren.
 
das ist erst ein Stack den man noch 4x Hoch stapeln kann

Äh, nein.
Ein Stack besteht aus einem Logik Die und darauf 4 gestapelten RAM Dies a 2 MBit. Ergibt pro Stack 1 GByte. Den kann man nicht mehr Stapeln.
Und mehr ist der obigen Folie nicht zu entnehmen.
Auf einer anderen Folie ist zu sehen, wie AMD 4 solcher Stacks um eine CPU/APU/GPU herumbaut auf einen Chipträger.
Das ergäben dann in der ersten Phase einen Chip mit 4GByte.
 
@Complicated

Stack == Stapel. Einen Stapel kann man nicht nochmal stapeln. Wäre ja irgendwie Quatsch. Bzw hätte man dann trotzdem nur einen Stapel, halt einen grösseren. Die Folie ist eigentlich unmissverständlich. 4 Dies pro Stack, 2 Gb pro Die, ergibt insgesamt 1 GB Kapazität pro Stack. Fragt sich nur, wie viele man von den Stacks auf einem Träger unterbringen kann.

Hier werden zumindest 4 Stacks dargestellt. Würde dann insgesamt 4 GB Kapazität bedeuten. Im HBM PDF von SK Hynix werden allerdings auch bis zu 8 Stacks erwähnt.



In der 2nd Gen HBM sollen dann bis zu 8 Dies pro Stack und 8 Gb pro Die möglich sein. Bei 4-8 Stacks wäre das eine Gesamtkapazität von 32-64 GB.
 

Anhänge

  • HBM_Layer.JPG
    HBM_Layer.JPG
    51,8 KB · Aufrufe: 761
Zuletzt bearbeitet:
Das 2-Hi oder 4-Hi bezieht sich auf die Anzahl der Dies, nicht auf die Anzahl irgendwelcher Stacks. 2+1 bedeutet 2x DRAM Die + 1x Base Logic Die. 4+1 ebenso mit entsprechend zwei weiteren DRAM Dies. Stapel können nicht gestapelt werden. Man kann sie nur nebeneinander auf dem Träger unterbringen.
 
Hier übrigens der Vollständigkeit halber mal die Originalquelle für die Hot Chips Slides von Hynix, wie sie im 3DC gefunden wurden, bevor sie dort von Videocardz und dort von CB geklaut wurde :D

http://www.setphaserstostun.org/hc26/HC26-11-day1-epub/HC26.11-3-Technology-epub/HC26.11.310-HBM-Bandwidth-Kim-Hynix-Hot%20Chips%20HBM%202014%20v7.pdf

Und nein, die DRAM-Dies sind nicht bereits gestapelte Einheiten. Wie schon mehrfach richtig erwähnt, besteht ein 4-Hi-Stack aus einem Logik-Die auf den vier DRAM-Dies (mit jeweils nur einer SI-Lage) gestapelt werden. Die erste Generation wird dann wohl wie auf Seite 12 zu sehen implementiert werden.
 
Da wird wohl der Glücklose Beema ersetzt, wie es aussieht. Mullins wird ja dann durch Nolan später ersetzt.
 
Beema: 124 Einträge
Kaveri: 47 Einträge

Glücklos sieht anders aus. Zudem ist Beema viel günstiger zu fertigen (winziges Die, billiger Prozess) und steht performance-seitig Kaveri bei den praktischen Benchmarks kaum nach. Und das bei 15 vs 19 Watt TDP und ohne zusätzlichen FCH, der die TDP und Kosten Kaveris nochmals erhöht.

Ich denke, Digitimes schreibt da schlicht Stuss.

--- Update ---

Mullins hingegen ist bisher definitv glücklos, ich kenne nur das eine HP-Notebook mit der Beemas Tablet-Variante an Bord. Tablets: Kein einziges. Verständlich ist das allerdings nicht - IMHO. Mag an den glücklosen Vorgänger-Modellen liegen, wo die Hersteller sich nie trauten, mehr als den billigsten Temash in Tablets einzubauen, weshalb sie den schwachbrüstigen Billig-Schund nicht loswurden.
 
Zuletzt bearbeitet:
[...]Fragt sich nur, wie viele man von den Stacks auf einem Träger unterbringen kann.
Wie viele DRAM-Stapel könnte man denn an den brachliegenden zweiten Speicherkontroller im Kaveri-Die anschließen? So wie ich das verstehe, kommt die Bandbreite über einen Zugriff über wesentlich mehr Datenleitungen als bei DDR3. Dafür bräuchte man dann auch einen neuen RAM-Controller. Oder man krempelt einen aus einer Radeon um und "baut HSA ein".
 
Zurück
Oben Unten