FUSION AMD's neue Klasse von x86er

Status
Für weitere Antworten geschlossen.
...Das Transistoren für Schaltvorgänge Strom verbrauchen und dabei Abwärme produzieren ist mir durchaus klar. Das GPU's anders arbeiten als CPU's ebenso...
...Beide sitzen auf einem Chip, sind quasi mit der selben Produktionsmethode gefertigt. Eventuell unterscheiden sich die Transistoren in der Auslegung Takt vs. Stromsparen, aber nicht in einem Verhätlnis von mehr als 1:5.
Ich denke, dass prinzipiell auch die GPU-Transistoren in der Lage sein müssten, die Taktfrequenz der CPU mitzugehen...

Ich finde diesen Denk-Ansatz recht interessant! Die jeweiligen Transistoren haben im jeweiligen Prozess eine bestimmte Charakteristik, deren Verhältnis zueinander in den verschiedenen Prozessen sich nicht allzu stark unterscheiden sollte: ermögicht ein Prozess schneller schaltende Transistoren und hat er niedrigere Latenzen, betrifft das mehr oder minder alle Transistoren, egal ob sie sich im CPU- oder GPU-Teil befinden.

Von daher finde ich die Ableitung des GPU-Taktes durch Vergleich des Taktverhältnisses mit Brazos nicht unbedingt so abwegig: in Brazos taktet die GPU rund 30% von der CPU; würde die CPU in LLano 3Ghz machen, sollten demnach bis zu rund 1Ghz für die GPU realistisch sein (es mag sein, dass man hier etwas weniger wählt, aber nur 600Mhz wäre einfach zu wenig).
 
Abgesehen von Sweet-Spot spielt nicht auch die Packungsdichte der Transistoren eine Rolle beim Taktverhalten und sind GPU´s nicht deutlich dichter gepackt als CPU´s?
War deshalb der relativ dicht gepackte L2 und (bzw) L3 nicht lange Zeit deswegen niedriger getaktet?
Ich hab das so in Erinnerung aber ich neige ja etwas zum gefährlichen Halbwissen.
 
@BR: Die Brazos-Betrachtung hinkt aber dahingehend dass die großen Llanos 5 mal soviele Shader im GPU-Teil haben, der CPU-Part ist aber nicht zwangsläufig 5 mal so groß (und die TDP auch nicht unbedingt).
Das bedeutet, die GPU ist überproportional gewachsen, und das schlägt sich wiederum im TDP und Taktspieraum nieder.
Zudem hatten wir schon darauf hingewisen dass man Schaltungen auch für hohe Takte auslegen muss, sch**** egal wie schnell die Transistoren sind... es gibt da zig Variablen in Sachen Signallaufzeiten, Synchronisierungen usw.
Und GPUs sind eben von Hause aus nicht primär auf Takt ausgelegt...
 
Und GPUs sind eben von Hause aus nicht primär auf Takt ausgelegt...
Knifflig, knifflig. Schwingt noch einer die Keule "der Redwood läuft aber auch mit bis zu ... [hier größten ermittelten OC Wert in Mhz einsetzen]"
Vielleicht sollte man anders fragen: Designziel mit dem Hintergrund der höchstmöglichen Effizienz im Mobilbereich, oder Problemfall auf bulk gewachsene GPU-Architektur im SOI Aquarium?
Ich vermute mal, Llano wurde ganz klar auf den mobilen Einsatzbereich optimiert, für etwas performantere Spieledarstellung auf dem Desktop sollen schließlich die hauseigenen Grafikkarten als Erweiterung dienen.
 
Dafür ist die TDP mancher Modelle aber ganz schön hoch.
Keulen schwingen kann wer will, ich wollte damit nur zum Ausdruck bringen, dass wir bei CPUs zwar an den 4Ghz rumeiern mögen (wenn auch nur durch OC) aber die GPUs in derzeitigen Grafikkarten immernoch ne ganze Ecke niedriger takten.
Effektiv ist doch die Ganze Diskussion müßig.
1. Es wurde eine bestehende GPU-Architektur genommen, die sicheliche nicht für 3Ghz optimiert war/ist und das auch in 32nm nicht mal eben schafft.
2. Es sollen gefälligst noch diskrete Grakas verkauft werden
3. Bei zu viel Performance limitiert sowieso das Speicherinterface.
4. Es muss um die TDP einzuhalten eine Balance geschaffen werden zwischen CPU und GPU-Taktraten, Spannungen etc. - und die kam bei Llano eben so raus.

Ob sie theoretisch nur hätten 200 Shader mit doppelt so hohem Takt verbauen können anstatt 400 wie grade ist eine ganz andere Sache und ergibt sich höchstwahrscheinlich aus den Punkten 1-4.
 
1:5 ist doch durchaus konservativ

..und trotzdem frei erfunden

und im zu erwartendem Bereich.

und trotzdem frei erfunden. Und überhaupt - von wem erwartet? Und seit wann haben Erwartungen auswirkung auf die Taktfrequenz von $neues_Produkt?

Ausgehend von den kolpotierten 492MHz der GPU ist das 5-fache mit 2,5GHz ja alles andere als unrealistisch.

Ebenso wie das 4,5 fache oder das 3,25 fache. Also ein beliebiger, und frei erfundenerWert.


Möglicherweise hast Du übersehen worauf hin ich geantwortet habe?

Crashman schrieb:
Beide sitzen auf einem Chip, sind quasi mit der selben Produktionsmethode gefertigt. Eventuell unterscheiden sich die Transistoren in der Auslegung Takt vs. Stromsparen, aber nicht in einem Verhätlnis von mehr als 1:5.

Crashman hat hier versucht durch intensives Diskutieren einen von ihm willkürlich gewählten Faktor als zu gering festzulegen. Ob das Universum sich seinen Wünschen beugt oder doch eher ignorant gegenüber derart gewichtigen "Argumenten" zeigt werden wir sehen.
 
und trotzdem frei erfunden. Und überhaupt - von wem erwartet? Und seit wann haben Erwartungen auswirkung auf die Taktfrequenz von $neues_Produkt?

Ich verweise auf den Titel des Boards. 8)


Ich danke allen, die sich Gedanken gemacht haben und mit Stichworten wie Packungsdichte, Critical Path, Architektur et al versucht haben meine Frage zu beantworten.

Ich bin jedenfalls gespannt, in welche Richtung die Entwicklung gehen wird. Falls sich abzeichnet, dass integrierte Grafikcores eine größere Rolle spielen werden, als die dedizierten Counterparts.

Grüße,
Seb
 
Falls sich abzeichnet, dass integrierte Grafikcores eine größere Rolle spielen werden, als die dedizierten Counterparts.

Denke mal eher, dass die Bedeutung weniger in den Grafikfähigkeiten liegt als vielmehr im Nutzen eines massiv parallel arbeitenden Rechenwerkes.
Erste Anwendungen nutzen dieses ja bereits.
Wenn sich die Programmierer erst mal drauf verlassen können, dass solch eine Einheit in jedem PC vorhanden ist, wird sich auch die Software entsprechend darauf einstellen.
Dass sich dieses neue parallele Rechenwerk zunächst einmal gut für die Grafik nutzen lässt, ist natürlich für die Industrie ein willkommenes Feature.

So wie damals die FPU auf den Chip gewandert ist, versucht AMD meiner Meinung nach, ein paralleles Rechenwerk für OpenCL on Chip zu etablieren.

Intel versucht es mit der Atom E600-CPU mit integriertem FPGA was neues zu etablieren.
Ist natürlich auch ein interessantes Konzept, einen frei programmierbaren Hardwareblock zu haben.

Aber erstmal drück ich AMD die Daumen für ihr APU Konzept.
 
Wenn das GPU nicht auf deutlich mehr Takt ausgelegt ist bringt die Diskussion nichts und wenn man ein GPU Design auf hohe Taktraten auslegt, man aber dadurch weniger Leistung pro Watt bekommt haette man auch nichts gewonnen.
Selbst bei den CPUs sieht man ja sehr gut das fuer hoehere Taktraten auch mehr Spannung erforderlich ist und das aeussert sich im Strombedarf sehr deutlich.
 
Nö, das hat mit Teilaufgaben nichts zu tun.

Ein CPU-Design mit pipelining-Architektur schiebt schon Rechenanweisungen nach, während die vorhergehenden Stufen noch an den (Teil)Aufgaben rechnen.

Beim K6 zum Beispiel war die FPU noch aus der "prä-Pipeling-Zeit". Das hatte den Nachteil, dass die FPU-Einheit erst neue Berechnungen anfordern konnte, wenn die vorhergehende Berechnung komplett die Gleitkommaeinheit (mit den auch dort vorhandenen einzelnen Stufen) durchlaufen hat.

Im Vergleich zu aktuellen Microarchitekturen nutzte der K6 eine vergleichsweise kurze "Bahnen", um die Berechnungen durchzuführen. Daher war die FPU-Einheit noch halbwegs leistungsfähig.

Bei aktuellen CPUs hingegen mit langen Wegen zum Berechnen, wäre solch ein Non-Pipeline-Design tödlich, wegen der langen Pausen dazwischen.
Es sei denn, der Takt wird hochgeprügelt - was IBM ja beim Power6 ja in der Tat so auslegte.
Der Power7 ist wieder ein Pipeline-Design.

MFG Bobo(2011)

Du willst mit nicht gerade erzählen, dass wir ohne Pipelining die gleichen Takte auf einer CPU sehen würden wie mit?!

ok hier:

________ ________
| Taktgesteuerter flipflop|---------|_______|-------------|_______|---------| Taktgesteuerter flipflop|

zwei gleichartige Schaltungselemente in Reihe haben die Durchlaufzeit von t von flipflop zu flopflop. Diese Zeit muss die Schaltung haben, damit am ende im hinteren Flipflop die korrekten Ergebnisse anliegen.

_______ _______
| Taktgesteuerter flipflop|---------|_______|------| Taktgesteuerter flipflop|-------|_______|---------| Taktgesteuerter flipflop|

Jetzt schalten wir zwischen die beiden Schaltungsnetze noch einen Flipflop dadurch erhalten wir eine Durchlaufzeit von t/2 von flipflop zu flipflop.
die zeit die das Signal von einem Sicheren zustand zum nächsten braucht wird halbiert.
Und das wiederum bedeutet wir können den Takt (nahezu) verdoppeln.

Ob kein pipelining eine schlechte idee ist oder nicht ist vollkommen irrelevant. Wie ich bereits in meinem vorherigen Post gesagt habe kommt es darauf an den Sweetspot zwischen Auslastbarkeit der Stufen und der Taktfrequenz zu finden.
Relevant ist, dass durch mehr Pipelinestufen ein höherer Takt erzeugt werden kann. Wenn sich aber bei einer GPU mehr Stufen Designtechnisch nicht lohnen, dann steigt auch der Takt nicht auf das Niveau der CPU.

(natürlich beeinflussen andere dinge wie die packungsdichte den takt auch mit)
 
Und im großen Maßstab gibt es noch mehr Variablen zu beachten.
AMD wird schon wissen warum sie Llano so gebaut haben wie sie es taten, und wenn es schlicht eine Entscheidung nicht auf Basis des technischen sondern des momentan wirtschaftlich machbaren optimums der Firma darstellt.
Immerhin ist Llano der Anfang von Fusion (zumindet im Mainstream) und nicht das Ende.

Die alte Diskussion bezüglich weniger Transistoren mit höherem Takt kontra niedrig getaktetes Transistorenmonster ist nicht mit einer Pauschale zu beantworten.
Beim P4 haben wir gesehen dass Hochtakt-Designs problematisch sein können. Trotzdem hängt das nicht zuletzt vom Fertigungsprozess ab. Takt ist kein Allheilmittel, aber mit TRansistoren um sich zu werfen ist es ebensowenig.
Es ist richtig dass man für mehr Takt mehr Spannung braucht, umgekehrt haben mehr Transistoren aber auch mehr leakage. Also unter Umständen wieder schlecht für die Strombilanz. Nun gibt es techniken wie Powergating, Fertigungs-Tricks wie SOI und dergleichen die helfen die leakage zu mindern, trotzdem wird sie physikalisch gesehen immer problematischer je kleiner die Fertigung wird.
Also muss ein Hersteller von Rechenchips, mal ganz egal ob CPU, GPU oder APU, versuchen das Optimum unter den gegebenen Vorraussetzungen zu erzielen.
Ich behaupte wir können hier im Kreis diskutieren wie, warum und wenn... das füht uns nicht weiter, weil wir viel zuwenig konkrete Daten haben um das zu beurteilen.
Da müssen wir uns schon auf die Ingineure bei AMD und Intel verlassen dass die das besser wissen als wir. Und mal völlig von dem Unfug abgesehen den das Marketing so verbreitet, kann niemand bestreiten dass die heutigen Prozessoren hochkomplexe, durchdachte und ausgeklügelte Gebilde in Silizium sind.... Also ist zumindest ide Ingineursabteilung nicht völlig verblödet.
Daher trau ich denen schon zu unter den gegebenen Umständen das Richtige zu machen.
BDs Architektur geht schon in eine gewisse Richtung, simpel, höher getaktet, aber dennoch effizient (grade weil simpel) - also interpretiert nicht so viel in Llanos Shadertakte...
Llano war nie gedacht um grafische Höchstleistungen zu vollziehen und das schafft er auch nicht. Aber er ist das Beste was sich in Sachen APU so "mal eben" für den Mainstream basteln ließ.
Richtig gespannt bin ich auf Trinity im nächste Jahr... Bulldozer-Power plus GPU. Heureka.
 
Ich weiß nicht ob es hier schon erwähnt wurde.
Das Llano-Board (Sockel FM1) sieht sehr interessant aus.
Keine PCIe-Bridge im oberen Bereich, scheint Natives USB 3.0 (rear und front) zu haben und auch der neue CPU-Halter (Retention Module) vom Bulldozer AM3+ wird wohl übernommen.
Link

Gruß Lehmann

02372866.jpg
 
Zuletzt bearbeitet:
a) Wo steht das nur ein Modul pro Channel geht und b) sollte bei 4 GB-Modulen inzwischen auch fast egal sein.
 
Da die Phrasendreschmaschine anscheinend noch keine Proportionen erkennen kann, ist ihr auch nicht aufgefallen, dass dies ein ITX Board ist.

Der Zusammenhang zwischen 1 Modul pro Channel und DDR3-1866 ist ohne Wissen über den Speichercontroller und Güte des Boarddesigns auch vollkommen aus der Luft gegriffen.
 
...ist ihr auch nicht aufgefallen, dass dies ein ITX Board ist.

Hmm, bist du dir da sicher? Überlicherweise ist doch bei Mini-ITX (oder sprichst du nicht von Mini?) nur ein Erweiterungskartensteckplatz?!
Ich glaube, das ist größer als Mini-ITX, aber kleiner als µATX.
Ich weiß jetzt aber nicht auswendig, wie sich der Standard nennt (nur Flex-ATX schwirrt noch in meinem Kopf herum).

LG
 
Zuletzt bearbeitet:
Hmm, bist du dir da sicher? Überlicherweise ist doch bei Mini-ITX (oder sprichst du nicht von Mini?) nur ein Erweiterungskartensteckplatz?!
Ich glaube dass ich größer als Mini-ITX, aber kleiner als µATX.
http://en.wikipedia.org/wiki/MicroATX

microATX hat variable Abmessung und obiges Board fällt in die microATX Spezifikation.

Dass ein DRAM je Channel nötig ist für die maximale Taktrate ist nun wirklich seit Jahren bekannt über zig Plattformen.
Und bei 2*2 GB -1600 oder -1833 ist eh in diesem Budget-Markt der Bedarf gedeckt
 
Du willst mit nicht gerade erzählen, dass wir ohne Pipelining die gleichen Takte auf einer CPU sehen würden wie mit?! ...
Nein.

Es scheint unbestritten, dass ein Design mit pipelining höhere Taktraten erzielen kann.
Und auch hier liefert IBM ein schönes Beispiel, dass der Power7 höhere Taktraten abliefern kann, als ein Power6.

Offenbar ist solch ein Pipeline-Design aber doch komplexer (was die Entwicklungszeit in die Länge zieht), als es ein Chip ohne ist.

Deine Erklärung hättest du dir somit ersparen können ;D

MFG Bobo(2011)
 
http://en.wikipedia.org/wiki/MicroATX

microATX hat variable Abmessung und obiges Board fällt in die microATX Spezifikation.

Für mich steht nun nur fest, dass es kein mini-ITX Board ist - dafür ist es zu groß. Aber bei den zahlreichen Bezeichnungen ist es wohl nicht möglich, ohne die exakten Abmaße, die richtige herauszufiltern.
Ist aber auch zweitrangig - festzuhalten bleibt nur: mMn kein Mini-ITX.

LG
 
könnte auch DTX sein Matx geht auch weil es werden nur maximale Größen angegeben und Position der Blenden sowie der Bohrungen.
 
- 32nm, Quad Core, FS1 package
- 1.9GHz base clock and 2.6GHz with Turbo
- 4MB L2, IMC supports 1600MHz DDR3 and 1333MHz DDR3L
- Radeon HD 6620G integrated GPU with 400 shaders and 444MHz clock speed.
- 45 Watt TDP
- Works with A60M and A70M chipsets. Difference between them is latter comes with native USB 3.0 support

Laut donanimhaber wird der A8-3530MX das schnellste Modell für Notebooks werden. Zusammenfassung von overclock.net
 
Das kann ich mir schwer vorstellen bzw. eine Enttäuschung.

Jetzt gibt es einen Quad mit 2.2 Ghz sowie Dual-Core bis 2,9 Ghz.

Das wäre ein klarer Schritt zurück.
Normalerweise gabs Taktsteigerungen, wenn es Architektur-mäßig sich nichts geändert hat.

Llano-Quad soll ja das Massen-Produkt sein.
Es wäre ja sehr seltsam, wenn das Massen-Produkt @ Quad so bei 1,5-1,7Ghz herumkrebst.
Ich dachte die 1,x-Ghz-Zeiten, was ja für das Marketing nicht unwichtig ist, wären im Mainstream-Notebooks schon lange vorbei.
 
Zuletzt bearbeitet:
klar wird da ne pleite, kommt ja auch von amd. und die oems sind einfach nur blöd weil sie llano wie verrückt ordern...
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben Unten