AMD APUs (Strix Halo, Strix Point, Hawk Point, Phoenix, Rembrandt, Cezanne, Renoir, Mendocino)

Von Zugzwang kann ich wiederum garnichts erkennen denn die IGP der normalen Ryzens ist nur für den Grundbedarf da.
Intel hat die Leistung der iGPU knapp verdoppelt im Desktop, Qualcomm und Co. nagen auch daran.
Man kann sagen, dass Intel dort AMD abgehaengt hat aktuell:

1730456334625.png

Zur Vorbereitung von UDNA sollte eine klare Staerkung der iGPU her in der naechsten Generation IMHO.
Und wenn es nur die kleine Testwiese ist fuer pot. Entwickler ;-) .

But take it w/ a grain of Salt.

Das ist natuerlich ein anderes Level als nur mal ein paar Excel Sheets anzeigen.

Wenn sich dieser Trend weiter manifestiert, dann weiss ich nicht, ob AMD das unbeantwortet lassen darf oder wird mittelfristig.
Wenn ueberhaupt eine iGPU verbaut wird, sollte sie schon deutlich staeker und breiter (besseres de- also auch encoding, AI Kapa) werden als die bisherige IMHO.

Fuer alle anderen gibt es dann die Varianten ohne akive iGPU.

Gruss,
TNT
 

Anhänge

  • 1730456321164.png
    1730456321164.png
    41,6 KB · Aufrufe: 2
Wer wirklich eine stärkere iGPU braucht kann bei AMD doch eine APU nehmen.
Und für die allermeisten reicht die "kleine" iGPU locker aus, solange sie moderne Video-Codecs unterstützt - wieso sollte man mehr brauchen, wenn man nicht spielt? *noahnung*
 
Strix Point ist monolithisch, daher bin ich davon ausgegangen daß auch Strix Halo aus einem Stück Silizium ist.
Dann hast Du aber lange an den bestehenden Leaks etc. vorbei gelesen. Davon abgesehen bei den bekannten Eckdaten waere das ein ziemlich grosses Die geworden. Ein solches Design waere doch eher unwahrscheinlich fuer AMD ;-) .

Gruss,
TNT
[automerge]1730460156[/automerge]
Wer wirklich eine stärkere iGPU braucht kann bei AMD doch eine APU nehmen.
Genau darum geht es nicht. Sicher, wer wirklich bessere Grafikleistung will, der nimmt eine 'echte' APU.

Hier sollte AMD schnell fuer APU Nachschub sorgen IMHO.
Eine grosse APU mit mehr als 8 Kernen gibt es bislang von AMD im normalen AM5 Sockel nicht,

Es geht hier aber explizit um den reinen Desktoppart. Es wird einen Grund haben, dass Intel hier enorm aufruestet.
Irgendetwas haben sie sich dabei gedacht. Auch Intel und Co. haben DieSpace nicht zu verschenken.

Intel wird damit sicherlich nicht den Gaming-Enthusiasten im Fokus gehabt haben.

Gruss,
TNT
[automerge]1730460397[/automerge]
- wieso sollte man mehr brauchen, wenn man nicht spielt? *noahnung*
Da frage Intel. Intel zeigt aber, dass viele Spiele dennoch funktionieren.
Mancher eSport Part scheint mit brauchbaren FrameRates unter Einschraenkungen zu laufen.
Fuer viele reicht das.

Der andere Part und vielleicht langfristig wichtigere kann sein, dass die iGPU auch fuer andere Zwecke eingesetzt wird (AI und Co. ).

Gruss,
TNT
 
Zuletzt bearbeitet:
Intel bietet ja auch keine Wahl zwischen kleiner iGPU und APU - da will man halt dann irgendwie mithalten.
Ich sehe da deswegen keinen "Handlungsdruck" für AMD...
 
Intel hat die Leistung der iGPU knapp verdoppelt im Desktop, Qualcomm und Co. nagen auch daran.
Die IGP des Chips hätte dann 4x Xe Cores, beim folgenden Computerbase Test war aber die IGP des "Intel Core Ultra 7 155H" mit 8x Xe Cores chancenlos gegen einen Ryzen 7 8700G @standard und erst recht gegen einen mit schnelleren RAM. Man ist lediglich auf der Höhe der mobilen APUs mit erheblich langsameren RAM der ja bekanntlich ohnehin am meisten die Leistung der IGP limitiert.

Wie gesagt, Zugzwang sieht anders aus. Intel hat seitens der Hardware höchstens aufgeholt und da ist die Qualität der Treiber noch außen vor.
 
@sompe beide von Dir hier genannten sind keine klassischen Desktop Chips bzw. noch nicht einmal fuer ihn erhaeltich und daher sind sie damit nicht gemeint. Desktop CPU iGPU sind kein Gegner fuer echte APUs - das ist klar.

Die Grenzen zwischen APUs und CPUs sind eh nicht mehr klar gezogen aber APU bedeutet aktuell -> grosse iGPU.
Das sind die kleineren iGPU der klassischen Desktop CPUs allesamt nicht und wollen es vermutlich gar nicht sein.

Aber CPU werden mehr zu APUs (unter Einschraenkungen kann damit sogar gespielt werden, mehr oder weniger aktuelles Featureset in der iGPU) und APUs werden mehr und mehr auch zu CPUs (Kernanszahl ->16c @ Strix Halo).

Gruss,
TNT
 
@TNT
Ob Desktop oder nicht spielt doch ohnehin nur eine untergeordnete Rolle wenn es um die Abschätzung der Leistungsfähigkeit der Hardware geht.
Die IGP des "Intel Core Ultra 7 155H" hat doppelt so viele Xe Cores und offenbar einen Taktbereich von 800 - 2250 MHz (hwinfo Screenshot), die des "Core Ultra 9 285K" hätte 2000 MHz aber nur halb so viele Xe Cores. Im besten falle wäre die des 285k also etwas schneller und im schlechtesten Fall erheblich langsamer als bei dem besagten Vergleichsmodell das es gerade einmal mit dem alten "Ryzen 9 6900HS" mit deutlich langsameren RAM aufnehmen konnte. (LPDDR5-7467 vs. DDR5-4800 CL40)

Des weiteren fehlt bei deinem wccftech Link praktisch alles was zu einem Vergleich gehört. Elementare Sachen wie die Testplattform und dabei insbesondere die RAM Bestückung konnte ich ebenso wenig finden wie einen direkten Vergleich mit anderen Produkten.
Der einzige Vergleichspunkt ist der Timespy Score einer GTX 1050 Ti , also einem Modell das schon länger nicht mehr mitgetestet wird. Die 1650 aus dem Test des Core Ultra 7 155H war allerdings ca. 30% schneller.

Nehme ich dann aber den folgenden 3dmark Link des 8700g als Beispiel (3837 Gummipunkte) schauen die 2288 bzw. 2631 Punkte des Core Ultra 9 285K mit unbekannter RAM Bestückung ebenfalls nicht so aus als ob AMD in Zugzwang geraten würde. Mit meinem 8700G kann ich erst am Wochenende gegentesten.

Noch schlimmer wird es wenn man den Preis der beiden Prozessoren mit einbezieht. (ca. 250 € vs. ca. 650 €)
 
Zuletzt bearbeitet:
Den Großteil der 285k Käufer werden die 4XE cores nicht interessieren, da entweder sowieso eine Grafikkarte im PC steckt, oder das ein Office Rechner sein soll.
Mit den 2CUs im AMD IO Die kann man theoretisch auch einfache Sachen spielen. Macht nur quasi niemand und 2CUs mehr würden daran auch nichts ändern.
Dann nimmt man lieber gleich eine APU, egal ob Phoenix Point oder später Strix Point.

Der Grund warum Intel das macht ist wohl eher, dass man zumindest irgendwo schneller als die Konkurrenz sein möchte.

Was NPUs angeht hat Microsoft AI PCs bisher nur für Notebooks angekündigt. Da wird man abwarten müssen wann es vielleicht mal gute Use Cases für Desktops gibt.

Der einzige Prozessor der wirklich große CPU+GPU+NPU vereint wird am Ende aber Strix Halo sein. Ob sich das rechnet wird sich noch zeigen müssen und am Ende hat man dort auch Einschränkungen, wie z.b. kein 3D Cache, begrenzte GPU Leistung und Bandbreite gegenüber externen GPUs, keine RAM Slots, ...
 
Wobei auf Strix Halo wohl auch nur die bekannten CCDs sitzen werden und damit abgesehen von einem ev. Höhenunterschied kaum etwas gegen die Variante mit 3D Cache sprechen würde. Das kommt dann vielleicht nicht als Strix Halo aber vielleicht wird sowas als Custom Chip angefordert.
 
Der einzige Prozessor der wirklich große CPU+GPU+NPU vereint wird am Ende aber Strix Halo sein. Ob sich das rechnet wird sich noch zeigen müssen und am Ende hat man dort auch Einschränkungen, wie z.b. kein 3D Cache, begrenzte GPU Leistung und Bandbreite gegenüber externen GPUs, keine RAM Slots, ...
Laut dem Video von MLID sollen die Strix Halo von AMD erstmal nur für Workstation Notebooks für AI Entwickler gedacht sein. Später will man entscheiden ob diese auch für Gaming Notebooks freigegeben werden, und erst noch viel später will man entscheiden ob diese auch in miniPCs kommen dürfen. Die sind also (erstmal) nicht für Gaming gedacht.
 
Man kann sagen, dass Intel dort AMD abgehaengt hat aktuell:
Zum einen ziehst du den falschen Vergleich: Wenn es um Grafikleistung geht, musst Du mit AMDs APUs vergleichen. Die IGP einer CPU interessiert die Leute nicht, weil sie dann auch eine Grafikkarte (oder halt eine APU) haben.

Zweitens ist das nur 3DMark, wo andere (meist bessere) Ergebnisse heraus kommen als bei echten Spielen, und schließlich darf man nicht vergessen, dass die Intel-Treiber immer noch schlecht sind. Und wegen des verschwindend geringen Marktanteils von Intel-Grafikkarten wird kein Spiele-Entwickler damit testen, geschweige denn darauf optimieren.

Der Artikel sagt selbst, dass die AMD APUs weiterhin vorne liegen, und Lunar Lake ist eine Enttäuschung.

Noch schlimmer wird es wenn man den Preis der beiden Prozessoren mit einbezieht. (ca. 250 € vs. ca. 650 €)
:-)
 
Zuletzt bearbeitet:
Den Großteil der 285k Käufer werden die 4XE cores nicht interessieren, da entweder sowieso eine Grafikkarte im PC steckt,
Voellig richtig aber es gibt noch andere Modelle.

Zum einen ziehst du den falschen Vergleich: Wenn es um Grafikleistung geht, musst Du mit AMDs APUs vergleichen. Die IGP einer CPU interessiert die Leute nicht, weil sie dann auch eine Grafikkarte (oder halt eine APU) haben.
Es geht mir aber explizit an diesem Punkt um die Desktop-CPU Varianten.
Dass viele die iGPU einer 9950X oder eines 285K kaum bis gar nicht nutzen mag sein, aber verbaut wurde sie dennoch und jede Menge an Transistoren oder sogar eigen Tiles dafuer hergestellt und integriert.

Warum machen die Hersteller das? Warum spart AMD hier nicht ein und verzichtet auf die iGPU?
Oder Intel?
Es sind nur die Sondervarianten, die ohne iGPU daher kommen.

Und genau an dieser Stelle hat AMD so langsam aber sicher Nachholbedarf IMHO.
Dass fuer sie fuer ordentliche iGPU auch APUs haben, ist so aber das ist nicht der Punkt. Eine APU bedient ein leicht anderes Marktsegment.
Eine APU sollte sich mit der starken iGPU weiterhin gut abgrenzen von der Desktop Auspraegung; dennoch verschwimmen hier die Grenzen immer mehr.

Es gab mal eine Zeit da war es einfach: AMD APU = CPU plus iGrafik.
Das ist aber schon laenger nicht mehr so.

Gruss,
TNT
 
Es geht mir aber explizit an diesem Punkt um die Desktop-CPU Varianten.
Dass viele die iGPU einer 9950X oder eines 285K kaum bis gar nicht nutzen mag sein, aber verbaut wurde sie dennoch und jede Menge an Transistoren oder sogar eigen Tiles dafuer hergestellt und integriert.

Warum machen die Hersteller das? Warum spart AMD hier nicht ein und verzichtet auf die iGPU?
Oder Intel?
Es sind nur die Sondervarianten, die ohne iGPU daher kommen.
Weil eine kleine iGPU absolut sinnvoll ist!?

Nicht jeder betreibt so einen Rechner zwingend mit einer dedizierten GPU - weil man es dank der iGPU nicht muss!
Manche brauchen "nur" die CPU-Leistung und denen reicht eine kleine iGPU völlig aus, weil sie nicht spielen.
Ein 9950X z.B. ist ja keine "Gamer-" CPU - und deswegen macht es Sinn, dass sich die CPU auch ohne dGPU betreiben lässt - oder auch, wenn die dGPU defekt ist oder zum Troubleshooting macht das absolut Sinn.
Ehrlich gesagt nervt mich das bei meinem 5950X keine iGPU inkludiert ist - aus genau diesen Gründen...
Es braucht dazu ja auch kaum Siliziumfläche und kann damit sehr günstig mitgeliefert werden.

Edit:
Mit einer NPU ist das ganz ähnlich imho: Längst nicht jeder wird diese auf absehbare Zeit brauchen - trotzdem verbauen die Hersteller diese Einheiten (künftig)...
 
@TNT
Nachholbedarf weil auch bei Intel nur die Sondervarianten ohne IGP daher kommen, Nachholbedarf weil es bei der kleinen IGP nicht viel einzusparen gibt oder Nachholbedarf weil mit der IGP die ohnehin vorhandenen Display Ausgänge der Plattform erst nutzbar gemacht werden?

Es gab mal eine Zeit da war es einfach: AMD APU = CPU plus iGrafik.
Du meinst die Zeit wo es mindestens 2 getrennte Plattformen gab weil die Plattform der klassischen CPU nicht fähig wart das Bildsignal der APU auszugeben (AM3/AM3+) oder die Zeit wo die Displayausgänge der Plattform nutzlos waren wenn eine reguläre CPU drin saß (AM4), es bei unerfahrenen Nutzern eher für Verwirrung sorgen konnte und es gegenüber Intel vor allem im Office Umfeld durchaus als Wettbewerbsnachteil angesehen werden konnte?
 
Warum machen die Hersteller das? Warum spart AMD hier nicht ein und verzichtet auf die iGPU?
Weil 2 CUs für Office genau das Richtige ist. In PCs und Notebooks mit Grafikkarte kann die Graka schlafen (Strom sparen), während man Office-Arbeit (einschließlich surfen) macht oder Filme guckt.
Dagegen fand ich das Argument "falls die Grafikkarte kaputt geht" schon immer grenzwertig. [Wie oft passiert das? Und wenn, hat man ja doch eine 2. im Schrank]

Varianten mit deaktiviertem Grafikteil gibt es als Resteverwertung, und um noch etwas mit dem Preis runter gehen zu können.

Insgesamt würde ich das rein aus Nutzersicht sehen. Von einer "mittelstarken" IGP hat der User nichts, deshalb würde ich da auch gar nicht groß vergleichen.
 
Weil 2 CUs für Office genau das Richtige ist.
Genau da trennen sich unsere Meinungen. Ich sage heute ja, uebermogen nicht mehr im Markt IMHO und es geht dann auch um mehr als Office.
Es geht auch darum, was die Konkurrenz macht und der Markt verlangt oder ihm suggeriert wird (es ist nicht immer die Frage, ob das alles furchtbar sinnvoll ist aber das ist ein anderes Thema).
Man bedenke, dass das IO-Die mit der iGPU (falls dieser Architektur bleibt) traditionell mehrere CPU Generationen durchhalten muss/soll bei AMD.
Neue Speicherstandards (z.B. CUDIMMs) versprechen absehbar einen Sprung der in der Speicherbandbreite im Desktop etc.

PCs und Notebooks mit Grafikkarte kann die Graka schlafen (Strom sparen), während man Office-Arbeit (einschließlich surfen) macht oder Filme guckt.
Funktioniert das mittlerweile gut auf einem Desktop PC? Unter Windows?
Das waere mal was. Ist aber an mir vorbeigegangen,
Nachholbedarf weil auch bei Intel nur die Sondervarianten ohne IGP daher kommen, Nachholbedarf weil es bei der kleinen IGP nicht viel einzusparen gibt oder Nachholbedarf weil mit der IGP die ohnehin vorhandenen Display Ausgänge der Plattform erst nutzbar gemacht werden?
Schau Dir das IO-Die an und schneide Grafik und VideoDecoder raus (Zuwachs insgesamt von 5000er IO Die zu 7000 IO Die ca. 1.3 Mrd Transistoren, groessenteils iGPU aber nicht nur). Ausgaenge muss man nicht nutzen (-> Vorgaenger Generation) - was nicht das erstmal so waere.

1730625165270.png
Quelle: Techpowerup

Der Bedarf entsteht, da die Konkurrenz viel investiert an dieser Stelle (Leistung und Transistoren).
Das ist mittlerweile nicht nur Intel, aber Intel aktuell insbesondere.
Es waere natuerlich klasse, wenn AMD den Bedarf an NPU und iGPU Leistung zusammen mit einem Stueck Die/Design erschlagen koennte (ganz im Sinn von UDNA. UDNA muss nicht bedeuten, dass man nur noch ein Die/Design hat, was alle Aufgaben erschlagen kann, selbst wenn aehnlliche Ansatze in weiten Teilen verfolgt werden).

Dass man auch schon heute es mit der 7000er iGPU gut in die Windows Oberflaeche schafft, ist da nicht entscheidend IMHO.
Good enough heute aber uebermorgen?
Warum ruestet die Konkurrenz hier auf (s.a. NPU im Desktop bei Intel)?

Nvidia steht in den Startloechern fuer eine eigene CPU fuer PCs und wird sicherlich auch nicht mit einer Krueppelgraik starten - egal in welchem Segment.
Spaetestens dann sind u.a. 2 CUs (1 WGP) langsam deutlich zu wenig IMHO. Aber klar muss man bei Nvidao erst mal abwarten was sie da an Segmenten abpeilen und ob das gelingen kann.

Oder AMD kehrt langsam aber sicher der klass. Desktop CPU den Ruecken zu und laesst das Segement von APUs beackern (CPU Leistung nicht spitze (weniger Kerne u.a.) aber good enough by then und Grafik mehr als spritzig fuer eine iGPU/NPU).

Klass. CPUs (sehr schwache iGPU aber max, Anzahl von Kernen etc,) bei AMD findet man dann nur ab Threadripper ;-) .

Plattform der klassischen CPU nicht fähig wart das Bildsignal der APU auszugebe
Mhmh.. Du verwirrst mich. CPU oder APU? Die Grenzen verschwimmen zwar immer mehr aber noch ist das getrennt (und wenn es nur das Marketing ist).
APU war immer mit Grafik und konnte auf den Bildschirm malen und brachte den CPU Part mit bei AMD.
Vor Ryzen 7000 konnten CPUs bei AMD nie selbst Bilder ausgegeben (es gab aber Chipsatz Grafik frueher AM2/AM3 -> z.B. Radeon HD 3100-3300) AFAIK.

Gruss,
TNT
 
Schau Dir das IO-Die an und schneide Grafik und VideoDecoder raus (Zuwachs insgesamt von 5000er IO Die zu 7000 IO Die ca. 1.3 Mrd Transistoren, groessenteils iGPU aber nicht nur). Ausgaenge muss man nicht nutzen (-> Vorgaenger Generation) - was nicht das erstmal so waere.
Schlechter Vergleich, der IO Part schrumpft wegen der Treiberstufen deutlich schlechter als die Logik der GPU, was auch der Hauptgrund für die Aufteilung ist. Das sieht man übrigens auch recht gut bei Die Shots wo der von dir genannte GPU Part nur ca. 1/4 der Fläche einnimmt. Man würde also bestenfalls ca. 30 mm² einsparen, läuft aber Gefahr tote Füllflächen hinzufügen zu müssen weil eben auch die Kontakte des IO Parts selbst ein Minimum an Flächenbedarf besitzen und der ist eben vor allem beim IO Part entsprechend hoch weil der Großteil eben nicht nur an die Stromversorgung des Chips geht. Da beide IO Chips fast gleich groß sind liegt die Vermutung nahe dass das ein Treibender Faktor sein dürfte.
 
Weil 2 CUs für Office genau das Richtige ist.
Genau da trennen sich unsere Meinungen. Ich sage heute ja, uebermogen nicht mehr im Markt IMHO und es geht dann auch um mehr als Office.
Es geht auch darum, was die Konkurrenz macht und der Markt verlangt oder ihm suggeriert wird (es ist nicht immer die Frage, ob das alles furchtbar sinnvoll ist aber das ist ein anderes Thema).

Warum sollte eine aktuelle kleine iGPU für 98% der Office-Rechner auch in 5 Jahren nicht reichen? *noahnung*
Mehr als Desktop, Video/Teams (oder Zoom)-Calls, Browser-Videos & Grafik ist imho für eben 98% der Office-Rechner auch in mehr als 5 Jahren nicht zu erwarten - und die restlichen 2% kaufen entweder eine APU oder gleich eine dGPU...
 
Wobei auf Strix Halo wohl auch nur die bekannten CCDs sitzen werden und damit abgesehen von einem ev. Höhenunterschied kaum etwas gegen die Variante mit 3D Cache sprechen würde. Das kommt dann vielleicht nicht als Strix Halo aber vielleicht wird sowas als Custom Chip angefordert.

Ich glaube jemand ließt bei unserem Spekulatius mit. *oink*

3D-Cache für kommende APUs​


Der User will außerdem erfahren haben, dass zukünftige Notebook-APUs der Halo-Serie, also Nachfolger der für Anfang 2025 erwarteten Familie Strix Halo, ihrerseits mit einem 3D-Cache erweitert werden sollen. Dieser soll dann nicht nur die CPU, sondern auch die GPU beschleunigen. Details dazu werde es aber erst im zweiten Halbjahr 2025 geben.
 
Das würde die Performance natürlich mächtig pushen, aber ich selbst bleibe bei den Halos erstmal skeptisch. Vom selbst ausgesuchten Mainboard und wechselbarem RAM gehe ich nicht weg. Wobei: Wenn das so einschlägt wie bei den Desktop-Chips (wo die meisten auf den X3D-Cache warten), wird es bestimmt Wege geben, beides zu kombinieren (z. B. die neuen RAM-Sockel). Oder der zusätzliche Cache verbessert das "RAM-Bottleneck" so weit, dass man mit einem Standard-Sockel (AM5) + normalem DDR5-6000 auskommt. Das wäre natürlich genial!
 
Zuletzt bearbeitet:
3D-Center:
Generell scheint AMD die Technologie zusätzlicher Caches weiter voranzutreiben, trotz des damit einhergehenden zusätzlichem Silizium-Aufwands (an natürlich vergleichsweise günstig herstellbaren SRAM-Chips). Intel hingegen hatte vor einiger Zeit mal in diese Richtung hin geblinkt ("könnten wir auch"), passiert ist seitdem hierzu bei Intel allerdings wenig.
Von "könnten wir auch" ist es noch nicht getan. Rory Read würde sagen: Execution, Execution, Execution 😄

Die RAM-Specs für Strix Halo, Strix Point und Krackan wurden auf LPDDR5x-8000 angehoben. HP hat für Dezember ein Notebook mit diesem RAM angekündigt.
 
Zuletzt bearbeitet:
Lenovo wird den T14s im November 2024 als erstes AI-Notebook mit 50 TOPS NPU bringen: mit AMD APU Strix Point.
Kurz darauf das erste Intel Modell mit 50 TOPS NPU im X1 Carbon mit Lunar Lake:
Ein T14s mit Lunar Lake folgt erst Ende Q1/2025
1 Quartal später folgt der T14, T14s und X13 mit AMD Krackan Point Ende Q2/2025
 
Zuletzt bearbeitet:
Rory Read würde sagen: Execution, Execution, Execution 😄
Das war doch der 'I am a volume guy' oder? ;D
Also volume,volume,volume! .

Gruss,
TNT
[automerge]1730906207[/automerge]
3D-Center:
Generell scheint AMD die Technologie zusätzlicher Caches weiter voranzutreiben, trotz des damit einhergehenden zusätzlichem Silizium-Aufwands (an natürlich vergleichsweise günstig herstellbaren SRAM-Chips). Intel hingegen hatte vor einiger Zeit mal in diese Richtung hin geblinkt ("könnten wir auch"), passiert ist seitdem hierzu bei Intel allerdings wenig.
Von "könnten wir auch" ist es noch nicht getan.
War das nicht der 'Adamantine' L4 Cache von Intel, der mal angekuendigt war?

Gruss,
TNT
 
L4 gab's bei Intel aber schonmal: Bei Broadwell!
Der i7 5775C war damals schon 'ne Waffe trotz deutlich niedrigerem Takt - aber lange, lange it's her...
 
Zurück
Oben Unten