News Trinity-Endkundenexemplare in Japan aufgetaucht

Die PCIe Lanes sind bei allen APUs wie auch bei den Intels onchip.
TDP ist nur der Verbrauch bei Vollast, solange Du kein Boinc rechnen lässt ist der idle Verbrauch der Bulldozer CHips sehr gut. Ist halt die Frage, wieviel Last Du da auf dem Teil hast.

Grafikkteil ist VLIW4, nach VLIW5 im Llano, GNC kommt mit Kaveri 2013.

Steht aber eigentlich alles im Trintiy Artikel:
http://www.planet3dnow.de/vbulletin/showthread.php?t=405075
 
TDP ist nur der Verbrauch bei Vollast,...
Bei maximaler Temperatur und Spannungen am limit. ;)
Zudem darf man nicht vergessen, dass auch ein Großteil für die GPU benötigt wird.
Wer kann sich noch an die Umfrage erinnern: http://www.planet3dnow.de/vbulletin/showthread.php?t=379198
Heute ist es soweit und es sind 384 Shaderkerne, innerhalb von 65W TDP. Das finde ich schon sehr beachtlich!
Zumal diese nicht nur für Grafik genutzt werden können. :)

MfG
 
Trinitys haben noch VLIW4, GCN gibts erst mit Kaveri nächstes Jahr.
Das wäre wohl zeitlich auch ein wenig zu knapp gewesen nun GCN noch da rein zu fummeln.
Was die TDP betrifft - Nunja, wenn du ihm nicht viel zu tun gibst, wird er die auch im Leben nicht ausreizen. Es ist aber durchaus faszinierend dass AMD die sparsameren Modelle anscheiennd ausschließlich für den Mobilmarkt reserviert, da gibts ja 35W APUs. - Und dessen LEistung dürfte auch für einiges ausreichen was man mit größeren Bildschirmen machen kann als sie bei Notebooks üblich sind.

Den Einwurf mit dem A6 verstehe ich nicht ganz, weil laut obiger Tabelle, der A6 selber auch nur ein 2-Threader ist, also 1 Modul besitzt mit 2 INT-Cores. *noahnung*

Es ist aber schon erstaunlich dass bei absolut jedem Thread wo AMD irgendwas neues vorstellt, wieder die selbe alte Leier angeschlagen wird. - Ja, Trinity, kann icht mit IB mithalten, und nein, das ist keine Überraschung. Also was solls? - War klar, ist bekannt, zur Kenntnis genommen und wird sich in absehbarer Zeit auch nicht ändern.
Nein, es kommt kein Messias mehr, der Intel "aus dem Wasser bombt", nein auch Kaveri wird das nicht schaffen - und es sollen Tatsächlich dennoch Menschen überlebt haben ohne maximale CPU-Power zu besitzen die in 80% des Alltagsbetriebs Windows-Dienste bearbeitet und Idelt.
Haben wirs dann? - Oder noch weitere Seitenhiebe parat?
Derjenige der eine bessere APU bauen kann als Trinity hebe die hand, und lasse sich von AMD einstellen.
Derjenige der die Meinung vertritt es wäre besser wenn sie den Laden dicht machen und Intel den Markt exklusiv überlassen mache ein Kreuzchen.
Und der Rest finde sich damit ab, dass mit 10% des Budges nunmal nicht >100% Leistung rausschauen können. Es liegt an uns das zu ändern.
*noahnung*
 
Wir haben recht fleißig AMDs in den letzten Jahren gekauft, aber hat das geholfen?

Denk mal darüber nach, was wir AMD als Kunden wert sind. Vielleicht kommst du darauf.

So lange es Lobhuldigungen auf diese doch enttäuschenden APUs/CPUs gibt, so lange wird es auch Kritik geben, ist nun mal so
 
Und was soll an den APUs ach so enttäuschend sein?
Das sie keine auch so mega fette CPU Leistung mitbringen? Der relativ geringe Preis?
Nichts für ungut aber selbst der Llano in meinem Wohnzimmer Rechner bringt mir CPU Seitig mehr als genug Rechenleistung für den Alltag mit und dessen GPU reicht um die meisten Spiele in 720p oder 1080p auf dem TV zocken zu können. Nicht unbedingt in den höchsten Grafikeinstellungen aber das ist auch nicht dessen Ziel.

Mal ganz ehrlich...für den Alltag (Surfen, Texten, Musik, Videos usw.) reicht selbst die Leistung des kleinen E-350 (eigene Erfahrung), es sei denn man nutzt dutzende von Tabs im Browser, hat haufenweise Flash überladene Seiten offen oder besteht darauf auf die GPU Beschleunigung zu verzichten.
 
Mal ganz ehrlich...für den Alltag (Surfen, Texten, Musik, Videos usw.) reicht selbst die Leistung des kleinen E-350 (eigene Erfahrung), es sei denn man nutzt dutzende von Tabs im Browser, hat haufenweise Flash überladene Seiten offen oder besteht darauf auf die GPU Beschleunigung zu verzichten.
Das schafft genauso ein SB Celeron, und die sind halt auch recht günstig.
Bin mal gespannt, ob es dann auch IB Celeron und Pentium geben wird, und vor allem Wann.
Naja, das ist ja das Problem eigentlich.
Es wird Versucht die Stärken eines bestimmten Produktes, teilweise, über die Maßen hinaus als Wichtig darzustellen und die Nachteile zu negieren.
Klar, die Hälfte ist eh Fangebrabbel, man kann also zu keinem Nenner kommen.;D*engel*
Ein Problem ist halt.
Intel hat eine gewaltige Produktpalette, alle mit iGPU ( mittlerweile ist das schon eine Art Standard bei Intel), Amd hat sie nur in bestimmten CPU.
Amd ist auch gezwungen die Apu, ist es bei Intel denn wirklich was anderes (CPU +Memory Controller+GPU) besonders zu vermarkten weil eine integrierte Grafikeinheit nicht "Standard" ist.
Amd kommt bei dem Cpu Part halt nicht mehr hinterher, so können sie wenigstens bei einem Teilbereich Auftrumpfen.
Hat doch auch einen Vorteil.
So muss jeder ernsthaft weiter Entwickeln.;)
 
Nichts für ungut aber selbst der Llano in meinem Wohnzimmer Rechner bringt mir CPU Seitig mehr als genug Rechenleistung für den Alltag mit und dessen GPU reicht um die meisten Spiele in 720p oder 1080p auf dem TV zocken zu können. Nicht unbedingt in den höchsten Grafikeinstellungen aber das ist auch nicht dessen Ziel.

Schön das er DIR reicht :) , aber Sorry, aber ich kann dieses "reicht mir" nicht mehr hören, weil es nicht hierher paßt. Hier sind eben User die oft was neues, schnelles wollen. Denen hätte bestimmt noch der XP gereicht als der A64 kam, ebenso der Dual Core als der Six Core kam. Und jetzt wird was Langsames auf Biegen und Brechen verteidigt, etwas was es nicht gab als AMD vor Intel lag.


Wenn dir der Llano reicht würde dir auch ein kleiner Celeron CPU-seitig reichen, der sogar meistens schneller sein dürfte und weniger Strom zieht. Was du spielst weiß ich nicht, aber mir würde er da nicht reichen

Wenn AMD jetzt bei der CPU schneller wäre und Intel bei der Grafik würdest du bestimmt trotzdem einen AMD empfehlen 8) , weil dann auf einmal die CPU-Leistung doch wichtiger wäre *buck*



Es wird Versucht die Stärken eines bestimmten Produktes, teilweise, über die Maßen hinaus als Wichtig darzustellen und die Nachteile zu negieren.

Intel hat eine gewaltige Produktpalette, alle mit iGPU ( mittlerweile ist das schon eine Art Standard bei Intel), Amd hat sie nur in bestimmten CPU.

So muss jeder ernsthaft weiter Entwickeln.;)

1. Leider hast du Recht. Seit AMD mit der CPU-Leistung so weit hinten ist ist plötzlich die GPU überwichtig.

2. Eben, das ist ein grßer Vorteil für Intel. Selbst wenn ich normalerweise eine Grafikkarte einsetze könnte ich im Notfall die iGPU verwenden, und das bei sehr schnellen CPUs. Bei AMD muß ich mich dann entscheiden für eine APU die CPU-technisch 4 Jahre hinter Intel liegt oder für einen 125W-CPU ohne iGPU
Jetzt könnte wieder jemand damit kommen das die APUs preisgünstiger ist als ein IB Quad, ist ja ok; aber es gibt eben User die bereit sind Geld für Leistung auszugeben. Und da fehlt AMD eben ein interessantes Produkt.

3. Diese Ernsthaftigkeit fehlt bei AMD. Intel kann sich bei der CPU-Weiterentwicklung Zeit lassen, das holt AMD nicht so schnell ein.
Dafür holt Intel immer mehr aus der iGPU raus, sollte Intel einen gewaltigen Schritt mit Haswell machen wird AMD noch weiter zurückgedrängt. Und da AMD nicht wirklich für den Nicht-Server-Markt entwickelt könnte es bald sein das AMD im Desktop-Markt keinen Stich mehr macht.


Kritik muß in ein einem Forum erlaubt sein. Ich schreib ja schließlich nicht das AMD einfach nur sch**** ist sondern bringe Fakten. Wer damit nicht umgehen kann könnte mir leid tun.

Zumal hier einige vergessen das AMD uns auch nix schenkt, die wollen auch Geld von uns, tun sich aber schwer einen guten Gegenwert in einigen Bereichen zu bieten.
 
Es wird schon wieder viel Dünnsch*** gepostet:

AMD Trinity hängt CPU-technisch nicht 4 Jahre hinter her sondern ist wenigsten ,5 Jahre vor INTEL !

Weil:
Trinity hat Intel FMA3 und AMD FMA4

Was hat Ivy Bridge:
NIX davon

Erst Haswell kann FMA3; ggf. dessen Nachfolger FMA4 !

Also nicht einfach behaupten AMDs APU hängt CPU-technisch Jahre hinter her ! IPC ist nicht alles ... siehe Itanium!
 
Für mich ist es kein Fortschritt wenn alles, was DERZEIT relevant ist, langsamer läuft als bei der Konkurrenz

Ist eben mein Standpunkt.
 
Ich bin sehr gespannt auf die große Desktop-Version!
Und Leute TDP hat nichts mit dem Energieverbrauch zu tun (indirekt), es ist eine Angabe für die thermische Verlustleistung.
Sprich wie der Kühler dimensioniert werden muss, beziehungsweise wieviel Abwärme er ableiten sollte.

Die TDP ist genau wie die maximale Energieaufnahme von vielen Faktoren abhängig, Spannung ist klar, Board und PSU spielen da aber auch mit rein.

Ich habe mal wo gelesen, dass ein HD6450 so 10W TDP im IDLE und 20W TDP (wohl mit Speicher - DDR3) im LOAD erzeugt.
Die TDP-Angaben bei den APUs sind ja logischerweise für CPU und iGPU, geschätzte (prügelt mich nicht gleich wieder) max TDP von 45W-CPU beim DC T oder L ist realistisch?

Was für mir nicht schlüssig ist, wieso AMD dem X4 631 (2.6GHZ ohne iGPU) , ebenso 100W TDP unterstellt wie einem A6-3650 (2,6GHz mit iGPU).
Ich habe hier zu Testzwecken einen A4-3400 gehabt, er ist ja mit 65W TDP angegeben. http://www.planet3dnow.de/vbulletin/showthread.php?t=406948

Aufgrund der Wärmeentwicklung unter Vollast (Prime+FurMark) in Verbindung mit dem niedlichen Boxed-Kühler schließe ich auf kleiner 65W TDP real.
Die TDP Angaben sind ja Maximalwert und wie schon erläutert von vielen Komponenten abhängig, auch von der Temperatur an sich. (?)

Ich denke die TDP ist im mobilem Bereich (hohe Temperaturen, verhältnismäßig schlechte PSUs) wichtiger als im Desktop.
 
Zuletzt bearbeitet:
Schön das er DIR reicht :) , aber Sorry, aber ich kann dieses "reicht mir" nicht mehr hören, weil es nicht hierher paßt. Hier sind eben User die oft was neues, schnelles wollen. Denen hätte bestimmt noch der XP gereicht als der A64 kam, ebenso der Dual Core als der Six Core kam. Und jetzt wird was Langsames auf Biegen und Brechen verteidigt, etwas was es nicht gab als AMD vor Intel lag.

Das hat damit nichts zu tun. Zur Zeit der 486er wurde jedes MHz mehr dringend benötigt, die Software hat die Mehrleistung sofort gefressen. Das hat sich eben geändert.

Diese Art "Verteidigung" ist auch eine Reaktion auf überzogene Kritik. Aktuell (weil es gerade in Mode ist) ist jedes Watt TDP angeblich schädlich und treibt die User in den finanziellen Ruin. Die wenigsten kommen auf die Idee, mal die tatsächliche "Ersparnis" auszurechnen (und mit dem Aufpreis der CPU zu vergleichen). Bei Grafikkarten ist die TDP dann wieder völlig egal und ein 1000 W-Netzteil darf es auch sein.
 
... Bei Grafikkarten ist die TDP dann wieder völlig egal und ein 1000 W-Netzteil darf es auch sein.
Wenn das tatsächlich so egal wäre, wie kommt es, dass selbst die größten aktuellen GPUs im Ruhezustand und 2D Betrieb den Strombedarf in die 10 Watt Klasse drücken?!

MFG Bobo(2012)
 
Wenn das tatsächlich so egal wäre, wie kommt es, dass selbst die größten aktuellen GPUs im Ruhezustand und 2D Betrieb den Strombedarf in die 10 Watt Klasse drücken?!

Natürlich versuchen AMD und NV, die TDP zu senken, keine Frage. Was ich sagen wollte:
- Das Thema TDP wird eh überschätzt (wurde hier ja schon oft genug erwähnt)
- Die Leute, die reflexartig mit "AMD=Stromverschwender" kommen, haben oft a) keine Ahnung, was das in der Praxis (in cent) wirklich bedeutet und achten b) bei anderen Geräten viel weniger darauf als bei der CPU, erst recht außerhalb des Computers.

Das wird natürlich durch die diversen Tests erzeugt, die nur Idle und Volllast messen. Es kann doch nicht so schwer sein, mal eine praxisnahe Messung mit einem Skript zu machen, was Webseiten aufruft, wartet, wieder was aufruft, ein paar Aktionen mit Office-Software macht etc.
 
Das hat damit nichts zu tun. Zur Zeit der 486er wurde jedes MHz mehr dringend benötigt, die Software hat die Mehrleistung sofort gefressen. Das hat sich eben geändert.
Bei Grafikkarten ist die TDP dann wieder völlig egal und ein 1000 W-Netzteil darf es auch sein.

Von 486 habe ich nichts geschrieben

Ich achte bei Grafikkarten auch auf Preis und TDP. Außerdem paßt der Vergleich nicht, denn es zählt die Leistung/Watt. Und das ist eben absolut keine Stärke aktueller AMD-CPUs
 
Natürlich versuchen AMD und NV, die TDP zu senken, keine Frage. Was ich sagen wollte ...
Warum ist das natürlich?

Die Nachfrage ist da für sehr potente Grafikchips, die im Leerlauf dennoch sparsam sind. Du hast mit deinen älteren Postings diesen Drang nach Verbesserung negiert.

MFG Bobo(2012)
 
@derDruide

Du solltest mal deine Posts durchlesen, damit du weißt was du geschrieben hast
 
Das gleiche würde ich dir übrigens auch nahe legen oder fühltest du dich bei meiner letzten Antwort in deiner Intel Ehre gekränkt?

Ich hatte lediglich ein paar Gegenbeispiele gebracht.
Der Ausnahmefall werden diese sicherlich nicht sein, denn wenn ich mich in meinem Bekanntenkreis so umschaue dann bezweifel ich das du der Regelfall bist.
Den einzigen Unterschied den meine Eltern merkten war die erste Aufruestung von deren alten Sempron 300 zum meinem alten Athlon64 X2 3800+ EE SFF.
Der später folgende Athlon II X4 605e war bereits mehr als sie brauchten und machte für sie praktisch keinen Unterschied, allerdings tat er meinen Spielen ganz gut.
Der Celeron resst mit bei dem Rechner Sicherheit nichts, denn er wird wie gesagt hin und wieder zum Spielen genutzt aber auch das eine oder andere Video umgewandelt und geschnitten, da die Kiste auch als Videorecorder fungiert. Wenn ich richtig zocken will nutze ich ohnehin einen anderen Rechner.

Wenn du allerdings unbedingt eine "was wäre wenn" Diskussion vom Zaun brechen willst...was wäre wenn die Programme Multicore tauglich sind und das optimum aus allen CPUs rausholen? Der entscheidene Punkt warum ich mich seinerzeit für den Llano entschieden hatte war die Leistung dessen GPU und eine extra Grafikkarte kam aufgrund von Platz-, Kühlungs- und Kostengründen nicht in Frage.

@LordAndrax
Zum Llano Thema......siehe oben. ;)
 
Ich weiß was ich geschrieben habe uns weiß nicht was du meinst.

Nenne mir hier einen, der weiter weg ist von "was wäre wenn". Ich bringe Tatsachen die eben nicht gerne gesehen werden.

Ich könnte mir aber denken was los wäre wenn Intel lahme und stromfressende CPUs hätte und ich hier schreiben würde das ich mir trotzdem einen kaufe ;)

"Intel Ehre" ?
Etwas Realismus könnte dir auch gut tun, nachdem ich über 10 Jahre fast ausschließlich AMD gekauft und auch bei Kollegen verbaut habe bin ich jetzt erstmals seit P4-Zeiten wieder bei Intel gelandet.
Und nicht ob euch zu ärgern, sondern weil Intel eben in allen relevanten Punkten nicht nur besser, sondern viel besser ist.
 
Du solltest mal deine Posts durchlesen, damit du weißt was du geschrieben hast

Was soll diese Korinthenkackerei? Ich habe geschrieben, dass früher einmal jedes bisschen Mehrleistung fühlbar war und heute nicht mehr, weil die Software sich sehr viel langsamer entwickelt als die Hardware. War das wirklich so schwer zu kapieren oder wolltest du nur mal Erbsen zählen? Dann solltest du deine Zeit besser mit "wichtigen" Benchmarks verbringen, wenn du dich dann besser fühlst.
.
EDIT :
.

Warum ist das natürlich?
Die Nachfrage ist da für sehr potente Grafikchips, die im Leerlauf dennoch sparsam sind. Du hast mit deinen älteren Postings diesen Drang nach Verbesserung negiert.
MFG Bobo(2012)

Das ist für mich nicht unbedingt kausal. Wenn Stromverbrauch bei Grafikkarten den Leuten so wichtig wäre, hätten zu bestimmten Zeiten gar keine Nvidia's verkauft werden dürfen und der Intel P4 auch nicht.

Viel interessanter ist doch dieses alte Spiel: Ein paar "übliche" jammern (wie immer) über den untragbaren Stromverbrauch. Irgendwann erläutert jemand, dass das nur für Volllast gilt und was das denn in Euro überhaupt ausmacht. Dann herrscht eisernes Schweigen, keine Reaktion auf den Post. (warum nur?) Ein paar Seiten später kommt dann der nächste, der sich über den exorbitant hohen und nicht tragbaren Stromverbrauch beklagt. :]

Ich habe ja auch gesagt, dass ich die Redakteure in der Verantwortung sehe, ihre tollen Messungen besser zu erklären, die machen es sich halt genauso einfach wie manche Leser.
 
Zuletzt bearbeitet:
Wer über 486 schreibt und es im nächsten Moment vergißt sollte sich nicht so aufführen...

Ja, ich weiß, du würdest natürlich keinen einzigen Benchmark erwähnen in dem AMD Intel schlägt.

Warum verträgt hier keiner die Wahrheit?

Ich bin hier raus, euch könnte die Mehrleistung der Intel-CPUs in den Hintern treten und ihr würdest sie nicht bemerken
 
Wer über 486 schreibt und es im nächsten Moment vergißt sollte sich nicht so aufführen...
Ich geb's auf, vergiss es einfach.

Ja, ich weiß, du würdest natürlich keinen einzigen Benchmark erwähnen in dem AMD Intel schlägt. Warum verträgt hier keiner die Wahrheit?
Nöö, ich würde mich nur nicht so aus dem Fenster lehnen mit dem Faildozer und dem epic mega fail und dem (vorsicht Killer-Argument) ach so hohen Stromverbrauch in Situationen, die nicht eintreten und die selbst wenn kaum was ausmachen würden.

Ich bin hier raus, euch könnte die Mehrleistung der Intel-CPUs in den Hintern treten und ihr würdest sie nicht bemerken

Richtig, da der Tritt nicht fühlbar ist merkt man ihn nicht.
 
Zurück
Oben Unten