AMD Bristol Ridge AM4 DDR4 Excavator Core

AMD hätte sich das ersparen können indem sie BR einfach samt AM4 schon vorgestellt hätten.
 
Hallo,

ich bin neugierig geworden durch das Fazit zum c't-Test. Wenn ich aber das Fazit so lese, dann finde ich Einiges an der Kritik berechtigt. Es ist die 6.?-APU-Version der Reihe und es stagniert. Nur kleine Schritte gegenüber der Kaveri-Generation, die ja auch schon 2 Jahre alt ist. Selbst jetzt ist eine CPU+GPU-Kombo im gleichen Preissegment immer noch schneller und meist mehr als nur ein bißchen. Ich finde, AMD hängt zwischen den "Welten", für den Office-Rechner überdimensioniert und für alles andere doch zu schwach.

Warum ist Volllast von GPU und CPU nicht möglich und unrealistisch? Doch nicht zum Spielen gemacht *suspect*??? Das ist nämlich die größte Schwäche und die wird wohl auch bleiben, die theoretischen maximalen Taktraten gelten nicht unter (Spiele-)Last. Entweder taktet die CPU oder GPU herunter, je nachdem welcher Teil größer belastet ist. Bleibt für mich der größte Kritik-Punkt. Im wichtigsten Szenario schwächelt die Performance besonders.

Das könnte auch die zu hohe Leistungsaufnahme erklären. Analog zu den Kaveris und APM. Durch aggressives Hochtakten mit deutlich erhöhter Leistungsaufnahme wird ein kleines Leistungsplus erkauft. Mit dem richtigen Kühler, einem toleranten BIOS und gut gekühlten Spannungswandlern bleibt dieser Zustand eventuell lange anstehen.

PCIe-Lanes? Versteh ich oft auch nicht, zumal ja immer noch oft genug gebencht wird und nur in Extremszenarien eine 8x-Anbindung ausbremst. Zumal das Board ja eine PCIe-Anbindung von 16x erlaubt (laut Geizhals). Vielleicht ja auch noch per BIOS-Update behebbar. Aber ein geliebter Kritikpunkt, etwas bemängelt, was angeblich zu schwach, zu wenig ist, man aber nie braucht. Warum nur 14x USB-Ports am Rechner ???:]

Was gar nicht geht? Idle-Verbrauch mit 19W kritisieren? Da wäre nur dann mehr drin, wenn man ein Netzteil findet, das auch bei 20 W Leistung über 90%-Wirkungsgrad bietet und da liegt die größere Herausforderung. Man muss ja auch bedenken, dass dann ja auch schon der CPU-Lüfter 1 W zieht ... oder die HDD/SSD ... oder der RAM-Riegel. Da ist man glaub schon am technischen Limit, zumindest was sinnvoll technisch machbar ist. Oder hat c't die APU einzeln vermessen? Aber 19 W Idle für die APU bekommt man auch nicht hin, selbst ohne CnQ...

Insgesamt bleibt es ein Nischenprodukt, dem in Europa der Markt fehlt. Ich würde echt gerne sehen, ob FIFA17 in FullHD läuft (wie AMD behauptet) und vorallem wie...

Gruß
 
Ja was sonst soll das denn gewesen sein im September?
Ich wollte eigentlich veröffentlicht schreiben. Damit man ihn auch kaufen kann. Kann man, ja, aber eben nur über CSL und mit vorgegebenem Board.
 
Cyrus meint als Einzel-Komponenten, nicht als ganzen PC.
 
Warum ist Volllast von GPU und CPU nicht möglich und unrealistisch?

Weil c't mit Prime und Furmark gleichzeitig testet. Diese Tests erzeugen einzeln schon eine unrealistische Last, in Kombination ist das schwachsinnig. Echte Spiele erzeugen keine solche Last. Der Autor schreibt auch selbst, dass es nicht praxisrelevant ist. Die Frage ist nur, warum testet er das dann?

Und warum jammert die c't seit Jahren in jedem Artikel erstmal lang und breit über Bulldozer, während sie jede Weiterentwicklung verschweigt? Das Wort "Excavator" kommt im Artikel nicht vor. ???
 
Cyrus meint als Einzel-Komponenten, nicht als ganzen PC.
Schon klar was er meint. Daraus wird aber immer noch kein Paperlaunch, sondern ein Launch im OEM Channel. Der Retail Channel soll mit Bristol Ridge überhaupt nicht bedient werden. Auch hat deswegen AMD nicht versäumt die AM4 Plattform vorzustellen. Die ganze Argumentation ist einfach für die Katz.
 
@Druide: Kannst du uns noch den Name des Herrn Autors mitteilen? Alternativ das Kürzel am Ende des Texts.

In einem Punkt muss ich Wu134 recht geben. Bei den Desktop-APUs hat sich in den letzten Jahren bezüglich Spieleleistung nicht sehr viel getan und teils ist ein Celeron + diskrete GPU eben einfach immer noch leistungsfähiger, obwohls nicht viel mehr kostet.
Da kommt bei Bristol Ridge auch die Ausrichtung auf den Notebook-Markt mit maximal 35 W TDP ins Spiel.

Was mich mal interessiert hätte: Wie schlägt sich denn die DDR4-Plattform AM4 im Vergleich mit dem DDR3-Vorgänger FM2+?
Ich habe mich mit DDR4 nie beschäftigt, aber ich erwarte doch einiges mehr an Speicherbandbreite bei etwas höheren Latenzen. Das sollte doch bei Spielen für ein nettes Leistungsplus sorgen.
 
Der Autor ist Christof Windeck ( ciw@ct.de ).

Stell dir mal vor, die APU würde bei einer unsinnigen Kombination wie Prime+Furmark bei CPU+GPU den vollen Takt halten! Das würde doch bedeuten, dass AMD den Takt bei "echter" Software (gemeint ist produktive Software, kein reiner Stresstest) viel zu niedrig angesetzt hätte und dadurch alle Anwender abstrafen würde, nur damit Herr Windeck Prime+Furmark gleichzeitig testen kann! Wie sinnvoll wäre das?

Was mich mal interessiert hätte: Wie schlägt sich denn die DDR4-Plattform AM4 im Vergleich mit dem DDR3-Vorgänger FM2+?

Das ist auch so ein Punkt. Im Artikel vergleicht er DDR3-2133 mit DDR4-2133, warum auch immer.
Zum Test der AM4-Plattform hätte mindestens DDR4-2400 gehört. Wenn man es reell angehen will, muss man auf richtige Boards warten (keine Billig-Teile) und gucken, welcher Speicher dort validiert wurde, bevor man ein Urteil über AM4 fällt.

PS: Dem Celeron fehlen die vier Kerne und er wird häufig bei den Features beschnitten.
 
Zuletzt bearbeitet:
Hallo,

@derDruide: Ich betreibe eine APU auch zum Spielen und mich stört, dass je nach Last entweder die CPU oder GPU runtertakten. Wenn die APU ihren vollen Takt halten könnte, wären einfach mal 20% mehr Leistung in Spielen drin. Die CPU-Leistung ist ja schon (immer noch) kaum begeisterungsfähig, aber wenn dann in Spielen der Takt von 3,7 Ghz. Grundtakt (nicht Turbo) auf 3,0 Ghz. (oder sogar mehr) sinkt, ist das schon lahm. Da kann dann leider auch ein kastrierter Celeron mithalten. Bei den früheren Tests der APUs wurde auch ein Schmalspur-Celeron plus diskrete Einsteigerkarte (im gleichen Preisrahmen) mit getestet und hatte deutlichen Vorsprung vor der APU. Und eine APU hat mittlerweile auch Module und keine 4 einzelne Kerne, glaub irgendeine Crysis-Version hat dann sogar den Start verweigert.

Ich bezweifle auch, dass DDR4-Speicher den Durchbruch bringt. Mehr Bandbreite bedeutet, dass die GPU mehr rechnen kann (bei DDR3 liefen fast alle GPUs im Bandbreitenlimit). Dadurch steigt ihre Leistung und ihre Leistungsaufnahme. Dann wird wieder aber ein Takt (CPU oder GPU, je nachdem wer weniger zu tun hat) gesenkt und die Leistung sinkt wieder, weil die Leistungsaufnahme am Limit ist. Sie wird sich wahrscheinlich wieder selbst bremsen. Das würde ich dem A12-9800 sogar unterstellen. 65W TDP ggü. 1108 Mhz. GPU-Takt heißt für mich, dass nur sehr wenig Luft ist oder der Prozess doch einen deutlichen Durchbruch geschafft hat. 300 Mhz. mehr Takt bei 50% weniger TDP (ggü. 7870K) ist eigentlich eine deutliche Ansage ggü. vorherigen Modellen. Aber ich würde mich freuen, wenn ich da falsch liege.

Gruß
 
Unter hoher Last wird immer einer von beiden etwas runtertakten, das ist auch sinnvoll, sonst würde viel Takt verschwendet werden (siehe oben).
Guck doch besser, ob die von dir genutzten Spiele bei einer sinnvollen Auflösung und sinnvollen Details (kein x-fach AA-Overkill) laufen oder nicht.

Mit den Kernen in Spielen ist es umgekehrt: moderne Spiele verweigern auf Dual Cores (wie dem Celeron) den Start, auf Vierkernern laufen sie.
Bristol Ridge gilt als Quadcore, was er ja auch weitgehend ist.

Der 3DMark Firestrike läuft mit DDR4-2400 schonmal 11 % schneller als auf einem gleich getakteten Kaveri, obwohl Bristol Ridge mit 65 W auskommen muss. Mit schnellerem RAM wird es wohl noch besser aussehen. Mal gucken, ob die TDP bei Raven Ridge mit > 700 Shadern und GCN4 wieder auf 95 W steigt, ich fände das OK.
 
Hallo,

es sinkt auch die Spieleleistung, es taktet nicht aus Langeweile runter. Sie muss auch runtertakten, da ansonsten die Leistungsaufnahme zu hoch ist. Hab das mal mitgeloggt und die Leistungsaufnahme aufgeschrieben. Unabhängig von den Grafikeinstellungen (bin auf 1024x768 runter) lief Anno 1404 nur mit 2,4 bis 3,0 Ghz. CPU-Takt und die GPU mit 720 Mhz, beim kompletten Reimzoomen stiegt der CPU-Takt über 3 Ghz., weil die GPU auf 644 Mhz. runtergetaktet hat (wenig Grafikdarstellung, die CPU bekommt wieder mehr vom Leistungsanteil ab). Mit einer APU musst du eh bei Auflösung und Details geizen und extreme Settings wie hohe AA-Stufen oder Details verbieten sich von selbst, da die APU schlicht weg überfordert ist.

Ein 3DMark ist kein Test, sondern ein tolles Werbevideo. Ich würde mich nur auf reale Spieletests verlassen. Und zuviel Spekulation braucht es nicht, einfach die Leistungsaufnahme von ähnlichen AMD-Grafikchips nehmen und runterrechnen. Selbst mit 1000 Shadern reißt du wenig, weil spätestens dann wieder Bandbreite und "freie" Leistung fehlt, um diese GPU auszulasten.

Gruß
 
Die Alternative wäre, beides von vornherein viel zu niedrig zu takten, für den Fall, das mal hohe Last auf beidem anliegt.
Das macht doch wenig Sinn.

Der Punkt ist, dass der Autor dieses Verhalten mit einem völlig unrealistischen Stresstest gemessen hat, von dem er selbst schreibt, dass so eine Last in der Praxis nicht vorkommt.

Und zuviel Spekulation braucht es nicht, einfach die Leistungsaufnahme von ähnlichen AMD-Grafikchips nehmen und runterrechnen.
So einfach ist das nicht, die Grafikkarte (deren Wert du übernehmen willst) besteht ja nicht nur aus dem Chip.


======
An alle mal eine andere Frage: Ich suche ein günstiges Notebook für einen Betrieb, der dafür nur 400 € ausgeben will. An dem Gerät wird ca. 2h pro Tag gearbeitet (mit LibreOffice), trotzdem will ich natürlich das Beste für das Geld herausholen.
Lohnt sich ein günstiges HP mit Bristol Ridge in dem Preisbereich, wenn es ein mattes Display hat?
Oder sind Display und Tastatur in dieser Preisklasse so schlecht (von der Qualität her), dass man mit einem gebrauchten Thinkpad besser fährt?
 
Zuletzt bearbeitet:
Hallo,
es sinkt auch die Spieleleistung, es taktet nicht aus Langeweile runter. Sie muss auch runtertakten, da ansonsten die Leistungsaufnahme zu hoch ist. Hab das mal mitgeloggt und die Leistungsaufnahme aufgeschrieben. Unabhängig von den Grafikeinstellungen (bin auf 1024x768 runter) lief Anno 1404 nur mit 2,4 bis 3,0 Ghz. CPU-Takt und die GPU mit 720 Mhz, beim kompletten Reimzoomen stiegt der CPU-Takt über 3 Ghz., weil die GPU auf 644 Mhz. runtergetaktet hat (wenig Grafikdarstellung, die CPU bekommt wieder mehr vom Leistungsanteil ab). Mit einer APU musst du eh bei Auflösung und Details geizen und extreme Settings wie hohe AA-Stufen oder Details verbieten sich von selbst, da die APU schlicht weg überfordert ist.
Ich muss Wu134 leider vollkommen recht geben, gerade bei Notebooks sind APUs aktuell vollkommen spieleunfähig. Selbst eine dedizierte lowend ded. GPU bietet da einen echten Mehrwert, auch wenn hier immer alle darüber motzen. Selbst eine R7 M440, welche der iGP der APU mit ihren nur 320 Shader bei 1.120 MHz Taktrate und 2000 MHz DDR3-Ramtakt, unterlegen sein sollte bietet die einzige Spieletaugliche Option im Bundle.

Hier ein paar Beispiele von unserem Casie030 beim AMD A8-6410 mit ner ded. R5 M230:

A8 iGP only = CPU gedrossel auf 1,4 GHz:

avp_d3d11_benchmark_2zosa3.jpg


re6_2016_07_11_22_47_4wsuw.jpg


A8 + ded. GPU = CPU ungedrosselt:

avp_d3d11_benchmark_24is6r.jpg


re6_2016_07_11_22_20_73sc0.jpg



Oder um bei Bristol Ridge & Desktop zu bleiben, auch hier wird bei Grafiklast die CPU auf 1400 MHz gedrosselt
und somit das potential der APU, selbst im Desktop, nicht ausgenutzt.

Es muss doch irgendwie möglich sein das TDP Limit aufzuheben und die volle Leistung sowohl aus CPU, als auch aus iGP auszuschöpfen. ???
Ich sehe auch nicht, wo hier Takt verschwendet werden sollte, wenn er doch händeringend ingame sowohl bei der CPU, als auch bei der iGP benötigt wird!

Bei den aktuellen 15W Konfigurationen von Notebooks bietet die eigentlich relativ spieletaugliche iGPU aufgrund des 15W Limits letztlich leider nur was bei OpenCL-Berechnungen, hier kann sie ihre Stärken voll ausleben...
 
Zuletzt bearbeitet:
Ähm, ein Beema(!) mit 15 W TDP in einem Notebook(!) als Spiele-Maschine?

Der HP OEM-PC aus dem Video nutzt mit Single Channel RAM (nur ein Speichersockel belegt), der kleineren APU und mechanischer Festplatte auch nicht gerade die Möglichkeiten der Plattform aus.

Es muss doch irgendwie möglich sein das TDP Limit aufzuheben
Ohne die physikalischen Gesetze aufzuheben wohl nicht. Sicher gibt es bei Spielen eine Aufteilung zwischen CPU- und GPU-Leistung, aber ich gucke, statt auf Taktraten zu schielen, nur ob meine gewünschten Spiele laufen. Ich persönlich finde die APU immer noch ein rundes Produkt, in den letzten Jahren hat sich viel getan, und mit Raven Ridge kommt ein ganz neues Level (sowohl bei der Energieeffizienz als auch beim RAM-Durchsatz).
 
Zuletzt bearbeitet:
Schon klar was er meint. Daraus wird aber immer noch kein Paperlaunch, sondern ein Launch im OEM Channel. Der Retail Channel soll mit Bristol Ridge überhaupt nicht bedient werden. Auch hat deswegen AMD nicht versäumt die AM4 Plattform vorzustellen. Die ganze Argumentation ist einfach für die Katz.
Aber BR soll doch für diesen Markt kommen!? Mir ist auch klar, dass diese Verzögerung für den Retailmarkt wohl ein Gesschenk an die OEMs ist. Aber bezweifle ich, dass sich dies so wirksam auszahlt. Immerhin wird BR nicht jünger und je früher man diesen verbauen könnte (ohne fremde Vorgaben), desto besser.

Ich muss Wu134 leider vollkommen recht geben, gerade bei Notebooks sind APUs aktuell vollkommen spieleunfähig. Selbst eine dedizierte lowend ded. GPU bietet da einen echten Mehrwert, auch wenn hier immer alle darüber motzen. Selbst eine R7 M440, welche der iGP der APU mit ihren nur 320 Shader bei 1.120 MHz Taktrate und 2000 MHz DDR3-Ramtakt, unterlegen sein sollte bietet die einzige Spieletaugliche Option im Bundle.

Hier ein paar Beispiele von unserem Casie030 beim AMD A8-6410 mit ner ded. R5 M230:
Deswegen ist der wohl nochmal kleinere Polaris 12 ganz gut für diese Segment. Zu Kabini & Beema muss man aber sagen, dass, im Gegensatz zu Kaveri, Carrizo & Bristol Ridge, das Powerbudget von CPU und GPU voll ausgeschöpft werden kann.
 
Gerade beim Einsatz der IGP sehe ich ehrlich gesagt herzlich wenig Probleme an der Absenkung des CPU Taktes denn so bleibt mehr vom TDP Spielraum für die Taktung der GPU übrig und die dürfte in dem Fall idR. ohnehin eher zum limitierenden Faktor werden. Nutzt man sie nicht weil man auf eine deutlich schnellere, zusätzliche Grafikkarte setzt dann schaltet man die IGP ab und die CPU kann den ganzen Spielraum für sich beanspruchen.
 
Ähm, ein Beema(!) mit 15 W TDP in einem Notebook(!) als Spiele-Maschine?
Jaein, für anspruchslose Games ja! Es ist nur ein Beispiel. Selbiges gilt auch ja auch für Carrizo-L & Bristol Ridge.
Die IGP des A10-9600P beispielsweise wäre so ziemlich gleich auf mit der (oft im Bundle verbauten) R7 M440, die R7 M440 wäre somit vollkommen überflüssig, wie auch oft hier dementsprechend über derartig unsinnig erscheinende ded. GPUs hergezogen wird.
Nutzt nur alles nichts, wenn ich mit der IGP nichts spielen kann, weil die CPU bei 1400 MHz limitiert, ausser vllt. Browser-Games,
das kann ich aber auch mit jeder popeligen Intel iGP. Der Mehrwert der potenten AMD IGP ist so schlicht nicht gegeben, daran gibt's nichts zu diskutieren, und das ist traurig!
Der HP OEM-PC aus dem Video nutzt mit Single Channel RAM (nur ein Speichersockel belegt), der kleineren APU und mechanischer Festplatte auch nicht gerade die Möglichkeiten der Plattform aus.
Hättest du das Video zu ende geschaut, hättest du gesehen, dass sie das Scenario auch mit Dual Channel Ram durchgespielt haben, kleine APU, mechanische Festplatte - bla bla - sorry, Erbsenzählerei, darum geht es hier nicht!
Ohne die physikalischen Gesetze aufzuheben wohl nicht. Sicher gibt es bei Spielen eine Aufteilung zwischen CPU- und GPU-Leistung, aber ich gucke, statt auf Taktraten zu schielen, nur ob meine gewünschten Spiele laufen.
Von welchen physikalischen Gesetzen sprichst du da im Desktopbereich? Mit meinetwegen 145W für CPU & IGP dürfte da so einiges drin sein.
Warum lässt man nicht den User entscheiden, wieviel die CPU / GPU Kombi verbrauchen darf? APM aus / HPC-Mode an?
Oder limitiert hier tatsächlich die kombinierte Hitzeentwicklung, wenn CPU & IGP gleichzeitig auf voller Leistung laufen würden?
Sorry - dann ist das ein echt bemitleidenswertes Design, könnte viel können, kann es aber eben nicht - schade :[
Aber hey, ein Piledriver schafft 5 GHz 220W - congratulations! :]
 
Zuletzt bearbeitet:
Hallo,

es würde wohl helfen, wenn der A12-9800 95 W "verballern" dürfte und die VCore mal deutlich tiefer liegen würde. Als "AMD-Krankheit" liegt ja immer eine hohe VCore an, die bei fast jedem Test problemlos um 0,2 V gesenkt werden kann. Wenn man das zusammen nutzen könnte, würde wohl ein großer Leistungsgewinn "rausspringen". Wenn ich da an Intel denke, wie niedrig die im Mobil-Sektor ihre VCore fahren, sollte sich AMD da mal eine Scheibe abschneiden.

Ich will ja nicht alles schlecht reden, aber AMD verschenkt da viel Potential, auch bei bestehenden Produkten. Die eigenen Produkte sind in dem einzigen Bereich, in dem sie gegen Intel deutlich punkten können, "eingeschnürt" und können diesen Punkt kaum noch nutzen, Intel hat grafisch aufgeholt und profitiert immer noch vom starken CPU-Kern.

Gruß
 
Gerade beim Einsatz der IGP sehe ich ehrlich gesagt herzlich wenig Probleme an der Absenkung des CPU Taktes denn so bleibt mehr vom TDP Spielraum für die Taktung der GPU übrig und die dürfte in dem Fall idR. ohnehin eher zum limitierenden Faktor werden. Nutzt man sie nicht weil man auf eine deutlich schnellere, zusätzliche Grafikkarte setzt dann schaltet man die IGP ab und die CPU kann den ganzen Spielraum für sich beanspruchen.
Genau darauf läuft es hinaus, APU gekauft und IGP deaktiviert - weil bei IGP Nutzung die CPU zur Krücke wird.
Wir wärs statt einer Absenkung des CPU Taktes um mehr vom TDP Spielraum für die Taktung der GPU zur Verfügung zu haben, wenn man einfach, wie bei jeder stinknormalen "K"-CPU dem Anwender die Wahl ließe, wieviel Spannung und Takt er verbraten möchte.
Was soll dieses gedrossel zu Gunsten des TDP Spielraums?
Im Mobilsektor - OK, da das Kühlkonzept nicht mehr her gibt. Aber beim Desktop, ernsthaft? Muss ich nicht verstehen...
 
Hallo,

hast du schon mal eine APU selbst genutzt? Du kannst eine APU XY nehmen mit 95 W TDP, mit Prime auf allen Kernen schöpft sie den Takt und ihre TDP aus, mit Furmark ist auch die TDP ausgeschöpft, wenn die GPU voll belastet wird. Während einem Spiel ist es ein ständiger "Kampf", wer mehr abbekommt, um höher takten zu können. Im Mobilsektor ist es ähnlich, auch da müssen sich CPU und GPU die TDP teilen. Ist ja prinzipiell gut, dass derjenige, der mehr Arbeit hat, mehr vom TDP-Kuchen abbekommt. Allerdings stehen sie sich bei Spielen eher im Weg, weil jeder für sich allein schon alles brauchen könnte.

Gruß
 
Falls du mich meinst: ich habe eine APU unter dem Schreibtisch und bin zufrieden damit. Die Taktaufteilung zwischen CPU und GPU ist doch sinnvoll und notwendig, sonst müsstest du beide Komponenten künstlich bei 2 GHz festtackern, nur damit sie parallel unter Volllast laufen könnten. Das macht doch keinen Sinn.

Eine hohe TDP scheint beim Marketing schwierig zu sein, der fragwürdige 5 GHz Centurion ist ein gutes Beispiel.

Bei Bristol Ridge kommt hinzu, dass das Design klar auf kleine TDPs optimiert ist! Bei den Desktop-Modellen war noch etwas Steigerung drin, aber nicht sehr viel in Anbetracht der TDP-Steigerung. Dann hätte ein mögliches 95 W-Modell für den zusätzlichen Verbrauch wohl zu wenig Mehrleistung geboten. Bei Raven Ridge kann das anders sein, das wird ja ein komplett neues Design.
 
Zuletzt bearbeitet:
hast du schon mal eine APU selbst genutzt? Du kannst eine APU XY nehmen mit 95 W TDP, mit Prime auf allen Kernen schöpft sie den Takt und ihre TDP aus, mit Furmark ist auch die TDP ausgeschöpft, wenn die GPU voll belastet wird. Während einem Spiel ist es ein ständiger "Kampf", wer mehr abbekommt, um höher takten zu können. Im Mobilsektor ist es ähnlich, auch da müssen sich CPU und GPU die TDP teilen.
Wobei die GPU Priorität hat.
 
@derDruide
ne ich dachte eher an Marius87. Einfach den Anwender die Leistung erhöhen zu lassen ist ja keine Lösung und mehr geht ja meistens nicht. Die GPU ist ja selbstbremsend, je mehr TDP sie beansprucht, desto weniger bleibt für die CPU, die dann weniger Daten anliefert und somit die GPU wieder bremst. Eigentlich clever...

Das Problem bei den Centurions waren die 220 W TDP. Mit Luft nicht zu kühlen, benötigte wieder eigene Boards und war dafür immer noch zu teuer und konnte doch nichts reißen. Aber bis 95 oder sogar 125 W ist doch gut akzeptiert. Ein breiter Markt an Kühlern, die Boards sind auch schon jahrelang für diese Belastung gebaut usw. Man muss halt auch Leistung liefern, wenn man soviel Leistung fordert. Beim i7-6900K jammert ja auch keiner über die 140W TDP-Einstufung.

Gruß
 
Zurück
Oben Unten