App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD Bristol Ridge AM4 DDR4 Excavator Core
- Ersteller Atombossler
- Erstellt am
cyrusNGC_224
Grand Admiral Special
- Mitglied seit
- 01.05.2014
- Beiträge
- 5.924
- Renomée
- 117
- Aktuelle Projekte
- POGS, Asteroids, Milkyway, SETI, Einstein, Enigma, Constellation, Cosmology
- Lieblingsprojekt
- POGS, Asteroids, Milkyway
- Meine Systeme
- X6 PII 1090T, A10-7850K, 6x Athlon 5350, i7-3632QM, C2D 6400, AMD X4 PII 810, 6x Odroid U3
- BOINC-Statistiken
AMD hätte sich das ersparen können indem sie BR einfach samt AM4 schon vorgestellt hätten.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Ja was sonst soll das denn gewesen sein im September?
https://www.pcper.com/news/Motherbo...l-Ridge-Processors-And-Zen-Ready-AM4-Platform
Vorgestellt im Juni auf der Computex:
http://www.planet3dnow.de/cms/24116-amd-stellt-apus-der-7-generation-bristol-ridge-vor/
Im September in Deutschland zu kaufen gewesen:
http://www.planet3dnow.de/cms/26629-komplett-pcs-mit-amd-bristol-ridge-in-deutschland-verfuegbar/
https://www.pcper.com/news/Motherbo...l-Ridge-Processors-And-Zen-Ready-AM4-Platform
Vorgestellt im Juni auf der Computex:
http://www.planet3dnow.de/cms/24116-amd-stellt-apus-der-7-generation-bristol-ridge-vor/
Im September in Deutschland zu kaufen gewesen:
http://www.planet3dnow.de/cms/26629-komplett-pcs-mit-amd-bristol-ridge-in-deutschland-verfuegbar/
Wu134
Grand Admiral Special
- Mitglied seit
- 24.04.2006
- Beiträge
- 2.169
- Renomée
- 29
- Standort
- bei Ulm
- Mein Laptop
- Lenovo U41-70
- Prozessor
- AMD Athlon X4 860K
- Mainboard
- Gigabyte GA-F2A78M-DS2
- Kühlung
- Arctic Freezer Extreme
- Speicher
- G.Skill Ripjaws 2 x 4 GB DDR3-2133
- Grafikprozessor
- AMD RX460 2 GB
- Display
- 19" BenQ FP91GP 1280x1024
- SSD
- Crucial M500 120 GB
- HDD
- Samsung F2 500 GB
- Optisches Laufwerk
- Samsung SH-S183A
- Soundkarte
- onboard Realtek HD
- Gehäuse
- Coolermaster Centurion 5 + Silentmaxx Dämmung
- Netzteil
- BeQuiet L7 300W
- Betriebssystem
- Windows 10 x64
- Webbrowser
- Firefox
- Verschiedenes
- Idle 44 W, Prime95 133 W, Spiele ca. 170 W
Hallo,
ich bin neugierig geworden durch das Fazit zum c't-Test. Wenn ich aber das Fazit so lese, dann finde ich Einiges an der Kritik berechtigt. Es ist die 6.?-APU-Version der Reihe und es stagniert. Nur kleine Schritte gegenüber der Kaveri-Generation, die ja auch schon 2 Jahre alt ist. Selbst jetzt ist eine CPU+GPU-Kombo im gleichen Preissegment immer noch schneller und meist mehr als nur ein bißchen. Ich finde, AMD hängt zwischen den "Welten", für den Office-Rechner überdimensioniert und für alles andere doch zu schwach.
Warum ist Volllast von GPU und CPU nicht möglich und unrealistisch? Doch nicht zum Spielen gemacht Das ist nämlich die größte Schwäche und die wird wohl auch bleiben, die theoretischen maximalen Taktraten gelten nicht unter (Spiele-)Last. Entweder taktet die CPU oder GPU herunter, je nachdem welcher Teil größer belastet ist. Bleibt für mich der größte Kritik-Punkt. Im wichtigsten Szenario schwächelt die Performance besonders.
Das könnte auch die zu hohe Leistungsaufnahme erklären. Analog zu den Kaveris und APM. Durch aggressives Hochtakten mit deutlich erhöhter Leistungsaufnahme wird ein kleines Leistungsplus erkauft. Mit dem richtigen Kühler, einem toleranten BIOS und gut gekühlten Spannungswandlern bleibt dieser Zustand eventuell lange anstehen.
PCIe-Lanes? Versteh ich oft auch nicht, zumal ja immer noch oft genug gebencht wird und nur in Extremszenarien eine 8x-Anbindung ausbremst. Zumal das Board ja eine PCIe-Anbindung von 16x erlaubt (laut Geizhals). Vielleicht ja auch noch per BIOS-Update behebbar. Aber ein geliebter Kritikpunkt, etwas bemängelt, was angeblich zu schwach, zu wenig ist, man aber nie braucht. Warum nur 14x USB-Ports am Rechner
Was gar nicht geht? Idle-Verbrauch mit 19W kritisieren? Da wäre nur dann mehr drin, wenn man ein Netzteil findet, das auch bei 20 W Leistung über 90%-Wirkungsgrad bietet und da liegt die größere Herausforderung. Man muss ja auch bedenken, dass dann ja auch schon der CPU-Lüfter 1 W zieht ... oder die HDD/SSD ... oder der RAM-Riegel. Da ist man glaub schon am technischen Limit, zumindest was sinnvoll technisch machbar ist. Oder hat c't die APU einzeln vermessen? Aber 19 W Idle für die APU bekommt man auch nicht hin, selbst ohne CnQ...
Insgesamt bleibt es ein Nischenprodukt, dem in Europa der Markt fehlt. Ich würde echt gerne sehen, ob FIFA17 in FullHD läuft (wie AMD behauptet) und vorallem wie...
Gruß
ich bin neugierig geworden durch das Fazit zum c't-Test. Wenn ich aber das Fazit so lese, dann finde ich Einiges an der Kritik berechtigt. Es ist die 6.?-APU-Version der Reihe und es stagniert. Nur kleine Schritte gegenüber der Kaveri-Generation, die ja auch schon 2 Jahre alt ist. Selbst jetzt ist eine CPU+GPU-Kombo im gleichen Preissegment immer noch schneller und meist mehr als nur ein bißchen. Ich finde, AMD hängt zwischen den "Welten", für den Office-Rechner überdimensioniert und für alles andere doch zu schwach.
Warum ist Volllast von GPU und CPU nicht möglich und unrealistisch? Doch nicht zum Spielen gemacht Das ist nämlich die größte Schwäche und die wird wohl auch bleiben, die theoretischen maximalen Taktraten gelten nicht unter (Spiele-)Last. Entweder taktet die CPU oder GPU herunter, je nachdem welcher Teil größer belastet ist. Bleibt für mich der größte Kritik-Punkt. Im wichtigsten Szenario schwächelt die Performance besonders.
Das könnte auch die zu hohe Leistungsaufnahme erklären. Analog zu den Kaveris und APM. Durch aggressives Hochtakten mit deutlich erhöhter Leistungsaufnahme wird ein kleines Leistungsplus erkauft. Mit dem richtigen Kühler, einem toleranten BIOS und gut gekühlten Spannungswandlern bleibt dieser Zustand eventuell lange anstehen.
PCIe-Lanes? Versteh ich oft auch nicht, zumal ja immer noch oft genug gebencht wird und nur in Extremszenarien eine 8x-Anbindung ausbremst. Zumal das Board ja eine PCIe-Anbindung von 16x erlaubt (laut Geizhals). Vielleicht ja auch noch per BIOS-Update behebbar. Aber ein geliebter Kritikpunkt, etwas bemängelt, was angeblich zu schwach, zu wenig ist, man aber nie braucht. Warum nur 14x USB-Ports am Rechner
Was gar nicht geht? Idle-Verbrauch mit 19W kritisieren? Da wäre nur dann mehr drin, wenn man ein Netzteil findet, das auch bei 20 W Leistung über 90%-Wirkungsgrad bietet und da liegt die größere Herausforderung. Man muss ja auch bedenken, dass dann ja auch schon der CPU-Lüfter 1 W zieht ... oder die HDD/SSD ... oder der RAM-Riegel. Da ist man glaub schon am technischen Limit, zumindest was sinnvoll technisch machbar ist. Oder hat c't die APU einzeln vermessen? Aber 19 W Idle für die APU bekommt man auch nicht hin, selbst ohne CnQ...
Insgesamt bleibt es ein Nischenprodukt, dem in Europa der Markt fehlt. Ich würde echt gerne sehen, ob FIFA17 in FullHD läuft (wie AMD behauptet) und vorallem wie...
Gruß
cyrusNGC_224
Grand Admiral Special
- Mitglied seit
- 01.05.2014
- Beiträge
- 5.924
- Renomée
- 117
- Aktuelle Projekte
- POGS, Asteroids, Milkyway, SETI, Einstein, Enigma, Constellation, Cosmology
- Lieblingsprojekt
- POGS, Asteroids, Milkyway
- Meine Systeme
- X6 PII 1090T, A10-7850K, 6x Athlon 5350, i7-3632QM, C2D 6400, AMD X4 PII 810, 6x Odroid U3
- BOINC-Statistiken
Ich wollte eigentlich veröffentlicht schreiben. Damit man ihn auch kaufen kann. Kann man, ja, aber eben nur über CSL und mit vorgegebenem Board.Ja was sonst soll das denn gewesen sein im September?
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Wieso nur über CSL?
https://www.computeruniverse.net/pr...n=cpo&utm_medium=artikel&utm_content=90678307
Cyberport und BIT-Superstore bieten ebenfalls Systeme an.
https://www.computeruniverse.net/pr...n=cpo&utm_medium=artikel&utm_content=90678307
Cyberport und BIT-Superstore bieten ebenfalls Systeme an.
Krümel
Grand Admiral Special
- Mitglied seit
- 19.08.2003
- Beiträge
- 5.414
- Renomée
- 530
- Standort
- Schleswig-Holstein
- Aktuelle Projekte
- Rosetta, WCG, Einstein
- Lieblingsprojekt
- POEM *schnüff* R.I.P.
- Meine Systeme
- Ryzen 5 Pro 4650G @ 3,2 GHz @ 0,925 Volt in einem Deskmini X300
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- HP - 14-dk0355ng (R5 3500U 14 Zoll)
- Prozessor
- AMD Ryzen R9 7900x3D
- Mainboard
- Asus TUF B650-M Plus WiFi
- Kühlung
- Noctua NH-U12S
- Speicher
- 2 x 16 GB Corsair Vengeance 5.600
- Grafikprozessor
- AMD RX 6700XT
- Display
- Acer Nitro VG0 27" 1440p / 144 Hz
- SSD
- 1x Crucial P1 1 TB / 1x WB Blue 1 TB (SATA) / 1x Lexar NM790 4TB
- Optisches Laufwerk
- LG BR
- Soundkarte
- Onboardsound
- Gehäuse
- Fractal Design Define R4
- Netzteil
- Be Quiet! Pure Power 11 400 Watt
- Betriebssystem
- Win 10 / Pop!_OS
- Webbrowser
- Opera
- Internetanbindung
-
▼1000
▲50
Cyrus meint als Einzel-Komponenten, nicht als ganzen PC.
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.716
- Renomée
- 431
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
Warum ist Volllast von GPU und CPU nicht möglich und unrealistisch?
Weil c't mit Prime und Furmark gleichzeitig testet. Diese Tests erzeugen einzeln schon eine unrealistische Last, in Kombination ist das schwachsinnig. Echte Spiele erzeugen keine solche Last. Der Autor schreibt auch selbst, dass es nicht praxisrelevant ist. Die Frage ist nur, warum testet er das dann?
Und warum jammert die c't seit Jahren in jedem Artikel erstmal lang und breit über Bulldozer, während sie jede Weiterentwicklung verschweigt? Das Wort "Excavator" kommt im Artikel nicht vor.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Schon klar was er meint. Daraus wird aber immer noch kein Paperlaunch, sondern ein Launch im OEM Channel. Der Retail Channel soll mit Bristol Ridge überhaupt nicht bedient werden. Auch hat deswegen AMD nicht versäumt die AM4 Plattform vorzustellen. Die ganze Argumentation ist einfach für die Katz.Cyrus meint als Einzel-Komponenten, nicht als ganzen PC.
@Druide: Kannst du uns noch den Name des Herrn Autors mitteilen? Alternativ das Kürzel am Ende des Texts.
In einem Punkt muss ich Wu134 recht geben. Bei den Desktop-APUs hat sich in den letzten Jahren bezüglich Spieleleistung nicht sehr viel getan und teils ist ein Celeron + diskrete GPU eben einfach immer noch leistungsfähiger, obwohls nicht viel mehr kostet.
Da kommt bei Bristol Ridge auch die Ausrichtung auf den Notebook-Markt mit maximal 35 W TDP ins Spiel.
Was mich mal interessiert hätte: Wie schlägt sich denn die DDR4-Plattform AM4 im Vergleich mit dem DDR3-Vorgänger FM2+?
Ich habe mich mit DDR4 nie beschäftigt, aber ich erwarte doch einiges mehr an Speicherbandbreite bei etwas höheren Latenzen. Das sollte doch bei Spielen für ein nettes Leistungsplus sorgen.
In einem Punkt muss ich Wu134 recht geben. Bei den Desktop-APUs hat sich in den letzten Jahren bezüglich Spieleleistung nicht sehr viel getan und teils ist ein Celeron + diskrete GPU eben einfach immer noch leistungsfähiger, obwohls nicht viel mehr kostet.
Da kommt bei Bristol Ridge auch die Ausrichtung auf den Notebook-Markt mit maximal 35 W TDP ins Spiel.
Was mich mal interessiert hätte: Wie schlägt sich denn die DDR4-Plattform AM4 im Vergleich mit dem DDR3-Vorgänger FM2+?
Ich habe mich mit DDR4 nie beschäftigt, aber ich erwarte doch einiges mehr an Speicherbandbreite bei etwas höheren Latenzen. Das sollte doch bei Spielen für ein nettes Leistungsplus sorgen.
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.716
- Renomée
- 431
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
Der Autor ist Christof Windeck ( ciw@ct.de ).
Stell dir mal vor, die APU würde bei einer unsinnigen Kombination wie Prime+Furmark bei CPU+GPU den vollen Takt halten! Das würde doch bedeuten, dass AMD den Takt bei "echter" Software (gemeint ist produktive Software, kein reiner Stresstest) viel zu niedrig angesetzt hätte und dadurch alle Anwender abstrafen würde, nur damit Herr Windeck Prime+Furmark gleichzeitig testen kann! Wie sinnvoll wäre das?
Das ist auch so ein Punkt. Im Artikel vergleicht er DDR3-2133 mit DDR4-2133, warum auch immer.
Zum Test der AM4-Plattform hätte mindestens DDR4-2400 gehört. Wenn man es reell angehen will, muss man auf richtige Boards warten (keine Billig-Teile) und gucken, welcher Speicher dort validiert wurde, bevor man ein Urteil über AM4 fällt.
PS: Dem Celeron fehlen die vier Kerne und er wird häufig bei den Features beschnitten.
Stell dir mal vor, die APU würde bei einer unsinnigen Kombination wie Prime+Furmark bei CPU+GPU den vollen Takt halten! Das würde doch bedeuten, dass AMD den Takt bei "echter" Software (gemeint ist produktive Software, kein reiner Stresstest) viel zu niedrig angesetzt hätte und dadurch alle Anwender abstrafen würde, nur damit Herr Windeck Prime+Furmark gleichzeitig testen kann! Wie sinnvoll wäre das?
Was mich mal interessiert hätte: Wie schlägt sich denn die DDR4-Plattform AM4 im Vergleich mit dem DDR3-Vorgänger FM2+?
Das ist auch so ein Punkt. Im Artikel vergleicht er DDR3-2133 mit DDR4-2133, warum auch immer.
Zum Test der AM4-Plattform hätte mindestens DDR4-2400 gehört. Wenn man es reell angehen will, muss man auf richtige Boards warten (keine Billig-Teile) und gucken, welcher Speicher dort validiert wurde, bevor man ein Urteil über AM4 fällt.
PS: Dem Celeron fehlen die vier Kerne und er wird häufig bei den Features beschnitten.
Zuletzt bearbeitet:
Wu134
Grand Admiral Special
- Mitglied seit
- 24.04.2006
- Beiträge
- 2.169
- Renomée
- 29
- Standort
- bei Ulm
- Mein Laptop
- Lenovo U41-70
- Prozessor
- AMD Athlon X4 860K
- Mainboard
- Gigabyte GA-F2A78M-DS2
- Kühlung
- Arctic Freezer Extreme
- Speicher
- G.Skill Ripjaws 2 x 4 GB DDR3-2133
- Grafikprozessor
- AMD RX460 2 GB
- Display
- 19" BenQ FP91GP 1280x1024
- SSD
- Crucial M500 120 GB
- HDD
- Samsung F2 500 GB
- Optisches Laufwerk
- Samsung SH-S183A
- Soundkarte
- onboard Realtek HD
- Gehäuse
- Coolermaster Centurion 5 + Silentmaxx Dämmung
- Netzteil
- BeQuiet L7 300W
- Betriebssystem
- Windows 10 x64
- Webbrowser
- Firefox
- Verschiedenes
- Idle 44 W, Prime95 133 W, Spiele ca. 170 W
Hallo,
@derDruide: Ich betreibe eine APU auch zum Spielen und mich stört, dass je nach Last entweder die CPU oder GPU runtertakten. Wenn die APU ihren vollen Takt halten könnte, wären einfach mal 20% mehr Leistung in Spielen drin. Die CPU-Leistung ist ja schon (immer noch) kaum begeisterungsfähig, aber wenn dann in Spielen der Takt von 3,7 Ghz. Grundtakt (nicht Turbo) auf 3,0 Ghz. (oder sogar mehr) sinkt, ist das schon lahm. Da kann dann leider auch ein kastrierter Celeron mithalten. Bei den früheren Tests der APUs wurde auch ein Schmalspur-Celeron plus diskrete Einsteigerkarte (im gleichen Preisrahmen) mit getestet und hatte deutlichen Vorsprung vor der APU. Und eine APU hat mittlerweile auch Module und keine 4 einzelne Kerne, glaub irgendeine Crysis-Version hat dann sogar den Start verweigert.
Ich bezweifle auch, dass DDR4-Speicher den Durchbruch bringt. Mehr Bandbreite bedeutet, dass die GPU mehr rechnen kann (bei DDR3 liefen fast alle GPUs im Bandbreitenlimit). Dadurch steigt ihre Leistung und ihre Leistungsaufnahme. Dann wird wieder aber ein Takt (CPU oder GPU, je nachdem wer weniger zu tun hat) gesenkt und die Leistung sinkt wieder, weil die Leistungsaufnahme am Limit ist. Sie wird sich wahrscheinlich wieder selbst bremsen. Das würde ich dem A12-9800 sogar unterstellen. 65W TDP ggü. 1108 Mhz. GPU-Takt heißt für mich, dass nur sehr wenig Luft ist oder der Prozess doch einen deutlichen Durchbruch geschafft hat. 300 Mhz. mehr Takt bei 50% weniger TDP (ggü. 7870K) ist eigentlich eine deutliche Ansage ggü. vorherigen Modellen. Aber ich würde mich freuen, wenn ich da falsch liege.
Gruß
@derDruide: Ich betreibe eine APU auch zum Spielen und mich stört, dass je nach Last entweder die CPU oder GPU runtertakten. Wenn die APU ihren vollen Takt halten könnte, wären einfach mal 20% mehr Leistung in Spielen drin. Die CPU-Leistung ist ja schon (immer noch) kaum begeisterungsfähig, aber wenn dann in Spielen der Takt von 3,7 Ghz. Grundtakt (nicht Turbo) auf 3,0 Ghz. (oder sogar mehr) sinkt, ist das schon lahm. Da kann dann leider auch ein kastrierter Celeron mithalten. Bei den früheren Tests der APUs wurde auch ein Schmalspur-Celeron plus diskrete Einsteigerkarte (im gleichen Preisrahmen) mit getestet und hatte deutlichen Vorsprung vor der APU. Und eine APU hat mittlerweile auch Module und keine 4 einzelne Kerne, glaub irgendeine Crysis-Version hat dann sogar den Start verweigert.
Ich bezweifle auch, dass DDR4-Speicher den Durchbruch bringt. Mehr Bandbreite bedeutet, dass die GPU mehr rechnen kann (bei DDR3 liefen fast alle GPUs im Bandbreitenlimit). Dadurch steigt ihre Leistung und ihre Leistungsaufnahme. Dann wird wieder aber ein Takt (CPU oder GPU, je nachdem wer weniger zu tun hat) gesenkt und die Leistung sinkt wieder, weil die Leistungsaufnahme am Limit ist. Sie wird sich wahrscheinlich wieder selbst bremsen. Das würde ich dem A12-9800 sogar unterstellen. 65W TDP ggü. 1108 Mhz. GPU-Takt heißt für mich, dass nur sehr wenig Luft ist oder der Prozess doch einen deutlichen Durchbruch geschafft hat. 300 Mhz. mehr Takt bei 50% weniger TDP (ggü. 7870K) ist eigentlich eine deutliche Ansage ggü. vorherigen Modellen. Aber ich würde mich freuen, wenn ich da falsch liege.
Gruß
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.716
- Renomée
- 431
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
Unter hoher Last wird immer einer von beiden etwas runtertakten, das ist auch sinnvoll, sonst würde viel Takt verschwendet werden (siehe oben).
Guck doch besser, ob die von dir genutzten Spiele bei einer sinnvollen Auflösung und sinnvollen Details (kein x-fach AA-Overkill) laufen oder nicht.
Mit den Kernen in Spielen ist es umgekehrt: moderne Spiele verweigern auf Dual Cores (wie dem Celeron) den Start, auf Vierkernern laufen sie.
Bristol Ridge gilt als Quadcore, was er ja auch weitgehend ist.
Der 3DMark Firestrike läuft mit DDR4-2400 schonmal 11 % schneller als auf einem gleich getakteten Kaveri, obwohl Bristol Ridge mit 65 W auskommen muss. Mit schnellerem RAM wird es wohl noch besser aussehen. Mal gucken, ob die TDP bei Raven Ridge mit > 700 Shadern und GCN4 wieder auf 95 W steigt, ich fände das OK.
Guck doch besser, ob die von dir genutzten Spiele bei einer sinnvollen Auflösung und sinnvollen Details (kein x-fach AA-Overkill) laufen oder nicht.
Mit den Kernen in Spielen ist es umgekehrt: moderne Spiele verweigern auf Dual Cores (wie dem Celeron) den Start, auf Vierkernern laufen sie.
Bristol Ridge gilt als Quadcore, was er ja auch weitgehend ist.
Der 3DMark Firestrike läuft mit DDR4-2400 schonmal 11 % schneller als auf einem gleich getakteten Kaveri, obwohl Bristol Ridge mit 65 W auskommen muss. Mit schnellerem RAM wird es wohl noch besser aussehen. Mal gucken, ob die TDP bei Raven Ridge mit > 700 Shadern und GCN4 wieder auf 95 W steigt, ich fände das OK.
Wu134
Grand Admiral Special
- Mitglied seit
- 24.04.2006
- Beiträge
- 2.169
- Renomée
- 29
- Standort
- bei Ulm
- Mein Laptop
- Lenovo U41-70
- Prozessor
- AMD Athlon X4 860K
- Mainboard
- Gigabyte GA-F2A78M-DS2
- Kühlung
- Arctic Freezer Extreme
- Speicher
- G.Skill Ripjaws 2 x 4 GB DDR3-2133
- Grafikprozessor
- AMD RX460 2 GB
- Display
- 19" BenQ FP91GP 1280x1024
- SSD
- Crucial M500 120 GB
- HDD
- Samsung F2 500 GB
- Optisches Laufwerk
- Samsung SH-S183A
- Soundkarte
- onboard Realtek HD
- Gehäuse
- Coolermaster Centurion 5 + Silentmaxx Dämmung
- Netzteil
- BeQuiet L7 300W
- Betriebssystem
- Windows 10 x64
- Webbrowser
- Firefox
- Verschiedenes
- Idle 44 W, Prime95 133 W, Spiele ca. 170 W
Hallo,
es sinkt auch die Spieleleistung, es taktet nicht aus Langeweile runter. Sie muss auch runtertakten, da ansonsten die Leistungsaufnahme zu hoch ist. Hab das mal mitgeloggt und die Leistungsaufnahme aufgeschrieben. Unabhängig von den Grafikeinstellungen (bin auf 1024x768 runter) lief Anno 1404 nur mit 2,4 bis 3,0 Ghz. CPU-Takt und die GPU mit 720 Mhz, beim kompletten Reimzoomen stiegt der CPU-Takt über 3 Ghz., weil die GPU auf 644 Mhz. runtergetaktet hat (wenig Grafikdarstellung, die CPU bekommt wieder mehr vom Leistungsanteil ab). Mit einer APU musst du eh bei Auflösung und Details geizen und extreme Settings wie hohe AA-Stufen oder Details verbieten sich von selbst, da die APU schlicht weg überfordert ist.
Ein 3DMark ist kein Test, sondern ein tolles Werbevideo. Ich würde mich nur auf reale Spieletests verlassen. Und zuviel Spekulation braucht es nicht, einfach die Leistungsaufnahme von ähnlichen AMD-Grafikchips nehmen und runterrechnen. Selbst mit 1000 Shadern reißt du wenig, weil spätestens dann wieder Bandbreite und "freie" Leistung fehlt, um diese GPU auszulasten.
Gruß
es sinkt auch die Spieleleistung, es taktet nicht aus Langeweile runter. Sie muss auch runtertakten, da ansonsten die Leistungsaufnahme zu hoch ist. Hab das mal mitgeloggt und die Leistungsaufnahme aufgeschrieben. Unabhängig von den Grafikeinstellungen (bin auf 1024x768 runter) lief Anno 1404 nur mit 2,4 bis 3,0 Ghz. CPU-Takt und die GPU mit 720 Mhz, beim kompletten Reimzoomen stiegt der CPU-Takt über 3 Ghz., weil die GPU auf 644 Mhz. runtergetaktet hat (wenig Grafikdarstellung, die CPU bekommt wieder mehr vom Leistungsanteil ab). Mit einer APU musst du eh bei Auflösung und Details geizen und extreme Settings wie hohe AA-Stufen oder Details verbieten sich von selbst, da die APU schlicht weg überfordert ist.
Ein 3DMark ist kein Test, sondern ein tolles Werbevideo. Ich würde mich nur auf reale Spieletests verlassen. Und zuviel Spekulation braucht es nicht, einfach die Leistungsaufnahme von ähnlichen AMD-Grafikchips nehmen und runterrechnen. Selbst mit 1000 Shadern reißt du wenig, weil spätestens dann wieder Bandbreite und "freie" Leistung fehlt, um diese GPU auszulasten.
Gruß
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.716
- Renomée
- 431
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
Die Alternative wäre, beides von vornherein viel zu niedrig zu takten, für den Fall, das mal hohe Last auf beidem anliegt.
Das macht doch wenig Sinn.
Der Punkt ist, dass der Autor dieses Verhalten mit einem völlig unrealistischen Stresstest gemessen hat, von dem er selbst schreibt, dass so eine Last in der Praxis nicht vorkommt.
======
An alle mal eine andere Frage: Ich suche ein günstiges Notebook für einen Betrieb, der dafür nur 400 € ausgeben will. An dem Gerät wird ca. 2h pro Tag gearbeitet (mit LibreOffice), trotzdem will ich natürlich das Beste für das Geld herausholen.
Lohnt sich ein günstiges HP mit Bristol Ridge in dem Preisbereich, wenn es ein mattes Display hat?
Oder sind Display und Tastatur in dieser Preisklasse so schlecht (von der Qualität her), dass man mit einem gebrauchten Thinkpad besser fährt?
Das macht doch wenig Sinn.
Der Punkt ist, dass der Autor dieses Verhalten mit einem völlig unrealistischen Stresstest gemessen hat, von dem er selbst schreibt, dass so eine Last in der Praxis nicht vorkommt.
So einfach ist das nicht, die Grafikkarte (deren Wert du übernehmen willst) besteht ja nicht nur aus dem Chip.Und zuviel Spekulation braucht es nicht, einfach die Leistungsaufnahme von ähnlichen AMD-Grafikchips nehmen und runterrechnen.
======
An alle mal eine andere Frage: Ich suche ein günstiges Notebook für einen Betrieb, der dafür nur 400 € ausgeben will. An dem Gerät wird ca. 2h pro Tag gearbeitet (mit LibreOffice), trotzdem will ich natürlich das Beste für das Geld herausholen.
Lohnt sich ein günstiges HP mit Bristol Ridge in dem Preisbereich, wenn es ein mattes Display hat?
Oder sind Display und Tastatur in dieser Preisklasse so schlecht (von der Qualität her), dass man mit einem gebrauchten Thinkpad besser fährt?
Zuletzt bearbeitet:
Marius87
Fleet Captain Special
- Mitglied seit
- 08.04.2015
- Beiträge
- 294
- Renomée
- 14
- Standort
- Siegen
- Mein Laptop
- HP 15 (AMD A6-7310, Full-HD IPS matt, 8GB DDR3-1600, 500GB SSHD)
- Prozessor
- AMD FX-6300@4GHz (vorher Phenom II 965BE@3,8GHz, Athlon II X4 640@3,6GHz)
- Mainboard
- ASRock 970 Extreme4
- Kühlung
- GELID Tranquillo Rev. 2
- Speicher
- 8GB Corsair CMX8GX3M2A1600C9
- Grafikprozessor
- AMD Radeon R9 280X
- Display
- Samsung SyncMaster 2433BW
- Webbrowser
- Cyberfox AMD64
Ich muss Wu134 leider vollkommen recht geben, gerade bei Notebooks sind APUs aktuell vollkommen spieleunfähig. Selbst eine dedizierte lowend ded. GPU bietet da einen echten Mehrwert, auch wenn hier immer alle darüber motzen. Selbst eine R7 M440, welche der iGP der APU mit ihren nur 320 Shader bei 1.120 MHz Taktrate und 2000 MHz DDR3-Ramtakt, unterlegen sein sollte bietet die einzige Spieletaugliche Option im Bundle.Hallo,
es sinkt auch die Spieleleistung, es taktet nicht aus Langeweile runter. Sie muss auch runtertakten, da ansonsten die Leistungsaufnahme zu hoch ist. Hab das mal mitgeloggt und die Leistungsaufnahme aufgeschrieben. Unabhängig von den Grafikeinstellungen (bin auf 1024x768 runter) lief Anno 1404 nur mit 2,4 bis 3,0 Ghz. CPU-Takt und die GPU mit 720 Mhz, beim kompletten Reimzoomen stiegt der CPU-Takt über 3 Ghz., weil die GPU auf 644 Mhz. runtergetaktet hat (wenig Grafikdarstellung, die CPU bekommt wieder mehr vom Leistungsanteil ab). Mit einer APU musst du eh bei Auflösung und Details geizen und extreme Settings wie hohe AA-Stufen oder Details verbieten sich von selbst, da die APU schlicht weg überfordert ist.
Hier ein paar Beispiele von unserem Casie030 beim AMD A8-6410 mit ner ded. R5 M230:
A8 iGP only = CPU gedrossel auf 1,4 GHz:
A8 + ded. GPU = CPU ungedrosselt:
Oder um bei Bristol Ridge & Desktop zu bleiben, auch hier wird bei Grafiklast die CPU auf 1400 MHz gedrosselt
und somit das potential der APU, selbst im Desktop, nicht ausgenutzt.
Es muss doch irgendwie möglich sein das TDP Limit aufzuheben und die volle Leistung sowohl aus CPU, als auch aus iGP auszuschöpfen.
Ich sehe auch nicht, wo hier Takt verschwendet werden sollte, wenn er doch händeringend ingame sowohl bei der CPU, als auch bei der iGP benötigt wird!
Bei den aktuellen 15W Konfigurationen von Notebooks bietet die eigentlich relativ spieletaugliche iGPU aufgrund des 15W Limits letztlich leider nur was bei OpenCL-Berechnungen, hier kann sie ihre Stärken voll ausleben...
Zuletzt bearbeitet:
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.716
- Renomée
- 431
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
Ähm, ein Beema(!) mit 15 W TDP in einem Notebook(!) als Spiele-Maschine?
Der HP OEM-PC aus dem Video nutzt mit Single Channel RAM (nur ein Speichersockel belegt), der kleineren APU und mechanischer Festplatte auch nicht gerade die Möglichkeiten der Plattform aus.
Der HP OEM-PC aus dem Video nutzt mit Single Channel RAM (nur ein Speichersockel belegt), der kleineren APU und mechanischer Festplatte auch nicht gerade die Möglichkeiten der Plattform aus.
Ohne die physikalischen Gesetze aufzuheben wohl nicht. Sicher gibt es bei Spielen eine Aufteilung zwischen CPU- und GPU-Leistung, aber ich gucke, statt auf Taktraten zu schielen, nur ob meine gewünschten Spiele laufen. Ich persönlich finde die APU immer noch ein rundes Produkt, in den letzten Jahren hat sich viel getan, und mit Raven Ridge kommt ein ganz neues Level (sowohl bei der Energieeffizienz als auch beim RAM-Durchsatz).Es muss doch irgendwie möglich sein das TDP Limit aufzuheben
Zuletzt bearbeitet:
cyrusNGC_224
Grand Admiral Special
- Mitglied seit
- 01.05.2014
- Beiträge
- 5.924
- Renomée
- 117
- Aktuelle Projekte
- POGS, Asteroids, Milkyway, SETI, Einstein, Enigma, Constellation, Cosmology
- Lieblingsprojekt
- POGS, Asteroids, Milkyway
- Meine Systeme
- X6 PII 1090T, A10-7850K, 6x Athlon 5350, i7-3632QM, C2D 6400, AMD X4 PII 810, 6x Odroid U3
- BOINC-Statistiken
Aber BR soll doch für diesen Markt kommen!? Mir ist auch klar, dass diese Verzögerung für den Retailmarkt wohl ein Gesschenk an die OEMs ist. Aber bezweifle ich, dass sich dies so wirksam auszahlt. Immerhin wird BR nicht jünger und je früher man diesen verbauen könnte (ohne fremde Vorgaben), desto besser.Schon klar was er meint. Daraus wird aber immer noch kein Paperlaunch, sondern ein Launch im OEM Channel. Der Retail Channel soll mit Bristol Ridge überhaupt nicht bedient werden. Auch hat deswegen AMD nicht versäumt die AM4 Plattform vorzustellen. Die ganze Argumentation ist einfach für die Katz.
Deswegen ist der wohl nochmal kleinere Polaris 12 ganz gut für diese Segment. Zu Kabini & Beema muss man aber sagen, dass, im Gegensatz zu Kaveri, Carrizo & Bristol Ridge, das Powerbudget von CPU und GPU voll ausgeschöpft werden kann.Ich muss Wu134 leider vollkommen recht geben, gerade bei Notebooks sind APUs aktuell vollkommen spieleunfähig. Selbst eine dedizierte lowend ded. GPU bietet da einen echten Mehrwert, auch wenn hier immer alle darüber motzen. Selbst eine R7 M440, welche der iGP der APU mit ihren nur 320 Shader bei 1.120 MHz Taktrate und 2000 MHz DDR3-Ramtakt, unterlegen sein sollte bietet die einzige Spieletaugliche Option im Bundle.
Hier ein paar Beispiele von unserem Casie030 beim AMD A8-6410 mit ner ded. R5 M230:
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.335
- Renomée
- 1.973
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Gerade beim Einsatz der IGP sehe ich ehrlich gesagt herzlich wenig Probleme an der Absenkung des CPU Taktes denn so bleibt mehr vom TDP Spielraum für die Taktung der GPU übrig und die dürfte in dem Fall idR. ohnehin eher zum limitierenden Faktor werden. Nutzt man sie nicht weil man auf eine deutlich schnellere, zusätzliche Grafikkarte setzt dann schaltet man die IGP ab und die CPU kann den ganzen Spielraum für sich beanspruchen.
Marius87
Fleet Captain Special
- Mitglied seit
- 08.04.2015
- Beiträge
- 294
- Renomée
- 14
- Standort
- Siegen
- Mein Laptop
- HP 15 (AMD A6-7310, Full-HD IPS matt, 8GB DDR3-1600, 500GB SSHD)
- Prozessor
- AMD FX-6300@4GHz (vorher Phenom II 965BE@3,8GHz, Athlon II X4 640@3,6GHz)
- Mainboard
- ASRock 970 Extreme4
- Kühlung
- GELID Tranquillo Rev. 2
- Speicher
- 8GB Corsair CMX8GX3M2A1600C9
- Grafikprozessor
- AMD Radeon R9 280X
- Display
- Samsung SyncMaster 2433BW
- Webbrowser
- Cyberfox AMD64
Jaein, für anspruchslose Games ja! Es ist nur ein Beispiel. Selbiges gilt auch ja auch für Carrizo-L & Bristol Ridge.Ähm, ein Beema(!) mit 15 W TDP in einem Notebook(!) als Spiele-Maschine?
Die IGP des A10-9600P beispielsweise wäre so ziemlich gleich auf mit der (oft im Bundle verbauten) R7 M440, die R7 M440 wäre somit vollkommen überflüssig, wie auch oft hier dementsprechend über derartig unsinnig erscheinende ded. GPUs hergezogen wird.
Nutzt nur alles nichts, wenn ich mit der IGP nichts spielen kann, weil die CPU bei 1400 MHz limitiert, ausser vllt. Browser-Games,
das kann ich aber auch mit jeder popeligen Intel iGP. Der Mehrwert der potenten AMD IGP ist so schlicht nicht gegeben, daran gibt's nichts zu diskutieren, und das ist traurig!
Hättest du das Video zu ende geschaut, hättest du gesehen, dass sie das Scenario auch mit Dual Channel Ram durchgespielt haben, kleine APU, mechanische Festplatte - bla bla - sorry, Erbsenzählerei, darum geht es hier nicht!Der HP OEM-PC aus dem Video nutzt mit Single Channel RAM (nur ein Speichersockel belegt), der kleineren APU und mechanischer Festplatte auch nicht gerade die Möglichkeiten der Plattform aus.
Von welchen physikalischen Gesetzen sprichst du da im Desktopbereich? Mit meinetwegen 145W für CPU & IGP dürfte da so einiges drin sein.Ohne die physikalischen Gesetze aufzuheben wohl nicht. Sicher gibt es bei Spielen eine Aufteilung zwischen CPU- und GPU-Leistung, aber ich gucke, statt auf Taktraten zu schielen, nur ob meine gewünschten Spiele laufen.
Warum lässt man nicht den User entscheiden, wieviel die CPU / GPU Kombi verbrauchen darf? APM aus / HPC-Mode an?
Oder limitiert hier tatsächlich die kombinierte Hitzeentwicklung, wenn CPU & IGP gleichzeitig auf voller Leistung laufen würden?
Sorry - dann ist das ein echt bemitleidenswertes Design, könnte viel können, kann es aber eben nicht - schade
Aber hey, ein Piledriver schafft 5 GHz 220W - congratulations!
Zuletzt bearbeitet:
Wu134
Grand Admiral Special
- Mitglied seit
- 24.04.2006
- Beiträge
- 2.169
- Renomée
- 29
- Standort
- bei Ulm
- Mein Laptop
- Lenovo U41-70
- Prozessor
- AMD Athlon X4 860K
- Mainboard
- Gigabyte GA-F2A78M-DS2
- Kühlung
- Arctic Freezer Extreme
- Speicher
- G.Skill Ripjaws 2 x 4 GB DDR3-2133
- Grafikprozessor
- AMD RX460 2 GB
- Display
- 19" BenQ FP91GP 1280x1024
- SSD
- Crucial M500 120 GB
- HDD
- Samsung F2 500 GB
- Optisches Laufwerk
- Samsung SH-S183A
- Soundkarte
- onboard Realtek HD
- Gehäuse
- Coolermaster Centurion 5 + Silentmaxx Dämmung
- Netzteil
- BeQuiet L7 300W
- Betriebssystem
- Windows 10 x64
- Webbrowser
- Firefox
- Verschiedenes
- Idle 44 W, Prime95 133 W, Spiele ca. 170 W
Hallo,
es würde wohl helfen, wenn der A12-9800 95 W "verballern" dürfte und die VCore mal deutlich tiefer liegen würde. Als "AMD-Krankheit" liegt ja immer eine hohe VCore an, die bei fast jedem Test problemlos um 0,2 V gesenkt werden kann. Wenn man das zusammen nutzen könnte, würde wohl ein großer Leistungsgewinn "rausspringen". Wenn ich da an Intel denke, wie niedrig die im Mobil-Sektor ihre VCore fahren, sollte sich AMD da mal eine Scheibe abschneiden.
Ich will ja nicht alles schlecht reden, aber AMD verschenkt da viel Potential, auch bei bestehenden Produkten. Die eigenen Produkte sind in dem einzigen Bereich, in dem sie gegen Intel deutlich punkten können, "eingeschnürt" und können diesen Punkt kaum noch nutzen, Intel hat grafisch aufgeholt und profitiert immer noch vom starken CPU-Kern.
Gruß
es würde wohl helfen, wenn der A12-9800 95 W "verballern" dürfte und die VCore mal deutlich tiefer liegen würde. Als "AMD-Krankheit" liegt ja immer eine hohe VCore an, die bei fast jedem Test problemlos um 0,2 V gesenkt werden kann. Wenn man das zusammen nutzen könnte, würde wohl ein großer Leistungsgewinn "rausspringen". Wenn ich da an Intel denke, wie niedrig die im Mobil-Sektor ihre VCore fahren, sollte sich AMD da mal eine Scheibe abschneiden.
Ich will ja nicht alles schlecht reden, aber AMD verschenkt da viel Potential, auch bei bestehenden Produkten. Die eigenen Produkte sind in dem einzigen Bereich, in dem sie gegen Intel deutlich punkten können, "eingeschnürt" und können diesen Punkt kaum noch nutzen, Intel hat grafisch aufgeholt und profitiert immer noch vom starken CPU-Kern.
Gruß
Marius87
Fleet Captain Special
- Mitglied seit
- 08.04.2015
- Beiträge
- 294
- Renomée
- 14
- Standort
- Siegen
- Mein Laptop
- HP 15 (AMD A6-7310, Full-HD IPS matt, 8GB DDR3-1600, 500GB SSHD)
- Prozessor
- AMD FX-6300@4GHz (vorher Phenom II 965BE@3,8GHz, Athlon II X4 640@3,6GHz)
- Mainboard
- ASRock 970 Extreme4
- Kühlung
- GELID Tranquillo Rev. 2
- Speicher
- 8GB Corsair CMX8GX3M2A1600C9
- Grafikprozessor
- AMD Radeon R9 280X
- Display
- Samsung SyncMaster 2433BW
- Webbrowser
- Cyberfox AMD64
Genau darauf läuft es hinaus, APU gekauft und IGP deaktiviert - weil bei IGP Nutzung die CPU zur Krücke wird.Gerade beim Einsatz der IGP sehe ich ehrlich gesagt herzlich wenig Probleme an der Absenkung des CPU Taktes denn so bleibt mehr vom TDP Spielraum für die Taktung der GPU übrig und die dürfte in dem Fall idR. ohnehin eher zum limitierenden Faktor werden. Nutzt man sie nicht weil man auf eine deutlich schnellere, zusätzliche Grafikkarte setzt dann schaltet man die IGP ab und die CPU kann den ganzen Spielraum für sich beanspruchen.
Wir wärs statt einer Absenkung des CPU Taktes um mehr vom TDP Spielraum für die Taktung der GPU zur Verfügung zu haben, wenn man einfach, wie bei jeder stinknormalen "K"-CPU dem Anwender die Wahl ließe, wieviel Spannung und Takt er verbraten möchte.
Was soll dieses gedrossel zu Gunsten des TDP Spielraums?
Im Mobilsektor - OK, da das Kühlkonzept nicht mehr her gibt. Aber beim Desktop, ernsthaft? Muss ich nicht verstehen...
Wu134
Grand Admiral Special
- Mitglied seit
- 24.04.2006
- Beiträge
- 2.169
- Renomée
- 29
- Standort
- bei Ulm
- Mein Laptop
- Lenovo U41-70
- Prozessor
- AMD Athlon X4 860K
- Mainboard
- Gigabyte GA-F2A78M-DS2
- Kühlung
- Arctic Freezer Extreme
- Speicher
- G.Skill Ripjaws 2 x 4 GB DDR3-2133
- Grafikprozessor
- AMD RX460 2 GB
- Display
- 19" BenQ FP91GP 1280x1024
- SSD
- Crucial M500 120 GB
- HDD
- Samsung F2 500 GB
- Optisches Laufwerk
- Samsung SH-S183A
- Soundkarte
- onboard Realtek HD
- Gehäuse
- Coolermaster Centurion 5 + Silentmaxx Dämmung
- Netzteil
- BeQuiet L7 300W
- Betriebssystem
- Windows 10 x64
- Webbrowser
- Firefox
- Verschiedenes
- Idle 44 W, Prime95 133 W, Spiele ca. 170 W
Hallo,
hast du schon mal eine APU selbst genutzt? Du kannst eine APU XY nehmen mit 95 W TDP, mit Prime auf allen Kernen schöpft sie den Takt und ihre TDP aus, mit Furmark ist auch die TDP ausgeschöpft, wenn die GPU voll belastet wird. Während einem Spiel ist es ein ständiger "Kampf", wer mehr abbekommt, um höher takten zu können. Im Mobilsektor ist es ähnlich, auch da müssen sich CPU und GPU die TDP teilen. Ist ja prinzipiell gut, dass derjenige, der mehr Arbeit hat, mehr vom TDP-Kuchen abbekommt. Allerdings stehen sie sich bei Spielen eher im Weg, weil jeder für sich allein schon alles brauchen könnte.
Gruß
hast du schon mal eine APU selbst genutzt? Du kannst eine APU XY nehmen mit 95 W TDP, mit Prime auf allen Kernen schöpft sie den Takt und ihre TDP aus, mit Furmark ist auch die TDP ausgeschöpft, wenn die GPU voll belastet wird. Während einem Spiel ist es ein ständiger "Kampf", wer mehr abbekommt, um höher takten zu können. Im Mobilsektor ist es ähnlich, auch da müssen sich CPU und GPU die TDP teilen. Ist ja prinzipiell gut, dass derjenige, der mehr Arbeit hat, mehr vom TDP-Kuchen abbekommt. Allerdings stehen sie sich bei Spielen eher im Weg, weil jeder für sich allein schon alles brauchen könnte.
Gruß
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.716
- Renomée
- 431
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
Falls du mich meinst: ich habe eine APU unter dem Schreibtisch und bin zufrieden damit. Die Taktaufteilung zwischen CPU und GPU ist doch sinnvoll und notwendig, sonst müsstest du beide Komponenten künstlich bei 2 GHz festtackern, nur damit sie parallel unter Volllast laufen könnten. Das macht doch keinen Sinn.
Eine hohe TDP scheint beim Marketing schwierig zu sein, der fragwürdige 5 GHz Centurion ist ein gutes Beispiel.
Bei Bristol Ridge kommt hinzu, dass das Design klar auf kleine TDPs optimiert ist! Bei den Desktop-Modellen war noch etwas Steigerung drin, aber nicht sehr viel in Anbetracht der TDP-Steigerung. Dann hätte ein mögliches 95 W-Modell für den zusätzlichen Verbrauch wohl zu wenig Mehrleistung geboten. Bei Raven Ridge kann das anders sein, das wird ja ein komplett neues Design.
Eine hohe TDP scheint beim Marketing schwierig zu sein, der fragwürdige 5 GHz Centurion ist ein gutes Beispiel.
Bei Bristol Ridge kommt hinzu, dass das Design klar auf kleine TDPs optimiert ist! Bei den Desktop-Modellen war noch etwas Steigerung drin, aber nicht sehr viel in Anbetracht der TDP-Steigerung. Dann hätte ein mögliches 95 W-Modell für den zusätzlichen Verbrauch wohl zu wenig Mehrleistung geboten. Bei Raven Ridge kann das anders sein, das wird ja ein komplett neues Design.
Zuletzt bearbeitet:
cyrusNGC_224
Grand Admiral Special
- Mitglied seit
- 01.05.2014
- Beiträge
- 5.924
- Renomée
- 117
- Aktuelle Projekte
- POGS, Asteroids, Milkyway, SETI, Einstein, Enigma, Constellation, Cosmology
- Lieblingsprojekt
- POGS, Asteroids, Milkyway
- Meine Systeme
- X6 PII 1090T, A10-7850K, 6x Athlon 5350, i7-3632QM, C2D 6400, AMD X4 PII 810, 6x Odroid U3
- BOINC-Statistiken
Wobei die GPU Priorität hat.hast du schon mal eine APU selbst genutzt? Du kannst eine APU XY nehmen mit 95 W TDP, mit Prime auf allen Kernen schöpft sie den Takt und ihre TDP aus, mit Furmark ist auch die TDP ausgeschöpft, wenn die GPU voll belastet wird. Während einem Spiel ist es ein ständiger "Kampf", wer mehr abbekommt, um höher takten zu können. Im Mobilsektor ist es ähnlich, auch da müssen sich CPU und GPU die TDP teilen.
Wu134
Grand Admiral Special
- Mitglied seit
- 24.04.2006
- Beiträge
- 2.169
- Renomée
- 29
- Standort
- bei Ulm
- Mein Laptop
- Lenovo U41-70
- Prozessor
- AMD Athlon X4 860K
- Mainboard
- Gigabyte GA-F2A78M-DS2
- Kühlung
- Arctic Freezer Extreme
- Speicher
- G.Skill Ripjaws 2 x 4 GB DDR3-2133
- Grafikprozessor
- AMD RX460 2 GB
- Display
- 19" BenQ FP91GP 1280x1024
- SSD
- Crucial M500 120 GB
- HDD
- Samsung F2 500 GB
- Optisches Laufwerk
- Samsung SH-S183A
- Soundkarte
- onboard Realtek HD
- Gehäuse
- Coolermaster Centurion 5 + Silentmaxx Dämmung
- Netzteil
- BeQuiet L7 300W
- Betriebssystem
- Windows 10 x64
- Webbrowser
- Firefox
- Verschiedenes
- Idle 44 W, Prime95 133 W, Spiele ca. 170 W
@derDruide
ne ich dachte eher an Marius87. Einfach den Anwender die Leistung erhöhen zu lassen ist ja keine Lösung und mehr geht ja meistens nicht. Die GPU ist ja selbstbremsend, je mehr TDP sie beansprucht, desto weniger bleibt für die CPU, die dann weniger Daten anliefert und somit die GPU wieder bremst. Eigentlich clever...
Das Problem bei den Centurions waren die 220 W TDP. Mit Luft nicht zu kühlen, benötigte wieder eigene Boards und war dafür immer noch zu teuer und konnte doch nichts reißen. Aber bis 95 oder sogar 125 W ist doch gut akzeptiert. Ein breiter Markt an Kühlern, die Boards sind auch schon jahrelang für diese Belastung gebaut usw. Man muss halt auch Leistung liefern, wenn man soviel Leistung fordert. Beim i7-6900K jammert ja auch keiner über die 140W TDP-Einstufung.
Gruß
ne ich dachte eher an Marius87. Einfach den Anwender die Leistung erhöhen zu lassen ist ja keine Lösung und mehr geht ja meistens nicht. Die GPU ist ja selbstbremsend, je mehr TDP sie beansprucht, desto weniger bleibt für die CPU, die dann weniger Daten anliefert und somit die GPU wieder bremst. Eigentlich clever...
Das Problem bei den Centurions waren die 220 W TDP. Mit Luft nicht zu kühlen, benötigte wieder eigene Boards und war dafür immer noch zu teuer und konnte doch nichts reißen. Aber bis 95 oder sogar 125 W ist doch gut akzeptiert. Ein breiter Markt an Kühlern, die Boards sind auch schon jahrelang für diese Belastung gebaut usw. Man muss halt auch Leistung liefern, wenn man soviel Leistung fordert. Beim i7-6900K jammert ja auch keiner über die 140W TDP-Einstufung.
Gruß
Ähnliche Themen
- Antworten
- 23
- Aufrufe
- 1K
- Antworten
- 0
- Aufrufe
- 448
- Antworten
- 11
- Aufrufe
- 533