Artikel AMD A8-7650K - Der letzte Kaveri?

Das hat doch nichts mit Multis oder übertakten zu tun. Da geht es darum die Spannungsschwankungen abzufangen, ohne dafür hohe Spannungen anlegen zu müssen, damit die drops nicht unter die kritische Spannung fallen.

Mit der neu eingeführten Technik, kann AMD in Echtzeit solchen Spannungs-Drops entgegenwirken, weil kurz runtergetaktet wird, ohne Performanceverlust. Somit kann die Basisspannung deutlich niedriger gesetzt werden. Das kann man in mehr Takt oder in weniger Verbrauch (-40% stehen im Raum mit allen neuen Techniken kombiniert) ummünzen. Es wird wohl davon abhängen wieviel mehr Takt man setzen kann um den selben Verbrauch zu erhalten. Mit fortschreitender Verbesserung der Fertigung in 28nm könnte auch hier noch zusätzlich Luft enstehen. Wobei im mobilen Bereich die Effizienz am wichtigsten ist.

Mit AVFS muss man nicht mehr für alle APUs eine min. Spannung definieren, sondern jede bekommt automatisch ihre niedrigste Spannungsversorgung für die Auslieferung eingestellt um die anvisierten Taktraten zu bieten. Sozusagen ein Pre-Undervolting ab Werk. Über die hohen Spannungen und wie weit diese reduziert werden können ohne Taktreduzierung wundern wir uns ja schon lange. Also wird man beim übertakten mehr Spannungsspielraum haben nach oben, den man nutzen wird müssen bevor man die Takte in die üblichen Gefilde bringen kann.

Deswegen in Zukunft.......
Wie du Zitiert hast stellt sich jeder Chip selber ein,somit ist der logische Schluss daraus,das es egal ist was Du für ne Spannung anlegst,der Chip lässt nur das durch was er braucht und so sollte es z.b. auch beim Übertakten sein(was ne Spannung im Bios überflüssig macht),geht der Multi rauf,sollte der Chip das merken und die Spannung entsprechend anheben.
Schlecht ist es wenn er die Spannung hält und den Takt wieder senkt.......aber im günstigsten Fall darf ich den Takt so weit anheben wie es die Temperatur zulässt und ich hab immer ein stabiles System ohne groß Testen zu müssen.
UND genau das ist doch auch für den OEM Bereich von Vorteil.Ich bau Eine APU und bediene alle Bereiche damit von der 45er bis zur 100er TDP wo ich nicht groß ausmustern muss,sondern ich brauch lediglich den Takt und die Temperatur dem Chip vorgeben,den Rest macht der Chip selber....
 
Das einstellen ist eine einmalige Sache vor Auslieferung. Der Chip testet sich und reported seine Eigenschaften die festgelegt werden können. Da geht es um eine Kalibrierung und nicht um die Anpassung in Echtzeit. So wie man es mit K10stat manuell kalibirieren kann bei den Phenoms.
Dies zielt darauf ab, aus einem bestimmten Stück Silizium das Maximale herauszuholen. Dazu werden zehn Spannungs- und Taktfrequenzsensoren über den Kern verteilt, die dann eine Rückmeldung über die Möglichkeiten der einzelnen Chipareale und somit des gesamten Chips liefern. Dieser kann dergestalt mit den optimalen Parametern betrieben werden; es wird keine Energie verschwendet, weil man eine zu hohe Kernspannung ansetzt. Damit wird aus einem schlechten Die sicherlich kein Stromsparwunder, vielmehr hilft es eben etwas den Stromdurst zu zügeln. AVFS ermöglicht damit, dass sich jeder Chip selbst kalibriert. Dafür wird eine interne Spannungs-, Temperatur- und Taktfrequenztabelle angelegt, die von der System Management Unit (SMU, vermutlich der ARM-A5-Kern) überwacht und bei Änderungen der P-States entsprechend genutzt wird.

Die Voltage Adaptive Operation findet in Echtzeit statt hingegen, und nutzt so die per AVFS ermittelten Spannungsgrenzen optimal auf jedem Chip.
 
Zuletzt bearbeitet:
Ja,das sind doch nur die Anfänge,die erste Stufe.
Wie geschrieben dürft es in ZUKUNFT kein Problem sein weitere Schritte zu machen,bis hin zum selbst konfigurierten Chip........
 
Das war mit zwei unterschiedlichen Systemaufbauten, bitte die beiden Werte im Kapitel Leistungsaufnahme und Undervolting nicht vergleichen.

Aha, danke, das hatte ich wohl überlesen. Hast du auch die Idleleistungsaufnahme bei dem Undervolting-Aufbau gemessen? Wie gesagt finde ich ja die 40 Watt (beim anderen Aufbau) etwas hoch - das sollte doch eher in Richtung der 30Watt oder sogar darunter gehen...

LG
 
Hast du nicht überlesen, steht da nicht. Zur Info: ich nutze für OC und UV-Versuche eine alte Notebookfestplatte. Mir sind vorher gelegendlich die Platten gestorben und dafür war mir die SSD vom TEstsystem dann doch zu schade...

Die Idle-Werte dürften gar nicht so gut sein, weil ich bei den OC und UC-Tests die Stromsparfeatures gänzlich deaktiviere.
 
Wie gesagt finde ich ja die 40 Watt (beim anderen Aufbau) etwas hoch - das sollte doch eher in Richtung der 30Watt oder sogar darunter gehen...

Versteh ich auch nicht, das solltet ihr nochmal hinterfragen! Ein normaler Wert ist um die 30 W, mit einem guten Mainboard sind auch 19 W machbar (siehe Golem-Test).
 
Das stimmt,ich hab am Testrechner mit älterer SSD + 3 TB HDD mit dem A4 4000 rund 22Watt und mit dem A10 7850K ein Paar Watt mehr.
Im kleinen Spielerechner mit dem A10 7850K + SSD + AiO Kühlung + Mainboard mit 88 er Chip um 30 Watt.
Ohne Stromsparfunktionen,festem iGPU Takt.....Da geht der Idle Verbrauch rech gut rauf......

War beim Llano schon so,ohne Stromsparfunktionen verbrauchte er sogar Untervoltet mehr als mit im Idle.
 
Was interessiert die da konkret? Muss mal gucken. Habe demnächst die Chance mein Notebook an einen 4K-Fernseher zu hängen. Ich bin mir aber pgerade nicht sicher, ob über den DisplayPort-Ausgang am HP Elitebook 755 G2 4K via Adapter auf HDMI möglich sind. (Der TV hat meines Wissens leider nur HDMI-Eingänge)

Mich haette mal interessiert, wie sich APU und Mainboard (HDMI 1.4 les ich) bei 4k Monitoren schlagen. Ich kann mir natürlich denken, dass so was nicht einfach so bei p3dn rumliegt. Trotzdem wird in naher Zukunft jeder von uns mit solchen Monitoren arbeiten oder sie zumindest in der Freizeit nutzen.

Gruss
dev art

So einfach wird das nicht sein. Hier gibt es paar mehr Details, siehe ganz unten die Tabelle.
http://www.heise.de/ct/meldung/AMD-Kaveri-Feinheiten-aus-den-Datenblaettern-2088349.html
Beide Seiten (Monitor und Mainboard) muessen das gleiche unterstuetzen, also im besten Fall hier HDMI1.4 oder HDMI 2.0 oder was mit Displayport.
Dann bleibt immer noch die Frage, ob es vom OS her geht.

Wenn es dann geht, wuerde mich interessieren, fuer was das dann im Falle von Kaveri taugt. Also fuer Fotos, Text oder gar Video, und was schluessig geht und was hakt.

Probieren kannst Du natuerlich, aber NB und Adapter klingt nicht gut.

Also das Verbinden hat problemlos funktioniert mit dem Elitebook 755 G2, Windows 8.1 64 Bit und Catalyst 15.3 Beta. Mit dem DP-Adapter hat die Verbindung als HDMI 1.4 funktioniert. Ich konnte also bei voller Auflösung 30 Hz übertragen. Das hat mir der Fernseher so angezeigt. Ich habe problemlos Videos aus der ZDF-Mediathek abgespielt. Für mich sah es flüssig aus. Ich werde mir das bei nächster Gelegenheit aber nochmals etwas genauer ansehen. Hatte nur wenig Zeit.

Das lief alles flüssig. Ich habe jetzt nicht extra was mit Fotos ausprobiert, weil mir da nicht ganz klar ist, wo das Probleme entstehen sollen. Beziehst Du Dich da auf ne Slideshow?
 
Laut diesem Test kann der neue auch cTDP (mit Screenshot)?

Habt ihr nochmal ermittelt, was für den sehr hohen idle-Stromverbrauch verantwortlich ist?
 
Zuletzt bearbeitet:
Ja, Screenshot, dass man es im BIOS einstellen kann. Können wir auch, ändert aber nichts an Leistung uns Verbrauch.

Ich bin bisher nicht wieder dazu bekommen das Testsystem zu untersuchen. Ich versuche kommende Woche der Fragestellungen nachzugehen. :)
 
Wir haben die Leistungsaufnahme mit verändertem Aufbau neu gemessen und die Seite Leistungsaufnahme und Energieeffizienz überarbeitet. :)
 
Danke Twoodee für die Dauerleihgabe und Onkel fürs nachmessen. Die absoluten Werte sehen jetzt ja schon ganz anders aus.
 
Zurück
Oben Unten