R1000 Spekulationsthread

Ja. Eine wichtige Fähigkeit, die ich bis heute vermisse. Insbesondere bei den HD69xx zollt der Speicher einen nicht unerheblichen Anteil am Verbrauch im Idle, Multimonitor bzw. bei DVD- und BluRay-Wiedergabe. Ich hoffe, dass dies mit den kommenden GPUs elegant gelöst wird.

Das meine ich. Selbst wenn das bloße runtertakten des Speichers seit der 8er-Generation funktionieren sollte, gab es da nicht noch Fälle wo die Eyefinitys im IDLE trotzdem deutlich mehr (zuviel?) Strom gezogen haben, weil zwar der chip nicht unbedingt viel zu tun hatte, aber seine Infrastruktur (displayport-Ansteuerung etc.) trotzdem auf Hochtouren laufen musste?
Gerade hier ist noch optimierungspotenzial. Das mag zwar wenig prio haben, da es ein Highend-Problem ist, wo die Idle-Power sowieso eine untergeordnete Rolle spielt, dennoch zeigt es dass da oftmals noch halbgare Verfahren im Einsatz sind.
Wenn es die Graka schaffen sollte nur eine Handvoll Transistoren am laufen zu halten und den Rest zu powergaten, den Speicher fast gänzlich vom Strom zu nehmen und auch die restliche Infrastruktur soweit runter zu fahren wie es geht, sollten zumindest 10W drin sein IMHO. das wäre zumindest mal eine Hausnummer mit der man ansatzweise leben könnte. Sosnt haben wir nämlich das Kuriosum, dass die große Graka, obwohl nichts zu tun, mehr strom verbrutzelt als ein Zacate unter vollast. Und das entbehrt nicht irgendwie einer gewissen Lächerlichkeit... :]
 
Die Teillast, wie du es nennst, unterscheidet sich aber nicht messbar von dem was du als idle bezeichnest.
Teillast, wie der Name schon sagt, entspricht einem Teil der Vollast. Das können 10% sein. Das können aber auch 90% sein. Und ob du es glaubst oder nicht, 90% Teillast unterscheidet sich auch messbar sehr stark von Idle. ;) Darum geht es aber nicht. Es geht, wie Ge0rgy ja schon richtigerweise fragte, um die Definition. Und Idle ist per Definition etwas anderes als Teillast. Das war der Punkt. Genau genommen gibt es eigentlich gar kein vollständiges Idle auf normalen Systemen. Bei einer CPU muss immer noch mindestens ein Kern laufen, um OS Prozesse zu verarbeiten. Auch wenn die dadurch erzeugte Last sehr gering ist. Eine GPU wiederum muss noch das ganze Desktop Gedöns anzeigen. Dennoch, das ist trotzdem nochmal was anderes als die von dir aufgezählten Fälle. Vollständiges Idle von CPU und GPU ist eigentlich nur mit Standby möglich.
 
Da kann ich meinen Rechner auch gleich ausmachen ... idR wird "idle" als auf dem Desktop ohne laufende Programme bezeichnet. Und da gibt's keine 3W, that's it.
 
Ja. Eine wichtige Fähigkeit, die ich bis heute vermisse. Insbesondere bei den HD69xx zollt der Speicher einen nicht unerheblichen Anteil am Verbrauch im Idle, Multimonitor bzw. bei DVD- und BluRay-Wiedergabe. Ich hoffe, dass dies mit den kommenden GPUs elegant gelöst wird.

Gerade bei der Blu-Ray Wiedergabe wird es keine großen Veränderungen geben, denn das Dekodieren von H.264 benötigt gewaltige Speicherbandbreiten (es muss der Bitstrom gelesen werden + aus bis zu 16 Referenzframes gelesen werden und der endgültige Frame geschrieben werden und das 30 mal pro Sekunde), weshalb der Speicher immer hoch getaktet werden muss, mit Idletaktraten ist da kein Blumentopf zu gewinnen.
 
Gerade bei der Blu-Ray Wiedergabe wird es keine großen Veränderungen geben, denn das Dekodieren von H.264 benötigt gewaltige Speicherbandbreiten (es muss der Bitstrom gelesen werden + aus bis zu 16 Referenzframes gelesen werden und der endgültige Frame geschrieben werden und das 30 mal pro Sekunde), weshalb der Speicher immer hoch getaktet werden muss, mit Idletaktraten ist da kein Blumentopf zu gewinnen.

Nur brauch man dafür keine mehrere hundert Mhz.
Mein Notebook mit RV840 verbraucht im Teillastbereich ca 6-7W obwohl der Speicher schon unter 100Mhz hat und der Core auf 30Mhz läuft.
Das Problem, dass ATI hat, ist immernoch, dass bei vielen Lastwechsel er zwischen den einzelnen Bioseinträgen hin und herjumpt und man dadurch graue Streifen am oberen Bildschirmrand flackern sieht. Ich kann damit leben und nehm die Stunde längere Laufzeit in kauf.
Nur wenn ATI immer so verfahren würde, würden sicherlich viele aufschreien.
HD-Streams kann ich auch bei nur 500Mhz Speicher ansehen. 200Mhz ist zu niedrig und dazwischen stürzt er immer ab.
 
Gerade bei der Blu-Ray Wiedergabe wird es keine großen Veränderungen geben [...]
Gerade da könnte und wird es hoffentlich große Veränderungen geben: AMD hat da im Vergleich zu NV noch Potenzial, bei de Blu-ray-Wiedergabe benötigen Radeons wie HD 6970 in Relation zum Leerlauf-Verbrauch weitaus mehr Strom als etwa eine GTX 580 [laut HT4U 22 zu 71 gegen 31 zu nur 38 Watt]. Vermutlich wird AMD das mit Tahiti/GCN auch angegangen sein.
 
Wenn du Texte tippt oder Videos renderst, ist die Grafikkarte im idle

Du möchtest damit sagen das SI nicht unter allen Umständen jederzeit im Idle auf 3W Boardpower kommt? Ob Dir da wohl jemand widerspricht? Und obs wohl jemanden interessiert?

Spannend ist hier doch ob der Wert überhaupt erreicht wird - zum Beispiel wenn ich einen längeren Task starte der CPU- oder I/O-intensiv ist aber keine Aufmerksamkeit erfordert. Ich persönlich halte 3W für die gesamte Karte für nicht erreichbar - egal ob mit oder ohne Monitor.
.
EDIT :
.

Eine GPU wiederum muss noch das ganze Desktop Gedöns anzeigen.

Welcher Desktop? man bash :-)
.
EDIT :
.

idR wird "idle" als auf dem Desktop ohne laufende Programme bezeichnet.

Du bist weiblichen Geschlechts?
 
Mein Gott ist doch für den Sachverhalt vollkommen Wurst wie die exakte Definition von idle, Niedriglast, Teillast etc. ist... der Vergleich mit kleinen Grafikkarten älterer Serien hinkt, die haben doch viel weniger Recheneinheiten, ergo ist auch weniger Grundversorgung notwendig.

3W Boardpower halte ich nicht für realistisch... GPU, Speicher, Lüfter und dann die Wandler - ich kann es mir echt nicht vorstellen... es sei denn es würden im Niedriglastbereich große Teile des Chips komplett von der Spannungsversorgung getrennt werden, samt einiger Speicherbausteine, der Lüfter komplett abgeschaltet - und selbst dann sind da immer noch die Wandler.

Aber selbst 10 oder Watt wären für so eine Grafikkarte der Knaller, 15 immer noch eine immense und beachtliche Verbesserung.
 
Gesehen schon, besonders interessant ist es aber nicht, außer vllt der Tesselation Folie. Viel Gequatsche, OBR und seine "Folien-Folie" ohne Quellen-Angabe und die Vorverlegung auf den 22. Dez..

Wie immer journalistische Feinarbeit.:]


Der Typ holt sich übrigens gerade sprichwörtlich einen runter, dass die ganze Welt seine Leaks wie das "Wort Gottes" verbreitet (sollte die Übersetzung hinkommen).
Äußerst sympathisches Kerlchen. Da verweise ich gerne mal auf 3dcenter die sich großspurig dafür ausgesprochen haben, OBR keine Projektionsfläche mehr zu bieten, http://www.3dcenter.org/blog/leonid...r-presse-bezueglich-disqualifizierter-quellen, es aber dennoch wieder tun, sich aber durch Verweis auf eben diese, ich nenn es mal Kolumne, moralisch und ethisch von der Masse versuchen abzusetzen.

Dass nenne ich mal konsequent und die eigene Integrität wahren.:]
 
Zuletzt bearbeitet:
So Leute,

ich schreibe es extra dick und fett damit es auch der letzte von Euch versteht:

Diskutiert bitte sachlich über das Thema des Threads! Wenn wir hier weiter Kommentare lesen die persönlich andere User angreifen, hagelt es ab sofort Sperren!
Wir sind es echt leid hier, und in anderen Threads jeden Tag aufräumen zu müssen nur weil einige (natürlich fast immer die selben) sich nicht benehmen können.

Also bitte: Nehmt Euch zusammen und diskutiert sachlich und in einem angemessenen Ton über das eigentliche Thema!


VG
Neo
 
Da kann ich meinen Rechner auch gleich ausmachen ... idR wird "idle" als auf dem Desktop ohne laufende Programme bezeichnet.
"Programme" sind auf OS Ebene Prozesse, die wiederum aus einem oder mehreren Threads bestehen. Du wirst keinen Rechner finden, auf dem kein Prozess läuft. Ausser der Rechner ist ausgeschaltet. Als Idle wird idR der Zustand bezeichnet, wenn kein Prozess Last erzeugt. Auch wenn das, wie ich bereits sagte, technisch nicht ganz richtig ist. Jeder Prozess erzeugt Last, da jeder Thread seine Zeit vom Scheduler bekommt. Wenn es nichts zu tun gibt, verwirft er eben die ihm zur Verfügung stehende Zeit. Wie auch immer, die von dir aufgezählten Fälle, Texte mit einer Office Lösung zu schreiben oder Videos zu rendern, erzeugen mehr Last, mal mehr und mal weniger. Daher ist das auch kein Idle. Weder per Definition, noch wie Idle üblicherweise gemessen wird.
 
Das ist eigentlich schon seit Monaten klar?
Gipsel hat sich schon lange die Treiber angeschaut und 3 ASICs für die GCN-Architektur rausbekommen. Es war somit klar, dass Tahiti, Cape Verde und Pitcairn auf GCN basieren und der Rest darunter auf VLIW 5 und VLIW 4 ( Trinity ) aufbauen wird.
 
Theoretisch - ja.
Aber überall gab es trotzdem Leute, die behaupteten, dass nur die HighEnd 79xx GCN haben würde.
 
Gute Nachrichten bei ATI
Derweil bringt AMD dem Grafikkarten-Enthusiasten ein kleines Weihnachtsgeschenk, indem der Launch der Radeon HD 7970 auf den 22. Dezember vorgezogen wurde
Zusammen mit den 40 Prozent mehr Texturpower, einem 50 Prozent breiterem Speicherinterface und den Effizienzverbesserungen der GCN-Architektur kann das angepeilte Performance-Ziel von 50 Prozent mehr als bei der GeForce GTX 580 durchaus erreichbar sein.
http://www.3dcenter.org/

7970 Launch am Donnerstag wäre Super
 
Naja aber nicht vor Neujahr bis die Verfügbarkeit hoch geht
 
amdzerocore2_dh_fx57.jpg


amdzerocore3_dh_fx57.jpg

http://www.donanimhaber.com/ekran-k...PU-enerji-verimliliginde-acik-ara-ondeyiz.htm

Damit dürfte sich auch klären, was man unter idle bzw. long idle versteht.:]

amdradeonhd7900_anaozellikler_dh_fx57.jpg

http://www.donanimhaber.com/ekran-k...0-serisi-icin-alti-cizilen-ana-ozellikler.htm
 
Wie ich es sagte: Unter 3W nur, wenn der Schirm aus ist, bei "klassischem" Leerlauf auf dem Desktop im Bereich wie bisher, also irgendwas um die 20W [sieht man daran, dass eine Radeon im CF noch so viel zieht wie eine "Competitive Solution"]. Schicke Sache, wenn man mal 10 min weg ist - dann kann der Schirm ja ruhig ausgehen.
 
Und wie ich und andere sagten, es gibt keinen "klassischen" idle.

Es ist offensichtlich Definitionsfrage, was "du" unter idle verstehst und was "andere" unter idle verstehen.
 
Gab es nicht mal eine Entwicklung für Monitore zum Energiesparen? Fällt mir in dem Zusammenhang ein. Da wurde nur ein Bild von der Grafikkarte erzeugt, wenn sich der Bildinhalt ändert und der Monitor stellt solange das alte Bild dar, bis ein neues kommt. Ich finde die Bezeichnung davon nicht mehr. Ist zwar OT, drängt sich mir dabei aber auf, jemand eine Idee?
 
[sieht man daran, dass eine Radeon im CF noch so viel zieht wie eine "Competitive Solution"]. Schicke Sache, wenn man mal 10 min weg ist - dann kann der Schirm ja ruhig ausgehen.

Das (für mich) entscheidende ist in dem Fall, daß mein Crossfire im idle nur für eine Graka Strom zieht (ziehen soll) und nicht für 2 (wie bisher und auch bisher bei NV). Und das ist relativ neu. Bisher war das nämlich nicht wirklich tauglich. Mal sehen, ob es jetzt gut funktioniert.
 
Ja, wenn das vernünftig klappt, wäre das ein großer Fortschritt. Selbst Maschinen mit SNB-E und CF wären dann im Leerlauf vergleichsweise sparsam.
 
Zurück
Oben Unten