NVIDIA - Kepler

@Tomato?
Häh. Na und. Dieser "zweite Schutzmechanismus" wie du so schön abgeschrieben hast, ist dafür zuständig bei Applikationen wie Furmark, OCCT und Co. auf die TDP zu drosseln, um zu verhindern, dass diese überschritten wird. Dass das nur schlecht als recht funktioniert, sieht man insbesondere bei AMD immer wieder. Nvidia ist da meines Erachtens noch restriktiver.
Das steht im Artikel aber anders. Furemark wird mittels PowerTune (Auslastung) gedrosselt. Der 2. Schutzmechanismus greift hingegen bei zu hohen Temperaturen durch Takt- und Spannungsabsenkung.
@Windhund
bisher habe ich noch keine Karten gesehen, welche dann herunter takten. Selbst bei Übertaktung und hoher Last nicht. (Video/EVGA GTX 680 Hydro Copper)
 
Zuletzt bearbeitet:
Die an der einen oder anderen Stelle ausgesprochenen Informationen, dass PowerTune hier Echtzeitüberwachungsfunktionen von Temperaturen, Leistungsaufnahme, Stromfluss oder gar Spannungen betreibt, stellen sich nach gründlicher Recherche und Rücksprache mit dem Hersteller als falsch heraus. Um so interessanter mag es zu sehen sein, was AMDs PowerTune tatsächlich tut.

Detailliert bei AMD nachgefragt stellte sich aber schließlich heraus, dass hier kein Real-Time-Monitoring von Strom, Leistung oder Temperatur erfolgt – zumindest nicht über PowerTune! Es gibt weiterhin einen zweiten Schutzmechanismus, welcher sehr wohl Augenmerk auf Temperaturen und Spannungen hält und in kritischen Bereichen ebenfalls entgegenwirkt. Das ist aber nicht neu und schon mit der HD-5000-Familie umgesetzt worden. Dies ist aber nicht die Aufgabe der PowerTune-Einheiten.

http://ht4u.net/reviews/2010/amd_powertune_technology/index2.php
 
Und warum genau das so ist willst du uns nicht mitteilen? *noahnung*
Die 670GTX hat mehrere Vorteile die ich nicht erwähnen muss... Das kann dazu führen das der Absatz von der HD7970 einbrechen kann.
Bei den aktuellen Preisen setzen die meißten informierten Leute lieber auf Nvidia statt ATI.
 
Auf die kleineren Karten warte ich auch gespannt :) Meine Freundin braucht noch was neues für Diablo III, da sollte eine 660 (o.ä.) voll ausreichen resp. weit eher im Budget liegen als 7850 - 7970, 670/680...

deadohiosky: Du könntest gerne nach 670er Reviews kucken :) fps / Watt ist sehr toll, und der nach unten wirkende GPU-Boost ist für mich eine tolle Innovation (nach oben hin weniger - es nervt, dass man dadurch je nach dem die Arschkarte ziehen kann, hehe^^, und eine erwischt, die höheren Stromverbrauch / schlechteren Kühler hat und dadurch automatisch nicht die reviewte Leistung erbringt. Das kleine PCB find ich auch eine gute Entwicklung, sollte man nur noch entsprechend kompakte Kühler bringen & schon würden sich Bestizer so manches kompakten Gehäuses freuen...
 
Exakt, damit hier keine negative Diskussion bzw. Nvidia vs. ATI Krieg entsteht.

Das kann dazu führen das der Absatz von der HD7970 einbrechen kann.
Bei den aktuellen Preisen setzen die meißten informierten Leute lieber auf Nvidia statt ATI.

*lol*



"meisten" wird übrigens seit Jahr und Tag mit einem s geschrieben, Meißen jedoch wird mit ß geschrieben.

Ich bin mal gespannt wann die kleinen Karten kommen, möglicherweise gibt es auch Fermi Shrinks in 28nm.

Es gibt schon (laut diveriesen Publikationen, u.a. Anandtech) Fermi Shrinks fürs Mobile Segment. Das kannst du übrigens auch mal RICHTHOFEN ausrichten, der denkt Kepler wäre das einzige 28nm Produkt von Nvidia und JHH würde mit 28nm Prozess Yields bei TSMC ihre eigenen Produkt Yields meinen.


@samm Worauf bezieht sich dein Kommentar, der Zusammenhang erschließt sich mir nicht. Und auch die Empfehlung mir GTX 670 Reviews anzuschauen macht keinen Sinn.*noahnung*

Ich würde dir jedoch empfehlen die letzen zwei, drei Seiten dieses Threads zu lesen.
 
Wenn sie ihn denn in mehr als 3 Stück pro Wafer gebacken bekommen ;) aber mal im Ernst das dürfte jeden bekannten Preisrahmen sprengen.
 
Und weils so schön ist:
Nvidia Tesla GPU Computing
Man betrachte dabei vor allem den Tesla K10. Da gibt´s die GTX 690 (also die ohne ordentliche GPGPU-Leistung) für HPC-Systeme, einfach brilliant! Die erreicht auch fast ein drittel der DP-Flops der Vorgängergeneration aka Tesla M2090.
Mal im Ernst, ist das ein Scherz? Naja gut, für ausschließlich Singleprecision-Anwendungen mag´s ja lustig sein, aber das ist schon sehr dürftig.

Zu Tesla K20 (aka GK110): Im PDF heißt es: 3x DP-leistung von M2090 -> Das wären etwa 1,8 Teraflop. Später im Text ist dann nur noch von over 1 Teraflop die Rede.
Erscheinen wird das Ding übrigens wie erwartet Q4 2012.
 
Zuletzt bearbeitet:
Wenn sie ihn denn in mehr als 3 Stück pro Wafer gebacken bekommen ;) aber mal im Ernst das dürfte jeden bekannten Preisrahmen sprengen.
Über der Verfügbarkeit mache ich mir keine sorgen, ende 2012 wird der 28nm HP sowieso besser, errinern wir uns an GF100 zurück, damals dachte man auch das Nvidia nicht genügend Chips liefern kann...
 
Und weils so schön ist:
Nvidia Tesla GPU Computing
Man betrachte dabei vor allem den Tesla K10. Da gibt´s die GTX 690 (also die ohne ordentliche GPGPU-Leistung) für HPC-Systeme, einfach brilliant! Die erreicht auch fast ein drittel der DP-Flops der Vorgängergeneration aka Tesla M2090.
Mal im Ernst, ist das ein Scherz? Naja gut, für ausschließlich Singleprecision-Anwendungen mag´s ja lustig sein, aber das ist schon sehr dürftig.
Nach den GK104-Tests war das mehr als abzusehen, das Kepler in der Form im GPGPU-Bereich absolut fehl am Platz ist. Nur die Leute kaufen es dennoch, weil Nvidia drauf steht.
 
http://www.nvidia.com/content/PDF/kepler/NV_DS_Tesla_KCompute_Arch_May_2012_LR.pdf

GK104 hat 3,54 Milliarden Transistoren & 1536 GPU Shader, mit 7,1 Milliarden Transistoren könnte GK110 tatsächlich 3072 GPU Shader haben, das doppelte von der GTX680 *massa*
Wird bestimmt wieder so ein großes DIE wie beim GT200 @65nm

Ganz sovielmal werden dann wohl doch nicht :-D. Irgendwo müssen ja auch die "HPC Transistoren" hin :-D

http://www.heise.de/newsticker/meld...hip-hat-bis-zu-2880-Shader-Kerne-1576464.html
 
Mal im Ernst, ist das ein Scherz? Naja gut, für ausschließlich Singleprecision-Anwendungen mag´s ja lustig sein, aber das ist schon sehr dürftig.

Zu Tesla K20 (aka GK110): Im PDF heißt es: 3x DP-leistung von M2090 -> Das wären etwa 1,8 Teraflop. Später im Text ist dann nur noch von over 1 Teraflop die Rede.
Erscheinen wird das Ding übrigens wie erwartet Q4 2012.
Das ist kein Scherz, sondern es zeigt die Probleme von Nvidia bzw. Big-Dies dauern einfach länger.
Jetzt bin ich wirklich gespannt, wann AMD die HPC-Thaiti rausbring. 1 bzw. 2 Quartale vor Tesla-GK110 wäre ein großer Image-Schaden für Nvidia, wie es bei Fermi-GF100-Tesla passierte.
Das ist IMO nicht zu unterschätzen, da der Profi-Markt bei Nvidias üblichen Geschäft der einzige hoch profitable Markt ist.

Jetzt muss man eigentlich schon bangen, ob GK110 im Desktop überhaupt noch 2012 kommt, sowie ob GK110 bei Einführung überhaupt mit vollen Einheiten daherkommt.
Schließlich braucht GK107 schon so 190W und GK110 hat doppelt so viele Transistoren bzw. fast Einheiten.
 
könnte GK110 tatsächlich 3072 GPU Shader haben, das doppelte von der GTX680

Wohl eher nicht da fehlt beim GK104 zuviel GPGPU kram, gehe eher davon aus das im besten Fall GK110 zwischen 15/8 - 5/4 Shader von GK104 + DP Flops Verbesserung auf 3x der von 2090 liegt. Zudem ist das doppelte von GK104 durch K10 abgedeckt.
 
Und weils so schön ist:
Nvidia Tesla GPU Computing
Man betrachte dabei vor allem den Tesla K10. Da gibt´s die GTX 690 (also die ohne ordentliche GPGPU-Leistung) für HPC-Systeme, einfach brilliant! Die erreicht auch fast ein drittel der DP-Flops der Vorgängergeneration aka Tesla M2090.
Mal im Ernst, ist das ein Scherz? Naja gut, für ausschließlich Singleprecision-Anwendungen mag´s ja lustig sein, aber das ist schon sehr dürftig.
Man könnte annehmen das es dürftig ist, aber.......
Die K10 ist Bestandteil eines neuen Produktes, nämlich Nvidia VGX und Stichwort Virtual GPU. Praktisch wird die GPU im Data Center integriert (Cisco hat schon fertig). Mittels Citrix receiver (GPU accelerated Windows Oberfläche), der auf Windows, Mac, Tablets, Smart phones etc. laufen kann bekommt man Zugriff auf die GPU. Alles was Nvidia kompatibel ist läuft dann auch darauf. (Citrix hat auch schon fertig)
Geforce Grid nennt sich die Gaming in the Cloud Implemtierung. Um Latenzen im Netzwerk zu verringern übernimmt dann die VGPU bzw. deren Treiber selber die virtuelle Adressverwaltung. In der keynote wurde dann mit einem TV (ARM) und Controller so gezockt, als wenn man fette Hardware hätte.

Super das die das alles Übertragen haben.
 
Groß, größer, NVidia: http://www.golem.de/news/kepler-gk1...-mia-transistoren-und-hyper-q-1205-91833.html

In einem Punkt ist sich der Nvidia-Chef aber bereits sicher: "Ich habe gestern abend nochmal nachgesehen: Das ist der komplexeste Chip, der in Serie hergestellt wird. Auf Platz zwei kommt dann ein FPGA von Xilinx mit 6,8 Milliarden Transistoren. Dann folgen viele GPUs, und die komplexeste CPU ist ein Westmere von Intel mit 2,5 Milliarden Transistoren." Dafür hatte sich Huang vermutlich am Eintrag 'Transistor Count' der englischen Wikipedia orientiert.
 
Weil wir grad so schön über GK110 spekulieren. :)

http://www.pcgameshardware.de/aid,8...Us-auf-GTC-2012-vorgestellt/Grafikkarte/News/

GK110 - K20-Specs oder zumindest Teile davon
Die bisher bekannten Fakten zum GK110 im Überblick.
- 7,1 Milliarden Transistoren
- Physikalisch 15 SMX (mit jeweils 192 Shader-ALUs, Tesla-Produkte mit voraussichtlich 13 oder 14 aktiven SMX)
- 384 Bit breit angebundener GDDR5-Speicher (soviel wie man unterbringen kann)
- als Tesla für das vierte Quartal 2012 angekündigt, Quadro und Geforce bisher unbestimmt
- "Dynamic Parallelism", "Hyper-Q" and "SMX"
- 6-Pin & 8-Pin Stromanschluss auf der Tesla K20-Karte
- DGEMM-Effizienz bei 80-85% (Fermi bei circa 65%, Radeon bei >90%)
- 3x höherer DP-Spitzendurchsatz im Vergleich zu Fermi-basierten Tesla-Karten

Der Stromverbrauch ist daher nicht zwingend auf 225 Watt beschränkt, die meisten OEMs akzeptieren jedoch nur 225 Watt. Sumit Gupta bestätigte, dass man zurzeit mit 225 Watt kalkuliert, Nvidia könne jedoch dank des fortschrittlichen Energiemanagements in Kepler jedes gewünschte Power-Budget bedienen. Die Taktraten des GK110 stehen noch nicht fest, sollen sich gegenüber dem zurzeit auch für die Demo genutzten ersten Silizium auch noch erhöhen.
 
Jetzt bin ich wirklich gespannt, wann AMD die HPC-Thaiti rausbring. 1 bzw. 2 Quartale vor Tesla-GK110 wäre ein großer Image-Schaden für Nvidia, wie es bei Fermi-GF100-Tesla passierte.
Das ist IMO nicht zu unterschätzen, da der Profi-Markt bei Nvidias üblichen Geschäft der einzige hoch profitable Markt ist.

Nö, gerade im HPC-Markt sind 1-2 Quartale völlig egal. Kaum wer kauft im HPC kurzfristig, 6 Monate Vorlaufzeit dürften da wohl eher völlig normal sein. Jetzt wo GK110 angekündigt ist, ist Amds Vorteil da weg. Ich versteh Amd einfach nicht, wieso die kein HPC Tahiti bis jetzt gelauncht haben. Bei nem völlig ungewissen Bild auf GK110 wie es in den 5Monaten seit Tahitilaunch war, hätte man wahrscheinlich einige gute Deals abschließen können, während man nun mit GK110 konkurieren muss.
 
AffenJack schrieb:
Nö, gerade im HPC-Markt sind 1-2 Quartale völlig egal. Kaum wer kauft im HPC kurzfristig, 6 Monate Vorlaufzeit dürften da wohl eher völlig normal sein
Stimmt, wenn alle Versprechungen nach Plan verlaufen.
Schon jetzt gibt es aber eine 2 Quartals-Verschiebungen. Man hat damals bei Fermi viele verärgert, weil AFAIK nicht einmal die TDP eingehalten wurde und nach monatelangen Vorauszeit-Arbeit von HPCs dann nicht mehr perfekt in das System passten.

Damals bei Fermi war eben die Zeit, wo viele Profi-GPU-Leute erstmals !!!! nach OpenCL umschauten und OpenCL dadurch einen ganz anderen Stellenwert bekam.
Du sagst es ja. Bei so langen Vorlaufzeiten von 6 Monaten sind verlässliche Partner sehr wichtig und da erkannten einige das erste mal, dass Nvidia gar nicht so verlässlich ist und die Konzentration auf dieses geschlossene System mit nur einem Hersteller einige Probleme bringen kann.

Wie gut bzw. wie schlecht Nividas Situation bei der 28nm-Umstellung ist, wissen wird noch nicht.
alias Versorgung der OEMs-Design-Wins - GK110-Tesla-Daten/Performance/Effizienz - GK110-Game - Geschäftsbericht
Die GK110-Tesla-Verschiebung ist ein weiteres Zeichen, dass es nicht gut läuft. Denn es wurde für Mai 2012 versprochen und bis vor kurzem wurde gesagt, diesen Termin einhalten zu können!!!! Da werden sicher einige HPC-Kunden sauer.
Am ehesten können wir Nvidias Situation im nächsten Geschäftsbericht erfahren, wo sich erstmals 28nm-Produkte auswirken. Nachdem Nivida einen ordentlichen Gewinn-Einbruch erlitten hatte, wäre es interessant zu wissen, ob Nvidia mit steigender Verfügbarkeit von 28nm-Produkt mit schlechter Yield im Gewinn zulegen konnte.
Denn wie ich schon sagte, der Profi-Markt von Nvidia ist im 1Q 2012 der einzige profitable Markt gewesen. Da die Konkurrenz aufholt und Nvidia da die praktische Monopolstellung verliert, hätte Nvidia heuer nicht mehr den Fehler machen dürfen, GK110 um paar Quartale zu verschieben.
Vorallem, wenn AMDs APUs auch schon langsam & eingeschränkt in Servern genutzt werden kann.

Aber wie ich es schon vorher sagte.
Ersteinmal muss AMD eine HPC-GPU liefern.

PS: Immerhin tritt die Vermutung/Möglichkeit vor (über) einem Jahr ein, dass GK110 aufgrund 28nm-Yield & Kapazität vielleicht doch erst im 4Q 2012 kommen wird.
 
Der GK110 ist ja einfach nur ein Monstrum, wenn die Packdichte gleich bleibt (bezogen auf den GK104), bei 12 Mio pro mm² hat man einen ~592mm² Chip. *suspect*
 
Offenbar gibt es sogar Unterschiede bei den festgelegten maximalen Boost-Taktraten zwischen den einzelnen ASICs.

Man muss hier etwas aufpassen. Der maximal nutzbare Boost-Takt hängt tatsächlich von der Güte des Chips ab. Ein Chip der z.B eine höhere Leakage hat und damit mehr verbraucht, stößt schneller an das Power Target als ein Chip mit geringen Leckströmen.
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index13.php

Der theoretisch maximale Takt hängt hingegen vom BIOS der Karte ab. Dort ist eine Tabelle für die möglichen Taktfrequenzen hinterlegt (1006,1019,1032, usw...). Und nur diese Taktfrequenzen sind letztendlich nutzbar.

Grüße
Fabian
 
Offenbar gehts bei der GTX660 wohl doch langsam mal los.

Hier gibt es einen (ersten?) Vorabtest:
http://www.tweaktown.com/reviews/48...i_2gb_reference_video_card_review/index1.html

Die geben der Karte ein Rating von rd. 90%. Ganz teilen mag ich das nicht. Dafür gefällt mir das "Bild" bei hohen AA/AF-Modi nicht so richtig. Hab erwartet, dass sie da konstanter arbeitet. Aber vllt. ist es auch ne Treiber-Geschichte.

Auf jeden Fall ist damit offensichtlich, dass sich auch zukünftig erst einmal im Bereich 150 - 300€ wenig bis gar nix tun wird. :/

Wirklich verlässlich werden wohl aber wieder nur die richtigen Launch-Tests sein. Hier hoffe ich, das HT4U auch mit einem Muster versorgt wird. :)
 
Zurück
Oben Unten