App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
NVIDIA - Kepler
- Ersteller Desti
- Erstellt am
Effe
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 17.02.2011
- Beiträge
- 3.184
- Renomée
- 164
- Standort
- Im Havelland
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Rosetta & TN-Grid + F&H ->>> FCK CVD19 !
- Lieblingsprojekt
- Einstein@Home
- Meine Systeme
- 3700X+2080+1650; 2400G+290X+560D+Vega11; 2200G+ 5700XT+Vega8; i7860+R7950; i73930K+1660+Vega56+750ti
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- RyZen R7-3700X; RyZen 5 2400G
- Mainboard
- ASUS X370 Prime Pro; MSI B350M Mortar
- Kühlung
- Alpenföhn Brocken 2; Alpenföhn Wasser
- Speicher
- 32GB Crucial Ballistix Sport CL16 3200 MHz ;GSkill F4-3200C14D-16GTZ;
- Grafikprozessor
- MSI Radeon RX 5700 XT Gaming X; Vega 11 + Inno3D GTX1660;
- Display
- HP Pavilion 32 HDR; HP Pavilion 32
- SSD
- Crucial P1 1TB NVMe + BX500 960GB; Sandisk Plus 480GB
- HDD
- WD Blue 1TB; WD Purple 3TB
- Soundkarte
- X-Fi Titanium Fatal1ty; X-Fi Titanium
- Gehäuse
- Chieftec Smart CH-09B-U3; Sharkoon CA-M silber
- Netzteil
- Aerocool P7 650W; SST-SX500-LG
- Betriebssystem
- Win10 64bit
- Webbrowser
- Firefox X,; Chrome 10000
Die Boost vs Powertune-Diskussion hat jetzt ihren eigenen Thread: http://www.planet3dnow.de/vbulletin/showthread.php?t=405004
Das steht im Artikel aber anders. Furemark wird mittels PowerTune (Auslastung) gedrosselt. Der 2. Schutzmechanismus greift hingegen bei zu hohen Temperaturen durch Takt- und Spannungsabsenkung.@Tomato?
Häh. Na und. Dieser "zweite Schutzmechanismus" wie du so schön abgeschrieben hast, ist dafür zuständig bei Applikationen wie Furmark, OCCT und Co. auf die TDP zu drosseln, um zu verhindern, dass diese überschritten wird. Dass das nur schlecht als recht funktioniert, sieht man insbesondere bei AMD immer wieder. Nvidia ist da meines Erachtens noch restriktiver.
@Windhund
bisher habe ich noch keine Karten gesehen, welche dann herunter takten. Selbst bei Übertaktung und hoher Last nicht. (Video/EVGA GTX 680 Hydro Copper)
Zuletzt bearbeitet:
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
Die an der einen oder anderen Stelle ausgesprochenen Informationen, dass PowerTune hier Echtzeitüberwachungsfunktionen von Temperaturen, Leistungsaufnahme, Stromfluss oder gar Spannungen betreibt, stellen sich nach gründlicher Recherche und Rücksprache mit dem Hersteller als falsch heraus. Um so interessanter mag es zu sehen sein, was AMDs PowerTune tatsächlich tut.
Detailliert bei AMD nachgefragt stellte sich aber schließlich heraus, dass hier kein Real-Time-Monitoring von Strom, Leistung oder Temperatur erfolgt – zumindest nicht über PowerTune! Es gibt weiterhin einen zweiten Schutzmechanismus, welcher sehr wohl Augenmerk auf Temperaturen und Spannungen hält und in kritischen Bereichen ebenfalls entgegenwirkt. Das ist aber nicht neu und schon mit der HD-5000-Familie umgesetzt worden. Dies ist aber nicht die Aufgabe der PowerTune-Einheiten.
http://ht4u.net/reviews/2010/amd_powertune_technology/index2.php
Die 670GTX hat mehrere Vorteile die ich nicht erwähnen muss... Das kann dazu führen das der Absatz von der HD7970 einbrechen kann.Und warum genau das so ist willst du uns nicht mitteilen?
Bei den aktuellen Preisen setzen die meißten informierten Leute lieber auf Nvidia statt ATI.
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
Ein Glück, dass du sie nicht erwähnst.
Exakt, damit hier keine negative Diskussion bzw. Nvidia vs. ATI Krieg entsteht.Ein Glück, dass du sie nicht erwähnst.
Ich bin mal gespannt wann die kleinen Karten kommen, möglicherweise gibt es auch Fermi Shrinks in 28nm.
samm
Lt. Commander
- Mitglied seit
- 02.09.2009
- Beiträge
- 131
- Renomée
- 1
- Prozessor
- Threadripper 1950X @Stock
- Mainboard
- Asrock Taichi x399
- Kühlung
- XSPC Raystorm Neo
- Speicher
- 4*8GB G.Skill 3700 CL17 @3200 CL14
- Grafikprozessor
- Sapphire 6900 XT Toxic Air
- Display
- LG G1 55
- SSD
- Samsung 950 Evo 1TB, Samsung 840 Pro 256 GB, Samsung 830 128 GB
- Soundkarte
- SoundblasterX AE-5
- Netzteil
- Seasonic Titanium 750W
- Betriebssystem
- Windows 11 Pro
- Webbrowser
- Brave
Auf die kleineren Karten warte ich auch gespannt Meine Freundin braucht noch was neues für Diablo III, da sollte eine 660 (o.ä.) voll ausreichen resp. weit eher im Budget liegen als 7850 - 7970, 670/680...
deadohiosky: Du könntest gerne nach 670er Reviews kucken fps / Watt ist sehr toll, und der nach unten wirkende GPU-Boost ist für mich eine tolle Innovation (nach oben hin weniger - es nervt, dass man dadurch je nach dem die Arschkarte ziehen kann, hehe^^, und eine erwischt, die höheren Stromverbrauch / schlechteren Kühler hat und dadurch automatisch nicht die reviewte Leistung erbringt. Das kleine PCB find ich auch eine gute Entwicklung, sollte man nur noch entsprechend kompakte Kühler bringen & schon würden sich Bestizer so manches kompakten Gehäuses freuen...
deadohiosky: Du könntest gerne nach 670er Reviews kucken fps / Watt ist sehr toll, und der nach unten wirkende GPU-Boost ist für mich eine tolle Innovation (nach oben hin weniger - es nervt, dass man dadurch je nach dem die Arschkarte ziehen kann, hehe^^, und eine erwischt, die höheren Stromverbrauch / schlechteren Kühler hat und dadurch automatisch nicht die reviewte Leistung erbringt. Das kleine PCB find ich auch eine gute Entwicklung, sollte man nur noch entsprechend kompakte Kühler bringen & schon würden sich Bestizer so manches kompakten Gehäuses freuen...
deadohiosky
Gesperrt
- Mitglied seit
- 13.07.2011
- Beiträge
- 1.624
- Renomée
- 26
Exakt, damit hier keine negative Diskussion bzw. Nvidia vs. ATI Krieg entsteht.
Das kann dazu führen das der Absatz von der HD7970 einbrechen kann.
Bei den aktuellen Preisen setzen die meißten informierten Leute lieber auf Nvidia statt ATI.
"meisten" wird übrigens seit Jahr und Tag mit einem s geschrieben, Meißen jedoch wird mit ß geschrieben.
Ich bin mal gespannt wann die kleinen Karten kommen, möglicherweise gibt es auch Fermi Shrinks in 28nm.
Es gibt schon (laut diveriesen Publikationen, u.a. Anandtech) Fermi Shrinks fürs Mobile Segment. Das kannst du übrigens auch mal RICHTHOFEN ausrichten, der denkt Kepler wäre das einzige 28nm Produkt von Nvidia und JHH würde mit 28nm Prozess Yields bei TSMC ihre eigenen Produkt Yields meinen.
@samm Worauf bezieht sich dein Kommentar, der Zusammenhang erschließt sich mir nicht. Und auch die Empfehlung mir GTX 670 Reviews anzuschauen macht keinen Sinn.
Ich würde dir jedoch empfehlen die letzen zwei, drei Seiten dieses Threads zu lesen.
http://www.nvidia.com/content/PDF/kepler/NV_DS_Tesla_KCompute_Arch_May_2012_LR.pdfComprised of 7.1 billion transistors, the Kepler GK110 GPU is an engineering marvel created to address the most daunting challenges in HPC
GK104 hat 3,54 Milliarden Transistoren & 1536 GPU Shader, mit 7,1 Milliarden Transistoren könnte GK110 tatsächlich 3072 GPU Shader haben, das doppelte von der GTX680
Wird bestimmt wieder so ein großes DIE wie beim GT200 @65nm
G
Gast31082015
Guest
Wenn sie ihn denn in mehr als 3 Stück pro Wafer gebacken bekommen aber mal im Ernst das dürfte jeden bekannten Preisrahmen sprengen.
Und weils so schön ist:
Nvidia Tesla GPU Computing
Man betrachte dabei vor allem den Tesla K10. Da gibt´s die GTX 690 (also die ohne ordentliche GPGPU-Leistung) für HPC-Systeme, einfach brilliant! Die erreicht auch fast ein drittel der DP-Flops der Vorgängergeneration aka Tesla M2090.
Mal im Ernst, ist das ein Scherz? Naja gut, für ausschließlich Singleprecision-Anwendungen mag´s ja lustig sein, aber das ist schon sehr dürftig.
Zu Tesla K20 (aka GK110): Im PDF heißt es: 3x DP-leistung von M2090 -> Das wären etwa 1,8 Teraflop. Später im Text ist dann nur noch von over 1 Teraflop die Rede.
Erscheinen wird das Ding übrigens wie erwartet Q4 2012.
Nvidia Tesla GPU Computing
Man betrachte dabei vor allem den Tesla K10. Da gibt´s die GTX 690 (also die ohne ordentliche GPGPU-Leistung) für HPC-Systeme, einfach brilliant! Die erreicht auch fast ein drittel der DP-Flops der Vorgängergeneration aka Tesla M2090.
Mal im Ernst, ist das ein Scherz? Naja gut, für ausschließlich Singleprecision-Anwendungen mag´s ja lustig sein, aber das ist schon sehr dürftig.
Zu Tesla K20 (aka GK110): Im PDF heißt es: 3x DP-leistung von M2090 -> Das wären etwa 1,8 Teraflop. Später im Text ist dann nur noch von over 1 Teraflop die Rede.
Erscheinen wird das Ding übrigens wie erwartet Q4 2012.
Zuletzt bearbeitet:
Über der Verfügbarkeit mache ich mir keine sorgen, ende 2012 wird der 28nm HP sowieso besser, errinern wir uns an GF100 zurück, damals dachte man auch das Nvidia nicht genügend Chips liefern kann...Wenn sie ihn denn in mehr als 3 Stück pro Wafer gebacken bekommen aber mal im Ernst das dürfte jeden bekannten Preisrahmen sprengen.
G
Gast30082015
Guest
Nach den GK104-Tests war das mehr als abzusehen, das Kepler in der Form im GPGPU-Bereich absolut fehl am Platz ist. Nur die Leute kaufen es dennoch, weil Nvidia drauf steht.Und weils so schön ist:
Nvidia Tesla GPU Computing
Man betrachte dabei vor allem den Tesla K10. Da gibt´s die GTX 690 (also die ohne ordentliche GPGPU-Leistung) für HPC-Systeme, einfach brilliant! Die erreicht auch fast ein drittel der DP-Flops der Vorgängergeneration aka Tesla M2090.
Mal im Ernst, ist das ein Scherz? Naja gut, für ausschließlich Singleprecision-Anwendungen mag´s ja lustig sein, aber das ist schon sehr dürftig.
http://www.nvidia.com/content/PDF/kepler/NV_DS_Tesla_KCompute_Arch_May_2012_LR.pdf
GK104 hat 3,54 Milliarden Transistoren & 1536 GPU Shader, mit 7,1 Milliarden Transistoren könnte GK110 tatsächlich 3072 GPU Shader haben, das doppelte von der GTX680
Wird bestimmt wieder so ein großes DIE wie beim GT200 @65nm
Ganz sovielmal werden dann wohl doch nicht :-D. Irgendwo müssen ja auch die "HPC Transistoren" hin :-D
http://www.heise.de/newsticker/meld...hip-hat-bis-zu-2880-Shader-Kerne-1576464.html
Das ist kein Scherz, sondern es zeigt die Probleme von Nvidia bzw. Big-Dies dauern einfach länger.Mal im Ernst, ist das ein Scherz? Naja gut, für ausschließlich Singleprecision-Anwendungen mag´s ja lustig sein, aber das ist schon sehr dürftig.
Zu Tesla K20 (aka GK110): Im PDF heißt es: 3x DP-leistung von M2090 -> Das wären etwa 1,8 Teraflop. Später im Text ist dann nur noch von over 1 Teraflop die Rede.
Erscheinen wird das Ding übrigens wie erwartet Q4 2012.
Jetzt bin ich wirklich gespannt, wann AMD die HPC-Thaiti rausbring. 1 bzw. 2 Quartale vor Tesla-GK110 wäre ein großer Image-Schaden für Nvidia, wie es bei Fermi-GF100-Tesla passierte.
Das ist IMO nicht zu unterschätzen, da der Profi-Markt bei Nvidias üblichen Geschäft der einzige hoch profitable Markt ist.
Jetzt muss man eigentlich schon bangen, ob GK110 im Desktop überhaupt noch 2012 kommt, sowie ob GK110 bei Einführung überhaupt mit vollen Einheiten daherkommt.
Schließlich braucht GK107 schon so 190W und GK110 hat doppelt so viele Transistoren bzw. fast Einheiten.
ONH
Grand Admiral Special
könnte GK110 tatsächlich 3072 GPU Shader haben, das doppelte von der GTX680
Wohl eher nicht da fehlt beim GK104 zuviel GPGPU kram, gehe eher davon aus das im besten Fall GK110 zwischen 15/8 - 5/4 Shader von GK104 + DP Flops Verbesserung auf 3x der von 2090 liegt. Zudem ist das doppelte von GK104 durch K10 abgedeckt.
Man könnte annehmen das es dürftig ist, aber.......Und weils so schön ist:
Nvidia Tesla GPU Computing
Man betrachte dabei vor allem den Tesla K10. Da gibt´s die GTX 690 (also die ohne ordentliche GPGPU-Leistung) für HPC-Systeme, einfach brilliant! Die erreicht auch fast ein drittel der DP-Flops der Vorgängergeneration aka Tesla M2090.
Mal im Ernst, ist das ein Scherz? Naja gut, für ausschließlich Singleprecision-Anwendungen mag´s ja lustig sein, aber das ist schon sehr dürftig.
Die K10 ist Bestandteil eines neuen Produktes, nämlich Nvidia VGX und Stichwort Virtual GPU. Praktisch wird die GPU im Data Center integriert (Cisco hat schon fertig). Mittels Citrix receiver (GPU accelerated Windows Oberfläche), der auf Windows, Mac, Tablets, Smart phones etc. laufen kann bekommt man Zugriff auf die GPU. Alles was Nvidia kompatibel ist läuft dann auch darauf. (Citrix hat auch schon fertig)
Geforce Grid nennt sich die Gaming in the Cloud Implemtierung. Um Latenzen im Netzwerk zu verringern übernimmt dann die VGPU bzw. deren Treiber selber die virtuelle Adressverwaltung. In der keynote wurde dann mit einem TV (ARM) und Controller so gezockt, als wenn man fette Hardware hätte.
Super das die das alles Übertragen haben.
Effe
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 17.02.2011
- Beiträge
- 3.184
- Renomée
- 164
- Standort
- Im Havelland
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Rosetta & TN-Grid + F&H ->>> FCK CVD19 !
- Lieblingsprojekt
- Einstein@Home
- Meine Systeme
- 3700X+2080+1650; 2400G+290X+560D+Vega11; 2200G+ 5700XT+Vega8; i7860+R7950; i73930K+1660+Vega56+750ti
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- RyZen R7-3700X; RyZen 5 2400G
- Mainboard
- ASUS X370 Prime Pro; MSI B350M Mortar
- Kühlung
- Alpenföhn Brocken 2; Alpenföhn Wasser
- Speicher
- 32GB Crucial Ballistix Sport CL16 3200 MHz ;GSkill F4-3200C14D-16GTZ;
- Grafikprozessor
- MSI Radeon RX 5700 XT Gaming X; Vega 11 + Inno3D GTX1660;
- Display
- HP Pavilion 32 HDR; HP Pavilion 32
- SSD
- Crucial P1 1TB NVMe + BX500 960GB; Sandisk Plus 480GB
- HDD
- WD Blue 1TB; WD Purple 3TB
- Soundkarte
- X-Fi Titanium Fatal1ty; X-Fi Titanium
- Gehäuse
- Chieftec Smart CH-09B-U3; Sharkoon CA-M silber
- Netzteil
- Aerocool P7 650W; SST-SX500-LG
- Betriebssystem
- Win10 64bit
- Webbrowser
- Firefox X,; Chrome 10000
Groß, größer, NVidia: http://www.golem.de/news/kepler-gk1...-mia-transistoren-und-hyper-q-1205-91833.html
In einem Punkt ist sich der Nvidia-Chef aber bereits sicher: "Ich habe gestern abend nochmal nachgesehen: Das ist der komplexeste Chip, der in Serie hergestellt wird. Auf Platz zwei kommt dann ein FPGA von Xilinx mit 6,8 Milliarden Transistoren. Dann folgen viele GPUs, und die komplexeste CPU ist ein Westmere von Intel mit 2,5 Milliarden Transistoren." Dafür hatte sich Huang vermutlich am Eintrag 'Transistor Count' der englischen Wikipedia orientiert.
G
Gast30082015
Guest
Weil wir grad so schön über GK110 spekulieren.
http://www.pcgameshardware.de/aid,8...Us-auf-GTC-2012-vorgestellt/Grafikkarte/News/
http://www.pcgameshardware.de/aid,8...Us-auf-GTC-2012-vorgestellt/Grafikkarte/News/
GK110 - K20-Specs oder zumindest Teile davon
Die bisher bekannten Fakten zum GK110 im Überblick.
- 7,1 Milliarden Transistoren
- Physikalisch 15 SMX (mit jeweils 192 Shader-ALUs, Tesla-Produkte mit voraussichtlich 13 oder 14 aktiven SMX)
- 384 Bit breit angebundener GDDR5-Speicher (soviel wie man unterbringen kann)
- als Tesla für das vierte Quartal 2012 angekündigt, Quadro und Geforce bisher unbestimmt
- "Dynamic Parallelism", "Hyper-Q" and "SMX"
- 6-Pin & 8-Pin Stromanschluss auf der Tesla K20-Karte
- DGEMM-Effizienz bei 80-85% (Fermi bei circa 65%, Radeon bei >90%)
- 3x höherer DP-Spitzendurchsatz im Vergleich zu Fermi-basierten Tesla-Karten
Der Stromverbrauch ist daher nicht zwingend auf 225 Watt beschränkt, die meisten OEMs akzeptieren jedoch nur 225 Watt. Sumit Gupta bestätigte, dass man zurzeit mit 225 Watt kalkuliert, Nvidia könne jedoch dank des fortschrittlichen Energiemanagements in Kepler jedes gewünschte Power-Budget bedienen. Die Taktraten des GK110 stehen noch nicht fest, sollen sich gegenüber dem zurzeit auch für die Demo genutzten ersten Silizium auch noch erhöhen.
Jetzt bin ich wirklich gespannt, wann AMD die HPC-Thaiti rausbring. 1 bzw. 2 Quartale vor Tesla-GK110 wäre ein großer Image-Schaden für Nvidia, wie es bei Fermi-GF100-Tesla passierte.
Das ist IMO nicht zu unterschätzen, da der Profi-Markt bei Nvidias üblichen Geschäft der einzige hoch profitable Markt ist.
Nö, gerade im HPC-Markt sind 1-2 Quartale völlig egal. Kaum wer kauft im HPC kurzfristig, 6 Monate Vorlaufzeit dürften da wohl eher völlig normal sein. Jetzt wo GK110 angekündigt ist, ist Amds Vorteil da weg. Ich versteh Amd einfach nicht, wieso die kein HPC Tahiti bis jetzt gelauncht haben. Bei nem völlig ungewissen Bild auf GK110 wie es in den 5Monaten seit Tahitilaunch war, hätte man wahrscheinlich einige gute Deals abschließen können, während man nun mit GK110 konkurieren muss.
Stimmt, wenn alle Versprechungen nach Plan verlaufen.AffenJack schrieb:Nö, gerade im HPC-Markt sind 1-2 Quartale völlig egal. Kaum wer kauft im HPC kurzfristig, 6 Monate Vorlaufzeit dürften da wohl eher völlig normal sein
Schon jetzt gibt es aber eine 2 Quartals-Verschiebungen. Man hat damals bei Fermi viele verärgert, weil AFAIK nicht einmal die TDP eingehalten wurde und nach monatelangen Vorauszeit-Arbeit von HPCs dann nicht mehr perfekt in das System passten.
Damals bei Fermi war eben die Zeit, wo viele Profi-GPU-Leute erstmals !!!! nach OpenCL umschauten und OpenCL dadurch einen ganz anderen Stellenwert bekam.
Du sagst es ja. Bei so langen Vorlaufzeiten von 6 Monaten sind verlässliche Partner sehr wichtig und da erkannten einige das erste mal, dass Nvidia gar nicht so verlässlich ist und die Konzentration auf dieses geschlossene System mit nur einem Hersteller einige Probleme bringen kann.
Wie gut bzw. wie schlecht Nividas Situation bei der 28nm-Umstellung ist, wissen wird noch nicht.
alias Versorgung der OEMs-Design-Wins - GK110-Tesla-Daten/Performance/Effizienz - GK110-Game - Geschäftsbericht
Die GK110-Tesla-Verschiebung ist ein weiteres Zeichen, dass es nicht gut läuft. Denn es wurde für Mai 2012 versprochen und bis vor kurzem wurde gesagt, diesen Termin einhalten zu können!!!! Da werden sicher einige HPC-Kunden sauer.
Am ehesten können wir Nvidias Situation im nächsten Geschäftsbericht erfahren, wo sich erstmals 28nm-Produkte auswirken. Nachdem Nivida einen ordentlichen Gewinn-Einbruch erlitten hatte, wäre es interessant zu wissen, ob Nvidia mit steigender Verfügbarkeit von 28nm-Produkt mit schlechter Yield im Gewinn zulegen konnte.
Denn wie ich schon sagte, der Profi-Markt von Nvidia ist im 1Q 2012 der einzige profitable Markt gewesen. Da die Konkurrenz aufholt und Nvidia da die praktische Monopolstellung verliert, hätte Nvidia heuer nicht mehr den Fehler machen dürfen, GK110 um paar Quartale zu verschieben.
Vorallem, wenn AMDs APUs auch schon langsam & eingeschränkt in Servern genutzt werden kann.
Aber wie ich es schon vorher sagte.
Ersteinmal muss AMD eine HPC-GPU liefern.
PS: Immerhin tritt die Vermutung/Möglichkeit vor (über) einem Jahr ein, dass GK110 aufgrund 28nm-Yield & Kapazität vielleicht doch erst im 4Q 2012 kommen wird.
Green_Ranger
Fleet Captain Special
- Mitglied seit
- 12.01.2004
- Beiträge
- 344
- Renomée
- 7
Der GK110 ist ja einfach nur ein Monstrum, wenn die Packdichte gleich bleibt (bezogen auf den GK104), bei 12 Mio pro mm² hat man einen ~592mm² Chip.
Fabian_HT4U
Cadet
- Mitglied seit
- 02.07.2011
- Beiträge
- 34
- Renomée
- 0
Offenbar gibt es sogar Unterschiede bei den festgelegten maximalen Boost-Taktraten zwischen den einzelnen ASICs.
Man muss hier etwas aufpassen. Der maximal nutzbare Boost-Takt hängt tatsächlich von der Güte des Chips ab. Ein Chip der z.B eine höhere Leakage hat und damit mehr verbraucht, stößt schneller an das Power Target als ein Chip mit geringen Leckströmen.
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index13.php
Der theoretisch maximale Takt hängt hingegen vom BIOS der Karte ab. Dort ist eine Tabelle für die möglichen Taktfrequenzen hinterlegt (1006,1019,1032, usw...). Und nur diese Taktfrequenzen sind letztendlich nutzbar.
Grüße
Fabian
G
Gast30082015
Guest
Offenbar gehts bei der GTX660 wohl doch langsam mal los.
Hier gibt es einen (ersten?) Vorabtest:
http://www.tweaktown.com/reviews/48...i_2gb_reference_video_card_review/index1.html
Die geben der Karte ein Rating von rd. 90%. Ganz teilen mag ich das nicht. Dafür gefällt mir das "Bild" bei hohen AA/AF-Modi nicht so richtig. Hab erwartet, dass sie da konstanter arbeitet. Aber vllt. ist es auch ne Treiber-Geschichte.
Auf jeden Fall ist damit offensichtlich, dass sich auch zukünftig erst einmal im Bereich 150 - 300€ wenig bis gar nix tun wird. :/
Wirklich verlässlich werden wohl aber wieder nur die richtigen Launch-Tests sein. Hier hoffe ich, das HT4U auch mit einem Muster versorgt wird.
Hier gibt es einen (ersten?) Vorabtest:
http://www.tweaktown.com/reviews/48...i_2gb_reference_video_card_review/index1.html
Die geben der Karte ein Rating von rd. 90%. Ganz teilen mag ich das nicht. Dafür gefällt mir das "Bild" bei hohen AA/AF-Modi nicht so richtig. Hab erwartet, dass sie da konstanter arbeitet. Aber vllt. ist es auch ne Treiber-Geschichte.
Auf jeden Fall ist damit offensichtlich, dass sich auch zukünftig erst einmal im Bereich 150 - 300€ wenig bis gar nix tun wird. :/
Wirklich verlässlich werden wohl aber wieder nur die richtigen Launch-Tests sein. Hier hoffe ich, das HT4U auch mit einem Muster versorgt wird.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 408
- Antworten
- 1
- Aufrufe
- 447