News NVIDIA zeigt Fermi Architektur

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.445
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
<div class="newsfloatleft"><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=16486&stc=1&d=1254383564" border="0" height="90" alt=""></div> Wie angekündigt hat NVIDIA gestern (bzw. heute Nacht MESZ) auf der GPU Technology Conference in San Jose, Kalifornien, seine neue Fermi-Architektur alias GT300 gezeigt, eine GPU die laut NVIDIA ein Supercomputer in eine GPU gepackt darstellen soll.

Die GPU namens GT300 wird in 40 nm bei TSMC gefertigt. Der Chip besitzt nicht weniger als 3 Milliarden Transistoren. 16 Shader-Cluster kümmern sich um die Berechnungen, wobei jeder Shader-Cluster aus je 32 Kernen besteht, die NVIDIA nun CUDA-Cores nennt. Der Chip ist auf 6-Channel GDDR5-Speicher ausgelegt, was unter dem Strich eine 384-Bit Anbindung ergibt. Bis zu 6 GB VRAM sollen den Karten zur Verfügung stehen. Zusätzlich können die Kerne auf insgesamt 1 MB L1-Cache (in 16 KB Häppchen unterteilt) und 768 KB L2-Cache (unified) zurückgreifen. Die Double Precision Leistung soll sich verachtfacht haben. Zudem soll Fermi nativ unterstützen: C [CUDA], C++, DirectCompute, DirectX 11, Fortran, OpenCL, OpenGL 3.1 und OpenGL 3.2. ECC für die Caches und Context Switching zwischen GPU Applications sind ebenfalls an Bord. Damit erhält der Fermi viele Features, die bisher eher in CPU denn in GPUs zu finden waren mit dem Ziel, den prinzipbedingt enormen Durchsatz einer GPU mit der Flexibilität und dem universellen Funktionsumfang einer CPU zu kombinieren. NVIDIA geht damit den ungekehrten Weg Intels, die mit dem <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1215259287">Larrabee</a> bekanntlich klassische CPU-Kerne GPU-fähig bekommen wollen.

<center><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=16482&stc=1&d=1254383451" border="0" alt=""><br>Das mächtige Die einer Fermi GPU</center>
<center><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=16481&stc=1&d=1254383451" border="0" alt=""><br>Die zahlreichen Kerne sind in Cluster zusammen gefasst um Lokalitäten von Speicherzugriffen besser nutzen zu können.</center>
<center><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=16483&stc=1&d=1254383451" border="0" alt=""></center>
<center><img src="http://www.planet3dnow.de/vbulletin/attachment.php?attachmentid=16485&stc=1&d=1254383457" border="0" alt=""></center>
<center>Bildquellen: LegitReviews / NVIDIA</center>

Nur wann der GT300 nun letztendlich wirklich auf den Markt kommen wird, war noch nicht zu erfahren.

<b>Links zum Thema:</b><ul><li><a href="http://www.legitreviews.com/article/1100/1/">NVIDIA Announces CUDA GPU Architecture - Fermi</a></li><li><a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=369183">NVIDIA Nexus: Erste integrierte CPU/GPU-Lösung für Microsoft Visual Studio</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1251536718">NVIDIA mit Vorabpräsentation des GT300 im September?</a></li></ul>
 
Hm, irgendwann kommt Nvidia an den Punkt, an dem sie ne x86-Lizenz brauchen werden. Die Frage ist nur wann?
Ansonsten wird das wohl ein echter Bulle. Anfang 2010 ;D
 
Wie es scheint, sieht sich nVidia nun aufgrund der positiven Revisionen zum ATi-RV870 dazu bewogen, Informationen über die 'neue' Architektur in die Welt zu lassen. Immerhin geht es auf Weihnachten zu und wer heute zur RV870 basierten Lösung greifen möchte, wird sich nun vielleicht noch etwas zurückhalten, um nVidias Sproß genauer in Augenschein zu nehmen.

Beeindruckend ist die Architektur bzgl. GPGPU-Lösungen. Ich bin gespannt, was 'Fermi' zu leisten imstande sein wird.

Auch wenn 'OpenCL' und 'CUDA' derzeit in aller Munde ist - wirklich allgemein brauchbar sind beide Lösungen ja noch immer nicht. 'CUDA' schon deshalb nicht, weil man auf Windows/Linux-Binärtreiber und Codegeneratoren angewiesen sowie auf nVidia-GPUs festgelegt ist, OpenCL deshalb nicht, weil es letztlich auch an Codegeneratoren und quelloffenen Treibern für GPGPU-unterstützende Graphikkarten mangelt.

Ich glaube, das interessiert hier wohl die wenigsten. Gespannt bin ich auf die Preisvorstellungen nVidias, die sich wohl sehr stark an der Leistungsfähigkeit des 'Fermi' im Vergleich zum RV870 orientieren werden.
 
Einfach nur beeindruckend. :o Mit einer herkömmlichen GPU hat das ja nicht mehr viel zutun. Larrabee verkommt da ja richtig zur Witznummer und der R870 wirkt auf einmal altbacken. Aber sie sollen erstmal liefern und dann sehen wir weiter. :) Schöne bunte Präsentationen malen können auch andere.

Das wird wohl ein richtig fettes grünes Monster. ;D
 
Zuletzt bearbeitet:
[P3D] Crazy_Chris;4043465 schrieb:
Das wird wohl ein richtig fettes grünes Monster. ;D
Hoffentlich als Grafikkarte und als Rechenknecht für diverse Anwendungen. H264 encoding dauert einfach viel zu lange. Bin mal auf den Stromverbrauch gespannt. 200 Watt werden es wohl werden.
 
Bei aller augenscheinlich technischer Überlegenheit bin ich doch weiterhin bissl vorsichtig. Mir kommt es auch eher so vor, als wenn NV sich durch den guten R800-Start gezwungen gefühlt hat, den Leuten wenigstens etwas zu zeigen.
Ganz sicher nicht aus einem "Überraschungsmoment"-Grund...

Klingt alles wunderbar, aber wie am Ende die Leistung pro Verbrauch aussehen (sowohl im normalen Grafikbereich, als auch im GPGPU-Bereich) wird, wird sich zeigen. Es würde mich zumindest extrem stark wundern, wenn dieses Monstrum weniger als 200Watt verbauchen würde.
Was aber mMn weniger von Belang wäre, WENN die Leistung dann entsprechend stimmt UND wenn im Idle der Verbrauch auch so vorbildlich gesenkt werden kann wie beim R800...dann sehe ich doch ein Problem auf ATI zukommen, so gut deren HD 58xx-Serie doch z.Zt. ist.
 
Was aber mMn weniger von Belang wäre, WENN die Leistung dann entsprechend stimmt UND wenn im Idle der Verbrauch auch so vorbildlich gesenkt werden kann wie beim R800...dann sehe ich doch ein Problem auf ATI zukommen, so gut deren HD 58xx-Serie doch z.Zt. ist.
Sehe ich nicht. Dann wird ATI wieder den Raum bis 250€ abdecken und NV alles darüber. Möchte nicht wissen wie die Yield des Chips aussieht. Und damit kann man dann nicht in nen "Preiskrieg" gehen.
 
Hoffentlich als Grafikkarte und als Rechenknecht für diverse Anwendungen. H264 encoding dauert einfach viel zu lange. Bin mal auf den Stromverbrauch gespannt. 200 Watt werden es wohl werden.
Das Spitzenmodell soll 300W ziehen:
"Die von Huang präsentierte Karte besitzt immerhin je einen sechs- und einen achtpoligen Stromanschluss, sodass High-End-Fermi-Karten je nach Spezifikation bis zu 300 Watt verheizen könnten."
 
[MTB]JackTheRipper;4043484 schrieb:
Sehe ich nicht. Dann wird ATI wieder den Raum bis 250€ abdecken und NV alles darüber. Möchte nicht wissen wie die Yield des Chips aussieht. Und damit kann man dann nicht in nen "Preiskrieg" gehen.
Ja gut, das stimmt auch wieder...und ich habe den X2 von ATI vergessen...ein X2-Äquivalent von NV wäre wohl zu stromhungrig bei voller Leistung (gut, man hat z.Zt. noch keinerlei Angaben für den Verbrauch des Fermi bei Last, aber ich lege meine Hand für ins Feuer, dass es 200W+ sein werden, wenn der R800 schon 180W verbraucht...eher sogar 220W+. Und das 2x wäre jenseits von Gut und Böse)
 
Naja, Larrabee ist auch eher ein Versuchsobjekt von Intel und nicht, worauf die ihr Geschäft stützen wollen, von daher muß es erstmal nur funktionieren, nicht gut sein.

Die gerade erschienenen Karten von AMD sind auch keine Konkurrenz für diesen Nvidia-Monsterchip, sie sind ja extra als Karten für den oberen Mainstream konzipiert. AMD hat Cypress ja absichtlich klein gehalten, man hätte auch einfach alles doppelt so groß machen können, aber das wäre wirtschaftlich unsinnig gewesen.

Nvidia dagegen hat geglaubt, sie kriegen einen so großen Chip hin. Anscheinend haben sie es tatsächlich hingekriegt, die Frage ist aber, ob er wirtschaftlich dimensioniert ist, d.h. können sie einen ausreichend hohen Stückpreis und ausreichend hohen Umsatz erzielen, um die (offensichtlich relativ hohen) Entwicklungs- und Fertigungskosten zu decken?

Für High-Performance-Anwendungen ist das bestimmt eine tolle Karte, die auch gerne was vierstelliges kosten darf, ich weiß nur nicht, wie groß der Markt dafür ist.

Wenn man aus der Architektur aber Gamerkarten machen will, dann zählt nur, wieviel FPS pro € man bekommt. Der ganze GPGPU-Kram dürfte dann nutzlos sein, wird aber trotzdem mitgeschleppt und macht den Chip teurer, ohne daß Nvidia dafür auch nennenswert mehr verlangen könnte. Zum Beispiel der Cache nimmt viel Raum ein, dürfte aber bei Spielen völlig nutzlos sein; kA, inwieweit sie den bei kleineren Karten komplett weglassen können, um Diefläche zu sparen.

Also für mich sieht es so aus, als würde Nvidia den professionellen Markt größtenteils vereinnahmen, im Spielebereich werden sie wahrscheinlich auch die schnellste Einzelchipkarte haben, aber wenn ich wetten sollte, wer in den nächsten 12 Monaten mit DX11-Karten mehr verdient, würde ich auf AMD tippen.
 
zielgruppe dürfte wohl die industrie sein. so in der art.

http://www.hartware.de/news_47698.html

persönlich brauch ich gpu computing absolut nicht. ich möcht ne preiswerte schnelle karte zum zocken.

mit pech wird das ding nix halbes und nix ganzes. bin mir nicht sicher, dass die grafikleistung so gut wird, wie viele denken.
frag mich auch, warum kein wort während der präsentation über die grafikperfomance gesagt wurde, sondern nur über gpu computing?

und gezeigt wurde auch nichts. bin mir noch net mal sicher, ob da wirklich n chip drin war.
 
Du hast schon gesehen, dass eine Tesla und keine GeForce oder Quadro gezeigt wurde?

Deren Aufgabe ist nicht die Direct3D oder OpenGL Grafikbeschleunigung. Daher auch nur der einzelne Videoausgang.

PS: Schau mal auf Seite 2 bei Legitreview. Da hält der CEO einen GT300 Chip in die Kamera.
 
Wenn man sich das letzte Bild mal anschaut, auf dem nur ein DVI Anschluss zu sehen ist, dürfte die Karte wohl ausschließlich im GPGPU Bereich anzusiedeln oder noch deutlich im Entwicklungsstadium sein.
.
EDIT :
.

Du hast schon gesehen, dass eine Tesla und keine GeForce oder Quadro gezeigt wurde?

Deren Aufgabe ist nicht die Direct3D oder OpenGL Grafikbeschleunigung. Daher auch nur der einzelne Videoausgang.

PS: Schau mal auf Seite 2 bei Legitreview. Da hält der CEO einen GT300 Chip in die Kamera.

Ok, darauf hab ich nicht geachtet ;)
 
Hoffentlich als Grafikkarte und als Rechenknecht für diverse Anwendungen. H264 encoding dauert einfach viel zu lange. Bin mal auf den Stromverbrauch gespannt. 200 Watt werden es wohl werden.


Hi..

mein Wunsch ist für um die 200-250€ eine Karte mit guter Spieleleistung bei 1920*1200 und zumindest rudimentärer Support für die wichtigsten Videoformate und Videoencoding unter Windows..
Zur Zeit rechnet der Phenom X4 bei mir durchschnittlich 20 Stunden H.264/X.264Stapelverarbeitung mehrer Dateien, bzw. per Script..
Aber mal eben schnell ein einzelnes H.264 Video aus dem Archiv in MPEG 2 zu encoden um es dann als DVD zu brennen, das geht leider nicht..
Obwohl die 4Cores des X4 gut ausgelastet werden, dauert es derzeit knapp ne Stunde, bis ich ein Video aus dem HD - Archiv auf einem DVD - Rohling gebannt habe..

Grüße!
 
Interessant wird es doch erst, wenn man ungefähre Werte des Verbrauchs und der Grafikleistung hat. GPGPU ist ja ganz schön aber doch ohne wirklichen Reiz für mich (natürlich ist es toll, so etwas zu unterstützen, wenn man die Zeit und den Strom opfert). Als Gamer, Briefeschreiber und Forenspammer finde ich das schwer einzuschätzen. Für mich wird sich wohl der Verbrauch im Verhältnis zu einer für mich akzeptablen Grafikleistung als relevant erweisen in Bezug auf die Entscheidung für die (eine) neue Grafikkarte.
 
Naja, so ein Monster brauchen nicht viele- mal sehen, was die kleineren Karten können, verbrauchen und _kosten_.

Neuerdings schaltet nvidia Physx ja beim erkennen eines ATI- Grafiktreibers komplett ab- das gepaart mit TWIMTBP- Physx- (Geld aus dem Koffer- )Spielen sichert ja schon einen gewissen Grundumsatz.
 
Ja gut, das stimmt auch wieder...und ich habe den X2 von ATI vergessen...ein X2-Äquivalent von NV wäre wohl zu stromhungrig bei voller Leistung (gut, man hat z.Zt. noch keinerlei Angaben für den Verbrauch des Fermi bei Last, aber ich lege meine Hand für ins Feuer, dass es 200W+ sein werden, wenn der R800 schon 180W verbraucht...eher sogar 220W+. Und das 2x wäre jenseits von Gut und Böse)
Interessant wird es doch erst, wenn man ungefähre Werte des Verbrauchs und der Grafikleistung hat.

legitreviews.com schreibt dazu:

NVIDIA said that the card wouldn't consume any more power than NVIDIA's current GPU offering, which is a huge bonus.

Ist nur die Frage welches aktuelle Modell gemeint ist... (Evtl. eine GTX295.. ;D)
 
Ist nur die Frage welches aktuelle Modell gemeint ist...
Legitreview schreiben doch dazu, dass sie nur eine einzelnen 6-Pin PEG Strombuchse hat. Das sieht man auch auf dem Bild mit dem Prototyp.
Legitreview schrieb:
....and a 6-pin PCI Express power connector on the top of the card for external power.
Demnach kann die gezeigte Tesla Karte nicht mehr als 150 Watt aufnehmen. Vermutlich bleibt man zur Sicherheit sogar deutlich darunter.

Bei den GeForce Ablegern soll es anders aussehen. Da hat nVidia neben dem 6-Pin noch einen 8-Pin PEG Stromanschluss vorgesehen.
 
Zuletzt bearbeitet:
also ich sehe bei der Tesla-Karte einen 6 und einen 8 Pin Stecker:

attachment.php

9.jpg


ältere Produkte haben die gleiche Anordnung der Stecker:

quadroontyan-540x540.jpg
 
Zuletzt bearbeitet:
Hm, irgendwann kommt Nvidia an den Punkt, an dem sie ne x86-Lizenz brauchen werden. Die Frage ist nur wann?

Warum sollten sie die brauchen?
.
EDIT :
.

also ich sehe bei der Tesla-Karte einen 6 und einen 8 Pin Stecker:

Der 6 Pin ist für den Lüfter ;)

Hmm, also es kommt mir so vor als ob nvidia jetzt das gleiche wie Ageia macht, nur, dass nvidia besser vermarkten kann.

Bei Ageias Physx Karten war ja auch schon ordentlich Rechenleistung da- nur konnte keine Grafikkarte die ganzen Partikel usw. so schnell darstellen- nvidia will das wohl jetzt unter einen Hut bringen.

Naja, mal sehen, ob sich die Chips nicht wieder partiell selbst ablöten...
 
?

Blick ich jetzt nicht!

Wo ist welcher Anschluss ?

Für den Lüfter? häääää Witz? Verarschung?

Wo ist der "6-pin PCI Express power connector on the top of the card for external power." ?

Wo ist bei denen "on the top of the card"?
 
Zuletzt bearbeitet:
... Auch wenn 'OpenCL' und 'CUDA' derzeit in aller Munde ist - wirklich allgemein brauchbar sind beide Lösungen ja noch immer nicht. 'CUDA' schon deshalb nicht, weil man auf Windows/Linux-Binärtreiber und Codegeneratoren angewiesen sowie auf nVidia-GPUs festgelegt ist ...
Als Konsument sollst du CUDA auch nur mittelbar nutzen. CUDA ist nicht Selbstzweck.

Eine Reihe von Softwareschmieden hat sich darauf eingelassen (Adobe in de CS4-Suite), Arcsoft (Multimedia), Cyberlink und dann natürlich ausgesprochene Profiprogramme aus dem CGI- und CAD/CAM-Bereich.

Manchmal können die Profis "Module" dazukaufen", damit der Kunde die GPGPU-Fähigkeiten über CUDA nutzen kann. Theoretisch sind solche modularen Geschäftsmodelle für GPGPU-Computing auch mit OpenCL denkbar. Der Witz ist, CUDA ist am Markt, während OpenCL und Microsofts Direct Compute noch ziemlich am Anfang stehen.

Was die Tesla-Karten angeht. Das ist reines Produktivwerkzeug. In den letzten Jahren erkämpfte sich der grüne Grafikgigant eine fast monopolartige Vorherrschaft im Grafik-Profibereich von GPU und GPGPU-Produkten (circa 90 Prozent Marktbeherrschung). Wer diese Karten als reine Numbercruncher verwendet, der braucht keine Grafikausgänge. Die Teslas kosten immer ein Stück weniger, als die Quadro-Modelle mit ansonsten gleicher Speicher und Chipbestückung.

MFG Bobo(2009)
 
Zuletzt bearbeitet:
Der Witz ist, CUDA ist am Markt, während OpenCL und Microsofts Compute Shader noch ziemlich am Anfang stehen.
Laut Heise müssen aber alle bisherigen CUDA Anwendungen für den GT300 neu kompiliert werden, weil die Breite der Integer Register vergrößert wurde.

Quelle: http://www.heise.de/newsticker/meldung/146158
Wo ist welcher Anschluss ?
Ich vermute Legitreview hat den 8-Pin Anschluss einfach "übersehen".

Oder es waren mehrere Karten im Umlauf und bei ihrer war er verdeckt, weil die von ihnen abgelichtete Karte eine etwas andere Abdeckung zu haben scheint.
 
Laut Heise müssen aber alle bisherigen CUDA Anwendungen für den GT300 neu kompiliert werden, weil die Breite der Integer Register vergrößert wurde. ...
Wer bereit ist derartige Profikarten zu kaufen, der wird sich nicht davor scheuen die Software anzupassen.

Wäre zudem sehr ungewöhnlich, wenn Nvidia an dieser Stelle keine neuen Kompiler zur Verfügung stellen würde, oder keinen Support leisten will bei Premium-Schmieden wie Adobe und ähnlichen Softwareschmieden. CUDA 3.0 ist ja parallel angekündigt worden, und das umfasst ja auch umfangreiche Performance-Tools.

MFG Bobo(2009)
 
Im professionellen Umfeld sehe ich da auch keinerlei Hürden, aber bei den Endanwendern (dann mit GeForce) könnten das einige Hersteller nutzen kostenpflichte Updates an den Mann zu bringen.

Es wäre jedenfalls eine gute Gelegenheit und bei bestimmten Herstellern (ohne Namen zu nennen) könnte ich mir das durchaus vorstellen, dass man auf die Nachfolgeversion umsteigen muss.
 
Zurück
Oben Unten