News NVIDIA zum "Fermi"

pipin

Administrator
Teammitglied
Mitglied seit
16.10.2000
Beiträge
24.365
Renomée
9.689
Standort
East Fishkill, Minga, Xanten
  • SIMAP Race
  • QMC Race
  • RCN Russia
  • Spinhenge ESL
  • Docking@Home
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2023
Auf dem Conference Call zu den <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1257581004">Zahlen des dritten Quartals 2010</a> hat NVIDIA einige Informationen zur kommenden Grafikkartengeneration auf Basis des "Fermi" (wir <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1254384217">berichteten</a>) gegeben. Allerdings wurden keine Details genannt.

Ein paar Zitate aus dem Conference Call:

<blockquote>"There is -- and the enthusiasm behind Fermi, our next generation GPU architecture, is just out of this world. I mean, it’s just way over the top. And the reason for that is this is because the first brand new architecture we have created in four years and instead of an incremental change to DX11, this is a fundamentally new architecture and the performance is fabulous."</blockquote>
<blockquote>"We didn’t announce anything on graphics because it wasn’t graphics day. When we announce GeForce and Quadro, we are going to talk about the revolutionary graphics ideas that are designed into Fermi and so we are looking forward to do that in the near future"</blockquote>
<blockquote>"And relative to the competition, the market has really spoken -- although it’s a fast chip, it’s not that fast and it is basically an RV770 with DX11. And I think that you could incrementally make changes for a number of years but certainly not forever and we are going to really change the marketplace going forward with Fermi and so that’s our focus and we are trying to get it shipped as soon as possible. The demand is really, really strong for it and we will tell you about all the great graphics features when we launch."</blockquote>
<blockquote>"Next year is going to be an interesting first quarter because in fact, we will need more wafers than ever in Q1. And the reason for that is because -- and I mean more 40-nanometer wafers than ever in Q1 because we are ramping -- we are obviously fully ramping Fermi for three different product lines, GeForce, Quadro, and Tesla."</blockquote>

Die komplette Abschrift des Conference Calls gibt es bei <a href="http://seekingalpha.com/article/171712-nvidia-f3q10-qtr-end-10-25-09-earnings-call-transcript?page=-1" target="b">Seeking Alpha</a>. Zu beachten ist allerdings, dass dort "Fermi" als FIRMY bezeichnet wird.

<b>Links zum Thema:</b>
<ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1257402350">NVIDIAs "Fermi" irgendwann in 2010?</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1254384217">NVIDIA zeigt Fermi Architektur </a></li></ul>
 
Warum hat eigentlich keiner der Analysten nachgefragt, wann der Fermi denn nun auf den Markt kommt?

Wenn die erst in Q1 so viele Wafer benötigen (herstellen lassen), dann kann man wohl mit einer Verfügbarkeit in Q2 rechnen. lol


MfG @
 
Zuletzt bearbeitet:
Ich denke der Fermi wird für die Gamer eine herbe Enttäuschung werden. Der angekündigte Quantensprung ist wohl ausschließlich auf den GPGPU bezogen ist und da scheint man erst mit der HD5000 gleich zuziehen.

Den einzigen Bonus des ich bei Fermi für Gamer sehe ist das man von DX10 auf DX11 Upgradet.

Es wird jedenfalls Interessant werden :)
 
Das ist so halbgares, für analysten gedachtes blabla, da darf man sich als nvidia freund zu diesen zeitpunkt wirklich sorgen machen.

Besonders amüsant ist der vorwurf an AMD, man hätte nur die alte architektur um dx11 erweitert (welches übrigens vor zwei monaten aus sicht von nvidia angeblich gar nicht so wichtig sei..), wo man selber im vergangenen zyklus einer ganzen flotte von grafikkarten immer weider nur einen neuen namen für denselben chip verpasst hat.

Und was wird man sagen, wenn man selber nur einen refresh bzw. nachfolger am start haben wird, zum zeitpunkt an dem AMD seine neue architektur vorstellt? Das spielchen kann man auch zu zweit spielen...
 
Das klingt nach viel heisser Luft um nichts. Vielleicht hätten sie auch den wahren Grund dazu sagen sollen, warum man so viele Wafer braucht. Nicht weil die Nachfrage so gross sein wird, sondern weil der Chip so gross ist und damit sehr teuer wird. Lustig finde ich auch die Behauptung, Fermi sei eine brandneue Architektur. Aber gut, wer in den letzten drei Jahren fast ausschliesslich von Renaming gelebt hat, für den muss wohl ein überarbeiteter G80/GT200 so etwas wie brandneu sein. :]
Ich sehe das ähnlich, Fermi könnte für den Consumer Markt eine bittere Enttäuschung werden. Sogar noch heftiger als der GT200. Und wenn man sich den bisherigen Fahrplan anschaut, dann wird grossflächige Verfügbarkeit wohl sogar erst 2H 2010 der Fall sein. Dann steht wohl schon der RV970 in den Startlöchern, der tatsächlich eine komplett neue Architektur und womöglich sogar ein Quantensprung zu werden scheint. Ist zwar ein ziemlich düsteres Szenario für nVidia, aber kein unwahrscheinliches.
 
Immer diese Vorwürfe der R870 sei nichts neues, die Shader wurden soweit ich gelesen habe komplett neu Design.
Vom Fermi habe ich bisher nichts gehört, dass was neu ist, außer die für GPGPU veröffentlichten Verbesserungen. Nichts von wegen Einheit X arbeitet nun um X% schneller/effizienter, nur in Gerüchten das die Shader Anzahl mehr als verdoppelt wurde.

Außerdem was beschwert sich NV, hätten es doch selber so machen können daran hätte sie keiner gehindert und der Fermi wäre dann zumindestens schon fertig und NV würden es als Innovation bewerben.

Wäre mal interessant wenn die Hersteller angeben würden/müssten wie viel Prozent neu Design wurde.
 
Den Kunden interessiert doch unterm Strich sowieso nur was hinten rauskommt.
Ob neues Design, altes Design mit Erweiterungen etc. Wayne? *noahnung*
Der Kunde will ordentliche Leistung zu erschwinglichen Preisen. Zumindest die breite Masse.
Wer das bieten kann, macht das Geschäft. - wir dürfen hier eines nicht vergessen, wir Enthusiasten und die "Profis" mögen zwar mehr Geld ausgeben für HW, aber in Stückzahlen gerechnet ist das ein sehr kleiner Markt.
Beide Hersteller scheinen ihren Fokus gefunden zu haben. ATI setzt auf "Bang for the Buck", und zielt mit den Designs seit RV770 eher ins Mittelfeld, baut relativ kleine chips die sich (vergleichsweise) kostengünstig herstellen lassen und die man gut mit Gewinn verkaufen kann - und dabei ggf. noch selbst bei Kampfpreisen recht gut wegkommt.
Nvidia scheint sich dagegen mehr auf die Profi-Schiene alla Tesla und Quadro zu konzentrieren, chips primär dafür zu entwerfen und dann daraus Designs fürs "Fußvolk" zu entwickeln. Auf die Art und weise kann man auch eine ganze weile Verluste im Consumer-Grafik-Sektor verdauen, wenn man sich im Profi-Bereich dafür dumm und dusselig verdient.
Beides hat siene Bewandtnis und seine Logik. Allerdings wird die Luft für NV im Profisektor dünner wenn Intel seinen Larrabee endlich mal gebacken kriegt... und AMDs Fusion hat in Zukunft auch das Potential gefährlich zu werden. Noch nicht als mainstram Llano... aber irgendwann durchaus. Die Verschmelzung von Grafik und CPU schafft eine art "Rechenmonster", das sowohl serielle als auch parallele workloads bearbeiten kann (Ähnlich wie Fermi das versucht mit Sprungvorhersage und PiPaPo) Nur haben AMD und Intel in dder Hinsicht den Plattformvorteil.
Wir werden sehen wie sich das alles Entwickelt... das im Conference Call gesagt wurde ist das übliche Marketing.Geschwätz... "Der Markt" hat überhaupt nicht gesprochen... und erst recht nicht kontra ATI... die können momentan nur zu NVs Glück die Nachfrage nicht befriedigen....
Dennoch wurden die Evergreens allgemein positiv aufgenommen... aber das kann NV natürlich nicht seinen aktionären sagen ;)
 
Vielleicht hätten sie auch den wahren Grund dazu sagen sollen, warum man so viele Wafer braucht. Nicht weil die Nachfrage so gross sein wird, sondern weil der Chip so gross ist und damit sehr teuer wird.
Oder weil die Yield so scheiße ist und Nvidia 2-3 Mal so viele Wafer wie üblich braucht, weil Nvidia nur mehr nach Chipsstückzahlen und nicht Wafer-Stückzahlen zahlt.

and I mean more 40-nanometer wafers than ever in Q1 because we are ramping
Welch Überraschung, wenn man gearade auf 40nm umsteigt.
 
Da musste ich mich auch erstmal am Kopf kratzen und nachdenken, welche BISHERIGEN 40nm-GPUs NVIDIA da meinte *kopfkratz*
Vielleicht die GT 220?
Naja was solls, solange es bei TSMC nicht rund läuft, ist halt warten angesagt.
Ich wollte ja ne GTX260 in 40nm kaufen, tja habe dann jetzt doch eine GTX260 GSPE 630 in 55nm bestellt, wird wohl nix mehr werden mit 40nm.:-/
 
... and I mean more 40-nanometer wafers than ever in Q1 because we are ramping ...
Kann mir jemand diesen Superlativ erklären?

Hat es bei TSMC noch davor ein erstes Quartal gegeben, bei dem Nvidia-Chips in 40 nm in Auftrag gegeben wurden?

Wo wir bei den Superlativen sind ... die journalistische Steigerungsform wäre dann: "Nvidias größter 40 nm-Auftrag im ersten Quartal 2010 aller Zeiten" ... *lol*

Oder waren die 40nm Mobilchips der DirectX-10.1-Familie schon im ersten Quartal 2009 unterwegs ... allerdings mit unterirdischen Stückzahlen, so dass Notebooks erst langsam im Herbst/Winter 2009 mit mobilen geshrinkten GPUs der Kalifornier versorgt werden?
 
Zuletzt bearbeitet:
Die haben doch mobile GPUs in 40 nm, soweit ich weiss. Zumindest irgendwann mal papergelauncht.
Die gibt es auch als Desktop Variante. Sogar in größeren Stückzahlen. Geizhals listet jedenfalls eine Menge.

Zum Beispiel: http://geizhals.at/deutschland/a466972.html

Allerdings ist der Preis für die gebotene geringe Leistung recht hoch (ab 45 Euro) und es soll darüber hinaus bei DirectX 10.1 Titel Grafikfehler geben.
 
Die Geforce 210 wird ja auch schon im 40 nm Produktionsverfahren hergestellt!
 
Allerdings ist der Preis für die gebotene geringe Leistung recht hoch (ab 45 Euro) und es soll darüber hinaus bei DirectX 10.1 Titel Grafikfehler geben.
Wenn mal nur der Preis recht hoch wäre... 58W Stromverbrauch? Für... "so etwas"? Wo sind denn hier nun die Vorteile des Shrinks und der wenigen Shader geblieben? *kopfkratz

Da bleibe ich lieber bei meiner GTX 260² @ 55nm... die verbrutzelt relativ zu "diesem Ding" erheblich weniger Strom.

Zum Topic... auweia... ganz schön viel heisse Luft, die NVIDIA da gerade verbläst.
 
Nvidia hat mit GT218 & GT216 schon zwei 40nm-Chips, welche vor paar Monate Einzug in den mobilen Sektor hatten und seit kurzem im Desktop verkauft werden.

Der 40nm-Umsatz macht schon 19% der fast 500 Mio. $ GPU-Einnahmen aus.

Aber die Aussage ist trotzdem lächerlich, wenn Nvidia gerade dabei ist auf 40nm-Umzusteigen und somit immer mehr 40nm-Wafer bestellt.
Es gab ja noch nie einen Herrsteller der wieder zurückgestiegen ist.
Und vorallem im Vergleich zum 1Q, wo es offiziell noch keine 40nm-GPU gab.

Anscheinend muss da Nvidia ziemlich ablenken von den Fermi-Fertigungsproblemen.
Das merkt man auch auf die Andeutung, dass man mit GT300 die Geforce & Tesla & Quadro versorgen muss, was schon immer der Fall war.
Aber wenn die nicht mal sagen können, Fermi kommt im 1Q, dann könnte es noch erhebliche Verspätungen mit einem Respin zumindestens ins 2 Quartal geben.

Andererseits dürfte Nvidia momentan ein ziemliches Selbstbewusstsein haben, was sie zu diesen Anti-Intel-Cartoons veranlasst.
Das deutet auf einem ziemlich starkten Fermi hin.
 
Zuletzt bearbeitet:
Andererseits dürfte Nvidia momentan ein ziemliches Selbstbewusstsein haben, was sie zu diesen Anti-Intel-Cartoons veranlasst.
Das deutet auf einem ziemlich starkten Fermi hin.


hunde die bellen, beißen nicht. die cartoons gleichzusetzen mit einem starken fermi ist schon arg gewagt.

man könnte es auch als nackte panik deuten. 8)
 
Da spricht doch die pure Verzweiflung. Eine Lachnummer nach der anderen. Ich glaube allerdings das der Fermi als GPGPU Design sicher ein echter Kracher sein wird, aber für Gamergrafik... da habe ich meine Zweifel. Ich glaube nicht, daß sich in dem Bereich eine eierlegende Wollmilchsau erzeugen lässt.
 
Glaube ich auch nicht. Allerdings wird das Ding im professionellen Bereich sicher einige Kunden finden. Sofern es funzt... ;D
 
Aja, noch weit von der echten Präsentation entfernt, wissen hier schon einige bestens über die Leistungsfähigkeit Bescheid.
Darf ich eure Kristallkugeln für Lotto und Glücksspirale mal haben?;)*engel*
Der Phenom, wurde ja noch fast dafür bewundert am Desktopmarkt vorbeientwickelt worden zu sein.*engel*
 
Liegt vielleicht daran das man bisher exakt 0 über die Renderleistung bekannt gab, ATIs DX11 Support kleinredete und sich selbst als Softwarebude mit HArdwaresupport bezeichnet.

Kurz um viel Getöse um alles was GPGPU betrifft und 0 Aussagen zur Grafikleistung.
 
Zurück
Oben Unten