GT300 Spekulationsthread

@wu134
Sehe ich auch so, dass hier der Quadro Nachfolger präsentiert wurde.
Der Brot-und-Butter-Nachfolger für die Spieler ist vielleicht noch gar nicht so weit, dass man ihn präsentieren könnte, daher wird der andere vorgezeigt und darauf hingewiesen, dass man diesmal den Markt topdown bedienen wolle.
In Wirklichkeit sehen wir den eigentlichen GT300 erst irgnedwann später im kommenden Jahr. MfG
 
Vor allem fehlt mir ein Nachfolger vom G80, G92 usw. Mit dem Riesenchip kann man zwar gut und gerne eine Highendkarte basteln, aber die Hälfte deaktivieren für eine Midrange-Karte? Das ist aufwändig und auch teuer, der einzige Vorteil wäre die Ausnutzung teildefekter Dies, aber dies vorsätzlich zu "kalkulieren" ??? Aber erstmal muss der GT300 beweisen, was er ist und was er kann.

Die einzige Idee, warum NVidia so stark auf das GPGPU setzt, könnte sein, da Intel ähnliches mit Larrabee plant, dass wir kurz vor einem Richtungswechsel im Grafikdesign stehen. Vielleicht spielt da NVidia Roulette und setzt alles auf schwarz, da Rot ATI ist *lol**lol*

Gruß
 
Intels LArrabee ist aber noch ebensosehr Papiertiger wie Fermi.
Ausser vermeintlichen Samples hat man vom LArrabee auch noch nix greifbares gesehen und der wäre noch ein größeres Monster als ein Fermi, bei nichtmal konkurrenzfähiger Rechenleistung.
Intel setzt zwar auf den x86-Vorteil, von wegen Raytracing-Beschleuniger etc. aber irgenwdie kommt mir das ganze halbgar vor.
ICh mein, es nimmt doch nicht allen ernstes jemand an, dass ab nächstem Jahr ganz plötzlich lauter Cloud-Spiele gezockt werden, keiner mehr ne potente Grafik zuhause braucht und alles auf Serverfarmen gerechnet wird...!?
Und die die Auf larrabee setzen wegen x86, werden das sowieso tun ob mit oder ohne Fermi - Ein x86er ist der ja AFAIK nicht.
Vielleicht orientiert sich Nvidia langsam in richtug HPC/GPGPU etc. um weil sie angesichts eines Clarkdale, späteren SandyBridge und Fusion etc. fürchten dass sich der Markt für diskrete Grafikkarten früher oder später in Luft auflöst und man nur noch mit den reinen GPGPU-Numbercrunching - Fähigkeiten noch Geld Verdienen kann.
Immerhin ist Nvidia der einzige Hersteller am 3D-Grafik-Markt, der keine CPUs herstellt und auch mit den Chipsatz-Lizenzen Probleme hat.
Im klartext, der Fermi ist vielleicht Nvidias Versuch (grade in Hinblick auf die Verinfachung der Programmierung mit C++ etc.) eher einen sSper-Numbercruncher zu schaffen als einen GRafikchip, weil sie merken dass sie im regulären Graka-Business langsam rausgedrängt werden.
Wobei ob der Chip nun in Realität derart super ist, wird sich erst zeigen müssen.
Andererseits sind die Ingineure bei NVIDIA auch nicht doof, und wenn die sich 4 Jahre zeit nehmen sollte man meinen dass was akzeptables dabei herausspringt...

Aber an den "Richtungswechsel" im Grafikdesign glaube ich angesichts der Marktmacht von Microsofts DirectX nicht so ganz.
Es wurde zwar schon prophezeit, dass sich über kurz oder Lang die Entwickler von der API lösen werden und die chips direkt programmieren, das geht aber auch erst wenn die Marktdurchdringung solcher chips entsprechend groß ist, eine Grafikengine in C++ die nur auf dem Fermi läuft wäre wohl ein Rohrkrepierer... Und außerdem können sich den Aufwand auch nur Firmen geben die Engines zum weiterlizensieren entwickeln.
Für ein Wald und Wiesen - Spiel von irgendeinem Studio werden die sich sicher nicht hinsetzen und an DX vorbei irgend ne engine auf dem Rohsilizium implementieren....

also alles erstmal nur Marketinggeblubber...

Grüßle,
ich
 
Warum wird eigentlich der Fred nicht umbenannt in "Wir machen alle nieder,außer ATI"? :] :]
 
Man kann ja einfach mal die Niedermach-Argumente entkräften? *noahnung* Wenn man nvidia unterschätzt, macht man bestimmt einen Fehler. Aber die Show-Veranstaltung ist und bleibt eine Ver*rsche.
 
Zuletzt bearbeitet:
Heyhey... ich habe extra erwähnt dass das Design an sich recht interessant ist!
Aber wie immer, birgt ein neuer Ansatz auch das Risiko dass es fundamental daneben geht, und dem muss sich auch NVIDIA stellen!
Und dass NV undbeingt ein 500mm² - Montstrum schaffen musste das sich sogar in 40nm nicht einfach herstellen lässt und wohl dieses Jahr nicht mehr fertig wird, ist nicht unsere Schuld! - Es ist nunmal fakt.
Tschuldigung, aber NV ist keine "kleine Klitsche, die es nicht besser weiß"...
Und bezüglich Larrabee ist wohl auch bekannt dass sogar dessen theoretische Peak-Rechenleistung noch unter eine cypress liegen würde. und das teil hat in 45nm satte 600mm². Also Sorry dass man dafür nicht unbedingt Lorbeeren im großen Stil verteilen kann!
ATI hat eben zur Abwechslung mal ein gutes Händchen. Sie haten genug magere Jahre, Verzögerungen etc. nun wirds mal zeit dass sie von der Glückssträhne profitieren.
Das ist nur gut für den MArkt, gesunder Konkurrenzkampf!

Und wie gesagt, Fermi ist nicht uninteressant... ein etwas andere Ansatz und anscheinend mehr geklotzt als gekleckert, aber auch der wird sich der harten Realität stellen müssen, und die lautet nunmal nach derzeitiger Wissenlsage, Nvidia ist nicht fertig und hat momentan nichts vorzuweisen als einen theoretischen papiertiger von dem nicht bekannt ist wann wir was davon zu sehen kriegen.... Wenn sich ATI das leisten würde, müssten sie sich denselben Vorwürfen stellen. Also ist das nur gerecht.

Allgemein gesprochen scheint ATI mit den letzten Generationen das alte mythos von "viel hilft viel" in Sachen DIE-Größe widerlegt zu haben. Dass Intel und Nvidia dem Größenwahn erlegen sind und monsterchips fabrizieren müssen ist nicht ATIs oder unser Fehler.
.
EDIT :
.

Aber die Show-Veranstaltung ist und bleibt eine Ver*rsche.
Wenn sogar gefälschte Karten gezeigt werden... :] - Ein Armustzeugnis für eine Weltfirma...
 
Wenn sogar gefälschte Karten gezeigt werden... :] - Ein Armustzeugnis für eine Weltfirma...


Nunja gefälscht ist relative, vermute eher das eine Tesla Karte kurzer Hand einen DVI Port bekommen hat. ;D
Ich glaube auch nicht daran das Fermi ein Zocker Karte werden soll!

@ [MTB]JackTheRipper

Seitdem es die 5870 gibt, wird es wohl auf lange Sicht, eine Mainstream Karte (GTX285) werden *chatt*
 
Offensichtlich sah sich Nvidia jetzt dazu genötigt, endlich mit der Wahrheit rauszurücken
Fuad hat was dazu geschrieben (was mich überrascht, weil er momentan Nvidia allgemein sehr positiv darstellt....das ganze als Speichellecker-Tripp zu bezeichnen würde es wohl auch treffen. )

Also es sieht wohl so aus: Die "echte" Fermi-Karte besteht aus genz vielen drähten und kabeln und ist unansehnlich. Also hat man lieber den Praktikanten im Hobbykeller ein ansehnliches Dings basteln lassen, dass man dann als Fermi präsentiert hat.
Interessant ist, dass Fuad erwähnt, dass man bald die Originalkarte zeigen will....
Und er verweist sogar auf Charly von semiaccurate und erklärt, dass dieser mit seiner Einschätzung also Recht hatte. (Warum hat nvidia nicht charly auch einfach die Wahrheit gesagt, ist doch gar nicht so schwer......)

Da hat Nvidia offensichtlich nicht damit gerechnet, dass soviel Wind darum gemacht wird. Jetzt muss man mal mit dem Original rausrücken. Hoffentlich drücken sie jetzt nicht gerade dem Praktikanten ein paar Drähte und Kabel in die Hand und sagen er soll was basteln, was wie eine unfertige Grafikkarte aussieht..... ;D

Naja, da steht jetzt Mr. Huang trotzdem dumm da, dass er das Ding wie sein Baby unter dem Tuch hervorgeholt hat und dann gesagt hat: " This, ladies and gentlemen, this puppy here, is Fermi." (ob das mit dem Puppy wohl schon eine Andeutung sein sollte....)

Das heißt aber auch, dass es offensichtlich tatsächlich noch nicht viele Prototypen gibt und dass diese sich in einem sehr sehr sehr frühen Stadium befinden.
 
Zuletzt bearbeitet:
Wird wohl so sein das es Fermi als Tesla gibt nur eben nicht als Mainstram Karte.
Jetzt wollte die nVidia Jungs vermutlich wissen ob es bei den Kunden überhaupt interesse für so eine Monster-Karte gibt!
(die haben sich bestimmt gedacht das interresiert eh keinen, fühlten sich aber durch den guten HD58XX Start, dazu genötigt ein kleinen Fake zu Riskieren!) *noahnung*

Demnach gab es genug Wind, um nun eine echte zu zeigen, also reines Marketing? *suspect*
 
@ isigrim:

fuad als speichellecker zu bezeichnen, beleidigt alle speichellecker.

er ist eher so ne art käuflich zu erwerbenes, devotes objekt *gg*

charlie anzuzweifeln würde den rest seiner kompetenz begraben. auf eine baldige veröffentlichung zu verweisen.... siehe oben.. ;)

oder 7 of 7 wird jetzt tatsächlich krampfhaft irgendwie verlötet. man gönnt sich ja sonst nix, dann wird 7 of 7 eben geopfert *gg*
 
Zuletzt bearbeitet:
imerhin heißt das, das es wohl in der tat noch bei weitem nichts vorzeigbares gibt,das einer retailkarte auch nur ähnelt...
 
@ isigrim:

fuad als speichellecker zu bezeichnen, beleidigt alle speichellecker.

er ist eher so ne art käuflich zu erwerbenes, devotes objekt *gg*
[...]

Sag mal, gehts noch? Vielleicht bist du selber ein käuflich erwerbbares, devotes Objekt?
 
Sag mal, gehts noch? Vielleicht bist du selber ein käuflich erwerbbares, devotes Objekt?

komm mal runter. was ich da so letzte zeit lese, von dem guten, ist reinste nvidia-werbemaschinerie.

also was willste mir erzählen?

schau mal alleine die seite *gg*

http://www.fudzilla.com/


ich seh da nur nvidia ;)


http://www.fudzilla.com/content/view/15794/1/
und sowas ist nicht werbung? nvidia, der retter der pc games? *gg*

nvidia hat eher bis jetzt dx10.1 verhindert. toller retter ;)

man muß schon arg naiv sein um bei solch "berichterstattung" nicht finanzielle hintergründe zu sehen. sorry

und PS: ich arbeite im marketing, zwar ne andere branche, aber egal. ;)
(eigentlich noch mafiaähnlicher sogar, pharmaindustrie, also glaub mir ich weiß, was ich sehe. aber wir sind die, die bezahlen ;) )


was sagt amd zu dem thema?
http://www.hartware.de/news_47712.html
"Es gibt einen großen Unterschied zwischen dem was Nvidia sagt und was sie tun. Sie sagen, sie wollen nur das Beste für die Spieler. Ihre Entscheidungen aber führen zum genauen Gegenteil."


PS: was anderes:
http://www.xbitlabs.com/news/video/...irst_Graphics_Cards_on_Track_for_Q4_2009.html

dann bei:
"Besides, many press outlets as well as technology forums (1, 2) over the Internet expressed doubts that the demonstrated Fermi-G300 card was real."

auf 2 klicken. dann wird man zum p3dnow forum verlinkt ;)

man wird ja direkt weltweit berühmt :D
 
Zuletzt bearbeitet:
ich geh mal davon aus das der gt300 schneller sein wird als die 5870 aber das ist ja auch gut so.

ati richtet es irgendwann wieder über den preis und nvidia muss ihre karten wieder billig verschleudern :) egal wann der gt300 kommt ati gehts dan trotzdem gut.
 
Das hängt wohl von dem jeweiligen Spiel ab.
Deutlich abhängen wird sie die Radeon ganz bestimmt im Grafikkartenweitwurf (bessere Aerodynamik & geringeres Gewicht dank agesägtem PCB)...
 
Also wegen Fuad:
Der ist momentan bei der Nvidia Technology Conference und berichtet deshalb relativ viel. Soviel zur Entschuldigung. Wie er berichtet ist allerdings einfach deutlich zu unkritisch und hat mit kritischem Hinterfragen und damit seriösem Journalismus nichts zu tun. Das meinte ich mit Speichelleckerei. Warum er das macht, weiß ich nicht und ich will hier nicht zu viel unterstellen.
Gerade für die vielen lustigen Spekulationen die es bei ihm häufig gibt, bin ich sehr dankbar, weil das immer recht unterhaltsam ist. Man muss das halt immer mit einem dicken Fragezeichen lesen, aber das gehört ja eh dazu. Aber ohne ihn wär das ganze IT Zeugs deutlich weniger unterhaltsam.
 
ORNL hat schon angekündigt, das sie die kommenden Nvidia Karten einsetzen werden. Lucas arts Technical Chief hat gestern, während der GTC angekündigt, gar eine ganze Rendering Farm mittels der der neuen Grafikbeschleuniger aufzubauen.
Wenn das mal auf Dauer nicht eng wird für die CPU Hersteller.
 
Das ist eben der Punkt: Nvidia greift mit dem Fermi nach HPC.
Das heißt man könnte das auch als Nvidias Server-"GPU" sehen (wenn nicht gar eigentlich als CPU, sehen, denn der zentrale Rechenaufwand bei den betreffenden Servern findet ja auf der GPU statt)

Deshalb anfangs meine Frage, ob es nicht möglich ist, dass wir Fermi gar nicht als Grafikkarten im Endanwenderbereich sehen, sondern dort ein eigener Ableger mit eigenem Die kommt. Wenn ich schon sehe, dass auch die internen Caches der GPU mit ECC ausgestattet werden, bin ich mir nicht sicher, ob sich bei Fermi überhaupt viel für die Spieler getan hat und ob nicht stattdessen alle Entwicklung in die GPGPU Richtung geflossen ist.
Dafür könnte man ja für den Massenmarkt der Spieler einen eigenen Die fertigen lassen, der eben kleiner ist und auch weniger Ballast mitschleppt. Wenn der HPC-Markt ein gewisses Volumen erreicht und das muss er für Nvidia, damit sich Fermi rentiert, dann rentiert sich gleichzeitig auch die Eigententwicklung einer GPU für Spieler, da man für beide Dies einen großen Absatzmarkt erwartet. Bisher machte der GPGPU-Bereich ja keinen großen Umsatz. Das dürfte sich nach den Meldungen jetzt ändern.

Nachtrag:
Von einem GT300 spricht Jen-Hsun Huang bei der Konferrenz gar nicht, auch die Blogeinträge sprechen davon nicht. (Es kommt nichteinmal ein: Fermi oder auch GT300) Das Ding dort wird konsequent als Fermi bezeichnet. Der GT300, der dieses Jahr noch kommen soll, könnte also tatsächlich ein anderer Chip sein, der zwar auf der gleichen Grundarchitektur wie Fermi basiert, aber nicht mit dem für GPGPU entwickelten Chip identisch ist.(Dieser könnte dann theoretisch auch kleiner sein und damit im reinen GPU-Markt konkurrenzfähiger.)
 
Zuletzt bearbeitet:
Trotzdem ist es deutlich zu früh um darüber zu diskutieren wer schneller ist.
AMD hat momentan HW-Mäßig die Nase vorn, nun wirds Zeit dass sie an ihren Treibern arbeiten! - schleunigst!
Genauso wie am SDK für OpenCL auf grakas und alledem. Die ATI-HW ist mittlerweile sehr gut und setzt Maßstäbe in mancherlei hinsicht, aber die Software hinkt Nvidia noch ein ganzes Stück hinterher.

Der Fermi schaut grandios aus, aber ob er in dieser Form als reguläre Desktop-Graka kommt ist fraglich.
In der SP-Leistung sieht er ohnehin keine Sonne gegen eine Cypress und im DP kann er sie womöglich knapp überholen, aber auch nicht grandios, wenn man dieses Monster betrachtet...
Zudem ist Rohleistung auch noch was anderes als Leistung die man direkt nutzen kann! - Noch ist nicht Raus wie effizient das Design tatsächlich arbeitet und in verschienen Situationen.
Ich erinnere mich an Zeiten, wo die bloße Reihenfolge von Grafikdaten (texturen etc.) und deren Verhältnis zueinander einen immensen Unterschied in der Leitung ausmachte, weil es einfach grade zur hardware "passte" und nur dann richtig effizient lief.
Ich will dem Fermi nichts unterstellen, ich sage nur für eine genaue Betrachtung ist es noch zu früh und die Cypress-Chips sehen von den rohdaten her auch alles andere als schlecht aus... ich warte eigentlich nur darauf dass Gipsel die neuen Fähigkeiten für seinen Milkyway-client nutzt und die dinger abgehen wie ne Rakete mit Fusionsantrieb....

grüßchen
ich
 
ORNL hat schon angekündigt, das sie die kommenden Nvidia Karten einsetzen werden. Lucas arts Technical Chief hat gestern, während der GTC angekündigt, gar eine ganze Rendering Farm mittels der der neuen Grafikbeschleuniger aufzubauen.
Wenn das mal auf Dauer nicht eng wird für die CPU Hersteller.
Als Steuerleitwerk werden Prozessoren nach wie vor genutzt. Im HPC-Bereich braucht man immer noch beides.

Schon in der Vergangenheit wurden FPGAs, spezielle Multicores (Cell, Clearspeed) eingesetzt ... und dennoch wurden die Cluster immer größer mit noch mehr Prozessoren.

Das ist noch ein weites Stück Weg für wirklich universelle GPGPUs, falls und bis die sich in allen Bereichen der klassischen (skalaren) Prozessoren in den Weg stellen werden.

MFG Bobo(2009)
 
Bright Side of News: GT300 Demo card was a Dummy; Does that really matter?

Was soll man denn von so einer Berichterstattung halten?
1. Angeblich sei die Information, dass es sich um einen Dummy genhandelt habe, von AMD geleaked worden.....
Gibts dafür Beweise? Undergroundking hatte es ja hier imForum auch gesehen, also was soll diese Unterstellung.
2. "Es ist doch vällig normal, dass Dummys gezeigt werden."
Stimmt, das ist normal. Normalerweise kann man es auch einfach sagen. Hat Nvidia aber nicht gemacht, im Gegenteil.
In dieser Hinsicht sei nocheinmal darauf verwiesen, dass der Vergleich: Dummy bei Autoshow und Dummy bei Fermi-Vorführung gewaltig hinkt. Tesla-Karten werden nun einmal nicht nach dem äußeren Design gekauft. Und eben dieses Design erprobt man normalerweise, wenn man auf Autoshows eine Karosserie ohne Motor zeigt. Man testet das Design.....das ist hier aber völlig irrelevant.

Die Schlussfolgerung ist dann komplett kurios: "AMD hat furchtbar Angst vor Fermi und versucht deshalb Nvidia schlecht zu machen...."
Es findet eine völlige Umkehr der Tatsachen statt. Plötzlich soll AMD daran Schuld sein, dass der Fake um die Welt gegangen ist?

Also ich finde ja auch, dass man darüber streiten kann, ob es schlimm war. Aber jetzt AMD dafür verantwortlich zu machen ist derart bestialisch unseriös. Wie kann man denn ernsthaft sowas schreiben?
 
Zuletzt bearbeitet:
Hast nicht den PR Mitarbeiter gesehen, der sich in jedem Forum registriert hat und uns erhellt hat... Wie kann das auch sein, dass ein Normalsterblicher auch nur im geringsten das offensichtlich gecuttete PCB die "perfekte" Lüfteranordnung oder die geklebten Stromanschlüsse hätte erkennen können. So blöd ist Nvidia nun auch nicht.

[Ironie OFF]
 
Zurück
Oben Unten