News NVIDIA zum "Fermi"

Aja, noch weit von der echten Präsentation entfernt, wissen hier schon einige bestens über die Leistungsfähigkeit Bescheid.
Die Berechnungen wurden aufgrund Nvidias Aussagen gemacht. Besser wird Fermi dann wohl kaum werden. Darfst dazu gerne mal den DC Bereich hier durchstöbern.
 
hunde die bellen, beißen nicht. die cartoons gleichzusetzen mit einem starken fermi ist schon arg gewagt.

man könnte es auch als nackte panik deuten. 8)
Es erinnert mich an die Ära bevor GT200 & RV770 eingeführt wurde, wo Nvidia stark gegen Intel angiftete.
War ja nur ein spekulativer Gedanke.
 
Ich schätze mal, NVidia möchte zusammen mit Fermi das Raytraycing in den Gaming Bereich bringen. Die haben doch gerade erst eine entprechende Engine zum Download angeboten mit der Asusage (Runs on Fermi). D.h. NVidia möchte DX11 an den Sack, indem sie mit einer properitären Technologie den Restmarkt austrocknen bis ein paar Jahre später das ganze in DX12 einfließt. So wurde es ja auch schon mit PhysX gemacht.

Greetz,
GHad
 
@GHad auch @all
Raytracing?
Hört sich interessant an nur Frage ich mich was kann das besser als alle anderen Technologien und ist die HW dann schnell genug? http://en.wikipedia.org/wiki/Ray_tracing_(graphics) Beziehe mich da auf den Satz der mit "but at a greater computational cost" endet.

Dann noch bei dem Wiki Link unter real time den letzten Absatz das NV was plant oder besser was angekündigt hat.

Davon ab:
Bräuchte man dann nicht wieder ganz neue Engines? Denke nicht das die UT3+ oder Cryengine 3 dafür zu brauchen ist oder habe ich dann was ganz falsch verstanden?

Glaubt wer, dass Fermi schnell genug ist das in Echtzeit ablaufen zu lassen? Ich bezweifle das etwas, besonders nach dem Wiki Eintrag über das was Intel 2008 auf 16 Cores gezeigt haben soll und das nicht mal mit konstanten 30 FPS lief.
Was bringt Raytracing dem Useren mit etwas älterer HW oder non NV HW die gerade noch 10.0 - 10.1 DX bei mittlerer Auflösung flüssig darstellen kann?
Ich würde sagen nichts und denke, dass die Programmierer nicht 5 Versionen schreiben werden, nämlich 2 für die HD-Konsolen die das sicher nicht in Echtzeit können, 1 für Wii und Co und noch 2 für den PC damit viele Spieler das Spiel spielen können.

Auch wenn das alles von einer Engine erledigt wird müsste man einen Haufen Code bauen damit die Engine auf verschiedener HW läuft und wenn ich das so richtig sehe, kann man nicht einfach Raytracing einbauen und wenn die HW diese nicht kann oder nicht schnell genug kann ersetzten mit dem normalen was bis jetzt üblich ist. Nicht zu vergessen, dass weder PS3 noch 360 schnell genug zu sein scheinen für so was in Echtzeit.


@all
Könnte mich da wer auf den Stand der Dinge bringen?
Könnte sein, dass ich etwas daneben lag mit dem Text. Dann bitte ich um Verbesserung und vielleicht Richtigstellung.
Danke!
 
Zuletzt bearbeitet:
... Davon ab:
Bräuchte man dann nicht wieder ganz neue Engines? Denke nicht das die UT3+ oder Cryengine 3 dafür zu brauchen ist oder habe ich dann was ganz falsch verstanden? ...
Tim Sweney von Epic und id (id-tech 6, Stichwort Raycasting) sehen durchaus eine Zukunft jenseits der herkömmlichen Rastertechnik mit andersartigen Render-Pfaden.

Ich bin mir sicher, dass der Fermi auch noch nicht an die Klasse vom Topstream heranreichen wird. In der Industrie ging die Entwicklung abseits der Spiele-Rasterizer auch weiter ... sogar ohne Nvidia und Intel (Stichwort Larrabee).

Dabei finden auch recht kompakte Chips Verwendung, die eine herkömmliche GPU nicht ersetzen, sondern dort Nachschub geben, wo sie bislang ganz besonders dumm/langsam waren.

Der Punkt ist, dass herausragende Spiele-Entwickler offenbar etwas wollen und schon entwickeln, was mit DirectX-11 und anderen klassischen Rasterizer-APIs nicht zu leisten ist.


Siehe dazu auch die Postings: "Raytracing 1000-fach schneller".

MFG Bobo(2009)
 
Das wird aber wohl trotzdem noch jahre dauern...
Grade wegen Konsolen etc.
Ist das nciht bei Raytracing so, dass ein Verdopplung der Displayauflösung zu einem unverhältnismäßig hohen Anstieg des Rechenaufwands führt?
Es ist also ein sehr erheblicher Unterschied ob man 1024x768 grade noch flüssig darstellen kann oder FullHD.
RayCasting ist wieder ne andere Sache. Ähnlcihes haben die Kyro-Chips von ST Microelectronics ja schon gemacht um fest zu stellen welche Flächen sichtbar sind und welche nicht....
 
@Bobo_Oberon
Danke für die Info.
Also wenn ich dich richtig versteh braucht man da noch einen Chip auf der Grafikkarte die Raytracing machen muss.

@all
Das Ganze hört sich gut an, aber wann soll da überhaupt was lauffähige bei den Konsumenten an kommen?
Noch vor DX 12 oder wird da was mit DX 12 oder 13 von MS,Intel, NV oder ATI/AMD kommen?
Was macht ATI/AMD in dem Bereich und was kann NV liefern mit dem Frmi das man als User sofort auf diese Karten umsteigen will?

Physx war und ist ja auch noch nicht das was man unbedingt so dringend braucht. Wie geht es damit weiter?
Kommt da überhaupt mal ein Physikengine raus die mal auf allen CPUs/GPUs ansehnliche Effekte liefern kann und wie wird diese dann mit Raytracing verknüpft?

Ich habe gerne mehr und auch gerne etwas mehr in Richtung real und besonders mehr in Richtung dem was Pixar macht, also mehr Cartoon/Fantasy/Anime und wenn das dank Raytracing besser geht, dann sage ich immer her damit.

Was mir da am Rande noch einfällt wäre folgendes: Wie geht es überhaupt mit den GPUs weiter?
Die werden immer Größer und komplexer und stromhungriger. Muss nicht schon aus diesem Grund bald mal ein neuer Ansatz gefunden werden?
 
Ich schätze mal, NVidia möchte zusammen mit Fermi das Raytraycing in den Gaming Bereich bringen.
Raytracing ist noch Jahre entfernt. Auch Fermi wird dafür viel zu schwachbrüstig sein, um dies in kommerziellen Titeln durchgängig zu nutzen. Es braucht noch deutlich mehr Rechenleistung, um mit Raytracing in Echtzeit zu rendern und klare Vorteile gegenüber bisheriger Rasterisierung zu erzielen. Ich vermute mal, unter 10 TFLOPS braucht man da gar nicht erst anfangen. Vermutlich geht es eher Richtung 50-100 TFLOPS.
Zudem müsste sich der gesamte Softwaremarkt um 180° drehen.Und wenn man bedenkt, dass Konsolen an erster Stelle beim Gaming stehen, kann das ein langwieriger Prozess werden.
 
... Also wenn ich dich richtig versteh braucht man da noch einen Chip auf der Grafikkarte die Raytracing machen muss.
Nun, ob der zusätzliche Chip auf die Grafikkarte MUSS? Nein, da bietet Caustic eine Steckkarte an. Zusammen mit der API CausticGL und der Caustic One (Basis ist ein rekonfigurierbarer FPGA-Chip) versprechen sie deutlich bessere Raytracing-Leistung an.


... Das Ganze hört sich gut an, aber wann soll da überhaupt was lauffähige bei den Konsumenten an kommen? ...
Das ist alles noch ferne Zukunftsmusik.

id und Epic schütteln auch nicht mal so eben eine völlig neue Spiele-Engine aus dem Ärmel. Interessant dabei ist, dass einstmalige Verfechter von 3D-Spielebeschleunigern sich nun entfernen vom klassischen Rasterizer-Ansatz. Das muss zwar noch kein Raytracing sein, aber was nicht ist, kann ja noch werden.

Wobei man anmerken darf, dass Epic eine ganze Zeit lang in ihrer Unreal-Engine neben OpenGL, DirectX, 3dfxs Glide noch einen reinen CPU-Renderpfad hatten und schon früh prozedurale Elemente verwendeten.

Auf jeden Fall ist das eine Herausforderung für AMD und Nvdia ihre GPUs langfristig auch für solche Aufgaben auf die eine oder andere Weise fit zu machen für Raytracing. Intel beabsichtigt ja mit dem Larrabee so etwas von Anfang an .
In der Vergangenheit wurden dafür vergleichsweise simple FPGAs auch schon als als Echtzeit-Raytracer verwendet.

MFG Bobo(2009)
 
Zurück
Oben Unten