App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News NVIDIA zum "Fermi"
- Ersteller pipin
- Erstellt am
[MTB]JackTheRipper
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 7.814
- Renomée
- 49
- Standort
- Reutlingen
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Folding@Home, QMC, Spinhenge, Simap, Poem
- Lieblingsprojekt
- Folding@Home
- Meine Systeme
- 2x X2 3800+
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- HP NC2400
- Display
- Samsung SyncMaster 305T
- Gehäuse
- Antec P180B
Die Berechnungen wurden aufgrund Nvidias Aussagen gemacht. Besser wird Fermi dann wohl kaum werden. Darfst dazu gerne mal den DC Bereich hier durchstöbern.Aja, noch weit von der echten Präsentation entfernt, wissen hier schon einige bestens über die Leistungsfähigkeit Bescheid.
Es erinnert mich an die Ära bevor GT200 & RV770 eingeführt wurde, wo Nvidia stark gegen Intel angiftete.hunde die bellen, beißen nicht. die cartoons gleichzusetzen mit einem starken fermi ist schon arg gewagt.
man könnte es auch als nackte panik deuten. 8)
War ja nur ein spekulativer Gedanke.
GHad
Fleet Captain Special
- Mitglied seit
- 21.10.2009
- Beiträge
- 293
- Renomée
- 7
Ich schätze mal, NVidia möchte zusammen mit Fermi das Raytraycing in den Gaming Bereich bringen. Die haben doch gerade erst eine entprechende Engine zum Download angeboten mit der Asusage (Runs on Fermi). D.h. NVidia möchte DX11 an den Sack, indem sie mit einer properitären Technologie den Restmarkt austrocknen bis ein paar Jahre später das ganze in DX12 einfließt. So wurde es ja auch schon mit PhysX gemacht.
Greetz,
GHad
Greetz,
GHad
The_crow
Grand Admiral Special
- Mitglied seit
- 04.06.2005
- Beiträge
- 2.674
- Renomée
- 80
- Prozessor
- RYZEN 9 7900X
- Mainboard
- ASUS TUF Gaming B650-PLUS -WIFI
- Kühlung
- NOCTUA NH-D15 chromax.black einige Lüfer von Cooler Master die beim Tower schon dabei waren.
- Speicher
- 2 x 16 GB Kingston 5600 mit EXPO
- Grafikprozessor
- AMD ASUS TUF Gaming OC RX7900 XTX 24 GB
- Display
- HP 27xq oder einen LG OLED48C1... an der Yamha Anlage die 5.1.2 kann und auch so genutzt wird.
- SSD
- Hab eine SATA 1 TB SSD Sandisk aber nicht als OS Platte im Moment. M.2 für OS Samsung SSD 980 PRO .
- HDD
- Sicher eine von denen die da sind aber welche?
- Optisches Laufwerk
- Optiarc
- Soundkarte
- Onboard Realtec leider nicht ganz so gut wie der alte. Nun per HDMI an den AVR.
- Gehäuse
- Cooler Master BigTower der bald mal weg muss.
- Netzteil
- be quiet! PURE POWER 12 M 1.000 Watt
- Tastatur
- Einfache Cherry USB
- Maus
- Logitech MX Master 3s
- Betriebssystem
- Win 11 + alle Updates
- Webbrowser
- größten Teils FireFox
@GHad auch @all
Raytracing?
Hört sich interessant an nur Frage ich mich was kann das besser als alle anderen Technologien und ist die HW dann schnell genug? http://en.wikipedia.org/wiki/Ray_tracing_(graphics) Beziehe mich da auf den Satz der mit "but at a greater computational cost" endet.
Dann noch bei dem Wiki Link unter real time den letzten Absatz das NV was plant oder besser was angekündigt hat.
Davon ab:
Bräuchte man dann nicht wieder ganz neue Engines? Denke nicht das die UT3+ oder Cryengine 3 dafür zu brauchen ist oder habe ich dann was ganz falsch verstanden?
Glaubt wer, dass Fermi schnell genug ist das in Echtzeit ablaufen zu lassen? Ich bezweifle das etwas, besonders nach dem Wiki Eintrag über das was Intel 2008 auf 16 Cores gezeigt haben soll und das nicht mal mit konstanten 30 FPS lief.
Was bringt Raytracing dem Useren mit etwas älterer HW oder non NV HW die gerade noch 10.0 - 10.1 DX bei mittlerer Auflösung flüssig darstellen kann?
Ich würde sagen nichts und denke, dass die Programmierer nicht 5 Versionen schreiben werden, nämlich 2 für die HD-Konsolen die das sicher nicht in Echtzeit können, 1 für Wii und Co und noch 2 für den PC damit viele Spieler das Spiel spielen können.
Auch wenn das alles von einer Engine erledigt wird müsste man einen Haufen Code bauen damit die Engine auf verschiedener HW läuft und wenn ich das so richtig sehe, kann man nicht einfach Raytracing einbauen und wenn die HW diese nicht kann oder nicht schnell genug kann ersetzten mit dem normalen was bis jetzt üblich ist. Nicht zu vergessen, dass weder PS3 noch 360 schnell genug zu sein scheinen für so was in Echtzeit.
@all
Könnte mich da wer auf den Stand der Dinge bringen?
Könnte sein, dass ich etwas daneben lag mit dem Text. Dann bitte ich um Verbesserung und vielleicht Richtigstellung.
Danke!
Raytracing?
Hört sich interessant an nur Frage ich mich was kann das besser als alle anderen Technologien und ist die HW dann schnell genug? http://en.wikipedia.org/wiki/Ray_tracing_(graphics) Beziehe mich da auf den Satz der mit "but at a greater computational cost" endet.
Dann noch bei dem Wiki Link unter real time den letzten Absatz das NV was plant oder besser was angekündigt hat.
Davon ab:
Bräuchte man dann nicht wieder ganz neue Engines? Denke nicht das die UT3+ oder Cryengine 3 dafür zu brauchen ist oder habe ich dann was ganz falsch verstanden?
Glaubt wer, dass Fermi schnell genug ist das in Echtzeit ablaufen zu lassen? Ich bezweifle das etwas, besonders nach dem Wiki Eintrag über das was Intel 2008 auf 16 Cores gezeigt haben soll und das nicht mal mit konstanten 30 FPS lief.
Was bringt Raytracing dem Useren mit etwas älterer HW oder non NV HW die gerade noch 10.0 - 10.1 DX bei mittlerer Auflösung flüssig darstellen kann?
Ich würde sagen nichts und denke, dass die Programmierer nicht 5 Versionen schreiben werden, nämlich 2 für die HD-Konsolen die das sicher nicht in Echtzeit können, 1 für Wii und Co und noch 2 für den PC damit viele Spieler das Spiel spielen können.
Auch wenn das alles von einer Engine erledigt wird müsste man einen Haufen Code bauen damit die Engine auf verschiedener HW läuft und wenn ich das so richtig sehe, kann man nicht einfach Raytracing einbauen und wenn die HW diese nicht kann oder nicht schnell genug kann ersetzten mit dem normalen was bis jetzt üblich ist. Nicht zu vergessen, dass weder PS3 noch 360 schnell genug zu sein scheinen für so was in Echtzeit.
@all
Könnte mich da wer auf den Stand der Dinge bringen?
Könnte sein, dass ich etwas daneben lag mit dem Text. Dann bitte ich um Verbesserung und vielleicht Richtigstellung.
Danke!
Zuletzt bearbeitet:
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Tim Sweney von Epic und id (id-tech 6, Stichwort Raycasting) sehen durchaus eine Zukunft jenseits der herkömmlichen Rastertechnik mit andersartigen Render-Pfaden.... Davon ab:
Bräuchte man dann nicht wieder ganz neue Engines? Denke nicht das die UT3+ oder Cryengine 3 dafür zu brauchen ist oder habe ich dann was ganz falsch verstanden? ...
Ich bin mir sicher, dass der Fermi auch noch nicht an die Klasse vom Topstream heranreichen wird. In der Industrie ging die Entwicklung abseits der Spiele-Rasterizer auch weiter ... sogar ohne Nvidia und Intel (Stichwort Larrabee).
Dabei finden auch recht kompakte Chips Verwendung, die eine herkömmliche GPU nicht ersetzen, sondern dort Nachschub geben, wo sie bislang ganz besonders dumm/langsam waren.
Der Punkt ist, dass herausragende Spiele-Entwickler offenbar etwas wollen und schon entwickeln, was mit DirectX-11 und anderen klassischen Rasterizer-APIs nicht zu leisten ist.
Siehe dazu auch die Postings: "Raytracing 1000-fach schneller".
MFG Bobo(2009)
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Das wird aber wohl trotzdem noch jahre dauern...
Grade wegen Konsolen etc.
Ist das nciht bei Raytracing so, dass ein Verdopplung der Displayauflösung zu einem unverhältnismäßig hohen Anstieg des Rechenaufwands führt?
Es ist also ein sehr erheblicher Unterschied ob man 1024x768 grade noch flüssig darstellen kann oder FullHD.
RayCasting ist wieder ne andere Sache. Ähnlcihes haben die Kyro-Chips von ST Microelectronics ja schon gemacht um fest zu stellen welche Flächen sichtbar sind und welche nicht....
Grade wegen Konsolen etc.
Ist das nciht bei Raytracing so, dass ein Verdopplung der Displayauflösung zu einem unverhältnismäßig hohen Anstieg des Rechenaufwands führt?
Es ist also ein sehr erheblicher Unterschied ob man 1024x768 grade noch flüssig darstellen kann oder FullHD.
RayCasting ist wieder ne andere Sache. Ähnlcihes haben die Kyro-Chips von ST Microelectronics ja schon gemacht um fest zu stellen welche Flächen sichtbar sind und welche nicht....
The_crow
Grand Admiral Special
- Mitglied seit
- 04.06.2005
- Beiträge
- 2.674
- Renomée
- 80
- Prozessor
- RYZEN 9 7900X
- Mainboard
- ASUS TUF Gaming B650-PLUS -WIFI
- Kühlung
- NOCTUA NH-D15 chromax.black einige Lüfer von Cooler Master die beim Tower schon dabei waren.
- Speicher
- 2 x 16 GB Kingston 5600 mit EXPO
- Grafikprozessor
- AMD ASUS TUF Gaming OC RX7900 XTX 24 GB
- Display
- HP 27xq oder einen LG OLED48C1... an der Yamha Anlage die 5.1.2 kann und auch so genutzt wird.
- SSD
- Hab eine SATA 1 TB SSD Sandisk aber nicht als OS Platte im Moment. M.2 für OS Samsung SSD 980 PRO .
- HDD
- Sicher eine von denen die da sind aber welche?
- Optisches Laufwerk
- Optiarc
- Soundkarte
- Onboard Realtec leider nicht ganz so gut wie der alte. Nun per HDMI an den AVR.
- Gehäuse
- Cooler Master BigTower der bald mal weg muss.
- Netzteil
- be quiet! PURE POWER 12 M 1.000 Watt
- Tastatur
- Einfache Cherry USB
- Maus
- Logitech MX Master 3s
- Betriebssystem
- Win 11 + alle Updates
- Webbrowser
- größten Teils FireFox
@Bobberon
Danke für die Info.
Also wenn ich dich richtig versteh braucht man da noch einen Chip auf der Grafikkarte die Raytracing machen muss.
@all
Das Ganze hört sich gut an, aber wann soll da überhaupt was lauffähige bei den Konsumenten an kommen?
Noch vor DX 12 oder wird da was mit DX 12 oder 13 von MS,Intel, NV oder ATI/AMD kommen?
Was macht ATI/AMD in dem Bereich und was kann NV liefern mit dem Frmi das man als User sofort auf diese Karten umsteigen will?
Physx war und ist ja auch noch nicht das was man unbedingt so dringend braucht. Wie geht es damit weiter?
Kommt da überhaupt mal ein Physikengine raus die mal auf allen CPUs/GPUs ansehnliche Effekte liefern kann und wie wird diese dann mit Raytracing verknüpft?
Ich habe gerne mehr und auch gerne etwas mehr in Richtung real und besonders mehr in Richtung dem was Pixar macht, also mehr Cartoon/Fantasy/Anime und wenn das dank Raytracing besser geht, dann sage ich immer her damit.
Was mir da am Rande noch einfällt wäre folgendes: Wie geht es überhaupt mit den GPUs weiter?
Die werden immer Größer und komplexer und stromhungriger. Muss nicht schon aus diesem Grund bald mal ein neuer Ansatz gefunden werden?
Danke für die Info.
Also wenn ich dich richtig versteh braucht man da noch einen Chip auf der Grafikkarte die Raytracing machen muss.
@all
Das Ganze hört sich gut an, aber wann soll da überhaupt was lauffähige bei den Konsumenten an kommen?
Noch vor DX 12 oder wird da was mit DX 12 oder 13 von MS,Intel, NV oder ATI/AMD kommen?
Was macht ATI/AMD in dem Bereich und was kann NV liefern mit dem Frmi das man als User sofort auf diese Karten umsteigen will?
Physx war und ist ja auch noch nicht das was man unbedingt so dringend braucht. Wie geht es damit weiter?
Kommt da überhaupt mal ein Physikengine raus die mal auf allen CPUs/GPUs ansehnliche Effekte liefern kann und wie wird diese dann mit Raytracing verknüpft?
Ich habe gerne mehr und auch gerne etwas mehr in Richtung real und besonders mehr in Richtung dem was Pixar macht, also mehr Cartoon/Fantasy/Anime und wenn das dank Raytracing besser geht, dann sage ich immer her damit.
Was mir da am Rande noch einfällt wäre folgendes: Wie geht es überhaupt mit den GPUs weiter?
Die werden immer Größer und komplexer und stromhungriger. Muss nicht schon aus diesem Grund bald mal ein neuer Ansatz gefunden werden?
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Raytracing ist noch Jahre entfernt. Auch Fermi wird dafür viel zu schwachbrüstig sein, um dies in kommerziellen Titeln durchgängig zu nutzen. Es braucht noch deutlich mehr Rechenleistung, um mit Raytracing in Echtzeit zu rendern und klare Vorteile gegenüber bisheriger Rasterisierung zu erzielen. Ich vermute mal, unter 10 TFLOPS braucht man da gar nicht erst anfangen. Vermutlich geht es eher Richtung 50-100 TFLOPS.Ich schätze mal, NVidia möchte zusammen mit Fermi das Raytraycing in den Gaming Bereich bringen.
Zudem müsste sich der gesamte Softwaremarkt um 180° drehen.Und wenn man bedenkt, dass Konsolen an erster Stelle beim Gaming stehen, kann das ein langwieriger Prozess werden.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Nun, ob der zusätzliche Chip auf die Grafikkarte MUSS? Nein, da bietet Caustic eine Steckkarte an. Zusammen mit der API CausticGL und der Caustic One (Basis ist ein rekonfigurierbarer FPGA-Chip) versprechen sie deutlich bessere Raytracing-Leistung an.... Also wenn ich dich richtig versteh braucht man da noch einen Chip auf der Grafikkarte die Raytracing machen muss.
Das ist alles noch ferne Zukunftsmusik.... Das Ganze hört sich gut an, aber wann soll da überhaupt was lauffähige bei den Konsumenten an kommen? ...
id und Epic schütteln auch nicht mal so eben eine völlig neue Spiele-Engine aus dem Ärmel. Interessant dabei ist, dass einstmalige Verfechter von 3D-Spielebeschleunigern sich nun entfernen vom klassischen Rasterizer-Ansatz. Das muss zwar noch kein Raytracing sein, aber was nicht ist, kann ja noch werden.
Wobei man anmerken darf, dass Epic eine ganze Zeit lang in ihrer Unreal-Engine neben OpenGL, DirectX, 3dfxs Glide noch einen reinen CPU-Renderpfad hatten und schon früh prozedurale Elemente verwendeten.
Auf jeden Fall ist das eine Herausforderung für AMD und Nvdia ihre GPUs langfristig auch für solche Aufgaben auf die eine oder andere Weise fit zu machen für Raytracing. Intel beabsichtigt ja mit dem Larrabee so etwas von Anfang an .
In der Vergangenheit wurden dafür vergleichsweise simple FPGAs auch schon als als Echtzeit-Raytracer verwendet.
MFG Bobo(2009)
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 246
- Antworten
- 0
- Aufrufe
- 106
- Antworten
- 0
- Aufrufe
- 471
- Antworten
- 2
- Aufrufe
- 238
- Antworten
- 0
- Aufrufe
- 138