GT300 Spekulationsthread

Also, so sehr mich es anfangs doch gefreut hat, dass NV mit ihrer idiotischen Vorgehensweise mit dicken DIEs auf die Schnauze gefallen ist wird es langsam doch bissl...beunruhigend.
So hat halt ATI doch wieder die Stellung, die NV davor hatte.
 
Bis der Gt300 fertig & Marktreif ist dauerts noch einige Monate, Nvidia bekommt es nicht gebacken!

Von AMD/ATI bin ich der meinung das 2010 noch ein RV870-RV970 refresh kommt und 2011 was ganz neues in 28nm.
 
Soweit ich mich erinnere wurde der Refresh dieses Jahr doch abgekündigt wegen des zusatzaufwandes für den Wechsel zu GF. Sowas organisiert sich ja auch nicht von alleine... also wenn dann früstestens am Ende des jahres...
Natürlich sind die meisten Firmen noch auf CPUs, aber dinge die sich gut parallelisieren lassen werden doch auch vermehrt auf Grafikkarten ausgelagert... Wetterberechnung etc. weil die Datenmenge für CPUs einfach zu groß ist und man bei GPUs wesentlich mehr Leistung auf kleinerem Raum unterbringen kann. Also gerade bei R&D oder im wissenschaftlichen Bereich (oder auhc im Rendering) lässt sich mit Tesla-Lösungen gut geld verdinenen... Bauen die Chinesen nicht grade nen Supercomputer auf Tesla-Basis?
 
@Limit64
Volle Zustimmung.
Und was sollen das bitte für Forscher sein, die nicht fähig sind, flexibel zu sein, bzw neues zu lernen.
Gerade an den Universitäten nutzt man offene Software und weniger Zwangssoftware.

Und diversen Studenten diverse "Drecksarbeit" versteckt unter der ISA machen zu lassen, ist ja auch nichts neues.
 
tzotzdem nutzt man lieber die ergebnisse der forschung indem man das system arbeiten lässt als alle 3 oder 4 semester alle neu proggen zu lassen...auch professoren sind "bequeme" leute ;)
 
... Natürlich sind die meisten Firmen noch auf CPUs, aber Dinge die sich gut parallelisieren lassen werden doch auch vermehrt auf Grafikkarten ausgelagert... Wetterberechnung etc. weil die Datenmenge für CPUs einfach zu groß ist und man bei GPUs wesentlich mehr Leistung auf kleinerem Raum unterbringen kann. ...
Allerheftigster EINSPRUCH.

Ausgerechnet bei Wetter- und Klimaberechnung sind derzeit GPUs alles andere, als optimal. Die Daten sind so gewaltig, dass die ständig vagabundierenden Daten zwischen GPU, Prozessor und Speicher jeder potenzielle Rechenleistungsvorsprung schlicht verpufft auf dem Weg.

Gerade hier werden die recht seltenen Exoten von NEC verwendet. Der SX8, SX8-R und SX9 gehören zu der Gattung der Vektorproezssoren, die im Vergleich zu allen anderen Prozessoren und GPUs ein sehr breites Speicherinterface haben und auch zusammen auf einem Node mit einem Nachbarprozessor schnellen Zugriff auf gemeinsamen Systemspeicher haben. Dieser Node ist dann zu weiteren Systemspeicher und weiteren Nodes (schnell) angebunden.

Speziell bei Wetter- und Klima-Jobs zählt gigantisch großer gemeinsam genutzter System-RAM ... das ist GPGPU-Computing noch ganz am Anfang und AMD/ATIs Probleme mit OpenCL und derzeit nicht nutzbaren grafikeigenen Speicher sprechen Bände.

Nachtrag: Die ATI-Karten bis einschliesslich der 4000-Familie werden deswegen weiter unter einer OpenCL-Schwäche zu leiden haben. Erst ab der 5000-Familie will AMD vorrangig am "Local Data Store" Hand anlegen.
Nvidia feilt ebenso am Shared Memory ... aber offenbar mit dem CUDA-Framework notgedrungen auch noch an älteren Karten diesseits der noch (sehr) fernen Fermi-Karten

MFG Bobo(2010)
 
Zuletzt bearbeitet:
ok, dann war wetter ein schlechte beispiel... aber an irgendwen muss nv ja diese millionen teslas verscheuert haben....
 
Die umherschwirrende Zahl von 10 Millionen bezieht sich eben nicht auf die Anzahl verkaufter Teslas, sondern auf die Dollar Umsatz, welche Nvidia damit macht. Dies ergibt Stückzahlen in den Tausenden (pro Quartal). Was sich millionenfach verkauft und womit Nvidia Riesengewinne einfährt, sind die Quadro- Workstation- Grafikkarten. Das ist aber ein komplett anderer Markt (Vielleicht nicht vom Standpunkt eines Gamers: da gehört beides halt zum Non-Gaming Sektor) mit völlig unterschiedlichen Bedürfnissen. Die Kunden von Profi-Grafikkarten sind meist KMU (Architekten, Designer, Ingenieurbüros), für die ein paar Tausender locker drinn sind, wenn man dafür den "rundum-sorglos" Support erhält. Verglichen mit dem Aufwand, einen Programmierer oder Servicetechniker einzustellen ist das ein Pappenstiel. Ganz anders sieht es aus bei echten Supercomputern: Das Geld summiert sich recht schnell, wenn man 100-1000 GPU braucht, dann machen 100$ Preisunterschied pro GPU schon mal 10-100 Mio. USD an Kosten aus. Dafür lohnt es sich, gute Entwickler, Ingenieure und Techniker einzustellen.
Paradebeispiel ist ja der chinesische Tianhe-1 Supercomputer, der fünftschnellste Rechner der Welt und der einzige GPGPU-Vertreter in der aktuellen Top-500 Liste: Dieser hat neben Nehalem-Xeons Tausende von RV770 (Desktop Radeons 4870, kein FirePro o.ä.) verbaut. Da schaute man eben kosequent auf Leistung/Preis
 
Die Daten sind so gewaltig, dass die ständig vagabundierenden Daten zwischen GPU, Prozessor und Speicher jeder potenzielle Rechenleistungsvorsprung schlicht verpufft auf dem Weg

Absolut korrekt. Das hin und herkopieren zwischen RAM und VRAM ist zur Zeit noch eines der grossen Probleme. Und hier zeigt sich der Grund warum ich die Zukunft von nVidia nicht besonders rosig sehe. Wenn jemand dieses Problem lösen kann ist es AMD. Weil AMD von Grafik über Chipsätze bis zur CPU eine komplette Plattform anbieten kann.
 
Das Geld summiert sich recht schnell, wenn man 100-1000 GPU braucht, dann machen 100$ Preisunterschied pro GPU schon mal 10-100 Mio. USD an Kosten aus. Dafür lohnt es sich, gute Entwickler, Ingenieure und Techniker einzustellen.
Paradebeispiel ist ja der chinesische Tianhe-1 Supercomputer, der fünftschnellste Rechner der Welt und der einzige GPGPU-Vertreter in der aktuellen Top-500 Liste: Dieser hat neben Nehalem-Xeons Tausende von RV770 (Desktop Radeons 4870, kein FirePro o.ä.) verbaut. Da schaute man eben kosequent auf Leistung/Preis
Grundsätzlich ja, nur kleine Korrekturen.
1000 Stük mal 100 Euro = 100.000 Euro Preisunterschied und nicht 100 Mio. Euro.
Und auf Platz 59 gibts zumindestens 1 Tesla-System, wenn es nicht noch mehr gut.

auch professoren sind "bequeme" leute
Grundsätzlich ja, den meisten Instituten interessiert nicht, was da für ein System ist, weil die einfach ein ganz anderes Forschung & Interessen haben.

Aber von IT-Instituten, würde ich es schlecht ansehen, wenn sie nur auf Cuda und nicht auf beides setzten bzw. lehren.
Es gibt ja nicht nur bequeme Profis (bzw. Unis) sondern eben gute & schlechte, welche beschränkt oder unfangreich lehren.
 
Absolut korrekt. Das hin und herkopieren zwischen RAM und VRAM ist zur Zeit noch eines der grossen Probleme. Und hier zeigt sich der Grund warum ich die Zukunft von nVidia nicht besonders rosig sehe. Wenn jemand dieses Problem lösen kann ist es AMD. Weil AMD von Grafik über Chipsätze bis zur CPU eine komplette Plattform anbieten kann.

Kann ich jetzt nicht ganz nachvollziehen. Ich meine was könnte AMD den anders machen als NV? Sie müssen sich genauso wie alle anderen an die Specs [PCIE und co.] halten, wenn wir bei den dedizierten Grafikkarten bleiben.
 
Wer war schon auf dem nTersect Blog?
http://blogs.nvidia.com/ntersect/

Bei dem Film Avatar wurden die Effekte auch mit Tesla Karten gemacht!
Wußte ich garnicht *buck*

MfG
 
mariahellwig schrieb:
Absolut korrekt. Das hin und herkopieren zwischen RAM und VRAM ist zur Zeit noch eines der grossen Probleme.

Da erinnere ich mich spontan daran das AMD vor einiger Zeit mal versucht hat einen per HT angebundenen Coprozessor-Sockel zu etablieren (oder wars ein Prozessorsockel mit DualUse?). Hat seinerzeit leider nicht geklappt.
 
Da erinnere ich mich spontan daran das AMD vor einiger Zeit mal versucht hat einen per HT angebundenen Coprozessor-Sockel zu etablieren (oder wars ein Prozessorsockel mit DualUse?). Hat seinerzeit leider nicht geklappt.
Meinst du damit Torrenza? Das ist kein "Coprozessor-Sockel" sondern der gleiche Opteron-Sockel.

Und was soll daran nicht geklappt haben? Cray und HP haben für den Finanzsektor einige HighPerformance PCs mit FPGA-Prozessoren als Coprozessoren verkaufen können.

Cray landete damit zeitweilig sogar auf den zweiten Platz in der Top-500-Liste, war aber im Vergleich zum IBM-Hybriden mit Cell-Coprozessoren im Energiebedarf "nur" zweiter Sieger. Die Cell-Rechner wurden über PCI-Express angebunden (Stichwort Geneso).

Torrenza ist in so fern ein "Misserfolg", weil AMD statt wachsender Stückzahlen seit Ende 2006 unter schrumpfenden Marktanteilen im Opteron-Segment litt.
Da ist PCI-Express deutlich universeller und kann auf allen üblichen modernen PC-Plattformen laufen. Völlig unabhängig wie gut/schlecht ein Prozessorsockel nachgefragt wird.

MFG Bobo(2010)
 
Kann ich jetzt nicht ganz nachvollziehen. Ich meine was könnte AMD den anders machen als NV? Sie müssen sich genauso wie alle anderen an die Specs [PCIE und co.] halten, wenn wir bei den dedizierten Grafikkarten bleiben.

Ich vermute er meint die Fusion Chips. Bei guter Umsetzung sollte es damit möglich sein Anwendungsbereiche zu erschließen, die bei getrennter CPU/GPU an den Latenzen zwischen den beiden Einheiten scheitern würden. nVidia fehlt dafür eben die CPU und Intel, zumindest kurz- und mittelfristig, eine gescheite GPU.
 
Ich vermute er meint die Fusion Chips. Bei guter Umsetzung sollte es damit möglich sein Anwendungsbereiche zu erschließen, die bei getrennter CPU/GPU an den Latenzen zwischen den beiden Einheiten scheitern würden. nVidia fehlt dafür eben die CPU und Intel, zumindest kurz- und mittelfristig, eine gescheite GPU.
Ok das leuchtet mir ein.
 
Bobo_Oberon schrieb:
Meinst du damit Torrenza? Das ist kein "Coprozessor-Sockel" sondern der gleiche Opteron-Sockel.

Yepp, das war gemeint.

Und was soll daran nicht geklappt haben? Cray und HP haben für den Finanzsektor einige HighPerformance PCs mit FPGA-Prozessoren als Coprozessoren verkaufen können.

Vergangenheitsform.
Das verstehe ich unter "hat nicht geklappt".

Da ist PCI-Express deutlich universeller und kann auf allen üblichen modernen PC-Plattformen laufen.

Bandbreite (20 vs. 16 GByte/s)? Latenz (kein 8B/10B)? CacheCoherence?

Versteh mich nicht falsch, ich bin weit davon entfernt zu behaupten das für HT spricht (ob cc ein Vorteil oder bei PCIe genauso effektiv möglich ist kann ich nichtmal beurteilen), aber beim Einsatz einer aktuellen GPU hege ich Hoffnung.
 
... Bandbreite (20 vs. 16 GByte/s)? Latenz (kein 8B/10B)? CacheCoherence? ...
Mir brauchst du die Unterschiede zwischen HyperTransport und PCI-Express nicht erklären. ;)

Tatsache ist, dass Torrenza eine kleine Nische geblieben ist und nicht mal so etwas wie eine nackte ATI-GPU (also wirklich nur der GPU-Chip mit Opteron-Pinout) als Testchip das Licht der Öffentlichkeit fand. Und HTX als externer HyperTransport-Interconnect AMD-eigene PCI-Express-Konkurrenz in Form von Fujitsus (Booster Box) und Acers Grafikkartenkästchen für Notebooks bekam. Aber tot ist die Geschichte nicht, vor allem, wenn man HTX als Untervariante von Torrenza begreift.

MFG Bobo alias Bokill (2010)
 
Zuletzt bearbeitet:
Bobo_Oberon schrieb:
Mir brauchst du die Unterschiede zwischen HyperTransport und PCI-Express nicht erklären. ;)

Natürlich nicht! Ich wollte durch die Stichworte nur zeigen worauf ich mich beziehe.

Tatsache ist, dass Torrenza eine kleine Nische geblieben ist und nicht mal so etwas wie eine nackte ATI-GPU (also wirklich nur der GPU-Chip mit Opteron-Pinout) als Testchip das Licht der Öffentlichkeit fand.

Ich hätte eher auf eine Karte getippt die auch lokalen Speicher vorhält um die Bandbreite nicht zu stark zu reduzieren. Aber das wäre vermutlich im SockelF ein Problem.

Und HTX als externer HyperTransport-Interconnect AMD-eigene PCI-Express-Konkurrenz in Form von Fujitsus (Booster Box) und Acers Grafikkartenkästchen für Notebooks bekam.

Was ich aber die für die richtige Entwicklung halte (wegen flexiblere Kabel, Billiger, Prozessorunabhängig), auch wenn ich Fanboy bin.

Aber tot ist die Geschichte nicht, vor allem, wenn man HTX als Untervariante von Torrenza begreift.

Würde mich freuen wenn Du recht behältst..
 
Nur kurz angesprochen wurde das Thema Fermi bzw. GF100. Jen-Hsun Huang verkündete, dass sich die Chips bereits in der Volume-Produktion befinden und somit mit einem baldigen Launch gerechnet werden kann. Ebenfalls kurz vorgestellt wurden eine Technologie namens 3D Vision Surround. Dabei waren drei Monitore zu sehen, die James Cameron's Avatar in 3D darstellten. Es kann also davon ausgegangen werden, dass NIVIDIA eine ähnliche Lösung wie AMD mit Eyefinity in petto hat. Bisher konnten wir noch keine GF100-Grafikkarte auf der Messe finden, wir werden aber versuchen genaueres über GF100 und 3D Vision Surround in Erfahrung zu bringen.klick

"bereits in Volume-Produktion befinden und somit einem baldigen Launch gerechnet werden kann." --> Lebt der in einer Traumwelt? In der Regel liegen zwischen Volume-Produktionsstart und Auslieferung mindestens 3 Monate. Also wie überall zu lesen März/April.

Gruß Banjoke
 
Wow, DREI Monitore an EINER Grafikkarte! Da wird sich AMD erst mal am Kopf kratzen, wie das technisch überhaupt machbar ist, denn sie haben ja bloss... ach so, 6 Monitore an einer Grafikkarte gezeigt, na dann!
 
Zurück
Oben Unten