App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
GT300 Spekulationsthread
- Ersteller p4z1f1st
- Erstellt am
p4z1f1st
Grand Admiral Special
- Mitglied seit
- 28.04.2003
- Beiträge
- 9.722
- Renomée
- 81
- Prozessor
- AMD FX-6300
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- HEATKILLER® CPU Rev3.0 LC + HEATKILLER® GPU-X² 69x0 LT
- Speicher
- 2x 4096 MB G.Skill RipJawsX DDR3-1600 CL7
- Grafikprozessor
- AMD Radeon RX 480 8GB
- Display
- Dell U2312HM
- HDD
- Crucial m4 SSD 256GB
- Optisches Laufwerk
- Sony Optiarc AD-7260S
- Soundkarte
- Creative Labs SB Audigy 2 ZS
- Gehäuse
- Chieftec Scorpio TA-10B-D (BxHxT: 205x660x470mm)
- Netzteil
- Seasonic X-Series X-660
- Betriebssystem
- Microsoft Windows 10 Professional 64bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- Watercool HTF2 Dual + 2x Papst 4412 F/2GL
Also, so sehr mich es anfangs doch gefreut hat, dass NV mit ihrer idiotischen Vorgehensweise mit dicken DIEs auf die Schnauze gefallen ist wird es langsam doch bissl...beunruhigend.
So hat halt ATI doch wieder die Stellung, die NV davor hatte.
So hat halt ATI doch wieder die Stellung, die NV davor hatte.
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Soweit ich mich erinnere wurde der Refresh dieses Jahr doch abgekündigt wegen des zusatzaufwandes für den Wechsel zu GF. Sowas organisiert sich ja auch nicht von alleine... also wenn dann früstestens am Ende des jahres...
Natürlich sind die meisten Firmen noch auf CPUs, aber dinge die sich gut parallelisieren lassen werden doch auch vermehrt auf Grafikkarten ausgelagert... Wetterberechnung etc. weil die Datenmenge für CPUs einfach zu groß ist und man bei GPUs wesentlich mehr Leistung auf kleinerem Raum unterbringen kann. Also gerade bei R&D oder im wissenschaftlichen Bereich (oder auhc im Rendering) lässt sich mit Tesla-Lösungen gut geld verdinenen... Bauen die Chinesen nicht grade nen Supercomputer auf Tesla-Basis?
Natürlich sind die meisten Firmen noch auf CPUs, aber dinge die sich gut parallelisieren lassen werden doch auch vermehrt auf Grafikkarten ausgelagert... Wetterberechnung etc. weil die Datenmenge für CPUs einfach zu groß ist und man bei GPUs wesentlich mehr Leistung auf kleinerem Raum unterbringen kann. Also gerade bei R&D oder im wissenschaftlichen Bereich (oder auhc im Rendering) lässt sich mit Tesla-Lösungen gut geld verdinenen... Bauen die Chinesen nicht grade nen Supercomputer auf Tesla-Basis?
@Limit64
Volle Zustimmung.
Und was sollen das bitte für Forscher sein, die nicht fähig sind, flexibel zu sein, bzw neues zu lernen.
Gerade an den Universitäten nutzt man offene Software und weniger Zwangssoftware.
Und diversen Studenten diverse "Drecksarbeit" versteckt unter der ISA machen zu lassen, ist ja auch nichts neues.
Volle Zustimmung.
Und was sollen das bitte für Forscher sein, die nicht fähig sind, flexibel zu sein, bzw neues zu lernen.
Gerade an den Universitäten nutzt man offene Software und weniger Zwangssoftware.
Und diversen Studenten diverse "Drecksarbeit" versteckt unter der ISA machen zu lassen, ist ja auch nichts neues.
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
tzotzdem nutzt man lieber die ergebnisse der forschung indem man das system arbeiten lässt als alle 3 oder 4 semester alle neu proggen zu lassen...auch professoren sind "bequeme" leute
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Allerheftigster EINSPRUCH.... Natürlich sind die meisten Firmen noch auf CPUs, aber Dinge die sich gut parallelisieren lassen werden doch auch vermehrt auf Grafikkarten ausgelagert... Wetterberechnung etc. weil die Datenmenge für CPUs einfach zu groß ist und man bei GPUs wesentlich mehr Leistung auf kleinerem Raum unterbringen kann. ...
Ausgerechnet bei Wetter- und Klimaberechnung sind derzeit GPUs alles andere, als optimal. Die Daten sind so gewaltig, dass die ständig vagabundierenden Daten zwischen GPU, Prozessor und Speicher jeder potenzielle Rechenleistungsvorsprung schlicht verpufft auf dem Weg.
Gerade hier werden die recht seltenen Exoten von NEC verwendet. Der SX8, SX8-R und SX9 gehören zu der Gattung der Vektorproezssoren, die im Vergleich zu allen anderen Prozessoren und GPUs ein sehr breites Speicherinterface haben und auch zusammen auf einem Node mit einem Nachbarprozessor schnellen Zugriff auf gemeinsamen Systemspeicher haben. Dieser Node ist dann zu weiteren Systemspeicher und weiteren Nodes (schnell) angebunden.
Speziell bei Wetter- und Klima-Jobs zählt gigantisch großer gemeinsam genutzter System-RAM ... das ist GPGPU-Computing noch ganz am Anfang und AMD/ATIs Probleme mit OpenCL und derzeit nicht nutzbaren grafikeigenen Speicher sprechen Bände.
Nachtrag: Die ATI-Karten bis einschliesslich der 4000-Familie werden deswegen weiter unter einer OpenCL-Schwäche zu leiden haben. Erst ab der 5000-Familie will AMD vorrangig am "Local Data Store" Hand anlegen.
Nvidia feilt ebenso am Shared Memory ... aber offenbar mit dem CUDA-Framework notgedrungen auch noch an älteren Karten diesseits der noch (sehr) fernen Fermi-Karten
MFG Bobo(2010)
Zuletzt bearbeitet:
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
ok, dann war wetter ein schlechte beispiel... aber an irgendwen muss nv ja diese millionen teslas verscheuert haben....
chemiker494
Captain Special
- Mitglied seit
- 15.08.2008
- Beiträge
- 229
- Renomée
- 12
- Standort
- Biel/Bienne - Schweiz
- Aktuelle Projekte
- QMC, Rosetta, Docking POEM
- Lieblingsprojekt
- Biochemie/Medizin
- Meine Systeme
- Athlon 64X2 5400 2.8GHz, Xeon (Nocona) 2.8GHz, Pentium 4 (Northwood) 2.8GHz
- Prozessor
- AMD Athlon X2 5400+@2.8GHz
- Mainboard
- Asus M2A-VM-HDMI
- Kühlung
- Box
- Speicher
- 2x1GB KVR800D2N5K2/2G
- Grafikprozessor
- Radeon Xpress 1250
- Display
- 19" Philips 190P7ES
- HDD
- 320 GB Samsung F1
- Optisches Laufwerk
- LG DVD-Brenner20x
- Soundkarte
- Realtek Al889
- Gehäuse
- Asus V2A690G Barebone
- Netzteil
- 300W integriert
- Betriebssystem
- Xubuntu 8.04
- Webbrowser
- Firefox 3
Die umherschwirrende Zahl von 10 Millionen bezieht sich eben nicht auf die Anzahl verkaufter Teslas, sondern auf die Dollar Umsatz, welche Nvidia damit macht. Dies ergibt Stückzahlen in den Tausenden (pro Quartal). Was sich millionenfach verkauft und womit Nvidia Riesengewinne einfährt, sind die Quadro- Workstation- Grafikkarten. Das ist aber ein komplett anderer Markt (Vielleicht nicht vom Standpunkt eines Gamers: da gehört beides halt zum Non-Gaming Sektor) mit völlig unterschiedlichen Bedürfnissen. Die Kunden von Profi-Grafikkarten sind meist KMU (Architekten, Designer, Ingenieurbüros), für die ein paar Tausender locker drinn sind, wenn man dafür den "rundum-sorglos" Support erhält. Verglichen mit dem Aufwand, einen Programmierer oder Servicetechniker einzustellen ist das ein Pappenstiel. Ganz anders sieht es aus bei echten Supercomputern: Das Geld summiert sich recht schnell, wenn man 100-1000 GPU braucht, dann machen 100$ Preisunterschied pro GPU schon mal 10-100 Mio. USD an Kosten aus. Dafür lohnt es sich, gute Entwickler, Ingenieure und Techniker einzustellen.
Paradebeispiel ist ja der chinesische Tianhe-1 Supercomputer, der fünftschnellste Rechner der Welt und der einzige GPGPU-Vertreter in der aktuellen Top-500 Liste: Dieser hat neben Nehalem-Xeons Tausende von RV770 (Desktop Radeons 4870, kein FirePro o.ä.) verbaut. Da schaute man eben kosequent auf Leistung/Preis
Paradebeispiel ist ja der chinesische Tianhe-1 Supercomputer, der fünftschnellste Rechner der Welt und der einzige GPGPU-Vertreter in der aktuellen Top-500 Liste: Dieser hat neben Nehalem-Xeons Tausende von RV770 (Desktop Radeons 4870, kein FirePro o.ä.) verbaut. Da schaute man eben kosequent auf Leistung/Preis
mariahellwig
Grand Admiral Special
Die Daten sind so gewaltig, dass die ständig vagabundierenden Daten zwischen GPU, Prozessor und Speicher jeder potenzielle Rechenleistungsvorsprung schlicht verpufft auf dem Weg
Absolut korrekt. Das hin und herkopieren zwischen RAM und VRAM ist zur Zeit noch eines der grossen Probleme. Und hier zeigt sich der Grund warum ich die Zukunft von nVidia nicht besonders rosig sehe. Wenn jemand dieses Problem lösen kann ist es AMD. Weil AMD von Grafik über Chipsätze bis zur CPU eine komplette Plattform anbieten kann.
Grundsätzlich ja, nur kleine Korrekturen.Das Geld summiert sich recht schnell, wenn man 100-1000 GPU braucht, dann machen 100$ Preisunterschied pro GPU schon mal 10-100 Mio. USD an Kosten aus. Dafür lohnt es sich, gute Entwickler, Ingenieure und Techniker einzustellen.
Paradebeispiel ist ja der chinesische Tianhe-1 Supercomputer, der fünftschnellste Rechner der Welt und der einzige GPGPU-Vertreter in der aktuellen Top-500 Liste: Dieser hat neben Nehalem-Xeons Tausende von RV770 (Desktop Radeons 4870, kein FirePro o.ä.) verbaut. Da schaute man eben kosequent auf Leistung/Preis
1000 Stük mal 100 Euro = 100.000 Euro Preisunterschied und nicht 100 Mio. Euro.
Und auf Platz 59 gibts zumindestens 1 Tesla-System, wenn es nicht noch mehr gut.
Grundsätzlich ja, den meisten Instituten interessiert nicht, was da für ein System ist, weil die einfach ein ganz anderes Forschung & Interessen haben.auch professoren sind "bequeme" leute
Aber von IT-Instituten, würde ich es schlecht ansehen, wenn sie nur auf Cuda und nicht auf beides setzten bzw. lehren.
Es gibt ja nicht nur bequeme Profis (bzw. Unis) sondern eben gute & schlechte, welche beschränkt oder unfangreich lehren.
Absolut korrekt. Das hin und herkopieren zwischen RAM und VRAM ist zur Zeit noch eines der grossen Probleme. Und hier zeigt sich der Grund warum ich die Zukunft von nVidia nicht besonders rosig sehe. Wenn jemand dieses Problem lösen kann ist es AMD. Weil AMD von Grafik über Chipsätze bis zur CPU eine komplette Plattform anbieten kann.
Kann ich jetzt nicht ganz nachvollziehen. Ich meine was könnte AMD den anders machen als NV? Sie müssen sich genauso wie alle anderen an die Specs [PCIE und co.] halten, wenn wir bei den dedizierten Grafikkarten bleiben.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.230
- Renomée
- 537
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Wer war schon auf dem nTersect Blog?
http://blogs.nvidia.com/ntersect/
Bei dem Film Avatar wurden die Effekte auch mit Tesla Karten gemacht!
Wußte ich garnicht
MfG
http://blogs.nvidia.com/ntersect/
Bei dem Film Avatar wurden die Effekte auch mit Tesla Karten gemacht!
Wußte ich garnicht
MfG
Markus Everson
Grand Admiral Special
mariahellwig schrieb:Absolut korrekt. Das hin und herkopieren zwischen RAM und VRAM ist zur Zeit noch eines der grossen Probleme.
Da erinnere ich mich spontan daran das AMD vor einiger Zeit mal versucht hat einen per HT angebundenen Coprozessor-Sockel zu etablieren (oder wars ein Prozessorsockel mit DualUse?). Hat seinerzeit leider nicht geklappt.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Meinst du damit Torrenza? Das ist kein "Coprozessor-Sockel" sondern der gleiche Opteron-Sockel.Da erinnere ich mich spontan daran das AMD vor einiger Zeit mal versucht hat einen per HT angebundenen Coprozessor-Sockel zu etablieren (oder wars ein Prozessorsockel mit DualUse?). Hat seinerzeit leider nicht geklappt.
Und was soll daran nicht geklappt haben? Cray und HP haben für den Finanzsektor einige HighPerformance PCs mit FPGA-Prozessoren als Coprozessoren verkaufen können.
Cray landete damit zeitweilig sogar auf den zweiten Platz in der Top-500-Liste, war aber im Vergleich zum IBM-Hybriden mit Cell-Coprozessoren im Energiebedarf "nur" zweiter Sieger. Die Cell-Rechner wurden über PCI-Express angebunden (Stichwort Geneso).
Torrenza ist in so fern ein "Misserfolg", weil AMD statt wachsender Stückzahlen seit Ende 2006 unter schrumpfenden Marktanteilen im Opteron-Segment litt.
Da ist PCI-Express deutlich universeller und kann auf allen üblichen modernen PC-Plattformen laufen. Völlig unabhängig wie gut/schlecht ein Prozessorsockel nachgefragt wird.
MFG Bobo(2010)
Kann ich jetzt nicht ganz nachvollziehen. Ich meine was könnte AMD den anders machen als NV? Sie müssen sich genauso wie alle anderen an die Specs [PCIE und co.] halten, wenn wir bei den dedizierten Grafikkarten bleiben.
Ich vermute er meint die Fusion Chips. Bei guter Umsetzung sollte es damit möglich sein Anwendungsbereiche zu erschließen, die bei getrennter CPU/GPU an den Latenzen zwischen den beiden Einheiten scheitern würden. nVidia fehlt dafür eben die CPU und Intel, zumindest kurz- und mittelfristig, eine gescheite GPU.
Ok das leuchtet mir ein.Ich vermute er meint die Fusion Chips. Bei guter Umsetzung sollte es damit möglich sein Anwendungsbereiche zu erschließen, die bei getrennter CPU/GPU an den Latenzen zwischen den beiden Einheiten scheitern würden. nVidia fehlt dafür eben die CPU und Intel, zumindest kurz- und mittelfristig, eine gescheite GPU.
mariahellwig
Grand Admiral Special
Exakt. Dank an Limit64. Obwohl ich nicht glaube, daß Intel die GPU nur kurzfristig fehlt.
Markus Everson
Grand Admiral Special
Bobo_Oberon schrieb:Meinst du damit Torrenza? Das ist kein "Coprozessor-Sockel" sondern der gleiche Opteron-Sockel.
Yepp, das war gemeint.
Und was soll daran nicht geklappt haben? Cray und HP haben für den Finanzsektor einige HighPerformance PCs mit FPGA-Prozessoren als Coprozessoren verkaufen können.
Vergangenheitsform.
Das verstehe ich unter "hat nicht geklappt".
Da ist PCI-Express deutlich universeller und kann auf allen üblichen modernen PC-Plattformen laufen.
Bandbreite (20 vs. 16 GByte/s)? Latenz (kein 8B/10B)? CacheCoherence?
Versteh mich nicht falsch, ich bin weit davon entfernt zu behaupten das für HT spricht (ob cc ein Vorteil oder bei PCIe genauso effektiv möglich ist kann ich nichtmal beurteilen), aber beim Einsatz einer aktuellen GPU hege ich Hoffnung.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Mir brauchst du die Unterschiede zwischen HyperTransport und PCI-Express nicht erklären.... Bandbreite (20 vs. 16 GByte/s)? Latenz (kein 8B/10B)? CacheCoherence? ...
Tatsache ist, dass Torrenza eine kleine Nische geblieben ist und nicht mal so etwas wie eine nackte ATI-GPU (also wirklich nur der GPU-Chip mit Opteron-Pinout) als Testchip das Licht der Öffentlichkeit fand. Und HTX als externer HyperTransport-Interconnect AMD-eigene PCI-Express-Konkurrenz in Form von Fujitsus (Booster Box) und Acers Grafikkartenkästchen für Notebooks bekam. Aber tot ist die Geschichte nicht, vor allem, wenn man HTX als Untervariante von Torrenza begreift.
MFG Bobo alias Bokill (2010)
Zuletzt bearbeitet:
Markus Everson
Grand Admiral Special
Bobo_Oberon schrieb:Mir brauchst du die Unterschiede zwischen HyperTransport und PCI-Express nicht erklären.
Natürlich nicht! Ich wollte durch die Stichworte nur zeigen worauf ich mich beziehe.
Tatsache ist, dass Torrenza eine kleine Nische geblieben ist und nicht mal so etwas wie eine nackte ATI-GPU (also wirklich nur der GPU-Chip mit Opteron-Pinout) als Testchip das Licht der Öffentlichkeit fand.
Ich hätte eher auf eine Karte getippt die auch lokalen Speicher vorhält um die Bandbreite nicht zu stark zu reduzieren. Aber das wäre vermutlich im SockelF ein Problem.
Und HTX als externer HyperTransport-Interconnect AMD-eigene PCI-Express-Konkurrenz in Form von Fujitsus (Booster Box) und Acers Grafikkartenkästchen für Notebooks bekam.
Was ich aber die für die richtige Entwicklung halte (wegen flexiblere Kabel, Billiger, Prozessorunabhängig), auch wenn ich Fanboy bin.
Aber tot ist die Geschichte nicht, vor allem, wenn man HTX als Untervariante von Torrenza begreift.
Würde mich freuen wenn Du recht behältst..
Undergroundking
Gesperrt
- Mitglied seit
- 23.05.2007
- Beiträge
- 2.366
- Renomée
- 72
http://ht4u.net/news/21465_nvidia_wird_fermi-demo-system_auf_der_ces_zeigen/
"Hatten einige fest mit Demo-Systemen zur CES gerechnet, haben interne Quellen gegen eine Vorschau auf der Messe in Las Vegas gesprochen."
also zeigen die immer noch nichts funktionierendes....
"Hatten einige fest mit Demo-Systemen zur CES gerechnet, haben interne Quellen gegen eine Vorschau auf der Messe in Las Vegas gesprochen."
also zeigen die immer noch nichts funktionierendes....
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Nachtrag: Die ATI-Karten bis einschliesslich der 4000-Familie werden deswegen weiter unter einer OpenCL-Schwäche zu leiden haben. Erst ab der 5000-Familie will AMD vorrangig am "Local Data Store" Hand anlegen.
Nvidia feilt ebenso am Shared Memory ... aber offenbar mit dem CUDA-Framework notgedrungen auch noch an älteren Karten diesseits der noch (sehr) fernen Fermi-Karten
Nvidia feilt ebenso am Shared Memory ... aber offenbar mit dem CUDA-Framework notgedrungen auch noch an älteren Karten diesseits der noch (sehr) fernen Fermi-Karten
Nur kurz angesprochen wurde das Thema Fermi bzw. GF100. Jen-Hsun Huang verkündete, dass sich die Chips bereits in der Volume-Produktion befinden und somit mit einem baldigen Launch gerechnet werden kann. Ebenfalls kurz vorgestellt wurden eine Technologie namens 3D Vision Surround. Dabei waren drei Monitore zu sehen, die James Cameron's Avatar in 3D darstellten. Es kann also davon ausgegangen werden, dass NIVIDIA eine ähnliche Lösung wie AMD mit Eyefinity in petto hat. Bisher konnten wir noch keine GF100-Grafikkarte auf der Messe finden, wir werden aber versuchen genaueres über GF100 und 3D Vision Surround in Erfahrung zu bringen.klick
"bereits in Volume-Produktion befinden und somit einem baldigen Launch gerechnet werden kann." --> Lebt der in einer Traumwelt? In der Regel liegen zwischen Volume-Produktionsstart und Auslieferung mindestens 3 Monate. Also wie überall zu lesen März/April.
Gruß Banjoke
chemiker494
Captain Special
- Mitglied seit
- 15.08.2008
- Beiträge
- 229
- Renomée
- 12
- Standort
- Biel/Bienne - Schweiz
- Aktuelle Projekte
- QMC, Rosetta, Docking POEM
- Lieblingsprojekt
- Biochemie/Medizin
- Meine Systeme
- Athlon 64X2 5400 2.8GHz, Xeon (Nocona) 2.8GHz, Pentium 4 (Northwood) 2.8GHz
- Prozessor
- AMD Athlon X2 5400+@2.8GHz
- Mainboard
- Asus M2A-VM-HDMI
- Kühlung
- Box
- Speicher
- 2x1GB KVR800D2N5K2/2G
- Grafikprozessor
- Radeon Xpress 1250
- Display
- 19" Philips 190P7ES
- HDD
- 320 GB Samsung F1
- Optisches Laufwerk
- LG DVD-Brenner20x
- Soundkarte
- Realtek Al889
- Gehäuse
- Asus V2A690G Barebone
- Netzteil
- 300W integriert
- Betriebssystem
- Xubuntu 8.04
- Webbrowser
- Firefox 3
Wow, DREI Monitore an EINER Grafikkarte! Da wird sich AMD erst mal am Kopf kratzen, wie das technisch überhaupt machbar ist, denn sie haben ja bloss... ach so, 6 Monitore an einer Grafikkarte gezeigt, na dann!
Das ist Falsch man braucht 2 Karten für das 3D Zeug bzw 3 Monitore das wurde im 3dc ausführlich ausdiskutiert.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=474205
auch im Fermi Spekulationsthread steht dazu einiges verteilt auch ca 30 seitenoder so
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=474205
auch im Fermi Spekulationsthread steht dazu einiges verteilt auch ca 30 seitenoder so
Ähnliche Themen
- Antworten
- 296
- Aufrufe
- 38K
- Antworten
- 264
- Aufrufe
- 69K
- Antworten
- 123
- Aufrufe
- 19K
G
- Antworten
- 1K
- Aufrufe
- 167K