App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Gigabyte bringt Dual-GPU Graka
- Ersteller James Ryan
- Erstellt am
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
SKYNET
Grand Admiral Special
- Mitglied seit
- 07.06.2002
- Beiträge
- 4.179
- Renomée
- 7
- Standort
- Zürich
- Mein Laptop
- HP Elitebook 2570p + 8460p + 8570p
- Prozessor
- AMD Ryzen 2700X
- Mainboard
- ASRock Fatality Gaming AB350 ITX
- Kühlung
- Alphacool Eisbaer
- Speicher
- 2x G.Skill Trident Z 4266 C19
- Grafikprozessor
- Gigabyte Aorus Xtreme GTX 1080 Ti
- Display
- 24" DELL U2410
- SSD
- 1x 256GB Samsung 950 Pro NVMe, 1x 256GB Sasmung 840 Pro SATA
- Soundkarte
- Onboard
- Gehäuse
- Cougar QBX
- Netzteil
- Bitfenbix Formula Goild 750W
- Betriebssystem
- Win 10 Pro
- Webbrowser
- Edge
- Verschiedenes
- Full system is Air cooled
die sollen mal 2 6800er auf eine platine machen und dann aber noch den SLI stecker...
4 GPU's = für 2-3 jahre genug power für alles.
4 GPU's = für 2-3 jahre genug power für alles.
alzen
Vice Admiral Special
- Mitglied seit
- 29.04.2004
- Beiträge
- 800
- Renomée
- 6
- Standort
- Luxemburg/Mersch
- Prozessor
- AMD Athlon XP-M2600+
- Mainboard
- DFI NForce2 Infinity
- Kühlung
- Zalman CNPS7000 Cu
- Speicher
- 2x512MB G.Skill PC600@200 2-2-2-11
- Display
- iiyama Vision Master Pro511 / 22" / 1600x1200 85Hz
- HDD
- WD Raptor 74GB / Seagate 250GB SATA2
- Soundkarte
- Creative Audigy2 ZS
- Netzteil
- Tagan 380W
- Betriebssystem
- WinXP Pro
Schöne Karte, die, wenn man Gigabyte vertraut, auch recht leistungsfähig ist. Leider hat die Karte keinen SLI Anschluss ; wäre ja toll wenn man 2 solcher GraKas im SLI betreiben könnte
Ich denke aber mal, dass die Karte, wenn sie überhaupt in den Shops auftaucht, nur in sehr kleinen Stückzahlen hergestellt/verkauft wird. Die Grafikkarte ist sicherlich nur ein Prestigobjekt für Gigabyte um zu zeigen was möglich ist.
Der Stromverbrauch liegt vermutlich über dem einer 6800Ultra und die Platine ist auch ziemlich lang. Ein Preis unter dem einer 6800Ultra ist schwer vorstellbar, da Gigabyte für diese GraKa einen neuen Platinendesign(es gibt kein Referenzmodell von Nvidia) hat müssen bezahlen. 2 6600GT GPUs und 256MB RAM sind auch nicht gerade billig.
Ich bezweifele, dass man viele dieser Karten in freier Wildbahn erleben wird.
mfg
alzen
Ich denke aber mal, dass die Karte, wenn sie überhaupt in den Shops auftaucht, nur in sehr kleinen Stückzahlen hergestellt/verkauft wird. Die Grafikkarte ist sicherlich nur ein Prestigobjekt für Gigabyte um zu zeigen was möglich ist.
Der Stromverbrauch liegt vermutlich über dem einer 6800Ultra und die Platine ist auch ziemlich lang. Ein Preis unter dem einer 6800Ultra ist schwer vorstellbar, da Gigabyte für diese GraKa einen neuen Platinendesign(es gibt kein Referenzmodell von Nvidia) hat müssen bezahlen. 2 6600GT GPUs und 256MB RAM sind auch nicht gerade billig.
Ich bezweifele, dass man viele dieser Karten in freier Wildbahn erleben wird.
mfg
alzen
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
SLI wird unmöglich sein da beide GPUs schon mit SLI untereiander verbunden sind.
Übrigens soll die Karte günstiger sein als eine 6800 Ultra.
MfG 8)
Übrigens soll die Karte günstiger sein als eine 6800 Ultra.
MfG 8)
trox
Admiral Special
- Mitglied seit
- 13.02.2002
- Beiträge
- 1.304
- Renomée
- 0
- Standort
- København
- Mein Laptop
- Surface Pro 2
- Prozessor
- AMD FX 8350 @ 5Ghz
- Mainboard
- Asus Crosshair IV Formula
- Kühlung
- WaKü
- Speicher
- 16Gb Corsait Vengeance
- Grafikprozessor
- Asus Matrix 7970
- Display
- Dell UltraSharp 2407WFP A04
- SSD
- Crucial m4 64Gb, 256Gb
- HDD
- 3tb
- Soundkarte
- Creative Soundblaster Z
- Gehäuse
- Lian Li
- Netzteil
- 500W ENERMAX MODU87+
- Betriebssystem
- W10
- Webbrowser
- Edge
Mhh und wie sieht das dann mit den Treibern für die KArte aus? Wird ja wohl nicht mit den normalen lauen.
SKYNET
Grand Admiral Special
- Mitglied seit
- 07.06.2002
- Beiträge
- 4.179
- Renomée
- 7
- Standort
- Zürich
- Mein Laptop
- HP Elitebook 2570p + 8460p + 8570p
- Prozessor
- AMD Ryzen 2700X
- Mainboard
- ASRock Fatality Gaming AB350 ITX
- Kühlung
- Alphacool Eisbaer
- Speicher
- 2x G.Skill Trident Z 4266 C19
- Grafikprozessor
- Gigabyte Aorus Xtreme GTX 1080 Ti
- Display
- 24" DELL U2410
- SSD
- 1x 256GB Samsung 950 Pro NVMe, 1x 256GB Sasmung 840 Pro SATA
- Soundkarte
- Onboard
- Gehäuse
- Cougar QBX
- Netzteil
- Bitfenbix Formula Goild 750W
- Betriebssystem
- Win 10 Pro
- Webbrowser
- Edge
- Verschiedenes
- Full system is Air cooled
Original geschrieben von Maestrox
Mhh und wie sieht das dann mit den Treibern für die KArte aus? Wird ja wohl nicht mit den normalen lauen.
warum nicht ? wenns genau wie SLI angebunden ist.
TM30
Grand Admiral Special
Original geschrieben von SKYNET
warum nicht ? wenns genau wie SLI angebunden ist.
yo genau, ich denk die Karte wird ganz normal wie ein SLI Sys erkannt...
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Original geschrieben von Jackie78
Hi,
wird wohl für AGP als einzige Möglichkeit übrigbleiben überhaupt SLI zu verwenden, oder?
cu,
Jackie
Wenn die Graka überhaupt als AGP Variante rauskommen sollte.
Ich bezweifele das!
Was aber interessant ist: Vielleicht packt NVIDIA zwei NV45 auf eine Platine und bringt diese als "neue" Karte raus um gegen den R520 bestehen zu können.
Da der NV48 & NV50 gecancelt wurden und der NV47 wohl auch eine Ente war, wäre dies eine Möglichkeit.
MfG 8)
SKYNET
Grand Admiral Special
- Mitglied seit
- 07.06.2002
- Beiträge
- 4.179
- Renomée
- 7
- Standort
- Zürich
- Mein Laptop
- HP Elitebook 2570p + 8460p + 8570p
- Prozessor
- AMD Ryzen 2700X
- Mainboard
- ASRock Fatality Gaming AB350 ITX
- Kühlung
- Alphacool Eisbaer
- Speicher
- 2x G.Skill Trident Z 4266 C19
- Grafikprozessor
- Gigabyte Aorus Xtreme GTX 1080 Ti
- Display
- 24" DELL U2410
- SSD
- 1x 256GB Samsung 950 Pro NVMe, 1x 256GB Sasmung 840 Pro SATA
- Soundkarte
- Onboard
- Gehäuse
- Cougar QBX
- Netzteil
- Bitfenbix Formula Goild 750W
- Betriebssystem
- Win 10 Pro
- Webbrowser
- Edge
- Verschiedenes
- Full system is Air cooled
der NV48 sind im neusten treiber sogar zufinden, es wird ihn also geben.
inf datei:
NVIDIA_NV44.DEV_0160.1 = "NVIDIA NV44 "
NVIDIA_NV44.DEV_0161.1 = "NVIDIA GeForce 6200 TurboCache(TM)"
NVIDIA_NV44.DEV_0162.1 = "NVIDIA NV44 "
NVIDIA_NV44.DEV_0163.1 = "NVIDIA NV44 "
NVIDIA_NV44.DEV_0164.1 = "NVIDIA NV44 "
NVIDIA_NV44.DEV_0165.1 = "NVIDIA NV44 "
NVIDIA_NV44.DEV_016E.1 = "NVIDIA NV44GL"
NVIDIA_NV44.DEV_0220.1 = "NVIDIA NV44"
NVIDIA_NV48.DEV_0210.1 = "NVIDIA NV48"
NVIDIA_NV48.DEV_0215.1 = "NVIDIA NV48 "
und alle namen die bisher in den inf datein zufinden waren wurden von NV auch rausgebracht.
kurz: es wird sie geben.
inf datei:
NVIDIA_NV44.DEV_0160.1 = "NVIDIA NV44 "
NVIDIA_NV44.DEV_0161.1 = "NVIDIA GeForce 6200 TurboCache(TM)"
NVIDIA_NV44.DEV_0162.1 = "NVIDIA NV44 "
NVIDIA_NV44.DEV_0163.1 = "NVIDIA NV44 "
NVIDIA_NV44.DEV_0164.1 = "NVIDIA NV44 "
NVIDIA_NV44.DEV_0165.1 = "NVIDIA NV44 "
NVIDIA_NV44.DEV_016E.1 = "NVIDIA NV44GL"
NVIDIA_NV44.DEV_0220.1 = "NVIDIA NV44"
NVIDIA_NV48.DEV_0210.1 = "NVIDIA NV48"
NVIDIA_NV48.DEV_0215.1 = "NVIDIA NV48 "
und alle namen die bisher in den inf datein zufinden waren wurden von NV auch rausgebracht.
kurz: es wird sie geben.
Friday
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 2.318
- Renomée
- 4
- Standort
- Landshut
- Prozessor
- Intel Core i7 920 @3GHz
- Mainboard
- Asus P6T
- Kühlung
- Zalman CNPS 9900
- Speicher
- 3x2048 MB Corsair DDR3 1600
- Grafikprozessor
- ATI Radeon 5870 1024 MB
- Display
- 24" Samsung 2493 HM 1920x1200
- HDD
- 160 GB Intel X25M SSD, 1000 GB Samsung F1
- Optisches Laufwerk
- DVD-Brenner LG
- Soundkarte
- Soundblaster X-Fi Extreme Music
- Gehäuse
- Coolermaster HAF 932
- Netzteil
- Corsair TX 750W
- Betriebssystem
- Windows 7 Home Premium 64 bit
- Webbrowser
- Firefox 3.6
Hiho!
Gigabyte bringe scheinbar eine Grafikkarte mit 2 GF 6600 GT GPUs die über SLI auf einer einzigen Grafikkarte verbunden sind.
Link zu THG News
mfg
Friday
Gigabyte bringe scheinbar eine Grafikkarte mit 2 GF 6600 GT GPUs die über SLI auf einer einzigen Grafikkarte verbunden sind.
Link zu THG News
mfg
Friday
QuickBiker
Commander
Friday
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 2.318
- Renomée
- 4
- Standort
- Landshut
- Prozessor
- Intel Core i7 920 @3GHz
- Mainboard
- Asus P6T
- Kühlung
- Zalman CNPS 9900
- Speicher
- 3x2048 MB Corsair DDR3 1600
- Grafikprozessor
- ATI Radeon 5870 1024 MB
- Display
- 24" Samsung 2493 HM 1920x1200
- HDD
- 160 GB Intel X25M SSD, 1000 GB Samsung F1
- Optisches Laufwerk
- DVD-Brenner LG
- Soundkarte
- Soundblaster X-Fi Extreme Music
- Gehäuse
- Coolermaster HAF 932
- Netzteil
- Corsair TX 750W
- Betriebssystem
- Windows 7 Home Premium 64 bit
- Webbrowser
- Firefox 3.6
Original geschrieben von QuickBiker
da war doch jemand schneller
http://www.planet3dnow.de/vbulletin/showthread.php3?s=&threadid=195535
Sorry, habe ich übersehen!
Der Thread hier könnte geschlossen werden.
neax
Grand Admiral Special
Hi,
Gigabyte Dual-Chip Grafikkarte - sowie die CPU jetzt auch die GPU - im Prinzip ja eigentlich zu erwarten gewesen. Frage ist nur noch die nach dem Preis und die nach dem Strombedarf.
http://www.hartware.de/news_37492.html
Greetz
neax
Gigabyte Dual-Chip Grafikkarte - sowie die CPU jetzt auch die GPU - im Prinzip ja eigentlich zu erwarten gewesen. Frage ist nur noch die nach dem Preis und die nach dem Strombedarf.
http://www.hartware.de/news_37492.html
Greetz
neax
James Ryan
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 11.145
- Renomée
- 17
- Standort
- Lünen
- Mein Laptop
- Lenovo X230 (i5, 12 GB RAM, 256 GB SSD)
- Prozessor
- Intel Core i7 4770 @ 3,9 GHz
- Mainboard
- Asus Z97-A
- Kühlung
- EKL Alpenföhn Brocken
- Speicher
- 24 GB DDR3 @ 1800 MHz
- Grafikprozessor
- Gainward Geforce GTX 970 Phantom
- Display
- Dell Ultrasharp U2312 (23" @ Full HD)
- SSD
- Samsung 840 Pro / 256 GB
- HDD
- Western Digital Red / 1 TB
- Optisches Laufwerk
- Samsung S-ATA 18x DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Coolermaster CM690 II Advanced
- Netzteil
- beQuiet Straight PowerCM 680 Watt
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
neax
Grand Admiral Special
Hi,
uupps, habe isch nischt gesehen...
Greetz
neax
uupps, habe isch nischt gesehen...
Greetz
neax
neax
Grand Admiral Special
Hi,
betrachtet man des Bild von der Gigabyte ist zweierlei festzustellen:
Die Karte wird sehr wahrscheinlich kommen und die Größe hält sich in Grenzen....
Es ist auf dem Bild auch "nur" ein Stromstecker zu entdecken, da gab es auch schon einmal Karten mit zwei...
Entscheidend ist hier auch das magische Dreieck aus Leistung, Preis und Verfügbarkeit.
Ähnlichges gab es bei ATI schon mit "Rage Fury MAXX". sie war weniger erfolgreich.
Greetz
neax
betrachtet man des Bild von der Gigabyte ist zweierlei festzustellen:
Die Karte wird sehr wahrscheinlich kommen und die Größe hält sich in Grenzen....
Es ist auf dem Bild auch "nur" ein Stromstecker zu entdecken, da gab es auch schon einmal Karten mit zwei...
Entscheidend ist hier auch das magische Dreieck aus Leistung, Preis und Verfügbarkeit.
Ähnlichges gab es bei ATI schon mit "Rage Fury MAXX". sie war weniger erfolgreich.
Greetz
neax
JCDenton
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.970
- Renomée
- 143
- Standort
- Altona
- Prozessor
- i7 3770 stock
- Mainboard
- ASrock Z77 Extreme4
- Kühlung
- BQ! Pure Rock Slim
- Speicher
- 16GB Crucial Ballistics DDR-1600
- Grafikprozessor
- Sapphire RX570 8GB Pulse 1284Mhz@1050mV
- Display
- 24" Fujitsu P24W-6 1920*1200
- SSD
- Crucial MX100 128GB, MX500 500GB
- HDD
- Seagate/Samsung HD103SJ 1000GB
- Optisches Laufwerk
- DVD, I guess? xD
- Soundkarte
- SB Audigy 2 ZS
- Gehäuse
- Sharkoon Nightfall U3
- Netzteil
- BQ! System Power B9 450W
- Tastatur
- Logitech G413
- Maus
- Sharkoon FireGlider Black
Also, dass die dual 6600GT billiger als eine 6800Ultra sein soll, kann ich mir schon vorstellen; die 6600 [110nm] Chips wird IBM ja wohl recht viel günstiger anbieten können als die 6800er [130nm].
Dass es davon eine AGP Version geben wird, kann ich mir aber nicht so ganz vorstellen; wo sollen die denn die PCIe-to-AGP Bridge noch unterbringen ?
so long
JCD
Dass es davon eine AGP Version geben wird, kann ich mir aber nicht so ganz vorstellen; wo sollen die denn die PCIe-to-AGP Bridge noch unterbringen ?
so long
JCD
alzen
Vice Admiral Special
- Mitglied seit
- 29.04.2004
- Beiträge
- 800
- Renomée
- 6
- Standort
- Luxemburg/Mersch
- Prozessor
- AMD Athlon XP-M2600+
- Mainboard
- DFI NForce2 Infinity
- Kühlung
- Zalman CNPS7000 Cu
- Speicher
- 2x512MB G.Skill PC600@200 2-2-2-11
- Display
- iiyama Vision Master Pro511 / 22" / 1600x1200 85Hz
- HDD
- WD Raptor 74GB / Seagate 250GB SATA2
- Soundkarte
- Creative Audigy2 ZS
- Netzteil
- Tagan 380W
- Betriebssystem
- WinXP Pro
Hallo,
die Tatsache, dass die Gigabyte nur einen Stromanschluss hat und die 6800Ultra (AGP) 2 muss nicht heißen, dass die Karte weniger Strom verbrät als eine Ultra. Letztere wird fast ausschliesslich direkt übers NT mit Strom versorgt, da der AGP Slot selbst viel zuwenig Saft liefern kann um den Durst einer 6800 zustillen. Die Gigabyte hingegen ist eine PCIe Karte und wird über den PCIe 16X Slot schon mit 75W versorgt. Den restlichen Strom saugt sie sich aus dem NT. Auch eine 6800Ultra PCIe hat nur noch einen Stromanschluss.
Der Verbrauch einer 6600GT beträgt vermutlich um die 50W und der einer 6800Ultra beträgt 75-80W. Deshalb wird die Karte ziemlich sicher Rekordhalterin was den Verbrauch von nur einer Karte betrifft (okay ein 6800U SLI Sys topt das natürlich locker)
Das PCB ist mindestens genauso groß wie das einer 6800er.
Ich denke mal, dass die Gigabyte genauso wie ein SLI System bei Spielen und Benchmarks, die nicht von dem NV Treiber unterstützt werden, leistungsmässig einbricht und maximal die Leistung einer normalen GT hat.
mfg
alzen
die Tatsache, dass die Gigabyte nur einen Stromanschluss hat und die 6800Ultra (AGP) 2 muss nicht heißen, dass die Karte weniger Strom verbrät als eine Ultra. Letztere wird fast ausschliesslich direkt übers NT mit Strom versorgt, da der AGP Slot selbst viel zuwenig Saft liefern kann um den Durst einer 6800 zustillen. Die Gigabyte hingegen ist eine PCIe Karte und wird über den PCIe 16X Slot schon mit 75W versorgt. Den restlichen Strom saugt sie sich aus dem NT. Auch eine 6800Ultra PCIe hat nur noch einen Stromanschluss.
Der Verbrauch einer 6600GT beträgt vermutlich um die 50W und der einer 6800Ultra beträgt 75-80W. Deshalb wird die Karte ziemlich sicher Rekordhalterin was den Verbrauch von nur einer Karte betrifft (okay ein 6800U SLI Sys topt das natürlich locker)
Das PCB ist mindestens genauso groß wie das einer 6800er.
Ich denke mal, dass die Gigabyte genauso wie ein SLI System bei Spielen und Benchmarks, die nicht von dem NV Treiber unterstützt werden, leistungsmässig einbricht und maximal die Leistung einer normalen GT hat.
mfg
alzen
alzen
Vice Admiral Special
- Mitglied seit
- 29.04.2004
- Beiträge
- 800
- Renomée
- 6
- Standort
- Luxemburg/Mersch
- Prozessor
- AMD Athlon XP-M2600+
- Mainboard
- DFI NForce2 Infinity
- Kühlung
- Zalman CNPS7000 Cu
- Speicher
- 2x512MB G.Skill PC600@200 2-2-2-11
- Display
- iiyama Vision Master Pro511 / 22" / 1600x1200 85Hz
- HDD
- WD Raptor 74GB / Seagate 250GB SATA2
- Soundkarte
- Creative Audigy2 ZS
- Netzteil
- Tagan 380W
- Betriebssystem
- WinXP Pro
Hallo,
die Hardware ansich ist nicht teuer, das teuerste ist die Entwicklung. Die Entwicklung einer GPU, CPU, Chipsatz oder das PCB einer GraKa ist extrem teuer und macht einen großen Teil des Preises aus(mindestens 50%) Das teuerste Hardwareteil einer GraKa ist meistens der Kühler. Nvidia und ATI entwickeln für ihre GPUs immer ein PCB, das Referenzdesign. Sie müssen dies tun um ihre neuen GPUs zutesten. Die allermeisten GraKahersteller (nicht GPU) wollen aber selbst keine Millionen € in die Entwicklung eines eigenen PCBs stecken und kaufen deshalb neben der GPU auch das Referenzdesign bei Nvidia und ATI. Meistens kleben sie selbst nur noch ihren Aufkleber drauf. Andere GraKa Hersteller, welche mehr Kohle und einen guten Namen haben, also wissen, dass die Käufer ihnen die Karten aus den Händen reisen werden, entwickeln ihr eigenes PCB auf Basis des Referenzmodells, welches sie optimieren und mit weiteren Features ausstatten(Kühler,Layout,RAM,Anschlüsse,...). Um diese Entwicklung zubezahlen muss die Anzahl der verkauften Karten natürlich möglichst groß sein oder der Hersteller muss viele MainstreamKarten verkaufen(z.B.OEM) und so die Kosten der Karte decken.
Gigabyte müsste sehr viele Karten verkaufen um die Entwicklungskosten zudecken. Mit einem Preis der deutlich unter dem einer 6800Ultra ist dies schwer vorstellbar. Der Preis einer 6800U scheint zwar extrem hoch mit rund 500€, besonders da die ganze Hardware ansich keine 200€ kostet, aber von den restlichen 300€ sind sicherlich noch 200€ für die Entwicklung von dieser Karte und den zukünftigen Modellen reserviert. Die restlichen 100€ sind das, was die Zwischenhändler und Verkäufer draufschlagen. Die Gigabyte wird jedoch sicherlich keine Großserienkarte, die in allen Komplettpcs anzutreffen ist, sondern, genauso wie "normalles" SLI, ein Spielzeug für Gamer und Bencher.
Von der Karte hat Gigabyte deshalb meiner Meinung nach nur eine Handvoll Prototypen gebastelt und ein wenig damit anzugeben . Diese Entwicklung ist zwar auch sehr teuer, aber billiger als die Entwicklung einer Karte die wirklich verkauft wird, da bei einem Prototypen nicht alles perfekt und bis ins letzte Detail optimiert und stabil sein muss.
Die Entwicklung wird aus der Kriegskasse und durch den Mainstream Mark bezahlt.
mfg
alzen
die Hardware ansich ist nicht teuer, das teuerste ist die Entwicklung. Die Entwicklung einer GPU, CPU, Chipsatz oder das PCB einer GraKa ist extrem teuer und macht einen großen Teil des Preises aus(mindestens 50%) Das teuerste Hardwareteil einer GraKa ist meistens der Kühler. Nvidia und ATI entwickeln für ihre GPUs immer ein PCB, das Referenzdesign. Sie müssen dies tun um ihre neuen GPUs zutesten. Die allermeisten GraKahersteller (nicht GPU) wollen aber selbst keine Millionen € in die Entwicklung eines eigenen PCBs stecken und kaufen deshalb neben der GPU auch das Referenzdesign bei Nvidia und ATI. Meistens kleben sie selbst nur noch ihren Aufkleber drauf. Andere GraKa Hersteller, welche mehr Kohle und einen guten Namen haben, also wissen, dass die Käufer ihnen die Karten aus den Händen reisen werden, entwickeln ihr eigenes PCB auf Basis des Referenzmodells, welches sie optimieren und mit weiteren Features ausstatten(Kühler,Layout,RAM,Anschlüsse,...). Um diese Entwicklung zubezahlen muss die Anzahl der verkauften Karten natürlich möglichst groß sein oder der Hersteller muss viele MainstreamKarten verkaufen(z.B.OEM) und so die Kosten der Karte decken.
Gigabyte müsste sehr viele Karten verkaufen um die Entwicklungskosten zudecken. Mit einem Preis der deutlich unter dem einer 6800Ultra ist dies schwer vorstellbar. Der Preis einer 6800U scheint zwar extrem hoch mit rund 500€, besonders da die ganze Hardware ansich keine 200€ kostet, aber von den restlichen 300€ sind sicherlich noch 200€ für die Entwicklung von dieser Karte und den zukünftigen Modellen reserviert. Die restlichen 100€ sind das, was die Zwischenhändler und Verkäufer draufschlagen. Die Gigabyte wird jedoch sicherlich keine Großserienkarte, die in allen Komplettpcs anzutreffen ist, sondern, genauso wie "normalles" SLI, ein Spielzeug für Gamer und Bencher.
Von der Karte hat Gigabyte deshalb meiner Meinung nach nur eine Handvoll Prototypen gebastelt und ein wenig damit anzugeben . Diese Entwicklung ist zwar auch sehr teuer, aber billiger als die Entwicklung einer Karte die wirklich verkauft wird, da bei einem Prototypen nicht alles perfekt und bis ins letzte Detail optimiert und stabil sein muss.
Die Entwicklung wird aus der Kriegskasse und durch den Mainstream Mark bezahlt.
mfg
alzen
Ähnliche Themen
- Antworten
- 611
- Aufrufe
- 47K
- Antworten
- 2K
- Aufrufe
- 135K
- Antworten
- 2K
- Aufrufe
- 113K