App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News - nVidia dreht bei der GTX 260 an der Kostenschraube
- Ersteller SPINA
- Erstellt am
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Dieser Artikel von expreview.com fand ich recht interessant. Demnach soll es bald drei verschiedenen Revisions der GeForce GTX 260 im Handel geben.
Zuerst P651, dann P654 (alias GTX 260²) und nun bald P897. Was die wenigstens wissen: Jedes Mal musste man Abstriche bei der Qualität der Bauteile hinnehmen.
Die erste Revision P651 verfügte noch über ein PCB mit 14 Layers und einen höherwertigen Spannungsregulatorchip, welcher einem einfacheren weichen musste.
In der darauf folgenden Revision P654 wurde zudem die Anzahl der PCB Layer auf 10 verringert. Beim kommenden P897 sollen es sogar nur 8 Layer sein.
Ferner werden die Spannungswandler weiter entschlackt, dadurch dass die Phasen zur Stromversorgung des GDDR3-RAM halbiert werden.
Darüber hinaus kommen auch eine günstigere MOSFET Bauform zum Einsatz. Bleibt zu hoffen, dass sich Wärme- und Geräuschentwicklung in Grenzen halten.
Außerdem wich der 8MBit EEPROM für das VGA BIOS einem mit 4MBit. Dies könnte sich nachteilig auf Stromsparfunktionen und die Lüftersteuerung auswirken.
Im Gegenzug enthielt der Kunde mit der P654 Revision den G200-103-A2 mit 216 statt 192 Unified Shadern und mit dem P897 bald den G200-103-B2 in 55nm.
Jedoch stellt sich die Frage inwieweit sich die Bestückung mit minderwertigeren Bauteilen im nVidia Referenzdesign hinsichtlich der Lebenserwartung auswirken.
Bleibt zu hoffen, dass sich der Kostendruck durch die Radeon HD 4850 von ATi nicht abträglich auf die Zuverlässigkeit der GeForce GTX 260 erweist.
Eine Optimierung des Layouts zur Steigerung der Kosteneffizienz ist natürlich nicht ungewöhnlich, aber bei der GeForce GTX 260 geht der Prozess doch recht weit.
Zuerst P651, dann P654 (alias GTX 260²) und nun bald P897. Was die wenigstens wissen: Jedes Mal musste man Abstriche bei der Qualität der Bauteile hinnehmen.
Die erste Revision P651 verfügte noch über ein PCB mit 14 Layers und einen höherwertigen Spannungsregulatorchip, welcher einem einfacheren weichen musste.
In der darauf folgenden Revision P654 wurde zudem die Anzahl der PCB Layer auf 10 verringert. Beim kommenden P897 sollen es sogar nur 8 Layer sein.
Ferner werden die Spannungswandler weiter entschlackt, dadurch dass die Phasen zur Stromversorgung des GDDR3-RAM halbiert werden.
Darüber hinaus kommen auch eine günstigere MOSFET Bauform zum Einsatz. Bleibt zu hoffen, dass sich Wärme- und Geräuschentwicklung in Grenzen halten.
Außerdem wich der 8MBit EEPROM für das VGA BIOS einem mit 4MBit. Dies könnte sich nachteilig auf Stromsparfunktionen und die Lüftersteuerung auswirken.
Im Gegenzug enthielt der Kunde mit der P654 Revision den G200-103-A2 mit 216 statt 192 Unified Shadern und mit dem P897 bald den G200-103-B2 in 55nm.
Jedoch stellt sich die Frage inwieweit sich die Bestückung mit minderwertigeren Bauteilen im nVidia Referenzdesign hinsichtlich der Lebenserwartung auswirken.
Bleibt zu hoffen, dass sich der Kostendruck durch die Radeon HD 4850 von ATi nicht abträglich auf die Zuverlässigkeit der GeForce GTX 260 erweist.
Eine Optimierung des Layouts zur Steigerung der Kosteneffizienz ist natürlich nicht ungewöhnlich, aber bei der GeForce GTX 260 geht der Prozess doch recht weit.
Zuletzt bearbeitet:
Sway Dizzle
Grand Admiral Special
Und wo ist da jetzt das Problem und was hat das mit der 4850 zu tun?
boidsen
Grand Admiral Special
- Mitglied seit
- 21.11.2004
- Beiträge
- 18.214
- Renomée
- 153
- Standort
- Negnidürtressaw
- Mein Laptop
- DIN-A 5, kariert, ohne Rand
- Prozessor
- Brain 2.0
- Verschiedenes
- System?!? Ähhh - bin total unsystematisch... LOL
Viel
Gelingts, geht der Absatz der ATI-Karten runter...
Wirds Murks, isses ne prima Werbung für AMD...
Gelingts, geht der Absatz der ATI-Karten runter...
Wirds Murks, isses ne prima Werbung für AMD...
M
Grand Admiral Special
- Mitglied seit
- 22.03.2005
- Beiträge
- 11.095
- Renomée
- 538
- Standort
- P3d VIP Lounge
- Mein Laptop
- MacBook 12 Retina
- Prozessor
- Intel Core i3 3225 - 3.3Ghz 0.8V
- Mainboard
- Asrock B75 Pro3-M
- Kühlung
- Thermalright AXP-100
- Speicher
- 2x4GB Corsair Vengeance 1600Mhz
- Grafikprozessor
- Intel HD4000
- Display
- Dell 2407WFP A04; Sony KDL- 46 X 3500
- HDD
- Samsung 840 Series Basic
- Optisches Laufwerk
- Plextor PX 755A, PX 716A, PX 130A
- Soundkarte
- X-Fi Xtreme Audio
- Gehäuse
- Fractal Design Node 605
- Netzteil
- Enermax ErPro 80+ 350W
- Betriebssystem
- Win7 64bit, Mavericks
- Webbrowser
- Opera, Safari
Es geht um Marktanteile. Nividia hat kein wirkliches Midrangeprodukt, deshalb verlieren sie durch das attraktive Preis-Leistungsverhältnis der 4850 Käufer an ATI.Und wo ist da jetzt das Problem und was hat das mit der 4850 zu tun?
Sway Dizzle
Grand Admiral Special
Ne 4850 ist doch net mal der Konkurrent der GTX260,also was hat das damit zu tun?
M
Grand Admiral Special
- Mitglied seit
- 22.03.2005
- Beiträge
- 11.095
- Renomée
- 538
- Standort
- P3d VIP Lounge
- Mein Laptop
- MacBook 12 Retina
- Prozessor
- Intel Core i3 3225 - 3.3Ghz 0.8V
- Mainboard
- Asrock B75 Pro3-M
- Kühlung
- Thermalright AXP-100
- Speicher
- 2x4GB Corsair Vengeance 1600Mhz
- Grafikprozessor
- Intel HD4000
- Display
- Dell 2407WFP A04; Sony KDL- 46 X 3500
- HDD
- Samsung 840 Series Basic
- Optisches Laufwerk
- Plextor PX 755A, PX 716A, PX 130A
- Soundkarte
- X-Fi Xtreme Audio
- Gehäuse
- Fractal Design Node 605
- Netzteil
- Enermax ErPro 80+ 350W
- Betriebssystem
- Win7 64bit, Mavericks
- Webbrowser
- Opera, Safari
Nvidia hat kein Konkurrenzfähiges Midrange Produkt? 9800 sieht hier einfach kein Land.
Durch Senkung der Kosten erhöht sich der Gewinn (Umsatz - Kosten) oder man kann mit den Preisen runtergehen, um die 260 dann als Midrange zu etablieren (mehr Umsatz, weniger Kosten, mehr Gewinn)
Durch Senkung der Kosten erhöht sich der Gewinn (Umsatz - Kosten) oder man kann mit den Preisen runtergehen, um die 260 dann als Midrange zu etablieren (mehr Umsatz, weniger Kosten, mehr Gewinn)
Sway Dizzle
Grand Admiral Special
Wo bitte sieht eine 9800GTX+ keine Land gegen die 4850?Mal ist die 4850 vorn mal die GTX. Ein GTX260 spielt in einer ganz andere Leistungsklasse und läßt zum Großteil die 4870 hinter sich.
M
Grand Admiral Special
- Mitglied seit
- 22.03.2005
- Beiträge
- 11.095
- Renomée
- 538
- Standort
- P3d VIP Lounge
- Mein Laptop
- MacBook 12 Retina
- Prozessor
- Intel Core i3 3225 - 3.3Ghz 0.8V
- Mainboard
- Asrock B75 Pro3-M
- Kühlung
- Thermalright AXP-100
- Speicher
- 2x4GB Corsair Vengeance 1600Mhz
- Grafikprozessor
- Intel HD4000
- Display
- Dell 2407WFP A04; Sony KDL- 46 X 3500
- HDD
- Samsung 840 Series Basic
- Optisches Laufwerk
- Plextor PX 755A, PX 716A, PX 130A
- Soundkarte
- X-Fi Xtreme Audio
- Gehäuse
- Fractal Design Node 605
- Netzteil
- Enermax ErPro 80+ 350W
- Betriebssystem
- Win7 64bit, Mavericks
- Webbrowser
- Opera, Safari
Wo bitte sieht eine 9800GTX+ keine Land gegen die 4850?M
Solange du niedrige Auflösungen fährst, keine Shader abgfragst oder Filter reinnimst, mag das zutreffen. Danach kommt Butter bei die Fische.
Die 260 setzt sich direkt mit der 4870 auseinander. Da es aber keine wirkliche 240 gibt, übernimmt im Produktsortiment die 260 diesen Part, wofür sie aber eigentlich zu teuer ist.
Und bei der 9800 noch die Preise zu senken, nur um das Produkt zu halten wird irgendwann unrentabel, weil dann langsam die Produktionskosten nicht mehr reingespielt werden. Nur als Platzhalter ist die Karte zu teuer.
Würde sagen, Nvidia verfolgt mit der 9800 mittlerweile eine Desinvestitionsstrategie, um sie langsam aber sicher auslaufen zu lassen. WAhrscheinlich werden jetzt oder in naher Zukunft nur noch die Lager leergeräumt.
Um die 260 weiter zu melken, wird sie im Lauf des Jahres ins mittlere Segment um 140 - 180€ gerückt. 285, 295 und der Nachfolger übernehmen die Spitze.
Zuletzt bearbeitet:
Sway Dizzle
Grand Admiral Special
Das ist einfach nur schönrederei von ATI Karten und schlechtmachen von Nvidia Karten.
M
Grand Admiral Special
- Mitglied seit
- 22.03.2005
- Beiträge
- 11.095
- Renomée
- 538
- Standort
- P3d VIP Lounge
- Mein Laptop
- MacBook 12 Retina
- Prozessor
- Intel Core i3 3225 - 3.3Ghz 0.8V
- Mainboard
- Asrock B75 Pro3-M
- Kühlung
- Thermalright AXP-100
- Speicher
- 2x4GB Corsair Vengeance 1600Mhz
- Grafikprozessor
- Intel HD4000
- Display
- Dell 2407WFP A04; Sony KDL- 46 X 3500
- HDD
- Samsung 840 Series Basic
- Optisches Laufwerk
- Plextor PX 755A, PX 716A, PX 130A
- Soundkarte
- X-Fi Xtreme Audio
- Gehäuse
- Fractal Design Node 605
- Netzteil
- Enermax ErPro 80+ 350W
- Betriebssystem
- Win7 64bit, Mavericks
- Webbrowser
- Opera, Safari
Da ich selbst noch keine ATI hatte, wüsst ich nicht, was ich daran schönreden müsste.
Mit deinen Unterstellungen hältst du dich mal schön zurück
Mit deinen Unterstellungen hältst du dich mal schön zurück
Sway Dizzle
Grand Admiral Special
Warum soll ich mich da zurück halten,wenn hier solche schlechten Vergleiche gezogen werden.Zur 4850 ist das Gegenstück die 9800GTX+ und zur GTX260 die 4870 und wenn jetzt bei der GTX260 gespart wird ist es auch wieder falsch.Wenn sie genauso läuft wie die "alten",also was ist daran dann falsch?
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Natürlich spielt die GeForce GTX 260 eine Leistungsklasse höher. Das steht außer Frage, aber der Aufpreis gegenüber einer Radeon HD 4850 ist recht hoch. Es ist ja nicht so, dass nur die Karten einer Leistungsklasse miteinander verglichen werden müssen. Die Frage ist doch, wo bekommt man als Käufer ausreichend Leistung für möglichst wenig Geld. Und dadurch ist nVidia gezwungen die Preise der GeForce GTX 260 immer wieder zu senken, weil ATi einen doch nicht unerheblichen Preisdruck ausübt, obwohl ihr RV770 gegenüber dem relativ komplexen GT200 technisch etwas hinterher hinkt. Es bringt ja nichts ein Produkt einer höheren Leistungsstufe anzubieten, wenn die Preisstufe zwei oder drei Klassen darüber liegt. Natürlich spielt dort auch noch der "Flaggschiff-Aufschlag" eine Rolle. Einen zu großen jedoch kann sich nVidia nicht leisten. Allenfalls bei der GeForce GTX 280. Das sah man zu Letzt auch schön an den Core 2 Quad von Intel mit einer mittleren Taktstufe, wie den Q9300 und Q9400. Aufgrund des verhältnismäßig schwachen, aber dafür günstigen AMD Phenom mussten sie die Preise mehrfach senken, obwohl die Core 2 Quad an für sich allein an der vorderen Leistungsfront vertreten waren und die AMD Phenom bis hin zum X4 9850 Black Edition (bei zugegebener besserer Ausstattung) eher die untere Leistungsklasse eines Q6600 und Q8200 abgedeckt haben. Außerdem bemängele ich nicht unbedingt vereinfachte Layouts. Sie dürfen nur nicht zu Lasten des Kunden gehen, was sich hier in den nächsten Monaten zeigen wird, ob das der Fall ist. Insbesondere die RMA Quote und ergonomische Gesichtspunkte wie "Spulenpfeifen" unter Last sind dabei von Interesse.
Zuletzt bearbeitet:
M
Grand Admiral Special
- Mitglied seit
- 22.03.2005
- Beiträge
- 11.095
- Renomée
- 538
- Standort
- P3d VIP Lounge
- Mein Laptop
- MacBook 12 Retina
- Prozessor
- Intel Core i3 3225 - 3.3Ghz 0.8V
- Mainboard
- Asrock B75 Pro3-M
- Kühlung
- Thermalright AXP-100
- Speicher
- 2x4GB Corsair Vengeance 1600Mhz
- Grafikprozessor
- Intel HD4000
- Display
- Dell 2407WFP A04; Sony KDL- 46 X 3500
- HDD
- Samsung 840 Series Basic
- Optisches Laufwerk
- Plextor PX 755A, PX 716A, PX 130A
- Soundkarte
- X-Fi Xtreme Audio
- Gehäuse
- Fractal Design Node 605
- Netzteil
- Enermax ErPro 80+ 350W
- Betriebssystem
- Win7 64bit, Mavericks
- Webbrowser
- Opera, Safari
Ich habs dir jetzt drei Mal erklärt. Ich machs kein viertes Mal.Warum soll ich mich da zurück halten,wenn hier solche schlechten Vergleiche gezogen werden.Zur 4850 ist das Gegenstück die 9800GTX+ und zur GTX260 die 4870
Schreib das bitte nochmal verständlich.und wenn jetzt bei der GTX260 gespart wird ist es auch wieder falsch.Wenn sie genauso läuft wie die "alten",also was ist daran dann falsch?
Nightshift
Grand Admiral Special
- Mitglied seit
- 19.08.2002
- Beiträge
- 4.447
- Renomée
- 81
- Standort
- Tief im Weeeeeesss-teheheheeen ;-)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- SIMAP, Docking, POEM
- Lieblingsprojekt
- SIMAP
- Meine Systeme
- Ci7-3770K@3,8 GHz, C2Q 9550@3,4 GHz, AthlonII 620 X4 (+ 2x Ci3-2100, 2x C2D 8400, 9x A4-3420, E-450)
- BOINC-Statistiken
- Prozessor
- Ryzen 7 3700X @stock
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-D15 chromax.black
- Speicher
- 2x 16 GB Corsair Vengeance LPX (schwarz) PC4-25600U (DDR4-3200) CL16-18-18-36 @stock
- Grafikprozessor
- Powercolor RX 5700 Red Dragon @stock
- Display
- Eizo FlexScan EV2750
- SSD
- Corsair MP600 1TB M.2 NVMe | Kingston A2000 NVMe PCIe SSD 1TB | Samsung 850 EVO 500 GB
- Optisches Laufwerk
- LG BH16NS55| NEC AD-7203S
- Soundkarte
- onboard :-P der Hardwaregott habe meine Creative Audgiy 2ZS selig
- Gehäuse
- Nanoxia Deep Silence 5, schallgedämmt
- Netzteil
- be quiet! Straight Power E11 650W
- Tastatur
- Razer Ornata Chroma
- Maus
- Logitech Lift for Business
- Betriebssystem
- Win 10 Pro 64bit
- Webbrowser
- Firefox
- Verschiedenes
- rockstable & silent
- Schau Dir das System auf sysprofile.de an
Naja man muss auch mal so sehen: Dadurch dass die 55nm-Modelle weniger verbrauchen sind eben auch Einsparungen beim restlichen Teil drin.
Ob das nun auch am Ende auf die Qualität durchschlägt wird man sehen müssen.
Aber natürlich braucht Nvidia auch eine gewisse Marge, und um die erreichen zu können müssen sie bei der derzeitigen Preisgestaltung eben Einsparungen machen.
Natürlich gibt es immer wieder Berichte von fiependen GTX260, aber genauso bei anderen Grafikkarten.
Das muss auch nicht speziell eine ganze Linie betreffen, können immer Einzelfälle sein.
Das kocht nur in Zeiten des Inets viel schneller hoch.
Ob das nun auch am Ende auf die Qualität durchschlägt wird man sehen müssen.
Aber natürlich braucht Nvidia auch eine gewisse Marge, und um die erreichen zu können müssen sie bei der derzeitigen Preisgestaltung eben Einsparungen machen.
Natürlich gibt es immer wieder Berichte von fiependen GTX260, aber genauso bei anderen Grafikkarten.
Das muss auch nicht speziell eine ganze Linie betreffen, können immer Einzelfälle sein.
Das kocht nur in Zeiten des Inets viel schneller hoch.
Sway Dizzle
Grand Admiral Special
Ich weiß net,was ihr wollt? Warum muß Nvidia mit der GTX260 im Preis gegen eine 4850 spielen,aber leistungsmäßig gegen eine 4870? Es ist nunmal so und wird auch immer so bleiben das je höher die leistung ist umso schlechter wird das P/L Verhältnis.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Allerdings hat man auch die Stromversorgung des VRAM vereinfacht und da kommen im Referenzdesign weiter Hynix H5RS5223CFR mit 1.0ns zum Einsatz.Naja man muss auch mal so sehen: Dadurch dass die 55nm-Modelle weniger verbrauchen sind eben auch Einsparungen beim restlichen Teil drin.
Ferner stellt sich auch die Frage, ob man nicht die Taktraten der GPU mit dem kleineren Fertigungsprozess anhebt, wie damals beim G92b und die TDP auf demselben Niveau hält.
EDIT: Der Stromverbrauch ist durch die Umstellung auf den 55nm Prozess beim Vorserien G200-103-B1 sogar um 10 Watt gestiegen meint HardTecs4U und das bei schwächerem Kühler.
Als Kunde kann man für einen "Premium-Preis" an für sich auch "Premium-Qualität" erwarten und es stellt sich die Frage ob er die bei den ganzen Sparmaßnahmen auch erhält.Es ist nunmal so und wird auch immer so bleiben das je höher die leistung ist umso schlechter wird das P/L Verhältnis.
Ich hoffe es mal für alle Käufer der GeForce GTX 260, aber man sollte die Situation nach Markteinführung der Revision P897 ganz genau beobachten, ob man Entwarnung geben kann.
Es wäre nicht das erste Mal bei nVidia oder ATi, dass Kostenreduzierungsmaßnahmen sich nachteilig ausgewirkt haben. Man denke an das vermeintliche G71 "Massensterben".
Zuletzt bearbeitet:
Sway Dizzle
Grand Admiral Special
Wenn die "neue" GTX260 dann ohne Probs läuft,also wo ist da das Problem?Es wird aus ner Mücke ein Elefant gemacht.
Wu134
Grand Admiral Special
- Mitglied seit
- 24.04.2006
- Beiträge
- 2.169
- Renomée
- 29
- Standort
- bei Ulm
- Mein Laptop
- Lenovo U41-70
- Prozessor
- AMD Athlon X4 860K
- Mainboard
- Gigabyte GA-F2A78M-DS2
- Kühlung
- Arctic Freezer Extreme
- Speicher
- G.Skill Ripjaws 2 x 4 GB DDR3-2133
- Grafikprozessor
- AMD RX460 2 GB
- Display
- 19" BenQ FP91GP 1280x1024
- SSD
- Crucial M500 120 GB
- HDD
- Samsung F2 500 GB
- Optisches Laufwerk
- Samsung SH-S183A
- Soundkarte
- onboard Realtek HD
- Gehäuse
- Coolermaster Centurion 5 + Silentmaxx Dämmung
- Netzteil
- BeQuiet L7 300W
- Betriebssystem
- Windows 10 x64
- Webbrowser
- Firefox
- Verschiedenes
- Idle 44 W, Prime95 133 W, Spiele ca. 170 W
Hallo,
ich finde erstmal nicht, dass durch Änderungen an der Technik hinter dem Grafikchip die Qualität leiden muss. Dass das PCB vereinfacht wird, spart Kosten und hat keinerlei Auswirkungen auf die Qualität. Dass Spannungswandler vereinfacht werden, ist vielleicht auch sinnvoll. Wenn einer reicht, warum 2 verbauen Vielleicht pure Spekulation meinerseits, aber vielleicht war die GT200-Reihe von Anfang an eher als stromfressende Power-Karte geplant (noch mehr wie jetzt), aber der aufkommende Green-IT-Gedanke bremste die eigentliche Planungen aus. Eventuell war der 2. Spannungswandler nur eine Option für die Zukunft.
Wenn du eine GTX260 kaufst, bekommst du Premium in der Grafikdarstellung und in der Leistung. Ob da jetzt auf der Platine billige oder hochwertige Komponenten verbaut sind, ist ja egal, da es ja nur um das Bild auf dem Monitor geht. So läuft das. Ein Anbieter, der auch Premium-Bauteile verbaut und dies mit Aufpreis verkaufen will bzw. muss, wird schnell erkennen müssen, dass Qualität nicht in jedem Bereich erwünscht ist. Schau doch hier im Forum: Es geht selbst bei 200 € für eine Grafikkarte um jeden Euro Ersparnis, nahezu unabhängig vom Hersteller. Name egal, es zählt nur der kleinste Preis. Warum sollte da noch jemand freiwillig teure Bauteile auf Platinen löten? Bei Mainboard-Herstellern ist das (noch) anders.
Gruß
ich finde erstmal nicht, dass durch Änderungen an der Technik hinter dem Grafikchip die Qualität leiden muss. Dass das PCB vereinfacht wird, spart Kosten und hat keinerlei Auswirkungen auf die Qualität. Dass Spannungswandler vereinfacht werden, ist vielleicht auch sinnvoll. Wenn einer reicht, warum 2 verbauen Vielleicht pure Spekulation meinerseits, aber vielleicht war die GT200-Reihe von Anfang an eher als stromfressende Power-Karte geplant (noch mehr wie jetzt), aber der aufkommende Green-IT-Gedanke bremste die eigentliche Planungen aus. Eventuell war der 2. Spannungswandler nur eine Option für die Zukunft.
Wenn du eine GTX260 kaufst, bekommst du Premium in der Grafikdarstellung und in der Leistung. Ob da jetzt auf der Platine billige oder hochwertige Komponenten verbaut sind, ist ja egal, da es ja nur um das Bild auf dem Monitor geht. So läuft das. Ein Anbieter, der auch Premium-Bauteile verbaut und dies mit Aufpreis verkaufen will bzw. muss, wird schnell erkennen müssen, dass Qualität nicht in jedem Bereich erwünscht ist. Schau doch hier im Forum: Es geht selbst bei 200 € für eine Grafikkarte um jeden Euro Ersparnis, nahezu unabhängig vom Hersteller. Name egal, es zählt nur der kleinste Preis. Warum sollte da noch jemand freiwillig teure Bauteile auf Platinen löten? Bei Mainboard-Herstellern ist das (noch) anders.
Gruß
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Dann gibt es kein Problem. Aber wenn man den Quellen glaubt wird sie eben heißer und lauter.Wenn die "neue" GTX260 dann ohne Probs läuft,also wo ist da das Problem?
Na gut, sie wird im Gegenzug auch günstiger. Das wiegt es wieder etwas auf.
LordAndrax
Gesperrt
- Mitglied seit
- 11.06.2005
- Beiträge
- 4.618
- Renomée
- 41
Vielleicht wirds noch Karten mit anderen Kühlern geben, mal abwarten.
Mal sehen wie es dann im verlauf der Garantiezeit aussehen wird, mal an meine verstorbene 6800GT denk.
Aber den Preisvergleich mit der 4850 habe ich auch imer noch nicht begriffen, änderts mal in 4870 1GB dann passts wohl eher.
Edit
Ist dann halt auch eine Folge des "muss immer billiger werden Geschreis".
Bzw. macht Ati auch so gut wie keinen Gewinn (machen die überhaupt welchen?), von daher hat man die sinnvolle Preisgrenze schon längst unterschritten.
Mal sehen wie es dann im verlauf der Garantiezeit aussehen wird, mal an meine verstorbene 6800GT denk.
Aber den Preisvergleich mit der 4850 habe ich auch imer noch nicht begriffen, änderts mal in 4870 1GB dann passts wohl eher.
Edit
Ist dann halt auch eine Folge des "muss immer billiger werden Geschreis".
Bzw. macht Ati auch so gut wie keinen Gewinn (machen die überhaupt welchen?), von daher hat man die sinnvolle Preisgrenze schon längst unterschritten.
Zuletzt bearbeitet:
M
Grand Admiral Special
- Mitglied seit
- 22.03.2005
- Beiträge
- 11.095
- Renomée
- 538
- Standort
- P3d VIP Lounge
- Mein Laptop
- MacBook 12 Retina
- Prozessor
- Intel Core i3 3225 - 3.3Ghz 0.8V
- Mainboard
- Asrock B75 Pro3-M
- Kühlung
- Thermalright AXP-100
- Speicher
- 2x4GB Corsair Vengeance 1600Mhz
- Grafikprozessor
- Intel HD4000
- Display
- Dell 2407WFP A04; Sony KDL- 46 X 3500
- HDD
- Samsung 840 Series Basic
- Optisches Laufwerk
- Plextor PX 755A, PX 716A, PX 130A
- Soundkarte
- X-Fi Xtreme Audio
- Gehäuse
- Fractal Design Node 605
- Netzteil
- Enermax ErPro 80+ 350W
- Betriebssystem
- Win7 64bit, Mavericks
- Webbrowser
- Opera, Safari
Nochmal:
Nvidia hat zwei Karten in dem Segment zu bieten. Die 9800+ und die 260. Da die 4850 zweifelsfrei über der 9800 liegt, welche bezogen auf ihre Leistung ohnehin überteuert ist, hat Nvidia ab der 4850 nichts mehr entgegenzusetzen. Somit sind im Hinblick auf den relativen Marktanteil alles ab der 4850 zu berücksichtigen, um darzulegen, in welchen Bereichen sich die Käufergruppen orientieren.
Wird die 260 nun aber im Preis sinken, so wird sie wieder attraktiver, auch für jene Gruppe, die sich bisher, aufgrund des Preises, ab der 4850 entschieden hätten.
Nvidia hat zwei Karten in dem Segment zu bieten. Die 9800+ und die 260. Da die 4850 zweifelsfrei über der 9800 liegt, welche bezogen auf ihre Leistung ohnehin überteuert ist, hat Nvidia ab der 4850 nichts mehr entgegenzusetzen. Somit sind im Hinblick auf den relativen Marktanteil alles ab der 4850 zu berücksichtigen, um darzulegen, in welchen Bereichen sich die Käufergruppen orientieren.
Wird die 260 nun aber im Preis sinken, so wird sie wieder attraktiver, auch für jene Gruppe, die sich bisher, aufgrund des Preises, ab der 4850 entschieden hätten.
Saulus
Grand Admiral Special
- Mitglied seit
- 11.07.2005
- Beiträge
- 8.747
- Renomée
- 95
- Mein Laptop
- ACER 5930G
- Prozessor
- ii7-4790K
- Mainboard
- GIGABYTE GA-Z97P-D3
- Kühlung
- HR-02 Macho Rev. B
- Speicher
- 16 GB DDR3-1600
- Grafikprozessor
- GTX 980ti
- Display
- 27" iiyama B2776HDS
- SSD
- 2x SSD 256GB
- HDD
- 1x HDD 750GB
- Optisches Laufwerk
- keins mehr
- Soundkarte
- nur noch Onboard
- Gehäuse
- ANTEC Sonata III
- Netzteil
- Enermax Liberty ECO II 720W
- Betriebssystem
- W7
- Webbrowser
- FireFox
Und wo ist nun das Problem? Bei ATI hat man von Anfang an auch auf diese Schiene gesetzt. Bei nVidia wird nun halt nachgezogen um Preislich mithalten zu können.
dekaisi
Grand Admiral Special
- Mitglied seit
- 06.11.2006
- Beiträge
- 3.929
- Renomée
- 25
- Standort
- B
- Mein Laptop
- Lenovo Y50-70,32GB Ram, Samsung 830Pro 256GB, Panel Upgrade,...
- Prozessor
- AMD Ryzen 3950X
- Mainboard
- ROG Strix X570-E
- Kühlung
- Corsair H115i Platinium
- Speicher
- 4x G.Skill F4-3600C15-8GTZ (B-Die)
- Grafikprozessor
- MSI Trio X 3090
- Display
- Predator X27, Asus MQ270Q
- SSD
- sehr viele :D
- HDD
- viele viele und extra Platz :D
- Optisches Laufwerk
- LG Bluray BH10LS30
- Soundkarte
- Soundblaster X7, Steinberg UR-22C
- Gehäuse
- Corsair Vengeance v70 +Dämmung
- Netzteil
- Enermax Platimax D.F. 600W
- Tastatur
- Corsair RGB Platinum K95
- Maus
- Asus ROG Pugio
- Betriebssystem
- Win10 Prof Workstation
Ist natürlich auch ein Hausgemachtes Prolem bei Nvidia, Q3 war schon klar das was passieren musstem, deutlich sinkende Absatzzahlen im Q4 haben selbst ATI Probleme bereitet.
Nvidia muss endlich von seinem Hohen Ross runter kommen und mal zu vernünftigen Preisen Produkte liefern, somit finde ich die Attakte von ATI nicht schlecht.
Aber nun den Preis durch Billig Implementation zu senken wir sich für Nvidia, mit Sicherheit, durch noch mehr Kunden Verlust bezahlt machen, von hoher ausfallrate und Instabilität ganz zu schweigen.
Zudem eben die erschwerte Lage eher gering im Board Markt mithalten zu können, da zum Intel sowie ATI Leute meist mit ATI Karten unterwegs sind.
Genau so sieht es aus.
9800GTX+ liegt gleich auf mit 4850, die Gflops der ATI kannst sowieso nicht Real nutzen.
9800GT bedient gerne auch 4830.
9600 etwas langsamer zur 4670.
GTX260 vs 4870 , 260² über 4870 wozu die 216Shader auch gedacht waren.
Nvidia muss endlich von seinem Hohen Ross runter kommen und mal zu vernünftigen Preisen Produkte liefern, somit finde ich die Attakte von ATI nicht schlecht.
Aber nun den Preis durch Billig Implementation zu senken wir sich für Nvidia, mit Sicherheit, durch noch mehr Kunden Verlust bezahlt machen, von hoher ausfallrate und Instabilität ganz zu schweigen.
Zudem eben die erschwerte Lage eher gering im Board Markt mithalten zu können, da zum Intel sowie ATI Leute meist mit ATI Karten unterwegs sind.
Ne 4850 ist doch net mal der Konkurrent der GTX260,also was hat das damit zu tun?
Genau so sieht es aus.
Nvidia hat kein Konkurrenzfähiges Midrange Produkt? 9800 sieht hier einfach kein Land.
9800GTX+ liegt gleich auf mit 4850, die Gflops der ATI kannst sowieso nicht Real nutzen.
9800GT bedient gerne auch 4830.
9600 etwas langsamer zur 4670.
GTX260 vs 4870 , 260² über 4870 wozu die 216Shader auch gedacht waren.
http://www.benchmark.pl/zestawienie_gpu.htmlIch habs dir jetzt drei Mal erklärt. Ich machs kein viertes Mal.
Nochmal:
Nvidia hat zwei Karten in dem Segment zu bieten. Die 9800+ und die 260. Da die 4850 zweifelsfrei über der 9800 liegt, welche bezogen auf ihre Leistung ohnehin überteuert ist, hat Nvidia ab der 4850 nichts mehr entgegenzusetzen. QUOTE]
Zuletzt bearbeitet:
M
Grand Admiral Special
- Mitglied seit
- 22.03.2005
- Beiträge
- 11.095
- Renomée
- 538
- Standort
- P3d VIP Lounge
- Mein Laptop
- MacBook 12 Retina
- Prozessor
- Intel Core i3 3225 - 3.3Ghz 0.8V
- Mainboard
- Asrock B75 Pro3-M
- Kühlung
- Thermalright AXP-100
- Speicher
- 2x4GB Corsair Vengeance 1600Mhz
- Grafikprozessor
- Intel HD4000
- Display
- Dell 2407WFP A04; Sony KDL- 46 X 3500
- HDD
- Samsung 840 Series Basic
- Optisches Laufwerk
- Plextor PX 755A, PX 716A, PX 130A
- Soundkarte
- X-Fi Xtreme Audio
- Gehäuse
- Fractal Design Node 605
- Netzteil
- Enermax ErPro 80+ 350W
- Betriebssystem
- Win7 64bit, Mavericks
- Webbrowser
- Opera, Safari
Das zeigt genau das Phänomen, welches ich immer schon bemängelt habe.
Die Benchmarkleistung einer Karte, lässt sich nur bedingt in Relation zu ihrer Spielbarkeit bringen.
Ich komme mit ner G92 GTS auch auf 17k Punkte im 3dMark, aber was bringt mir das im Hinblick auf die Spieleleistung? Was hab ich von Gigaflops und 3dMurks? Einbrüche bei hohen Auflösungen und Filtern. Was hab ich dann noch von meinen tollen Punkten, wenn ich damit nicht zocken kann?
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Es ist ja nicht nur der Lüfter des Kühlers. Auch "Spulenpfeifen" bei den Spannungswandlern droht bei manchen Lastbereichen, wenn hier gespart wird.Vielleicht wirds noch Karten mit anderen Kühlern geben, mal abwarten.
Aber auch ATi stände es gut, bei der Radeon HD 4800 Serie für etwas mehr Reserven zu sorgen: HT4U - "HD 4870 - Das Wandlerproblem"
Auch wenn das hier von einigen anders gesehen wird, aber ich habe gern Karten die auch mal 3 Jahre bei hoher Beanspruchung durchhalten würden.
Wenn man sich dagegen jedes Jahr mit Erscheinen einer neuen GPU Generation einen Nachfolger holt, fällt das natürlich weniger ins Gewicht.
Zuletzt bearbeitet: