App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
NVIDIA - Pascal
- Ersteller Morkhero
- Erstellt am
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 2.983
- Renomée
- 232
IMHO sind 30cm Wafer derzeit aktuell, nicht 20cm.
Stimmt, was die Produktion betrifft.
Allerdings werden Abschätzungen jeglicher Art im im Foundry-Geschäft immer mit sogenannten 200mm-Äquivalenten durchgeführt, damit die Daten über die verschiedenen Produktionsstätten hinaus vergleichbar sind. Insofern sind auch bei der 300mm Produktion nur Zahlen für 200mm-Äquivalente zu bekommen.
Deshalb geht die Abschätzung so in Ordnung.
MfG
Locuza
Commodore Special
- Mitglied seit
- 03.03.2011
- Beiträge
- 351
- Renomée
- 3
Ich habe mehrere Dinge aufgelistet, wenn du behauptest AMD ist fast überall von der Architektur überlegen, kannst du das natürlich näher spezifizieren, aber es gibt mehrere Stichpunkte die man für Nvidia nennen kann und einige wie die Perf/Watt sind sehr entscheidend für viele Marktfelder.Nein. Ich habe ja nicht gesagt, dass AMD da überall überlegen wäre. Genauso wenig wie Nvidia. Mal davon abgesehen macht es keinen Sinn, sich an einzelnen Features wie ROV aufzuhängen. Ich sehe es im Grossen und Ganzen. Und so war auch meine Aussage gemeint. Im Moment spricht vermeintlich nur Perf/Watt unter Spielen für Nvidia.
Fast überall überlegen kann AMDs Architektur deswegen aus meiner Sicht nicht sein.
Du hast einige Punkte genannt, die auch nur einen Vorteil darstellen, wenn sie effektiv auch etwas nützen.Ansonsten sehe ich nichts was für Nvidia spricht. Perf/Watt unter Computing spricht für AMD.Unterstützung neuer Speichertechnologien spricht für AMD, siehe HBM.
Bessere Unterstützung von neuen APIs spricht für AMD. Daran ändert auch ROV zB nichts. BQ spricht für AMD wie man anhand diverser In-Game Videovergleiche immer wieder sehen kann. Ob Nvidia absichtlich weniger Details rendert, um künstlich die FPS zu erhöhen, oder die Hardware einfach nicht mehr hergibt, sei mal dahingestellt. Der Softwaresupport spricht für AMD. Sachen wie TressFX sind nicht nur offen, sondern auch effizient implementiert. Das kann man von GameWorks zB nicht sagen. Wenn man sich insgesamt den Funktionsumfang bei AMD anschaut, von Eyefinity über TrueAudio bis hin zu VR, ich sehe da ein besseres Gesamtpaket als bei Nvidia. Was ich aber nicht sehe ist ein Nachweis, dass Nvdia besser bei DCC wäre. Oder willst du nur wieder irgendwelche nichtssagenden Balkendiagramme bringen, die maximal zeigen, dass Nvidia verhältnismässig schlecht bei Schwarzkompression ist? Ähnliches gilt für Tessellation. Was soll denn da für sie sprechen? Nvidia kann lediglich besser übertessellieren. Geschenkt, weil's niemand wirklich braucht.
- Wie gut ist denn die Perf/Watt bei Compute unter GCN vs. Maxwell/Pascal?
Ich habe leider keine Zahlen diesbezüglich.
- Unterstützung neuer Speichertechnologien, so wie GDDR5X?
Spaß beiseite, aber HBM spricht natürlich auch nur für AMD wenn es effektiv etwas nützt.
Bei der Fiji konnte AMD damit nur mit der Nano glänzen und der GP100 wird ebenso mit HBM ausgestattet sein, wofür Nvidia schon die Specs verkündet hat, den groben Auslieferungszeitpunkt und den ersten Abnehmer.
Was wissen wir von Vega außer einem vermutlich frühen 2017 Release?
- Bessere Unterstützung von neuen APIs würde ich ich in vielen Fällen anders beschreiben, größerer bzw. überhaupt ein Vorteil von neueren APIs.
- In-Game Vergleiche bei welchen Spielen, die welche Aussagekraft haben und wo und wieso auftreten?
- Man definiere Softwaresupport, aber das ist eine Stelle wo mir AMDs Entwicklung ziemlich gefällt.
Die Boltzmann-Initiative, die Radeon-Settings, Wattman, der neue Linux-Kernel-Treiber und DAL, alles sehr gute Fortschritte.
Aber liegt AMD deswegen in entscheidenden Szenarien vorne?
- TressFX spricht nicht pro AMD, jedenfalls nicht wenn mir die Idee dahinter egal ist. Genauso wie GameWorks nicht für Nvidia spricht, wenn das ganze auch unter AMDs GPUs effizient läuft.
Wenn es das nicht tut und mir der optische Effekt gefällt, dann muss man das ganze näher betrachten.
- Du meinst verhältnismäßig wesentlich besser, die schwarze Textur stellt den optimalen Fall für eine Kompression dar und die Verschiedenfarbige, wenn sie praktisch nichts komprimieren kann.
Das Delta ist bei Nvidia wesentlich größer, als bei AMD.
Aber nein, ich kann dir isoliert nicht beweisen das Nvidias DCC unter allen Umständen besser funktioniert als die von AMD.
- Das bessere Geometrie-Frontend hilft übrigens nicht nur bei Tessellation, sondern eben beim allgemeinen Dreiecksdurchsatz.
Man kann nicht proportional zur Rechenleistung zulegen, wenn die Bandbreite nicht um den selben Faktor wächst, dass ist eine Feststellung die du genauso bei Tonga und Polaris 10 machen kannst, weil im Gegensatz zu Spielen die DCC die effektive Bandbreite nicht verbessern kann.Aufgrund der Vergleiche, die ich mir bisher angeschaut habe, scheint Pascal bei Computing teilweise sogar langsamer als Maxwell zu sein bzw im Vergleich zu Spielen weniger zuzulegen. Im Luxmark Test hier ist die GTX 1080 Simple/Complex zB 20/45% schneller als eine GTX 980, obwohl es bei Spielen im Schnitt etwa 60% sind. Also ich sehe da noch lange nicht, wo Pascal etwas bei Computing verbessert haben soll.
Und da wir von Architekturen geredet haben, dachte ich auch viel mehr an genau diese Verbesserungen.
Ein wirklich großer Sprung ist hierbei der GP100, andere Shader-Cluster, unified memory, atomic add instructions und HBM2 (neben FP16-Operationen) und eine schnellere Pre-Emption.
Die Pascal-GPUs für die Konsumenten werden mit anderen Shader-Clustern bedient, ebenso fehlt der hohe FP16/FP64-Durchsatz.
Ich weiß nicht, ob ebenso der unified memory oder die atomic add instructions fehlen.
Das wäre ja ganz schlecht für AMD. xDWieso? Damit sie Nvidia architektonisch noch weiter davonziehen?
Duh, Nvidia hat schon eine ordentliche Stückzahl vom GP104 abgesetzt, mit Nvidia typischer Marge.Im Moment ist erst mal Nvidia wieder unter Zugzwang. Polaris verkauft sich anscheinend prächtig. Das zählt vor allem für AMD, Absätze und Marktanteile bei dGPUs wieder zu steigern. Mit Glofo hat man auch genügend Kapazitäten. Die hat Nvidia bei TSMC nicht. Und keine Sorge, AMD wird schon zusehen, Nachfolgeprodukte beizeiten auf den Markt zu bringen. Womöglich kommt Vega früher als es Nvidia lieb ist.
Marktanteile sind wichtig, aber AMD muss es auch schaffen einen guten Gewinn in Relation zu behalten.
P10 hat jedenfalls nicht wie anfangs spekuliert Monate bis gar zwei Quartale Vorsprung gegenüber der Konkurrenz.
Nvidia hat jetzt zwei Chips auf dem Markt und 3 Produkte, AMD bisher nur einen Chip und nur ein Produkt basierend darauf.
Ohne Vega lässt AMD auch ein Marktfeld lange Zeit unbesetzt, stellt sich die Frage wie lange Nvidia für den GP107/8 braucht, hat hier wenigstens der P11 einige Monate freies Spiel?
Und wie wir seit Heute erfahren haben, geht der GP102 und damit der dritte Chip und das insgesamt vierte Produkt ab dem 2. August in den Verkauf.
Sie haben bei der Perf/Watt klar und deutlich überholt.In welchen Bereichen haben sie denn seit GCN überholt? Ich sehe da ehrlich gesagt nichts. Ich sehe nur, dass sie sich in den letzten Jahren voll auf DX11 Gaming konzentriert haben. Dafür sind sie in allen anderen Bereichen stagniert oder weiter zurückgefallen, wie bei Konsolen, DX12/Vulkan oder Computing.
Die Architektur ist von den Funktionen auch wesentlich nach vorne gesprungen, dass kann man von GCN nur begrenzt behaupten.
GCN war abseits vom Front-End ein technisch großer Schritt nach vorne und Führer in vielen Bereichen, seitdem hat sich dort aber nicht wesentlich etwas verändert.
In Relation dazu hat Nvidia mit Maxwell und Pascal stark aufgeholt.
Bessere Compute-Performance, bessere atomic-performance, cross-lane-operations, bessere Pre-Emption, Conservative Rasterization, Volume Resources, ROVs, Viewport Multicasting, DCC in der dritten und vierten Generation, flexiblere AA-Programmierung, ein hybrider Immediate/Tile-Renderer.
Kepler hatte wie seit Fermi ein sehr robustes Geometrie-Frontend und die Perf/Watt war in Ordnung, aber die praktische Compute-Leistung ist schlecht, die cache-struktur ineffizient, es gab so vieles wo Nvidia gegenüber GCN deutlich aufzuholen hatte und sie haben es an vielen Fronten auch getan.
Es schmilzt aber nicht auf AMDs-Niveau.So gross nun auch wiederum nicht. Und wenn sie Unmengen davon in den Sand setzen, wie mit Tegra oder Shield, dann schmilzt das effektive R&D Budget deutlichst. Ausserdem denke ich, dass AMD trotz im Moment weniger R&D Budget einiges an signifikanten Vorteilen hat. Wie zB CPU Know-How, welches auch in die GPU-Entwicklung einfliesst.
Das CPU Know-How gibt es bald seit einem Jahrzehnt und es ist auch schon seit GCN mit eingeflossen und wieder einmal bei Polaris, aber den Sieg trägt AMD deswegen nicht davon.
Das bleibt doch sehr zu hoffen, denn die Schritte die AMD von Generation zu Generation gemacht hat sind zu klein um mit der Konkurrenz weiterhin Schritt zu halten, außer Nvidia hat vor wesentlich langsamer zu werden.Auf Augenhöhe? Warum sollte sich AMD zurückentwickeln? Ergibt doch gar keinen Sinn. Ich tippe eher darauf, dass man mit Vega und Navi architektonisch weiter vorangehen wird.
Wie lange ist eig. Nvidia schon in einer ganz schlechten Position?Das ist aber nur deine Meinung. Zerplatzte Träume sehe ich bei Nvidia nicht weniger.
Spätestens seit AMD ATI aufgekauft hat oder?
Wo ganz viel Know-How von zwei spezialisierten Unternehmen zusammen trifft, wo AMD jetzt alles aus einer Hand liefern kann, der mobile Sektor gehört AMD und Intel, Nvidia wird ausgeschlossen.
AMD gewinnt die Konsolen-Deals, jetzt sieht es düster für Nvidia aus, wenn jeder Programmierer für GCN entwickelt, etc.
Seit 10 Jahren hört und hofft man, ich selber habe viele Jahre positive Ausblicke für AMD gepflegt, effektiv ist daraus nur in wenigen Fällen etwas geworden.
Nvidia hat dagegen Umsatz- und Gewinnzahlen von Quartal zu Quartal feiern können.
In den Sand gesetzt hat Nvidia ihre Smartphone-Pläne mit der Tegra-Sparte und dem Modem-Aufkauf.
Denver ist auch kein CPU-Meilenstein geworden, aber eine CPU wird für Nvidia in Zukunft sehr wichtig sein.
Effektiv sind es in vielen Fällen auch nur 32 ROPs.[...]
Renderperformance lässt sich nicht alleine an den FLOPS ablesen. Die GTX 1060 besitzt zB 50% mehr ROPs. Ich persönlich würde sagen, alte APIs (<=DX11 / OpenGL) sind mehr von TMUs und ROPs abhängig, bei neuen APIs (DX12 / Vulkan) kommen hingegen auch die FLOPS besser zur Geltung.
Wenn das Frontend pro Takt nur bis zu 32 Pixel liefern kann, nützt es einem nicht viel wenn das Backend bis zu 48 verarbeiten kann.
Zuletzt bearbeitet:
NEO83
Grand Admiral Special
- Mitglied seit
- 19.01.2016
- Beiträge
- 3.900
- Renomée
- 429
- Standort
- Wilhelmshaven
- BOINC-Statistiken
- Mein Desktopsystem
- Kraftprotz
- Mein Laptop
- ASUS TUF A17 @R9 7940HS @RTX4070
- Prozessor
- AMD R7 7800X3D
- Mainboard
- GIGABYTE B650E AORUS Master
- Kühlung
- Noctua NH-D12L
- Speicher
- Corsair Vengeance RGB Kit 32GB, DDR5-6000, CL30-36-36-76
- Grafikprozessor
- PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X
- Display
- MSI MPG Artymis 273CQRDE @WQHD @165Hz
- SSD
- WD_BLACK SN850X 1TB, WD_BLACK SN850X 2TB
- Optisches Laufwerk
- USB BD-Brenner
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design Meshify 2 XL
- Netzteil
- ASUS ROG Loki 1000W Platinum SFX-L
- Tastatur
- Logitech G815
- Maus
- Logitech G502 SE Lightspeed
- Betriebssystem
- Windows 11 64Bit
- Webbrowser
- FireFox
- Internetanbindung
- ▼1,15GBit ▲56MBit
Also wenn NV erstmal in fahrt kommt kommt auch eine Karte nach der anderen hm
NVIDIA präsentiert die GeForce GTX Titan X
einerseits find ich das echt gut andererseits enteilt man AMD doch sehr aber der Preis ist doch schon wieder Extrem ... 1200$ also in DE wohl eher 1500-1600€
NVIDIA präsentiert die GeForce GTX Titan X
einerseits find ich das echt gut andererseits enteilt man AMD doch sehr aber der Preis ist doch schon wieder Extrem ... 1200$ also in DE wohl eher 1500-1600€
Captn-Future
Moderation DC, P3DN Vize-Kommandant
- Mitglied seit
- 16.08.2004
- Beiträge
- 8.430
- Renomée
- 313
- Standort
- VIP Lounge
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- QMC, Simap
- Lieblingsprojekt
- QMC
- Meine Systeme
- X4 940 BE
- BOINC-Statistiken
- Prozessor
- Intel Xeon E3-1230v2
- Mainboard
- GA-Z77-UD3
- Kühlung
- Thermalright Macho Rev. A
- Speicher
- 16 GB Kingston blue
- Grafikprozessor
- Gigabyte GTX 660
- Display
- HP ZR2440w 1920x1200
- SSD
- Samsung SSD 830 256 GB
- HDD
- WD Blue 1 TB
- Optisches Laufwerk
- LG GSA-H10N
- Gehäuse
- LianLi V1000 Silber
- Netzteil
- Cougar SE400
- Betriebssystem
- Windows 7
- Webbrowser
- FireFox
Ich frage mich seit wann aus 1.200 Doller 1500 € geworden sind. Der Dollar steht doch bei 1,15$/€ also bekomme ich für einen € 1,15 $. Entweder sind die Preise traditionell ohne Steuern (Keine Ahnung wie hoch die Steuern in den USA sind) oder es kommen wahnsinnige Zölle oben drauf.
Yoshi 2k3
Admiral Special
- Mitglied seit
- 18.01.2003
- Beiträge
- 1.321
- Renomée
- 180
- BOINC-Statistiken
- Mein Laptop
- Apple Mac Book Pro 14" 2023
- Prozessor
- AMD Epyc 7F52
- Mainboard
- TYAN S8030 GM2NE
- Kühlung
- Watercool Heatkiller IV
- Speicher
- 128 GB Samsung M393A4K40DB3-CWEGQ
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- Nixeus NX-EDG27
- Soundkarte
- SMSL SU-9 USB DAC
- Gehäuse
- Caselabs SM8
- Netzteil
- Cooler Master SFX Gold 850W
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
Die Preise in den USA SIND ohne Steuern angegeben, weil jeder Bundesstaat unterschiedliche Steuersätze hat. Macht für DE dann ~1245€ (inkl 19% Steuer) + evtl. Zoll + nennen wir es mal "Europaaufschlag"
NEO83
Grand Admiral Special
- Mitglied seit
- 19.01.2016
- Beiträge
- 3.900
- Renomée
- 429
- Standort
- Wilhelmshaven
- BOINC-Statistiken
- Mein Desktopsystem
- Kraftprotz
- Mein Laptop
- ASUS TUF A17 @R9 7940HS @RTX4070
- Prozessor
- AMD R7 7800X3D
- Mainboard
- GIGABYTE B650E AORUS Master
- Kühlung
- Noctua NH-D12L
- Speicher
- Corsair Vengeance RGB Kit 32GB, DDR5-6000, CL30-36-36-76
- Grafikprozessor
- PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X
- Display
- MSI MPG Artymis 273CQRDE @WQHD @165Hz
- SSD
- WD_BLACK SN850X 1TB, WD_BLACK SN850X 2TB
- Optisches Laufwerk
- USB BD-Brenner
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design Meshify 2 XL
- Netzteil
- ASUS ROG Loki 1000W Platinum SFX-L
- Tastatur
- Logitech G815
- Maus
- Logitech G502 SE Lightspeed
- Betriebssystem
- Windows 11 64Bit
- Webbrowser
- FireFox
- Internetanbindung
- ▼1,15GBit ▲56MBit
Was mir gerade noch eingefallen ist, wurde nicht mal irgendwo gesagt das die 1080Ti und die Titan X mit HBM2 kommen sollten ?
RICHTHOFEN
Admiral Special
- Mitglied seit
- 07.12.2001
- Beiträge
- 1.086
- Renomée
- 8
Es gab mehrere Gerüchte dazu. Die einen behaupten HBM2 die anderen GDDR5X. Ich gehöre seit dem ersten Pascal Launch (P100) zur Fraktion deren die davon aussgeht, dass der erste Pascal Big Chip im Consumer Markt mit GDDR5x kommt und der zweite dann mit HBM2, sehr wahrscheinlich direkt als Konter zu VEGA mit HBM2. Also kurz vor VEGA oder kurz danach. Wie die Karte genau heißt, nunja ist ja eigentlich egal oder?Was mir gerade noch eingefallen ist, wurde nicht mal irgendwo gesagt das die 1080Ti und die Titan X mit HBM2 kommen sollten ?
Da Nvidia aktuell keinen Konkurrenzdruck in dem Segment hat ist es ja nachvollziehbar. Die machen das notwendigste und versuchen natürlich die Kosten im Zaum zu halten. Dann können sie in Ruhe absahnen und wenn dann Konkurrenzdruck aufkommt wird nachgelegt. Typische Salamitaktik halt. Das erzeugt auch immer einen gewissen Aufrüstdruck. GTX1080 Käufer werden keinen aktuellen GP102 mit GDDR5X kaufen Aber sie kaufen dann eventuell in 7 bis 9 Monaten den Nachfolger. Das hat doch was
NEO83
Grand Admiral Special
- Mitglied seit
- 19.01.2016
- Beiträge
- 3.900
- Renomée
- 429
- Standort
- Wilhelmshaven
- BOINC-Statistiken
- Mein Desktopsystem
- Kraftprotz
- Mein Laptop
- ASUS TUF A17 @R9 7940HS @RTX4070
- Prozessor
- AMD R7 7800X3D
- Mainboard
- GIGABYTE B650E AORUS Master
- Kühlung
- Noctua NH-D12L
- Speicher
- Corsair Vengeance RGB Kit 32GB, DDR5-6000, CL30-36-36-76
- Grafikprozessor
- PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X
- Display
- MSI MPG Artymis 273CQRDE @WQHD @165Hz
- SSD
- WD_BLACK SN850X 1TB, WD_BLACK SN850X 2TB
- Optisches Laufwerk
- USB BD-Brenner
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design Meshify 2 XL
- Netzteil
- ASUS ROG Loki 1000W Platinum SFX-L
- Tastatur
- Logitech G815
- Maus
- Logitech G502 SE Lightspeed
- Betriebssystem
- Windows 11 64Bit
- Webbrowser
- FireFox
- Internetanbindung
- ▼1,15GBit ▲56MBit
Auch wenn es der falsche Thread dafür ist, ich hoffe sehr sehr inständig das die AMD Karten gleich schnell und günstiger sind oder schneller und günstiger und zwar nicht weil AMD nen billig Anbieter sein soll/muss, sondern weil die aktuell aufgerufenen Preise eine Frechheit sind ... mir ist aber klar das solange NV da oben alleine werkelt sie die Preise nicht anpassen müssen
die meisten käufer informieren sich über die leistung eines system heute. die kaufen kein versprechen (speziell aus der community, nicht mal so sehr von amd selbst), dass ein hersteller die ps seiner überlegenen architektur irgendwann, irgendwie in irgendeinem szenario so gut auf die straße bringt, dass sich das leistungsbild komplett dreht.Es sind keine schlechten Produkte und beim besten willen auch nicht langsam, sie sind aber halt nur Stand heute was die Features angeht und nicht stand morgen so wie man es erwarten könnte bei einem so teuren Produkt, zumal der günstigere anbieter die Features von morgen schon mit an Board hat.
da stellt sich nämlich unweigerlich die frage, warum sie die leistung nicht schon heute auf die straße bringen. und den punkt dx12 kann man sich da auch gerne schenken, denn diese argumentation gibt es nun schon seit vielen jahren, da war dx12 noch nicht mal angedacht.
was nvidia im highend-bereich veranstaltet, kann amd aktuell nicht beeinflussen. positiv darf man wahrscheinlich bewerten, dass nvidia kurz- und mittelfristig seine karten auf den tisch gelegt hat. nvidia hat sein pulver erstmal verschossen und zeigt vor allem sehr deutlich den willen, die kunden zu melken.Auch wenn es der falsche Thread dafür ist, ich hoffe sehr sehr inständig das die AMD Karten gleich schnell und günstiger sind oder schneller und günstiger und zwar nicht weil AMD nen billig Anbieter sein soll/muss, sondern weil die aktuell aufgerufenen Preise eine Frechheit sind ... mir ist aber klar das solange NV da oben alleine werkelt sie die Preise nicht anpassen müssen
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Wir diskutieren über technische Aspekte. Wer was will oder nicht ändert doch nichts daran, was die Chips können oder nicht. Nvidia hat ihre Chips halt voll auf DX11 Gaming zugeschnitten. Schön, können sie doch. Aber hört auf von technischer Meisterleistung oder ähnlichem Quark zu phantasieren, wenn den Chips abseits davon schnell die Puste ausgeht.Jetzt mal Butter bei die Fische: Genau wieviele normale Käufer der Zielgruppe "Ich brauche eine separate leistungsfähige Grafikkarte" nutzen single oder double precision Computing auf einer Grafikkarte?
Ändert an meiner Aussage trotzdem nichts.Ich habe nicht nur ROVs erwähnt ...
Stimmt. Ich sagte doch, Übertessellieren kann man Nvidia nicht anrechnen. Weil's einfach kein Vorteil ist. Ausser man steht auf mehr FPS in weltfremden Benchmarks.Das sind jetzt eine Menge Sachen die teilweise effektiv nicht direkt einen Vorteil darstellen.
HBM hat allen Fijis genutzt. Bei der Nano war's nur am offensichtlichsten, weil die am Effizienz-Sweetspot lag.aber HBM spricht natürlich auch nur für AMD wenn es effektiv etwas nützt.
Bei der Fiji konnte AMD damit nur mit der Nano glänzen.
Gab so einige Vergleiche in den letzten 2 Jahren. Wurde immer wieder von den Nvidia Verfechtern weggeredet. Bringt nur nichts, wenn die schlechtere BQ der Geforces mit blossem Auge erkennbar ist. Wie bei einem der jüngeren Vergleiche anhand von AotS. Und wieso die auftreten, keine Ahnung. Da musst du Nvidia fragen. Für sie spricht es aber definitiv nicht.In-Game Vergleiche bei welchen Spielen, die welche Aussagekraft haben und wo und wieso auftreten?
TressFX war lediglich ein Beispiel. Es geht um die Implementierung, da diese effizient ist. Und natürlich spricht das für AMD. Denn je effizienter der Softwaresupport, desto besser läuft meine oder deine Karte. GameWorks läuft ja noch nicht mal auf Geforces effizient.TressFX spricht nicht pro AMD, jedenfalls nicht wenn mir die Idee dahinter egal ist. Genauso wie mir als AMD Nutzer GameWorks egal ist, wenn es ebenso gut funktioniert.
Nein, ich meine es so wie ich es geschrieben habe. Das Delta sagt gar nichts, wenn die Schwarzkompression bei Nvidia eben so schlecht ist. Da müsstest du erst mal eine Geforce dagegen stellen, die die gleiche theoretische Bandbreite besitzt und den gleichen Durchsatz bei Schwarzkompression erreicht. Dann könntest du die Deltas vergleichen. So ist das einfach nur wieder Kategorie Äpfel und Birnen.- Du meinst verhältnismäßig wesentlich besser, die schwarze Textur stellt den besten Fall dar, wenn die Kompression optimal arbeiten kann.
Das Delta ist bei Nvidia wesentlich größer, als bei AMD.
Wo ist das denn besser und wie definiert sich besser in diesem Kontext? Da "glänzt" Nvidia doch maximal mit Quantität. Ist das gleiche wie mit ROPs, TMUs oder theoretischer Bandbreite. Viel hilft nicht immer viel, wenn das richtige Balancing der Schlüssel ist. Wenn ein Teil der ROPs oder des Speicherinterfaces bei Nvidia mitunter nicht voll genutzt werden kann, dann muss man sich schon fragen, was da vielleicht nur halbherzig konzipiert wurde. Es wäre für AMD ein leichtes, den Geometriedurchsatz zu steigern. Einfach mehr Shader Engines und weniger CUs pro Shader Engine. Nur wozu, wenn der erhöhte Geometriedurchsatz die meiste Zeit ins Leere läuft?Das bessere Geometrie-Frontend hilft übrigens nicht nur bei Tessellation, sondern eben beim allgemeinen Dreiecksdurchsatz.
Ich könnte ja jetzt die typischen Ausreden der Nvidia Verfechter bringen, "das interessiert Käufer nicht" oder "es zählt nur was hinten rauskommt". Aber da wir über die Technik reden, sparen wir uns diesen Kindergarten und diskutieren konstruktiv.Geht auch schwer ohne die passende Bandbreite, was bei Tonga und Polaris 10 ebenso der Fall ist.
Du kannst gerne Computing-Vergleiche mit mehr Bandbreite abwarten oder suchen. Bis dahin halte ich es für verfrüht zu behaupten, mit Pascal hätte man sich in diesem Bereich erwähnenswert verbessert.
Nur mit GP104 werden sie ihre Marktanteile aber nicht halten können. Ausserdem fragt sich, ob Nvidia die Lieferengpässe bei TSMC auf absehbare Zeit in den Griff bekommt.Duh, Nvidia hat schon eine ordentliche Stückzahl vom GP104 abgesetzt, mit Nvidia typischer Marge.
Wenn AMD Polaris, wie Nvidia mit Pascal, schon vor der Marktreife rausgehauen hätte, und die höheren Kosten den Kunden aufgedrückt hätte, dann wäre man mindestens 2-3 Monate früher dran gewesen. Das sollte man nicht einfach totschweigen.P10 hat jedenfalls nicht wie anfangs spekuliert Monate bis gar zwei Quartale Vorsprung gegenüber dem GP106.
Keine Sorge, der zweite Chip und zwei weitere Produkte basierend auf Polaris folgen in Kürze.Nvidia hat jetzt zwei Chips auf dem Markt und 3 Produkte, AMD bisher nur einen Chip und nur ein Produkt basierend darauf.
Nein, haben sie nicht. Bei der Computing Perf/Watt liegen sie nach wie vor zurück, DX12 / Vulkan Perf/Watt dürfte sich nicht viel nehmen. Nur bei der DX11 Gaming Perf/Watt liegen sie vorne. Das war aber schon bei Kepler so. Da musste also nirgendwo überholt werden. Ausserdem würde ich erst mal noch die RX 470 abwarten. Womöglich ist der Vorsprung dann alles andere als "deutlich". Es sollte bekannt sein, dass die RX 480 nicht auf Energieeffizienz, sondern auf Verfügbarkeit getrimmt ist. Die RX 470 soll laut AMD mehr auf Energieeffizienz getrimmt sein.Sie haben bei der Perf/Watt klar und deutlich überholt.
Featuremässig ist GCN deutlich noch vorne gesprungen seit GCN1. Nvidias Architektur hat da in der gleichen Zeit ganz gewiss keinen grösseren Sprung gemacht.Die Architektur ist Featuremäßig auch wesentlich nach vorne gesprungen, dass kann man von GCN nur begrenzt behaupten.
Nicht wirklich. Das Design wurde umgestrickt, um die Auslastung effizienter zu gestalten. Das ist richtig. Stichwort Balancing. An der Architektur selbst wurde aber nur wenig weiterentwickelt. Von Maxwell v1 auf v2 gab es einige deutliche Änderungen. Das war's dann aber auch. Wenn du schon so argumentierst, dann solltest du auch nicht unter den Tisch kehren, dass AMD das Frontend deutlich überarbeitet hat seit GCN1. Und mit GCN4 wurden auch die Shader deutlich überarbeitet. Meiner Ansicht nach ist der architektonische Sprung von GCN1 auf GCN4 grösser als der von Kepler auf Pascal. Aber das kann ja jeder sehen wie er will. Nur zu behaupten, Nvidia hätte in diversen Bereichen überholt, ist Quark. In den wenigen Bereichen, wo sie jetzt noch vorne sind, da waren sie auch schon mit Kepler vorne. In den restlichen Bereichen hat sich relativ wenig getan. Bzw wird erst jetzt richtig sichtbar, wie sehr sie da zurückliegen, siehe DX12 / Vulkan.GCN war abseits vom Front-End ein technisch großer Schritt nach vorne und Führer in vielen Feldern, seitdem hat sich dort aber nicht wesentlich etwas verändert.
In Relation dazu hat Nvidia mit Maxwell und Pascal stark aufgeholt.
Na dann bringe doch einfach mal ein paar Zahlen zu AMDs und Nvidias GPU R&D Budget. Alles andere führt doch zu nichts.Es schmilzt aber wohl kaum auf AMDs-Niveau, die noch Zen/K12 und eine APU-Palette pflegen müssen.
Aber noch weniger Nvidia.Das CPU Know-How gibt es bald seit einem Jahrzehnt und es ist auch schon seit GCN mit eingeflossen und wieder einmal bei Polaris, aber den Sieg trägt AMD deswegen nicht davon.
Falsch. Nvidias Schritte sind im Moment deutlich kleiner. Pascal ist bisher quasi nicht mehr als ein Maxwell Shrink. GCN4 ist hingegen eine deutliche Weiterentwicklung gegenüber GCN3. Und ich befürchte aus Sicht von Nvidia, dass Vega (GCN5?) ein ähnlicher Schritt nach vorne wird. Nvidia wird dann wohl erst wieder mit Volta kontern können. Dann dürfte aber auch schon der Vega Nachfolger, Navi, am Start sein.Das bleibt doch sehr zu hoffen, denn die Schritte die AMD von Generation zu Generation gemacht hat, sind zu klein um mit der Konkurrenz Schritt zu halten, wenn sie nicht wesentlich langsamer wird.
Was einzig und allein daran liegt, dass sie nochmals ordentlich in 28nm investiert haben. Während AMD bereits auf 20nm gehen wollte, woraus aber nichts wurde. Daher wurden viele 20nm Designs bei AMD gecancelt. Einzig Fiji hat es noch auf den Markt geschafft, allerdings auch nur in 28nm. Das hat Nvidia natürlich in die Karten gespielt. Und deshalb haben sie in den letzten 2 Jahren guten Umsatz gehabt. Man sollte aber auch mal begreifen, dass das nur eine temporäre Erscheinung war und diese Zeiten jetzt vorbei sind. AMD hat wieder eine ganze Reihe neuer Designs am Start. Selbst wenn diese die Geforces nicht wegpusten, sie werden Nvidia ordentlich Absatz und damit auch Gewinn kosten. Dafür muss man kein Prophet sein. Intel macht im professionellen und mobilen Umfeld genauso Druck auf Nvidia. Und abseits von dGPUs hat Nvidia eben kein weiteres wirtschaftliches Standbein. Daher sehe ich sie schon mittelfristig in keiner guten Position.Wie lange ist eig. Nvidia schon in einer ganz schlechten Position?
AMD hat ATI gekauft, ganz viel Know-How trifft zusammen. Oh AMD kann alles aus einer Hand liefern, der mobile Sektor gehört AMD und Intel, Nvidia ist ausgeschlossen.
Oh AMD ist in den Konsolen, dass wird ganz übel für Nvidia aussehen wenn alle Entwickler auf GCN programmieren.
Ich meine gehört hat man über die 10 Jahre schon sehr vieles, ich selber habe viele male positiv bezüglich AMD spekuliert, effektiv ist leider daraus nur in wenigen Fällen etwas geworden.
Nvidia dagegen hat Umsatz- und Gewinnzahlen von Quartal zu Quartal gefeiert.
Das mag stimmen. Ändert ja trotzdem nichts daran, dass man FPS nicht nur an den FLOPS ablesen kann.Effektiv sind es in vielen Fällen auch nur 32 ROPs.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.033
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
interessant, das ist überraschend, ehrlich gesagt. Die 1060 sieht ja nach den Reviews besser aus als alle anderen Karten. Aber offensichtlich haben die Käufer andere Prioritäten als der durchschnittliche Reviewer denkt.
Man müßte mal Umfragen unter den Käufern machen, warum sie ihre Kaufentscheidung so und nicht anders getroffen haben.
Man müßte mal Umfragen unter den Käufern machen, warum sie ihre Kaufentscheidung so und nicht anders getroffen haben.
das ist quatschAuf Gamestar gelesen, dass das Review der 1060er dazu geführt hat, dass vor allem viele andere Karten gekauft wurden. Unter anderem Fury und 1070er. Quelle war ein Shop aus England.
http://www.planet3dnow.de/vbulletin...50-US-Dollar?p=5106964&viewfull=1#post5106964
Wo wiedersprichst du? Genau das ist doch seine Aussage. Fury Sales exploded... Es gab wohl viele die abgewartet haben => Reviews der 1060 haben dann anscheinend nicht überzeugt, weil es für den Preis besseres gab/gibt bzw. weil der Mehrpreis im Falle der 1070 dann zu den Custom 1060 nicht mehr hinderlich erschien.
den kausalen zusammenhang, dass irgendwer von 1060 reviews entäuscht war und was anderes gekauft hat, gibt es in der aussage nicht. die 1060 hat sich gut verkauft, die rx480 hat sich gut verkauft und die 1070 auch (ist ohne absolute zahlen eh alles relativ). die verkäufe der fury waren auch gut, denn die fury-karten waren bei overclockers zuletzt häufiger mal für 299 pfund im angebot.
wenn man denn einen zusammenhang konstruieren möchte, dann wohl eher den, dass kunden für 299 pfund doch eher zu einer fury greifen als zu vergleichbar teuren mittelklasse-karten.
--- Update ---
wenn du diese gamestar meldung meinst ...
http://www.gamestar.de/hardware/gra...kel/nvidia_geforce_gtx_1060,1005,3276238.html
schon lustig, was die aus so einem kurzen beitrag im oc-forum konstruieren. mit allerlei eigenen mutmaßungen. hauptsache man bekommt die webseite mit irgendwas voll.
wenn man denn einen zusammenhang konstruieren möchte, dann wohl eher den, dass kunden für 299 pfund doch eher zu einer fury greifen als zu vergleichbar teuren mittelklasse-karten.
--- Update ---
wenn du diese gamestar meldung meinst ...
http://www.gamestar.de/hardware/gra...kel/nvidia_geforce_gtx_1060,1005,3276238.html
schon lustig, was die aus so einem kurzen beitrag im oc-forum konstruieren. mit allerlei eigenen mutmaßungen. hauptsache man bekommt die webseite mit irgendwas voll.
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Naja, bei CB sind es nur 1415
https://www.computerbase.de/2016-07/sapphire-radeon-rx-480-nitro-oc-test/5/Trotz einer geringeren Spannung lässt sich die Polaris-10-GPU der Sapphire Radeon RX 480 Nitro+ OC mit vier Gigabyte am besten übertakten – und mit 1.415 MHz gleich auf ein Niveau, das noch keine Polaris-Grafikkarte in der Redaktion geschafft hat.
Das war gemeint: https://imgur.com/a/sw5u3#rfPxYci
Stefan Payne
Grand Admiral Special
Doch, genau das hat er gesagt, dass die Verkäufe der RX480 nach der Vorstellung der 1060 sich deutlich erhöht hätten...den kausalen zusammenhang, dass irgendwer von 1060 reviews entäuscht war und was anderes gekauft hat, gibt es in der aussage nicht.
wie schön, wieder mal rabulistik ...
exakt das hat er in bezug auf die rx480 und die 1060 gesagt. nicht mehr und nicht weniger.[3DC]Payne;5107503 schrieb:Doch, genau das hat er gesagt, dass die Verkäufe der RX480 nach der Vorstellung der 1060 sich deutlich erhöht hätten...
Genau genommen hat er das geschrieben:wie schön, wieder mal rabulistik ...
exakt das hat er in bezug auf die rx480 und die 1060 gesagt. nicht mehr und nicht weniger.
"I guess consumers don't agree with you, I've had to put an order in for more Fury today with Sapphire because the sales exploded when reviews came out.
If it was my personal money I'd take £299 Fury over a £299 1060 and it seems many customers today made that exact same decision.
Today has being a huge success, 100's of 1060's sold, RX-480 sales boosted, Fury deal sales exploded, RX 480 Nitro absolutely exploded and 1070 sales also rocketed."
Er nennt durchaus Zusammenhänge. Und die sind ja auch nicht aus der Luft gegriffen, wenn am Tag an dem 1060 reviewed wurde plötzlich viele Fury verkauft werden. Und ja auch der gute Preis spielt dabei eine Rolle. Aber ein informierter Kunde entscheidet ja gerade darauf basierend. Preis der Fury so gut dass die 1060 unattraktiv ist. Oder Leistung der 1060 in höheren Auflösungen zu schwach => Fury... Egal wie, sofern sich die Kunden einigermaßen informieren sind die Zusammenhänge die du nicht sehen willst durchaus da...
NEO83
Grand Admiral Special
- Mitglied seit
- 19.01.2016
- Beiträge
- 3.900
- Renomée
- 429
- Standort
- Wilhelmshaven
- BOINC-Statistiken
- Mein Desktopsystem
- Kraftprotz
- Mein Laptop
- ASUS TUF A17 @R9 7940HS @RTX4070
- Prozessor
- AMD R7 7800X3D
- Mainboard
- GIGABYTE B650E AORUS Master
- Kühlung
- Noctua NH-D12L
- Speicher
- Corsair Vengeance RGB Kit 32GB, DDR5-6000, CL30-36-36-76
- Grafikprozessor
- PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X
- Display
- MSI MPG Artymis 273CQRDE @WQHD @165Hz
- SSD
- WD_BLACK SN850X 1TB, WD_BLACK SN850X 2TB
- Optisches Laufwerk
- USB BD-Brenner
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design Meshify 2 XL
- Netzteil
- ASUS ROG Loki 1000W Platinum SFX-L
- Tastatur
- Logitech G815
- Maus
- Logitech G502 SE Lightspeed
- Betriebssystem
- Windows 11 64Bit
- Webbrowser
- FireFox
- Internetanbindung
- ▼1,15GBit ▲56MBit
Naja jeder normale Mensch der unvoreingenommen so einen Satz liest oder zuhören bekommt geht davon aus das die Leute von der GTX1060 enttäuscht waren .... und deshalb eine RX480 oder Fury oder direkt ne GTX1070 gekauft haben.
Da man diese Aussage aber nur auf den Shop von OC UK beziehen kann könnte man jetzt dahin gestellt lassen und wird sich wohl nicht auf eine generelle Aussage ausweiten lassen.
Alles andere würde ich erst mal als Spekulation deiner Person erachten. Ich habe aber bei dir eh das Gefühl das das deine Brille zumindest auf einem Auge sehr grün ist, allerdings kann mich mein Gefühl auch täuschen.
Da man diese Aussage aber nur auf den Shop von OC UK beziehen kann könnte man jetzt dahin gestellt lassen und wird sich wohl nicht auf eine generelle Aussage ausweiten lassen.
Alles andere würde ich erst mal als Spekulation deiner Person erachten. Ich habe aber bei dir eh das Gefühl das das deine Brille zumindest auf einem Auge sehr grün ist, allerdings kann mich mein Gefühl auch täuschen.
finde es schon amüsant, eine rabulistische diskussion über so ein foren-posting zu führen.
waren die 1060 verkäufe schlecht? er leitet sein posting mit ... Today has being a huge success, 100's of 1060's sold ... ein. klingt das für dich negativ?
steht da irgendwas davon, dass jemand die eine grafikkarte bevorzugt, weil er die andere schlecht findet?
so, und damit ist das thema für mich erledigt. finde es relativ witzlos, wenn sowas sogar als newsmeldung wie bei gamestar verwurstet wird. was genau ist bitte so besonderes an einem kleinen britischen hardware-händler mit rund 60 mitarbeitern?
hatte ich doch geschrieben ...Er nennt durchaus Zusammenhänge. Und die sind ja auch nicht aus der Luft gegriffen, wenn am Tag an dem 1060 reviewed wurde plötzlich viele Fury verkauft werden.
er spekuliert über zusammenhänge. oder haben die beim kauf eine kundenbefragung durchgeführt?Er nennt durchaus Zusammenhänge.
meinst du, dass Gibbo bei seinem posting wert auf semantik gelegt hat?Naja jeder normale Mensch der unvoreingenommen so einen Satz liest oder zuhören bekommt geht davon aus das die Leute von der GTX1060 enttäuscht waren ....
waren die 1060 verkäufe schlecht? er leitet sein posting mit ... Today has being a huge success, 100's of 1060's sold ... ein. klingt das für dich negativ?
steht da irgendwas davon, dass jemand die eine grafikkarte bevorzugt, weil er die andere schlecht findet?
laut Gibbo sind die rx480 verkäufe nach dem 1060 launch gestiegen. wie die anderer karten auch. was genau ist spekulation meinerseits?Alles andere würde ich erst mal als Spekulation deiner Person erachten.
wie ist denn deine brille gefärbt, wenn du aus diesem satz entnimmst, dass die leute entäuscht waren? oder ist das vielleicht eine spekulation deinerseits? natürlich ganz unvoreingenommen.Naja jeder normale Mensch der unvoreingenommen so einen Satz liest oder zuhören bekommt geht davon aus das die Leute von der GTX1060 enttäuscht waren ....
so, und damit ist das thema für mich erledigt. finde es relativ witzlos, wenn sowas sogar als newsmeldung wie bei gamestar verwurstet wird. was genau ist bitte so besonderes an einem kleinen britischen hardware-händler mit rund 60 mitarbeitern?
Zuletzt bearbeitet:
NEO83
Grand Admiral Special
- Mitglied seit
- 19.01.2016
- Beiträge
- 3.900
- Renomée
- 429
- Standort
- Wilhelmshaven
- BOINC-Statistiken
- Mein Desktopsystem
- Kraftprotz
- Mein Laptop
- ASUS TUF A17 @R9 7940HS @RTX4070
- Prozessor
- AMD R7 7800X3D
- Mainboard
- GIGABYTE B650E AORUS Master
- Kühlung
- Noctua NH-D12L
- Speicher
- Corsair Vengeance RGB Kit 32GB, DDR5-6000, CL30-36-36-76
- Grafikprozessor
- PNY GeForce RTX 4080 XLR8 Gaming Verto Epic-X
- Display
- MSI MPG Artymis 273CQRDE @WQHD @165Hz
- SSD
- WD_BLACK SN850X 1TB, WD_BLACK SN850X 2TB
- Optisches Laufwerk
- USB BD-Brenner
- Soundkarte
- Onboard
- Gehäuse
- Fractal Design Meshify 2 XL
- Netzteil
- ASUS ROG Loki 1000W Platinum SFX-L
- Tastatur
- Logitech G815
- Maus
- Logitech G502 SE Lightspeed
- Betriebssystem
- Windows 11 64Bit
- Webbrowser
- FireFox
- Internetanbindung
- ▼1,15GBit ▲56MBit
Meine Brille hat an sich keine Farbe weder beim Prozessor noch bei der Grafikkarte, ich kaufe das für mich beste Produkt für mein Geld.
Ich wollte auch erst ne Pascal Karte kaufen aber ich war von den Features sehr enttäuscht und habe die Karte für mich als nicht zukunftssicher eingestuft weil die DX12 Leistung für den popo ist, auch unter Vulkan ist Pascal eher schlecht im Vergleich zur direkt Konkurenz.
Ich Betreibe zuhause sogar 3 nVidia Karten und nur eine AMD Karte und alle wurden aus Preis/Leistungssicht gekauft.
Zudem hat keiner behauptet das es keine Verkäufe der GTX1060 gab sondern nur das der Test die Verkäufe anderer Karten zusätzlich angekurbelt hat woraus man aus dem Kontext schließen kann das viele die bei OC UK kaufen scheinbar von der Karte enttäuscht waren zumal es bei der Aussage ja auch nicht darum ging von NV enttäuscht zu sein sondern im speziellen von der 1060
Ich wollte auch erst ne Pascal Karte kaufen aber ich war von den Features sehr enttäuscht und habe die Karte für mich als nicht zukunftssicher eingestuft weil die DX12 Leistung für den popo ist, auch unter Vulkan ist Pascal eher schlecht im Vergleich zur direkt Konkurenz.
Ich Betreibe zuhause sogar 3 nVidia Karten und nur eine AMD Karte und alle wurden aus Preis/Leistungssicht gekauft.
Zudem hat keiner behauptet das es keine Verkäufe der GTX1060 gab sondern nur das der Test die Verkäufe anderer Karten zusätzlich angekurbelt hat woraus man aus dem Kontext schließen kann das viele die bei OC UK kaufen scheinbar von der Karte enttäuscht waren zumal es bei der Aussage ja auch nicht darum ging von NV enttäuscht zu sein sondern im speziellen von der 1060
kannst du gerne daraus schließen. steht da nur nicht. ist DEINE interpretation.woraus man aus dem Kontext schließen kann das viele die bei OC UK kaufen scheinbar von der Karte enttäuscht waren
den größten schwachsinn hat sich übrigens pcgh vor ein paar tagen zusammengereimt.
http://www.pcgameshardware.de/Nvidi...s/Overclockers-UK-GTX-1060-Verkaeufe-1202290/
und das nennt sich dann journalismus.
so ... ende ...
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 610
- Aufrufe
- 46K
- Antworten
- 1K
- Aufrufe
- 70K
- Antworten
- 0
- Aufrufe
- 563
- Antworten
- 2K
- Aufrufe
- 112K