NVIDIA - Pascal

IMHO sind 30cm Wafer derzeit aktuell, nicht 20cm.

Stimmt, was die Produktion betrifft.
Allerdings werden Abschätzungen jeglicher Art im im Foundry-Geschäft immer mit sogenannten 200mm-Äquivalenten durchgeführt, damit die Daten über die verschiedenen Produktionsstätten hinaus vergleichbar sind. Insofern sind auch bei der 300mm Produktion nur Zahlen für 200mm-Äquivalente zu bekommen.
Deshalb geht die Abschätzung so in Ordnung.
MfG
 
Nein. Ich habe ja nicht gesagt, dass AMD da überall überlegen wäre. Genauso wenig wie Nvidia. Mal davon abgesehen macht es keinen Sinn, sich an einzelnen Features wie ROV aufzuhängen. Ich sehe es im Grossen und Ganzen. Und so war auch meine Aussage gemeint. Im Moment spricht vermeintlich nur Perf/Watt unter Spielen für Nvidia.
Ich habe mehrere Dinge aufgelistet, wenn du behauptest AMD ist fast überall von der Architektur überlegen, kannst du das natürlich näher spezifizieren, aber es gibt mehrere Stichpunkte die man für Nvidia nennen kann und einige wie die Perf/Watt sind sehr entscheidend für viele Marktfelder.
Fast überall überlegen kann AMDs Architektur deswegen aus meiner Sicht nicht sein.

Ansonsten sehe ich nichts was für Nvidia spricht. Perf/Watt unter Computing spricht für AMD.Unterstützung neuer Speichertechnologien spricht für AMD, siehe HBM.
Bessere Unterstützung von neuen APIs spricht für AMD. Daran ändert auch ROV zB nichts. BQ spricht für AMD wie man anhand diverser In-Game Videovergleiche immer wieder sehen kann. Ob Nvidia absichtlich weniger Details rendert, um künstlich die FPS zu erhöhen, oder die Hardware einfach nicht mehr hergibt, sei mal dahingestellt. Der Softwaresupport spricht für AMD. Sachen wie TressFX sind nicht nur offen, sondern auch effizient implementiert. Das kann man von GameWorks zB nicht sagen. Wenn man sich insgesamt den Funktionsumfang bei AMD anschaut, von Eyefinity über TrueAudio bis hin zu VR, ich sehe da ein besseres Gesamtpaket als bei Nvidia. Was ich aber nicht sehe ist ein Nachweis, dass Nvdia besser bei DCC wäre. Oder willst du nur wieder irgendwelche nichtssagenden Balkendiagramme bringen, die maximal zeigen, dass Nvidia verhältnismässig schlecht bei Schwarzkompression ist? :] Ähnliches gilt für Tessellation. Was soll denn da für sie sprechen? Nvidia kann lediglich besser übertessellieren. Geschenkt, weil's niemand wirklich braucht.
Du hast einige Punkte genannt, die auch nur einen Vorteil darstellen, wenn sie effektiv auch etwas nützen.
- Wie gut ist denn die Perf/Watt bei Compute unter GCN vs. Maxwell/Pascal?
Ich habe leider keine Zahlen diesbezüglich.
- Unterstützung neuer Speichertechnologien, so wie GDDR5X? :P
Spaß beiseite, aber HBM spricht natürlich auch nur für AMD wenn es effektiv etwas nützt.
Bei der Fiji konnte AMD damit nur mit der Nano glänzen und der GP100 wird ebenso mit HBM ausgestattet sein, wofür Nvidia schon die Specs verkündet hat, den groben Auslieferungszeitpunkt und den ersten Abnehmer.
Was wissen wir von Vega außer einem vermutlich frühen 2017 Release?
- Bessere Unterstützung von neuen APIs würde ich ich in vielen Fällen anders beschreiben, größerer bzw. überhaupt ein Vorteil von neueren APIs.
- In-Game Vergleiche bei welchen Spielen, die welche Aussagekraft haben und wo und wieso auftreten?
- Man definiere Softwaresupport, aber das ist eine Stelle wo mir AMDs Entwicklung ziemlich gefällt.
Die Boltzmann-Initiative, die Radeon-Settings, Wattman, der neue Linux-Kernel-Treiber und DAL, alles sehr gute Fortschritte.
Aber liegt AMD deswegen in entscheidenden Szenarien vorne?
- TressFX spricht nicht pro AMD, jedenfalls nicht wenn mir die Idee dahinter egal ist. Genauso wie GameWorks nicht für Nvidia spricht, wenn das ganze auch unter AMDs GPUs effizient läuft.
Wenn es das nicht tut und mir der optische Effekt gefällt, dann muss man das ganze näher betrachten.
- Du meinst verhältnismäßig wesentlich besser, die schwarze Textur stellt den optimalen Fall für eine Kompression dar und die Verschiedenfarbige, wenn sie praktisch nichts komprimieren kann.
Das Delta ist bei Nvidia wesentlich größer, als bei AMD.
Aber nein, ich kann dir isoliert nicht beweisen das Nvidias DCC unter allen Umständen besser funktioniert als die von AMD.
- Das bessere Geometrie-Frontend hilft übrigens nicht nur bei Tessellation, sondern eben beim allgemeinen Dreiecksdurchsatz.

Aufgrund der Vergleiche, die ich mir bisher angeschaut habe, scheint Pascal bei Computing teilweise sogar langsamer als Maxwell zu sein bzw im Vergleich zu Spielen weniger zuzulegen. Im Luxmark Test hier ist die GTX 1080 Simple/Complex zB 20/45% schneller als eine GTX 980, obwohl es bei Spielen im Schnitt etwa 60% sind. Also ich sehe da noch lange nicht, wo Pascal etwas bei Computing verbessert haben soll.
Man kann nicht proportional zur Rechenleistung zulegen, wenn die Bandbreite nicht um den selben Faktor wächst, dass ist eine Feststellung die du genauso bei Tonga und Polaris 10 machen kannst, weil im Gegensatz zu Spielen die DCC die effektive Bandbreite nicht verbessern kann.
Und da wir von Architekturen geredet haben, dachte ich auch viel mehr an genau diese Verbesserungen.
Ein wirklich großer Sprung ist hierbei der GP100, andere Shader-Cluster, unified memory, atomic add instructions und HBM2 (neben FP16-Operationen) und eine schnellere Pre-Emption.
Die Pascal-GPUs für die Konsumenten werden mit anderen Shader-Clustern bedient, ebenso fehlt der hohe FP16/FP64-Durchsatz.
Ich weiß nicht, ob ebenso der unified memory oder die atomic add instructions fehlen.

Wieso? Damit sie Nvidia architektonisch noch weiter davonziehen?
Das wäre ja ganz schlecht für AMD. xD

Im Moment ist erst mal Nvidia wieder unter Zugzwang. Polaris verkauft sich anscheinend prächtig. Das zählt vor allem für AMD, Absätze und Marktanteile bei dGPUs wieder zu steigern. Mit Glofo hat man auch genügend Kapazitäten. Die hat Nvidia bei TSMC nicht. Und keine Sorge, AMD wird schon zusehen, Nachfolgeprodukte beizeiten auf den Markt zu bringen. Womöglich kommt Vega früher als es Nvidia lieb ist.
Duh, Nvidia hat schon eine ordentliche Stückzahl vom GP104 abgesetzt, mit Nvidia typischer Marge.
Marktanteile sind wichtig, aber AMD muss es auch schaffen einen guten Gewinn in Relation zu behalten.
P10 hat jedenfalls nicht wie anfangs spekuliert Monate bis gar zwei Quartale Vorsprung gegenüber der Konkurrenz.
Nvidia hat jetzt zwei Chips auf dem Markt und 3 Produkte, AMD bisher nur einen Chip und nur ein Produkt basierend darauf.
Ohne Vega lässt AMD auch ein Marktfeld lange Zeit unbesetzt, stellt sich die Frage wie lange Nvidia für den GP107/8 braucht, hat hier wenigstens der P11 einige Monate freies Spiel?

Und wie wir seit Heute erfahren haben, geht der GP102 und damit der dritte Chip und das insgesamt vierte Produkt ab dem 2. August in den Verkauf.

In welchen Bereichen haben sie denn seit GCN überholt? Ich sehe da ehrlich gesagt nichts. Ich sehe nur, dass sie sich in den letzten Jahren voll auf DX11 Gaming konzentriert haben. Dafür sind sie in allen anderen Bereichen stagniert oder weiter zurückgefallen, wie bei Konsolen, DX12/Vulkan oder Computing.
Sie haben bei der Perf/Watt klar und deutlich überholt.
Die Architektur ist von den Funktionen auch wesentlich nach vorne gesprungen, dass kann man von GCN nur begrenzt behaupten.
GCN war abseits vom Front-End ein technisch großer Schritt nach vorne und Führer in vielen Bereichen, seitdem hat sich dort aber nicht wesentlich etwas verändert.
In Relation dazu hat Nvidia mit Maxwell und Pascal stark aufgeholt.
Bessere Compute-Performance, bessere atomic-performance, cross-lane-operations, bessere Pre-Emption, Conservative Rasterization, Volume Resources, ROVs, Viewport Multicasting, DCC in der dritten und vierten Generation, flexiblere AA-Programmierung, ein hybrider Immediate/Tile-Renderer.
Kepler hatte wie seit Fermi ein sehr robustes Geometrie-Frontend und die Perf/Watt war in Ordnung, aber die praktische Compute-Leistung ist schlecht, die cache-struktur ineffizient, es gab so vieles wo Nvidia gegenüber GCN deutlich aufzuholen hatte und sie haben es an vielen Fronten auch getan.

So gross nun auch wiederum nicht. Und wenn sie Unmengen davon in den Sand setzen, wie mit Tegra oder Shield, dann schmilzt das effektive R&D Budget deutlichst. Ausserdem denke ich, dass AMD trotz im Moment weniger R&D Budget einiges an signifikanten Vorteilen hat. Wie zB CPU Know-How, welches auch in die GPU-Entwicklung einfliesst.
Es schmilzt aber nicht auf AMDs-Niveau.
Das CPU Know-How gibt es bald seit einem Jahrzehnt und es ist auch schon seit GCN mit eingeflossen und wieder einmal bei Polaris, aber den Sieg trägt AMD deswegen nicht davon.

Auf Augenhöhe? Warum sollte sich AMD zurückentwickeln? Ergibt doch gar keinen Sinn. Ich tippe eher darauf, dass man mit Vega und Navi architektonisch weiter vorangehen wird.
Das bleibt doch sehr zu hoffen, denn die Schritte die AMD von Generation zu Generation gemacht hat sind zu klein um mit der Konkurrenz weiterhin Schritt zu halten, außer Nvidia hat vor wesentlich langsamer zu werden.

Das ist aber nur deine Meinung. Zerplatzte Träume sehe ich bei Nvidia nicht weniger.
Wie lange ist eig. Nvidia schon in einer ganz schlechten Position?
Spätestens seit AMD ATI aufgekauft hat oder?
Wo ganz viel Know-How von zwei spezialisierten Unternehmen zusammen trifft, wo AMD jetzt alles aus einer Hand liefern kann, der mobile Sektor gehört AMD und Intel, Nvidia wird ausgeschlossen.
AMD gewinnt die Konsolen-Deals, jetzt sieht es düster für Nvidia aus, wenn jeder Programmierer für GCN entwickelt, etc.

Seit 10 Jahren hört und hofft man, ich selber habe viele Jahre positive Ausblicke für AMD gepflegt, effektiv ist daraus nur in wenigen Fällen etwas geworden.
Nvidia hat dagegen Umsatz- und Gewinnzahlen von Quartal zu Quartal feiern können.

In den Sand gesetzt hat Nvidia ihre Smartphone-Pläne mit der Tegra-Sparte und dem Modem-Aufkauf.
Denver ist auch kein CPU-Meilenstein geworden, aber eine CPU wird für Nvidia in Zukunft sehr wichtig sein.

[...]
Renderperformance lässt sich nicht alleine an den FLOPS ablesen. Die GTX 1060 besitzt zB 50% mehr ROPs. Ich persönlich würde sagen, alte APIs (<=DX11 / OpenGL) sind mehr von TMUs und ROPs abhängig, bei neuen APIs (DX12 / Vulkan) kommen hingegen auch die FLOPS besser zur Geltung.
Effektiv sind es in vielen Fällen auch nur 32 ROPs.
Wenn das Frontend pro Takt nur bis zu 32 Pixel liefern kann, nützt es einem nicht viel wenn das Backend bis zu 48 verarbeiten kann.
 
Zuletzt bearbeitet:
Also wenn NV erstmal in fahrt kommt kommt auch eine Karte nach der anderen hm :D


NVIDIA präsentiert die GeForce GTX Titan X


einerseits find ich das echt gut andererseits enteilt man AMD doch sehr aber der Preis ist doch schon wieder Extrem ... 1200$ also in DE wohl eher 1500-1600€
 
Ich frage mich seit wann aus 1.200 Doller 1500 € geworden sind. Der Dollar steht doch bei 1,15$/€ also bekomme ich für einen € 1,15 $. Entweder sind die Preise traditionell ohne Steuern (Keine Ahnung wie hoch die Steuern in den USA sind) oder es kommen wahnsinnige Zölle oben drauf.
 
Die Preise in den USA SIND ohne Steuern angegeben, weil jeder Bundesstaat unterschiedliche Steuersätze hat. Macht für DE dann ~1245€ (inkl 19% Steuer) + evtl. Zoll + nennen wir es mal "Europaaufschlag" ;-)
 
Was mir gerade noch eingefallen ist, wurde nicht mal irgendwo gesagt das die 1080Ti und die Titan X mit HBM2 kommen sollten ?
 
Was mir gerade noch eingefallen ist, wurde nicht mal irgendwo gesagt das die 1080Ti und die Titan X mit HBM2 kommen sollten ?
Es gab mehrere Gerüchte dazu. Die einen behaupten HBM2 die anderen GDDR5X. Ich gehöre seit dem ersten Pascal Launch (P100) zur Fraktion deren die davon aussgeht, dass der erste Pascal Big Chip im Consumer Markt mit GDDR5x kommt und der zweite dann mit HBM2, sehr wahrscheinlich direkt als Konter zu VEGA mit HBM2. Also kurz vor VEGA oder kurz danach. Wie die Karte genau heißt, nunja ist ja eigentlich egal oder?

Da Nvidia aktuell keinen Konkurrenzdruck in dem Segment hat ist es ja nachvollziehbar. Die machen das notwendigste und versuchen natürlich die Kosten im Zaum zu halten. Dann können sie in Ruhe absahnen und wenn dann Konkurrenzdruck aufkommt wird nachgelegt. Typische Salamitaktik halt. Das erzeugt auch immer einen gewissen Aufrüstdruck. GTX1080 Käufer werden keinen aktuellen GP102 mit GDDR5X kaufen Aber sie kaufen dann eventuell in 7 bis 9 Monaten den Nachfolger. Das hat doch was :)
 
Auch wenn es der falsche Thread dafür ist, ich hoffe sehr sehr inständig das die AMD Karten gleich schnell und günstiger sind oder schneller und günstiger und zwar nicht weil AMD nen billig Anbieter sein soll/muss, sondern weil die aktuell aufgerufenen Preise eine Frechheit sind ... mir ist aber klar das solange NV da oben alleine werkelt sie die Preise nicht anpassen müssen
 
Es sind keine schlechten Produkte und beim besten willen auch nicht langsam, sie sind aber halt nur Stand heute was die Features angeht und nicht stand morgen so wie man es erwarten könnte bei einem so teuren Produkt, zumal der günstigere anbieter die Features von morgen schon mit an Board hat.
die meisten käufer informieren sich über die leistung eines system heute. die kaufen kein versprechen (speziell aus der community, nicht mal so sehr von amd selbst), dass ein hersteller die ps seiner überlegenen architektur irgendwann, irgendwie in irgendeinem szenario so gut auf die straße bringt, dass sich das leistungsbild komplett dreht.

da stellt sich nämlich unweigerlich die frage, warum sie die leistung nicht schon heute auf die straße bringen. und den punkt dx12 kann man sich da auch gerne schenken, denn diese argumentation gibt es nun schon seit vielen jahren, da war dx12 noch nicht mal angedacht.

Auch wenn es der falsche Thread dafür ist, ich hoffe sehr sehr inständig das die AMD Karten gleich schnell und günstiger sind oder schneller und günstiger und zwar nicht weil AMD nen billig Anbieter sein soll/muss, sondern weil die aktuell aufgerufenen Preise eine Frechheit sind ... mir ist aber klar das solange NV da oben alleine werkelt sie die Preise nicht anpassen müssen
was nvidia im highend-bereich veranstaltet, kann amd aktuell nicht beeinflussen. positiv darf man wahrscheinlich bewerten, dass nvidia kurz- und mittelfristig seine karten auf den tisch gelegt hat. nvidia hat sein pulver erstmal verschossen und zeigt vor allem sehr deutlich den willen, die kunden zu melken.
 
Jetzt mal Butter bei die Fische: Genau wieviele normale Käufer der Zielgruppe "Ich brauche eine separate leistungsfähige Grafikkarte" nutzen single oder double precision Computing auf einer Grafikkarte?
Wir diskutieren über technische Aspekte. Wer was will oder nicht ändert doch nichts daran, was die Chips können oder nicht. Nvidia hat ihre Chips halt voll auf DX11 Gaming zugeschnitten. Schön, können sie doch. Aber hört auf von technischer Meisterleistung oder ähnlichem Quark zu phantasieren, wenn den Chips abseits davon schnell die Puste ausgeht.


Ich habe nicht nur ROVs erwähnt ...
Ändert an meiner Aussage trotzdem nichts.

Das sind jetzt eine Menge Sachen die teilweise effektiv nicht direkt einen Vorteil darstellen.
Stimmt. Ich sagte doch, Übertessellieren kann man Nvidia nicht anrechnen. Weil's einfach kein Vorteil ist. Ausser man steht auf mehr FPS in weltfremden Benchmarks.

aber HBM spricht natürlich auch nur für AMD wenn es effektiv etwas nützt.
Bei der Fiji konnte AMD damit nur mit der Nano glänzen.
HBM hat allen Fijis genutzt. Bei der Nano war's nur am offensichtlichsten, weil die am Effizienz-Sweetspot lag.

In-Game Vergleiche bei welchen Spielen, die welche Aussagekraft haben und wo und wieso auftreten?
Gab so einige Vergleiche in den letzten 2 Jahren. Wurde immer wieder von den Nvidia Verfechtern weggeredet. Bringt nur nichts, wenn die schlechtere BQ der Geforces mit blossem Auge erkennbar ist. Wie bei einem der jüngeren Vergleiche anhand von AotS. Und wieso die auftreten, keine Ahnung. Da musst du Nvidia fragen. Für sie spricht es aber definitiv nicht. ;)

TressFX spricht nicht pro AMD, jedenfalls nicht wenn mir die Idee dahinter egal ist. Genauso wie mir als AMD Nutzer GameWorks egal ist, wenn es ebenso gut funktioniert.
TressFX war lediglich ein Beispiel. Es geht um die Implementierung, da diese effizient ist. Und natürlich spricht das für AMD. Denn je effizienter der Softwaresupport, desto besser läuft meine oder deine Karte. GameWorks läuft ja noch nicht mal auf Geforces effizient. :]

- Du meinst verhältnismäßig wesentlich besser, die schwarze Textur stellt den besten Fall dar, wenn die Kompression optimal arbeiten kann.
Das Delta ist bei Nvidia wesentlich größer, als bei AMD.
Nein, ich meine es so wie ich es geschrieben habe. Das Delta sagt gar nichts, wenn die Schwarzkompression bei Nvidia eben so schlecht ist. Da müsstest du erst mal eine Geforce dagegen stellen, die die gleiche theoretische Bandbreite besitzt und den gleichen Durchsatz bei Schwarzkompression erreicht. Dann könntest du die Deltas vergleichen. So ist das einfach nur wieder Kategorie Äpfel und Birnen.

Das bessere Geometrie-Frontend hilft übrigens nicht nur bei Tessellation, sondern eben beim allgemeinen Dreiecksdurchsatz.
Wo ist das denn besser und wie definiert sich besser in diesem Kontext? Da "glänzt" Nvidia doch maximal mit Quantität. Ist das gleiche wie mit ROPs, TMUs oder theoretischer Bandbreite. Viel hilft nicht immer viel, wenn das richtige Balancing der Schlüssel ist. Wenn ein Teil der ROPs oder des Speicherinterfaces bei Nvidia mitunter nicht voll genutzt werden kann, dann muss man sich schon fragen, was da vielleicht nur halbherzig konzipiert wurde. Es wäre für AMD ein leichtes, den Geometriedurchsatz zu steigern. Einfach mehr Shader Engines und weniger CUs pro Shader Engine. Nur wozu, wenn der erhöhte Geometriedurchsatz die meiste Zeit ins Leere läuft?

Geht auch schwer ohne die passende Bandbreite, was bei Tonga und Polaris 10 ebenso der Fall ist.
Ich könnte ja jetzt die typischen Ausreden der Nvidia Verfechter bringen, "das interessiert Käufer nicht" oder "es zählt nur was hinten rauskommt". :] Aber da wir über die Technik reden, sparen wir uns diesen Kindergarten und diskutieren konstruktiv.

Du kannst gerne Computing-Vergleiche mit mehr Bandbreite abwarten oder suchen. Bis dahin halte ich es für verfrüht zu behaupten, mit Pascal hätte man sich in diesem Bereich erwähnenswert verbessert.

Duh, Nvidia hat schon eine ordentliche Stückzahl vom GP104 abgesetzt, mit Nvidia typischer Marge.
Nur mit GP104 werden sie ihre Marktanteile aber nicht halten können. Ausserdem fragt sich, ob Nvidia die Lieferengpässe bei TSMC auf absehbare Zeit in den Griff bekommt.

P10 hat jedenfalls nicht wie anfangs spekuliert Monate bis gar zwei Quartale Vorsprung gegenüber dem GP106.
Wenn AMD Polaris, wie Nvidia mit Pascal, schon vor der Marktreife rausgehauen hätte, und die höheren Kosten den Kunden aufgedrückt hätte, dann wäre man mindestens 2-3 Monate früher dran gewesen. Das sollte man nicht einfach totschweigen.

Nvidia hat jetzt zwei Chips auf dem Markt und 3 Produkte, AMD bisher nur einen Chip und nur ein Produkt basierend darauf.
Keine Sorge, der zweite Chip und zwei weitere Produkte basierend auf Polaris folgen in Kürze.

Sie haben bei der Perf/Watt klar und deutlich überholt.
Nein, haben sie nicht. Bei der Computing Perf/Watt liegen sie nach wie vor zurück, DX12 / Vulkan Perf/Watt dürfte sich nicht viel nehmen. Nur bei der DX11 Gaming Perf/Watt liegen sie vorne. Das war aber schon bei Kepler so. Da musste also nirgendwo überholt werden. Ausserdem würde ich erst mal noch die RX 470 abwarten. Womöglich ist der Vorsprung dann alles andere als "deutlich". Es sollte bekannt sein, dass die RX 480 nicht auf Energieeffizienz, sondern auf Verfügbarkeit getrimmt ist. Die RX 470 soll laut AMD mehr auf Energieeffizienz getrimmt sein.

Die Architektur ist Featuremäßig auch wesentlich nach vorne gesprungen, dass kann man von GCN nur begrenzt behaupten.
Featuremässig ist GCN deutlich noch vorne gesprungen seit GCN1. Nvidias Architektur hat da in der gleichen Zeit ganz gewiss keinen grösseren Sprung gemacht.

GCN war abseits vom Front-End ein technisch großer Schritt nach vorne und Führer in vielen Feldern, seitdem hat sich dort aber nicht wesentlich etwas verändert.
In Relation dazu hat Nvidia mit Maxwell und Pascal stark aufgeholt.
Nicht wirklich. Das Design wurde umgestrickt, um die Auslastung effizienter zu gestalten. Das ist richtig. Stichwort Balancing. An der Architektur selbst wurde aber nur wenig weiterentwickelt. Von Maxwell v1 auf v2 gab es einige deutliche Änderungen. Das war's dann aber auch. Wenn du schon so argumentierst, dann solltest du auch nicht unter den Tisch kehren, dass AMD das Frontend deutlich überarbeitet hat seit GCN1. Und mit GCN4 wurden auch die Shader deutlich überarbeitet. Meiner Ansicht nach ist der architektonische Sprung von GCN1 auf GCN4 grösser als der von Kepler auf Pascal. Aber das kann ja jeder sehen wie er will. Nur zu behaupten, Nvidia hätte in diversen Bereichen überholt, ist Quark. In den wenigen Bereichen, wo sie jetzt noch vorne sind, da waren sie auch schon mit Kepler vorne. In den restlichen Bereichen hat sich relativ wenig getan. Bzw wird erst jetzt richtig sichtbar, wie sehr sie da zurückliegen, siehe DX12 / Vulkan.

Es schmilzt aber wohl kaum auf AMDs-Niveau, die noch Zen/K12 und eine APU-Palette pflegen müssen.
Na dann bringe doch einfach mal ein paar Zahlen zu AMDs und Nvidias GPU R&D Budget. Alles andere führt doch zu nichts.

Das CPU Know-How gibt es bald seit einem Jahrzehnt und es ist auch schon seit GCN mit eingeflossen und wieder einmal bei Polaris, aber den Sieg trägt AMD deswegen nicht davon.
Aber noch weniger Nvidia.

Das bleibt doch sehr zu hoffen, denn die Schritte die AMD von Generation zu Generation gemacht hat, sind zu klein um mit der Konkurrenz Schritt zu halten, wenn sie nicht wesentlich langsamer wird.
Falsch. Nvidias Schritte sind im Moment deutlich kleiner. Pascal ist bisher quasi nicht mehr als ein Maxwell Shrink. GCN4 ist hingegen eine deutliche Weiterentwicklung gegenüber GCN3. Und ich befürchte aus Sicht von Nvidia, dass Vega (GCN5?) ein ähnlicher Schritt nach vorne wird. Nvidia wird dann wohl erst wieder mit Volta kontern können. Dann dürfte aber auch schon der Vega Nachfolger, Navi, am Start sein.

Wie lange ist eig. Nvidia schon in einer ganz schlechten Position?
AMD hat ATI gekauft, ganz viel Know-How trifft zusammen. Oh AMD kann alles aus einer Hand liefern, der mobile Sektor gehört AMD und Intel, Nvidia ist ausgeschlossen.
Oh AMD ist in den Konsolen, dass wird ganz übel für Nvidia aussehen wenn alle Entwickler auf GCN programmieren.
Ich meine gehört hat man über die 10 Jahre schon sehr vieles, ich selber habe viele male positiv bezüglich AMD spekuliert, effektiv ist leider daraus nur in wenigen Fällen etwas geworden.
Nvidia dagegen hat Umsatz- und Gewinnzahlen von Quartal zu Quartal gefeiert.
Was einzig und allein daran liegt, dass sie nochmals ordentlich in 28nm investiert haben. Während AMD bereits auf 20nm gehen wollte, woraus aber nichts wurde. Daher wurden viele 20nm Designs bei AMD gecancelt. Einzig Fiji hat es noch auf den Markt geschafft, allerdings auch nur in 28nm. Das hat Nvidia natürlich in die Karten gespielt. Und deshalb haben sie in den letzten 2 Jahren guten Umsatz gehabt. Man sollte aber auch mal begreifen, dass das nur eine temporäre Erscheinung war und diese Zeiten jetzt vorbei sind. AMD hat wieder eine ganze Reihe neuer Designs am Start. Selbst wenn diese die Geforces nicht wegpusten, sie werden Nvidia ordentlich Absatz und damit auch Gewinn kosten. Dafür muss man kein Prophet sein. Intel macht im professionellen und mobilen Umfeld genauso Druck auf Nvidia. Und abseits von dGPUs hat Nvidia eben kein weiteres wirtschaftliches Standbein. Daher sehe ich sie schon mittelfristig in keiner guten Position.

Effektiv sind es in vielen Fällen auch nur 32 ROPs.
Das mag stimmen. Ändert ja trotzdem nichts daran, dass man FPS nicht nur an den FLOPS ablesen kann.
 
Auf Gamestar gelesen, dass das Review der 1060er dazu geführt hat, dass vor allem viele andere Karten gekauft wurden. Unter anderem Fury und 1070er. Quelle war ein Shop aus England.
 
interessant, das ist überraschend, ehrlich gesagt. Die 1060 sieht ja nach den Reviews besser aus als alle anderen Karten. Aber offensichtlich haben die Käufer andere Prioritäten als der durchschnittliche Reviewer denkt.

Man müßte mal Umfragen unter den Käufern machen, warum sie ihre Kaufentscheidung so und nicht anders getroffen haben.
 
den kausalen zusammenhang, dass irgendwer von 1060 reviews entäuscht war und was anderes gekauft hat, gibt es in der aussage nicht. die 1060 hat sich gut verkauft, die rx480 hat sich gut verkauft und die 1070 auch (ist ohne absolute zahlen eh alles relativ). die verkäufe der fury waren auch gut, denn die fury-karten waren bei overclockers zuletzt häufiger mal für 299 pfund im angebot.

wenn man denn einen zusammenhang konstruieren möchte, dann wohl eher den, dass kunden für 299 pfund doch eher zu einer fury greifen als zu vergleichbar teuren mittelklasse-karten.

--- Update ---

wenn du diese gamestar meldung meinst ...

http://www.gamestar.de/hardware/gra...kel/nvidia_geforce_gtx_1060,1005,3276238.html

schon lustig, was die aus so einem kurzen beitrag im oc-forum konstruieren. mit allerlei eigenen mutmaßungen. hauptsache man bekommt die webseite mit irgendwas voll. :]
 
Bei diesem Overclockersshop muss man vorsichtig sein, die erzählen viel Zeug, wenn der Tag lang ist, wie auch der Benchmarkleak der 1420MHz-Nitro...
 
wie schön, wieder mal rabulistik ...

[3DC]Payne;5107503 schrieb:
Doch, genau das hat er gesagt, dass die Verkäufe der RX480 nach der Vorstellung der 1060 sich deutlich erhöht hätten...
exakt das hat er in bezug auf die rx480 und die 1060 gesagt. nicht mehr und nicht weniger.
 
wie schön, wieder mal rabulistik ...


exakt das hat er in bezug auf die rx480 und die 1060 gesagt. nicht mehr und nicht weniger.
Genau genommen hat er das geschrieben:

"I guess consumers don't agree with you, I've had to put an order in for more Fury today with Sapphire because the sales exploded when reviews came out.

If it was my personal money I'd take £299 Fury over a £299 1060 and it seems many customers today made that exact same decision.

Today has being a huge success, 100's of 1060's sold, RX-480 sales boosted, Fury deal sales exploded, RX 480 Nitro absolutely exploded and 1070 sales also rocketed."

Er nennt durchaus Zusammenhänge. Und die sind ja auch nicht aus der Luft gegriffen, wenn am Tag an dem 1060 reviewed wurde plötzlich viele Fury verkauft werden. Und ja auch der gute Preis spielt dabei eine Rolle. Aber ein informierter Kunde entscheidet ja gerade darauf basierend. Preis der Fury so gut dass die 1060 unattraktiv ist. Oder Leistung der 1060 in höheren Auflösungen zu schwach => Fury... Egal wie, sofern sich die Kunden einigermaßen informieren sind die Zusammenhänge die du nicht sehen willst durchaus da...
 
Naja jeder normale Mensch der unvoreingenommen so einen Satz liest oder zuhören bekommt geht davon aus das die Leute von der GTX1060 enttäuscht waren .... und deshalb eine RX480 oder Fury oder direkt ne GTX1070 gekauft haben.
Da man diese Aussage aber nur auf den Shop von OC UK beziehen kann könnte man jetzt dahin gestellt lassen und wird sich wohl nicht auf eine generelle Aussage ausweiten lassen.

Alles andere würde ich erst mal als Spekulation deiner Person erachten. Ich habe aber bei dir eh das Gefühl das das deine Brille zumindest auf einem Auge sehr grün ist, allerdings kann mich mein Gefühl auch täuschen.
 
finde es schon amüsant, eine rabulistische diskussion über so ein foren-posting zu führen. ;)

Er nennt durchaus Zusammenhänge. Und die sind ja auch nicht aus der Luft gegriffen, wenn am Tag an dem 1060 reviewed wurde plötzlich viele Fury verkauft werden.
hatte ich doch geschrieben ...

Er nennt durchaus Zusammenhänge.
er spekuliert über zusammenhänge. oder haben die beim kauf eine kundenbefragung durchgeführt?

Naja jeder normale Mensch der unvoreingenommen so einen Satz liest oder zuhören bekommt geht davon aus das die Leute von der GTX1060 enttäuscht waren ....
meinst du, dass Gibbo bei seinem posting wert auf semantik gelegt hat?

waren die 1060 verkäufe schlecht? er leitet sein posting mit ... Today has being a huge success, 100's of 1060's sold ... ein. klingt das für dich negativ?

steht da irgendwas davon, dass jemand die eine grafikkarte bevorzugt, weil er die andere schlecht findet?

Alles andere würde ich erst mal als Spekulation deiner Person erachten.
laut Gibbo sind die rx480 verkäufe nach dem 1060 launch gestiegen. wie die anderer karten auch. was genau ist spekulation meinerseits?

Naja jeder normale Mensch der unvoreingenommen so einen Satz liest oder zuhören bekommt geht davon aus das die Leute von der GTX1060 enttäuscht waren ....
wie ist denn deine brille gefärbt, wenn du aus diesem satz entnimmst, dass die leute entäuscht waren? oder ist das vielleicht eine spekulation deinerseits? natürlich ganz unvoreingenommen. ;)


so, und damit ist das thema für mich erledigt. finde es relativ witzlos, wenn sowas sogar als newsmeldung wie bei gamestar verwurstet wird. was genau ist bitte so besonderes an einem kleinen britischen hardware-händler mit rund 60 mitarbeitern?
 
Zuletzt bearbeitet:
Meine Brille hat an sich keine Farbe weder beim Prozessor noch bei der Grafikkarte, ich kaufe das für mich beste Produkt für mein Geld.

Ich wollte auch erst ne Pascal Karte kaufen aber ich war von den Features sehr enttäuscht und habe die Karte für mich als nicht zukunftssicher eingestuft weil die DX12 Leistung für den popo ist, auch unter Vulkan ist Pascal eher schlecht im Vergleich zur direkt Konkurenz.
Ich Betreibe zuhause sogar 3 nVidia Karten und nur eine AMD Karte und alle wurden aus Preis/Leistungssicht gekauft.

Zudem hat keiner behauptet das es keine Verkäufe der GTX1060 gab sondern nur das der Test die Verkäufe anderer Karten zusätzlich angekurbelt hat woraus man aus dem Kontext schließen kann das viele die bei OC UK kaufen scheinbar von der Karte enttäuscht waren zumal es bei der Aussage ja auch nicht darum ging von NV enttäuscht zu sein sondern im speziellen von der 1060 ;)
 
Zuletzt bearbeitet:
Zurück
Oben Unten