R1000 Spekulationsthread

So kann man ein Problem natürlich auch umgehen - es einfach aussitzen. Gäbe es NV nicht, würde ich dir sogar halbwegs Recht geben. Aber die Grünen zeigen seit 2006 (!!!) wie es korrekt mit dem AF geht. Daran muss man sich halt messen.
NV hat auch schon sehr schön demonstriert wie man Dinge über mehr als 5 Jahre hinweg aussitzen kann (z.B. Hardwarefirewall im Chipsatz)
 
Oder ineffiziente Lösungen. Grosse und stromhungrige Chips sitzt Nvidia seit dem G200 nun auch schon mehrere Jahre aus.
 
"Das Spiel The Witcher fordert offenbar von Hause an bilinear gefilterte Mipmaps an, was unter DirectX 9 noch möglich ist, unter DirectX 10 oder 11 aber nicht mehr erlaubt ist."
was ist den daran nicht zu verstehen? hier hat doch wohl der Programierer mist gebaut und nicht der der den Treiber so baut das noch was rauskommt

Dann kommt bei NV als hinten nichts mehr raus? Ziemlich schwache Argumentation.

Mir ists trotzdem egal. Ich seh selbst auf ner XBOX nix flimmern :-)
 
Naja also die Firewall wird mehr Leute getroffen haben als potentielle HD7970 Kunden die unbedingt witcher spielen wollen.
Wenn du 5 aktuelle Titel findest die das betrifft gebe ich die vollkommen recht, aber so ist überspitzt gesagt genauso eine Frechheit, wie das mein gutes altes win2000 Prof nicht den Sandy gescheit nutzen kann.
 
@boxleitnerb
Darauf antworten kann man:
Das spezielle Problem um das es hier geht war offensichtlich nur bei schlechten Umsetzungen bis 2007 relevant. Ich erinnere mich daran, dass ein nettes Spiel namens quake2 schon trilineare Filterung unterstützt hat, aber was solls.
Warum also sollte man in so etwas noch Energie stecken, wenn das Problem inzwischen irrelevant ist, die Behebung aber vielleicht sehr zeitaufwendig? Nur damit man fetischisten zufrieden stellt, die videos in 5facher vergrößerung untersuchen, nur um irgenwo ein flimmern festzustellen, von dem andere nichts gemerkt hätten, wenn ihnen nicht jemand einen 3 Seiten langen Artikel dazu geschrieben hätte und jetzt, um das nachvollziehen zu können in den laden rennen, um sich eine schlechte konsolenportierung zu holen, die aber schon 2007 erschienen ist, um da dann bilineare Filterung auf einer highend-gpu von 2012 einzuschalten und sich dann aufzuregen.
 
Zuletzt bearbeitet:
Irgendwie liest man zum Thema AMD-AF meist Ausflüchte, Relativierungen und dergleichen. Seit 2006. Ja, inzwischen ist es "gut". Belassen wir es dabei.
 
@ Markus Essen Schreiben Denken ist etwas zu viel. Rate was auf der Strecke blieb, der Magen ist jedenfalls voll :P
 
PCGH hat sich das SSAA vorgenommen und dabei die hd7970 mit der gtx580 verglichen:
http://www.pcgameshardware.de/aid,8...X-10-im-Test-Test-des-Tages/Grafikkarte/Test/

Supersample-AA unter DX10/11: Fazit schrieb:
Supersampling ist wie eine schöne Frau: Anspruchsvoll und teilweise unberechenbar - aber, wenn es dann mal läuft, ein echter Mehrwert. In jedem Fall ist es AMD positiv anzurechnen, dass man auf die Nutzerwünsche reagiert. Kommende Treiber werden zeigen, ob die Supersample-Implementierung verbessert wird.
 
@28nm-GPUs für HD77xx und HD78xx:

Auch bei beiden neuen 28nm-GPUs (Cape Verde und Pitcaim) scheint es sich um relativ leistungsfähige GPUs zu handeln. Entsprechend groß dürfte das Die werden. Pitcaim dürfte 2/3 von Tahiti und Cape Verde etwas weniger als 1/2 von Tahiti groß werden, also ca. 240mm² und so 150mm². Will AMD keine kleineren 28nm-GPUs bringen? Soll alles unterhalb von CapeVerde mit alten 40nm-GPUs bedient werden?

Bei Nvidias Kepler scheint das anders zu sein. Von daher verwundert es mich nicht, wenn Nvidia somit große Aufträge für 28nm-GPUs für die Ultrabooks bekommt, bringt Nvidia auch kleinere 28nm-GPUs. Für die Ultrabooks dürfte CapeVerde einfach zu leistungsfähig (eine Klasse zu groß), und die 40nm-GPUs womöglich nicht effizient genug sein. Dann bekäme hier Nvidia gute Aufträge, sodass es mich nicht wundern würde, wenn Nvidia seine 28nm-Kapazitäten anfangs in großem Stile für die GPUs für die Ultrabooks einsetzt und wir womöglich daher so wenig Daten zu GF104/110 erhalten.

Auf der anderen Seite scheinen auch die HD7950 zu zeigen, dass die Tahiti-GPUs für >1100Mhz gut zu sein scheinen. Dann sollten die kleineren das auch ohne Probleme können. Von daher könnte sogar der Pitcaim leistungsmäßig die bisherigen HD6970 überbieten und bis auf die GTX580 fast alle alten Nvidia-Grakas angreifen, oder?
 
@28nm-GPUs für HD77xx und HD78xx:

Auf der anderen Seite scheinen auch die HD7950 zu zeigen, dass die Tahiti-GPUs für >1100Mhz gut zu sein scheinen. Dann sollten die kleineren das auch ohne Probleme können. Von daher könnte sogar der Pitcaim leistungsmäßig die bisherigen HD6970 überbieten und bis auf die GTX580 fast alle alten Nvidia-Grakas angreifen, oder?

Ist das nicht etwa die Situation, die sich alle erwünschen?

Ich finde es super, dass allem Anschein nach unter Beibehaltung der 100W TDP Klasse von Notebooks, man einen vollausgebauten Pitcairn antreffen könnte, mit nur minimal geringeren Taktraten.
 
Will AMD keine kleineren 28nm-GPUs bringen? Soll alles unterhalb von CapeVerde mit alten 40nm-GPUs bedient werden?
Da gibt es doch noch Bobcat Abkömmlinge und Trinity. Für die eigenen CPUs braucht AMD nichts langsameres. NVIDIA wird sich die entsprechenden Chips für Ultrabooks vergolden lassen und damit hat AMD einen Preisvorteil für die Ultrathins mit Trinity. Für die normal Laptops reichen die 40nm GPUs. Ich finde es schon logisch von AMD, dürften damit ihren ASP ordentlich steigern.
 
Ich finde es schon logisch von AMD, dürften damit ihren ASP ordentlich steigern.
Das sehe ich genau so. Die Hersteller haben hier die Wahl eine günstigere AMD APU Version anstatt Intel/Nvidia auf gleichem Leistungsnivaeu herzustellen. Das pusht die CPU Sparte.
 
... Will AMD keine kleineren 28nm-GPUs bringen? Soll alles unterhalb von CapeVerde mit alten 40nm-GPUs bedient werden? ...
Definitiv JA.

Ich war bei dem Pressetermin zur Vorstellung der AMD Radeon 7970 dabei - und es war da nebenläufig die Rede davon, dass die alten 54xx, 64xx, 65xx und 66xx Radeons erst mal am Markt bleiben, so dass da AMD keine 28nm Shrinks davon in Planung hat.

Im Gegenteil - diese decken ganz bequem das unterste und untermittlere Segment ab ... und so nebenbei bleiben da die Preise stabil.

MFG Bobo(2012)
 
@28nm-GPUs für HD77xx und HD78xx:

Auch bei beiden neuen 28nm-GPUs (Cape Verde und Pitcaim) scheint es sich um relativ leistungsfähige GPUs zu handeln. Entsprechend groß dürfte das Die werden. Pitcaim dürfte 2/3 von Tahiti und Cape Verde etwas weniger als 1/2 von Tahiti groß werden, also ca. 240mm² und so 150mm². Will AMD keine kleineren 28nm-GPUs bringen? Soll alles unterhalb von CapeVerde mit alten 40nm-GPUs bedient werden?
Ja. Da das aber eh OEM Lösungen sind, uninteressant. Wer was neues will, soll dann zu Fusion greifen.

Bei Nvidias Kepler scheint das anders zu sein.
Klar, die haben ja auch keine x86 CPU mit iGPU. ;)
 
Definitiv JA.

Ich war bei dem Pressetermin zur Vorstellung der AMD Radeon 7970 dabei - und es war da nebenläufig die Rede davon, dass die alten 54xx, 64xx, 65xx und 66xx Radeons erst mal am Markt bleiben, so dass da AMD keine 28nm Shrinks davon in Planung hat.

Das würde ja nun auch wirklich keinen Sinn ergeben. Aber wie stehts um die üblichen Verdächtigen, die aus den jeweiligen Spitzenmodellen einer Architektur abgeleiteten Modellen der Mittelklasse? Das da was kommt dürfte klar sein, fragt sich nur ob Ende 2012 oder Mitte 2013. Ist vielleicht primär von der Ausbeute im 28nm Prozess abhängig.
 
warum sollte sich amd die mühe mahen schwächere karten zu bauen wenn trinity offenbar eine 7660 an board hat? sollte die bezeichnung wirklich an die leistung heranreichen wäre es wohl sinnlos diese karten nochmals extra anzubieten.
.
.
.
.
schön das jemand mit nem alten prozessor eine neue karte haben mag. ist aber kein argumment.
 
Solange Intel auch Core iSonstwas Prozessoren OHNE integrierter GPU herausbringt - solange gibt es Bedarf auch für AMD/Nvidia Grafikkarten aus dem unteren und mittleren Segment.

Meine Frage lautet daher, ob AMD überhaupt noch so etwas wie eine moderne "Unterklasse" auf den Markt bringen wird. So ganz abgefahren sehe ich den Zug nicht - obgleich zur Zeit die margenträchtigen und zugleich volumenstarken mit den 28nm GPUs anvisiert werden.

Richtig scheint mir die Beobachtung aber auch zu sein, dass AMD, aber auch vor allem Nvidia den Einstiegsbereich mit neuen GPUs ziemlich eingedampft haben. Das war aber auch zu erwarten mit den integrierten Grafik-CPUs des kleinen und großen x86-Giganten.

MFG Bobo(2012)
 
Zuletzt bearbeitet:
Korrigiere mich ruhig wenn ich das falsch sehe - aber ich gehe davon aus das eine intern "halbierte" 7950 mit 256Bit Interface bei Direct X11@FullHD immer noch um Längen besser abschneidet als Trinity.

Dazu kommt das Intel nichts dergleichen zu bieten hat und AMD mit NVIDIA bei den OEMs im Wettbewerb um externe GPUs für Intel Systeme steht.
 
Dazu kommt das Intel nichts dergleichen zu bieten hat und AMD mit NVIDIA bei den OEMs im Wettbewerb um externe GPUs für Intel Systeme steht.
Na, ganz so schlimm sieht es wohl doch nicht aus.
Für den Desktop, etwas Video, Youtoube und Internet Flash Spielchen reichen die integrierten GPUs fast aller Prozessoren.
Bei Trinity reicht es eben auch noch für 3d Games.
Wer wirklich Grafikpower braucht, der braucht dann auch eine Karte für >100€.
Mal davon abgesehen, was brächte eigentlich eine neue 28nm Low End Reihe für Vorteile?
Kleinerer Chip in teurerem Prozeß mit 15W statt 30W Verbrauch? Dazu noch geringe Absatzmengen, weils eh kaum noch einer braucht? Da reichen wirklich noch die alten 5000er und 6000er aus bis die Lager leer sind.
 
In den Ultrabooks ist fast nie eine GPU (glaube genau 1 Modell gesehen zu haben) für den High-End Bereich hat man was in 28nm und für den "billigen Schraddel" reicht auch 40nm.
Dazu kommt noch das man Trinity hat, ich finde es nicht schön kann es aber als Strategie nachvollziehen.
Erstmal besteht kaum ein Grund den eigenen 40nm Produkten im Low-End Konkurrenz zu machen und falls NV wirklich überzeugende Produkte hat kann man immer noch was auf den Markt werfen.
 
Definitiv JA.

Ich war bei dem Pressetermin zur Vorstellung der AMD Radeon 7970 dabei - und es war da nebenläufig die Rede davon, dass die alten 54xx, 64xx, 65xx und 66xx Radeons erst mal am Markt bleiben, so dass da AMD keine 28nm Shrinks davon in Planung hat.

Im Gegenteil - diese decken ganz bequem das unterste und untermittlere Segment ab ... und so nebenbei bleiben da die Preise stabil.

MFG Bobo(2012)

Alles andere würde ja auch keinen Sinn ergeben. Warum sollte AMD Entwicklungskosten in Low-End 28nm Chips stecken, wenn diese für den Kunden keinen großen Vorteil bringen?

In der Vergangenheit wurden neue GPU Generationen immer über alle Segmente hinweg eingeführt, da damit aktuelle Features geboten wurden und sich damit die Entwickler darauf verlassen konnten, dass selbst Low-Cost Geräte ab einem bestimmten Alter z.B. über eine DX10 fähige GPU verfügen. Damit haben die Hardwarehersteller die Akzeptanz von neuen Technologien bei den Entwicklern erheblich beschleunigt. In einem der alten GeForce 7 Developer Manuals steht das auch klipp und klar so drin.

Jetzt fragen wir uns doch einmal, welche Neuerungen eine auf GCN basierte GPU bietet: im High-End höhere Leistung, aber vor allem wichtige Funktionen um GPGPU zu beschleunigen. Wenn wir jetzt die Latenzen einer dedizierten GPU mit ins Bild einbeziehen, dürften die Low-End GPUs keine Zielplattform für GPGPU sein, da die Berechnungen in den meisten Fällen auf der CPU schneller möglich sein werden. Die Auslagerung von Berechnungen auf eine schwache GPU macht nur dann Sinn, wenn ich keinen Aufwand zum Kopieren der Daten benötige, was nur bei den APUs möglich ist.

Welchen Vorteil bringt also die neue Generation GPUs dem Low-End Käufer? Eventuell einen 5W niedrigeren Stromverbrauch. Aber ist das ein Grund Entwicklungskosten in dieses Segment zu stecken und wertvolle 28nm Waferfläche zu verbrauchen? Ich glaube nicht.
 
Hatten wir die detaillierten Daten zu HD77xx/78xx schon?

Falls nicht, hier:

ab März.:
7870: 950Mhz, 256bit mit 1375Mhz, 1408Shader,88TXT, 24ROP, $299
7850: 900Mhz, 256bit mit 1250Mhz, 1280Shader,80TXT, ??ROP, $249
hier: http://news.softpedia.com/news/AMD-...t-March-2012-Says-Leaked-Roadmap-249667.shtml

ab 15.02.:
7770: 900Mhz, 128bit mit 1375Mhz, 896Shader,56TXT, 16ROP, $149
7750: 900Mhz, 128bit mit 1250Mhz, 832Shader,52TXT, 16ROP, $139
hier: http://news.softpedia.com/news/AMD-Radeon-HD-7700-Series-to-Launch-on-February-15-249653.shtml

Wo dürfte eine solche HD7870 performancemäßig landen? Wird es auch davon OC-Versionen geben?
 
Zurück
Oben Unten