News AMD Radeon HD 7000 sind kompatibel zu Microsoft DirectX 11.2 [Update: Treiber verfügbar]

Dr@

Grand Admiral Special
Mitglied seit
19.05.2009
Beiträge
12.791
Renomée
4.066
Standort
Baden-Württemberg
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
AMD hat offiziell bestätigt, dass die aktuelle Grafikkartenserie Radeon HD 7000 mit GCN-Architektur bereits hardwareseitig vollständige Unterstützung für DirectX 11.2 bietet. Jene Iteration der DirectX-Programmierschnittstelle wird Microsoft mit dem Start von Windows 8.1 exklusiv für dieses Betriebssystem einführen. Ältere Windows-Versionen sollen nicht nachgerüstet werden.
(…)

» Artikel lesen
 
Also wenn es nur für Windows 8.1 gibt, dann wird sich DirectX 11.2 eben nicht durchsetzen und somit von den Game-Publisher einfach ignoriert.
 
Schon wahr, was Bond.007 da schreibt.

Marketingtechnisch ists allerdings ein Desaster für die grünen. Die sind jetzt nicht nur '0.1' hinter AMD sondern '0.2'...

Hoffen wir mal, dass 'die anderen' das auch noch checken und dass es bald Programme gibt, die einen Vorteil durch 11.1 bzw 11.2 haben.
 
[3DC]Payne;4810114 schrieb:
Hoffen wir mal, dass 'die anderen' das auch noch checken und dass es bald Programme gibt, die einen Vorteil durch 11.1 bzw 11.2 haben.

Durch die Einschränkung "nur Windows 8.1" besteht keine Notwendigkeit auf irgendeine Art DirectX 11.2 unterstützen zu müssen.
 
Anscheinend will man kein Geld verdienen, mit Windows 7 hätte man ein starkes Zugpferd. Aber wer nicht will, der hat schon.
 
DirectX 11.2 ist nicht nur auf Windows 8.1 beschränkt !!!!

DirectX 11.2 läuft auf
- Windows NT 6.3 dh 8.1/2012r2 ....
- Xbox1

daher wird das eine oder andere Spiel einen DX11.2 Pfad haben ... wobei es regt sich ja auch keiner auf, das DX11.1 nicht auf 7 läuft
 
wobei es regt sich ja auch keiner auf, das DX11.1 nicht auf 7 läuft

Weil das meisste Pflicht ist was für DX11 optional ist. Und meist auch von NV unterstützt wird wie das bei DX11.2 aussieht weiss ich nicht. Im Endeffekt denke ich wird es bei Ms kein DX12 Version geben (Gleich wie die win 8 Version beim Os und bei OS X die 10 Stehen bleibt), wodurch es auch nützliche Features geben könnte, welche mit .x Versionen integriert werden. Es ist als im Endeffekt fertig mit der allgemeinen aussage .x Versionen bringen keinen Vorteil. Ob das schon auf DX11.2 zutrifft *noahnung*.
Zudem gehe ich davon aus das alle relevanten Win 8 Systeme zeitnah auf Win 8.1 aktualisiert werden und alle neuen Xbone Speiel auf dem PC sofern vorhanden DX11.2 benutzen werden, wodurch die Verbreitung der Version schneller wachsen wird als bei 10.1.
 
Die Unterversionen, die x.1 oder eben diesmal x.2 heißen, haben sich noch nie wirklich durchgesetzt. Oder erinnert sich einer von euch an besonders gepushte und gefeierte Titel mit Direct X 8.1...wo AMD damals schon Support für Shader Model 1.4 anbot? Ich kenne kein Game, was speziell dafür angepasst wurde. Ausnahme war damals Direct X 9.0c, welche aber wirklich gute Neuerungen wie Shader Model 3 mitbrachte...

Das negative gebashe gegen Windows 8 kann ich nicht mehr hören. Ich erinnere mich gerne an 2001 zurück, wo Windows XP kam und wer wollte es haben? Auch keine Sau. XP sei zu bunt, zu aufgebläht, es wäre langsamer als Win 98 SE, und mit der damals erstmals aufgebrachten Produktaktivierung wolle Microsoft den Nutzer eh nur ausspionieren. Und was ist jetzt? Es ist durch seine unwahrscheinlich lange Lebensdauer von jetzt 12 Jahren das beste System, was Microsoft rausgebracht hat. Wie sich Meinungen wie Fahnen im Wind ändern können...

Wäre Vista eingeschlagen und hätte nicht die Performanceprobleme gehabt, wäre Win 7, welches auch nur 2 Jahre nach Vista kam...IMHO nicht der große Erfolg geworden, wie es heute darsteht.

Ich kann nur für mich sprechen: ich habe Win 8 Pro drauf, es läuft prima. Habe mir zwar den Start8 von Stardock geholt, damit ich den Button da habe, aber ansonsten läuft Win 8 ohne jegliche Probleme. Und ob mir die NSA durch Win 8 noch besser zugucken kann, wie ich meinen Teller Miracoli am PC verputze oder nicht, interessiert mich nicht die Bohne.
 
Als ich Windows XP anno 2001 das erste mal probiert habe, fand ich es zu kotzen gegenüber Windows 98 SE. Jedoch 1-2 Jahre später war es mit SP1 oder SP2 hatte ich es überall am laufen und mich von Windows 98 verabschiedet. Hatte es bis 2003 verwendet, aber dank Pentium 4 mit HT war dann XP Pflicht und es hatte dann auch super funktioniert, als ich dann brauchte. Später der Umstieg auf Vista war durchaus gemischt, obwohl ich es erst 2 Jahre später mit SP1 erworben hatte, war für mich immer noch unausgereift, und dann zu Windows 7 gewechselt mit SP1. Hatte im Gegensatz zu den meisten hier meist immer bis zum Service-Pack gewartet und dann BS dann gekauft, und nicht als es neu auf dem Markt erschienen war.

Was die Grafikkarten angeht, behaupte ich mal solange es nur eine neue DX Version ist ohne nennenswerte Features kann es meinetwegen bis DX 20.1 gehen, völlig Latte. Solange die Performance in Games, nicht so dramatisch dadurch abfällt wie bei fehlendem T/L oder Pixelshader 3.0/2.0 und man echt am Arsch war, mit einer Karte die das nicht unterstützte kann es egal sein.

Beispiel dafür war z.B die Nvidia 5900XT die in manchen Games deutlich langsamer war, als die Konkurrenz weil Features gefehlt haben.
 
Zuletzt bearbeitet:
@FHen1979
Wieviele Spiele der letzten Jahre kennst du die noch DX9.0 unterstützen?
Was du damit ausdrücken wolltest ist wohl eher das sich bei den Spiele Herstellern niemand Sonderfeatures unterstützt die nur ein GPU Hersteller anbieten kann. Es rentiert sich wohl einfach nicht. War es aber nicht so dass das eine oder andere Spiel DX8.1 als fallback Renderpfad anbot und man mit der Geforce in die Röhre schaute oder war das eine andere DirectX Version? Ich meine mich dunkel daran zu erinnern das da etwas war.

@Zidane
Ich meine mal gelesen zu haben dass das Hauptproblem der FX Modelle war das man sich bei der Pipeline Struktur verspekuliert hatte und diese letztendlich von den Spielen nicht mehr effektiv ausgelastet werden konnte. Da ging es weniger um fehlende Features sondern da schlugen eher die Nachteile der starren GPU Designs voll durch.
 
Meine damalige ATI 9800 Pro AIW ging ja kaputt, und da ich eh kein Bock mehr auf ATI hatte wurde es dann auch eine 5900XT, und da zeigte sich ebend z.t die dramatischen Einbrüche bei gewissen Games, danach hatte ich mir dann die 6800GT zugelegt, sofern ich das noch im Kopf hatte. Während die 6800GT bei einem Kollegen noch lief, habe die Karte wieder zurückgekauft, und liegt nun im Schrank, sind meine eigenen von Leadtek als PCIe/AGP mit Cooperkühler beide abgeraucht.
 
Schön zu wissen, dass man bei der Wahl der PC Komponenten korrekt liegt:
-Intel CPU
-AMD/Ati Grafikkarte
-Windows 8

Da wächst die Leistung des PCs mit dem nächsten Softwareupdate ;)
 
Schön zu wissen, dass man bei der Wahl der PC Komponenten korrekt liegt:
-Intel CPU
-AMD/Ati Grafikkarte
-Windows 8

Da wächst die Leistung des PCs mit dem nächsten Softwareupdate ;)
...und die Produktivität sinkt.
 
und die Produktivität sinkt.

Auch wenn es OT ist wieso sind hier im Forum unsäglich doofe kurze Antworten erlaubt welche nichts Aussagen.
Wodurch sinkt die Produktivität? Durch die Intel CPU, die AMD GPU oder deine Persönliche subjektive Meinung zu Win 8, oder durch WIn8.1/dx11.2 was das eigentliche Threadthema ist?
 
Hehe, ich glaube das war sarkastisch gemeint im Bezug auf Win8 ;)
Aber ONH hat schon recht: Lieber Ober-Admin, bitte nicht den Thread für eine erneute lähmende Win8-Diskussion kapern :)

VG
der Ober-Mod ;D
 
Das war eher ein Seitenhieb gegen IXS und seiner einzigen Liebe (Windoofs 8 ).
 
Das war eher ein Seitenhieb gegen IXS und seiner einzigen Liebe (Windoofs 8 ).

Komischer Seitenhieb, von einem "Entwickler", der mit Windows 8 nicht klar kommt. "Selbstironie" passt da besser.
Aber, da es hier ja um die Grafikkarte geht, bezog sich mein oberer Beitrag natürlich darauf, dass man quasi eine "neue" Grafikkarte bekommt, ohne eine kaufen zu müssen.
 
Die Unterversionen, die x.1 oder eben diesmal x.2 heißen, haben sich noch nie wirklich durchgesetzt.
Doch, haben sie. Fällt dir nur nicht auf, weil das meistens dann ist, wenn der Nachfolger schon breit verfügbar ist. Und PS1.4 war z.B. relativ nah an 2.0, so dass es eine Zeit gab, in der man einige Spiele mit Radeons zocken konnte, mit GFs aber nicht.

Aber hey, ist halt super duper toll, wenn irgendwelche Entwicklungen von einem arroganten/überheblichen Hersteller dümmlich ausgebremst werden, weil sie einfach nicht in der Lage sind, entsprechende Hardware auf den Markt zu schmeißen.

Und, wie schon gesagt wurde, unterstützen die neue XBox und auch die PS4 das neue AMD Featureset, was bisher nicht der Fall war. Daher kannst du davon ausgehen, dass es einige Dinge nur auf AMD Karten zu sehen geben wird - bis nV auch mal den Hintern hoch bekommt...

Beispiel dafür war z.B die Nvidia 5900XT die in manchen Games deutlich langsamer war, als die Konkurrenz weil Features gefehlt haben.
5900XT? Du meinst jetzt den NV35??

Sorry, aber was du hier sagst, ist bullshit! Der Grund, warum die nV3x Generation gegen die AMDs so kläglich versagten, ist viel einfacher als du denkst: Die AMD Teile waren wesentlich breiter aufgebaut. Eine R300 hatte 8 Pipelines, ein NV30/35 aber nur 4. Entsprechend schaut es gegen die Radeon 9600 Pro auch gar nicht so schlecht aus. Da hast dann auch 4 Pipelines gegen 4 Pipelines - die 9700er und 9800er hatten aber 8 und waren dadurch deutlich überlegen.

Punkt zwei (der bis zur G70 Generation zutraf):
Die Shader und Renderpipelines waren bei AMD schon immer unabhängig voneinander - ein Shader Befehl hat also nicht die TMUs blockieren können und umgekehrt. Bei den nV3x Ablegern (zu denen auch nV4x und G7x gehören!) war es aber nicht so...

Aber hey, kannst ja gern mal 'nen paar moderne Spiele ausgraben, die entsprechende Hardware noch unterstützen und es selbst testen, wenn du mir nicht glaubst. Ich kann dir sagen: Diese alten DX9 nV Karten werden gegen die DX9 AMD Karten (gleicher Generationen) kein Land sehen und gnadenlos untergehen.
 
Zuletzt bearbeitet:
Hoffen wir nur mal das die Kühlversorgung bei den Konsolen optimiert ist, sonst würde ich mal behaupten das die Teile 1-2 Jahre halten und dann Schrott sind. Habe leider die Erfahrung machen müssen, das AMD Laptops im vgl. zu ihren Intel Kollegen deutlich schneller kaputt gehen und nicht lange halten. Die meisten Geräte gehen kurz bzw. mit Glück vor der Garantie kaputt. Lediglich 2 Modelle Acer 18 Zoll Gerät, und Samsung NP-R505E laufen noch, werden aber so heiß im Betrieb das diese auch irgendwann den Geist aufgeben sollten. Bei Intel Laptops ist mir das bisher noch nicht aufgefallen, lediglich das bei meinem eigenen Gebrauchtgerät es mal die Platine zerlegt hat, lief nach dem Tausch wieder.

AMD Grafikkarte kann nur im Akku-Betrieb runtergetaktet werden, was für ein Schwachfug, der Griffin im Samsung mit einen 35 Watt TDP wird im Idle nur 70 Grad heiß, was soll der Mist, was mich jedenfalls dazu bewogen hat nur noch Intel Laptops zu vermitteln. AMD kriegst leider nicht gebacken.

Dazu kommt noch die schlechte Pro/Mhz Leistung, kann man ebenfalls vergessen, aber gut man kann auch nicht erwarten das AMD es schafft einen vgl. Laptop wie Intel zu bauen im Falle eines 2x verkauften Samsung NP-300E5E mit seinem Dual-Core incl. Grafik nur 40 Watt benötigt, das Teil lau war wird, und dabei eine ähnliche Leistung abzuliefern ohne sich gleich die Beine zu verbrennen.
 
Zuletzt bearbeitet:
[3DC]Payne;4812247 schrieb:
5900XT? Du meinst jetzt den NV35??

Sorry, aber was du hier sagst, ist bullshit! Der Grund, warum die nV3x Generation gegen die AMDs so kläglich versagten, ist viel einfacher als du denkst: Die AMD Teile waren wesentlich breiter aufgebaut. Eine R300 hatte 8 Pipelines, ein NV30/35 aber nur 4. Entsprechend schaut es gegen die Radeon 9600 Pro auch gar nicht so schlecht aus. Da hast dann auch 4 Pipelines gegen 4 Pipelines - die 9700er und 9800er hatten aber 8 und waren dadurch deutlich überlegen.
Das ist aber auch etwas zu kurz gedacht, auch wenn es der letztendlichen Realität nahe kommt.
Sie hatte vielleicht weniger Pipelines aber aber sie war deutlich anders (komplexer) aufgebaut. Man hatte sich im Bezug auf die Anforderungen der Spiele ganz einfach verspekuliert, wodurch die Pipeline nicht effektiv genutzt wurde. Das ist eben der grundlegene Nachteil der damaligen, unflexiblen Pipeline Architektur.
 
Wenn man hier nachschaut, steht wohl auch der Grund dafür drin.

http://www.computerbase.de/artikel/grafikkarten/2004/test-fuenf-mal-geforce-fx-5900-xt/2/

* nVidia gibt zwar ein Maxium von 8 Pixeln pro Takt an, dies trifft aber nur für Z- und Stenciloperationen
zu. Ansonsten verhalten sich NV30, NV35 und auch der NV38 wie ein Design mit vier Pipelines à zwei TMUs

http://www.computerbase.de/artikel/grafikkarten/2003/test-ati-radeon-9800-pro-roundup/2/

Die ATI 9800 Pro, hatte diese Beschränkung nicht.
 
Zuletzt bearbeitet:
Genau das ist der Punkt den ich mit der falschen Auslegung meinte. ;)
Der R300 hat das Problem nicht weil eh nur eine TMU an jeder Pipeline dran hängt.
 
Zurück
Oben Unten