Download ATI Catalyst 10.7a Beta - Anti-Aliasing in StarCraft 2

Dr@

Grand Admiral Special
Mitglied seit
19.05.2009
Beiträge
12.791
Renomée
4.066
Standort
Baden-Württemberg
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
<div class="newsfloatleft"><a href="http://sites.amd.com/us/game/downloads/Pages/downloads.aspx"><img src="http://www.planet3dnow.de/photoplog/images/54308/1_ATI_Radeon_80x.jpg" alt="AMD ATI Premium Graphics"></a></div>AMD hat <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1280331261" target="b">wie angekündigt</a> einen Hotfix-Treiber bereitgestellt, der die Aktivierung von vierfachem Anti-Aliasing im ATI Catalyst Control Center für das Echtzeit-Strategiespiel StarCraft 2 erlaubt. Damit können nun auch Nutzer von ATI Radeon Grafikkarten die Bildqualität durch Hinzuschalten der Kantenglättung verbessern. Dies wird derzeit vom Spiel selbst nicht unterstützt. Der ATI Catalyst 10.7a Beta soll aber auch allgemeine Performancesteigerungen für Nutzer bringen, die Quad ATI CrossFireX mit Eyefinity kombinieren. Der Treiber unterstützt sämtliche ATI Radeon Desktop- und Notebook-Grafikkarten ab der HD 2000 Serie und ist zu Windows XP, Windows Vista und Windows 7 sowohl in der 32bit als auch 64bit Version kompatibel.
<p style="clear:left">
<blockquote><b>Was ist neu?</b>
<ul><li>Starcraft II: Support for Anti-Aliasing through the ATI Catalyst Control Center when using a Windows 7, Windows Vista or Windows XP based system with an:</b><ul><li>ATI Radeon HD 5xxx series graphics card or ATI Radeon Mobility equivalent series of products</li><li>ATI Radeon HD 4xxx series graphics card or ATI Radeon Mobility equivalent series of products</li><li>ATI Radeon HD 3xxx series graphics card or ATI Radeon Mobility equivalent series of products</li><li>ATI Radeon HD 2xxx series graphics card or ATI Radeon Mobility equivalent series of products</li></ul></li>
<li>Improved performance for Quad ATI CrossFireX for Eyefinity supported configurations</li></ul></blockquote>
Da der Beta-Treiber noch nicht vollständig getestet ist und auch keine WHQL Zertifizierung trägt, sollten alle anderen Nutzer, die von den beschriebenen Verbesserungen nicht profitieren, beim <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=2&id=1280167145">ATI Catalyst 10.7</a> bleiben. Für Zocker von StarCraft 2 kann sich das Wagnis einer Installation lohnen.

<b>Download:</b><ul><li><a href="http://support.amd.com/us/kbarticles/Pages/ATICat107aBetaDriver.aspx">ATI Catalyst 10.7a beta</a></li></ul>
<b>Links zum Thema:</b>
<ul><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=2&id=1280167145">ATI Catalyst 10.7 WHQL Desktop- und Notebook-Grafiktreiber</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=2&id=1280167522">ATI Catalyst 10.7 Proprietary Linux Display Driver</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1280488357">AMD verkauft mehr Grafikchips als NVIDIA</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1280134314">Erster OpenGL ES 2.0 fähiger Grafiktreiber von AMD</a></li></ul></p>
 
Habs gerade mal getestet. funktioniert. Wobei bei adaptiven Multi-Sampling AA die Haartexturen bei mir flackern (5770, 2x, 4x). Bei SSAA tritt das nicht auf, wobei beides schon mit 2x auf unter 25fps geht und damit eh nicht mehr gut spielbar ist.
An AA werden dann wohl nur diejenigen mit 5830 und aufwärts Freude haben.

Korrektur. Danke an OBrian.
Edit: Habs jetzt auch mal mit nur MSAA probiert. Flickering ist weg. Performance aber auch nicht besser.
 
Zuletzt bearbeitet:
Haartexturen? Klingt nach Alphatexturen, die werden durch MSAA ja generell nicht bearbeitet, müßtest noch Adaptive AA zuschalten.
 
Gleich mal testen.

@genervt
Die 5830 schneidet ja ohne AA nur Minimal besser als eine 5770. Mit AA schwächelt die 5830 aufgrund der schlechteren Füllrate gegenüber der 5770 so oder so schon was mit AA ja zunehmend wichtiger wird. Die Leute mit einer 5830 werden demnach auch keine Freude bei dem Spiel haben. ;)
 
@Stechpalme
Die 5830 sollte doch mit AA besser sein, schließlich hat sie mehr TMUs. Damit ist die Grundleistung höher. Bei Prozentual ähnlichem Einbruch bei AA reicht das um in spielbare Bereiche zu kommen.
Die ATIs hängen meist an der Texturfüllrate. Das musste ich schon bei meiner 3870 schmerzlich feststellen.
 
@genervt
Schau dir mal diverse Benches an, die 5830 bricht stärker mit AA ein als eine 5770. Denn es fehlt an Pixel-Füllrate bei der 5830. Vergleichen kannst du das auch hier. . Das ist ja der große Flaschenhals bei der 5830 und der Punkt der sie eigentlich zu einer Mogelpackung macht.
 
Kurzer Test

X6 1055T + 4870 1GB
Ein mehrmaliges Schwenken über eine voll ausgebaute Basis mit ca. 30 stehenden großen Einheiten (Thor u.s.w.)
Auflösung 1680x1050, Details alle auf Ultra

47-58 ohne AA
27-33 mit 8xAA (ohne AAA)

Ich werde morgen mal kurz testen was ich dann auch später im großen Benchmark nehmen werde, die letzte Schlacht der Protos. Da schwirren ja mehrere hunderte Einheiten über den Bildschirm, da hat es auch ohne AA schon ziemlich geruckelt.
 
X4 920
alles Ultra 1680x1050
Mission Havens Untergang. 16xAF ist per Treiber erzwungen.

24-31 ohne MSAA
19-27 mit MSAA 2x
17-22 mit MSAA 4x (ohne Workaround)
17-31 mit MSAA 4x 1xAF (ohne Workaround, spielbar)

Wobei ich auch den Workaround gegen Überhitzung drin hab. Ich teste es nochmla ohne.
 
Zuletzt bearbeitet:
Das Tuning gegen Überhitzung halte ich für quatsch. Ich glaub da hat Gamestar (wars doch?) einfach nur irgendwelche Gerüchte zusammen gepackt. Meine Karten werden bei dem Spiel nicht wärmer als bei anderen Spielen und von Werten die man bei Furmark erreicht, sind sie meilenweit weg.
 
Doch so hardwarelastig? ??? Na dann wir das wohl nichts auf "Ultra" mit meiner HD 4850. ;D
 
Naja HW-lastig nicht unbedingt, aber die Graka wird angeblich, wenn man sich in irgendwelchen Menüs befindet, bis zum Anschlag ausgereizt und dann rauchen sie ab. Aus welchen Gründen auch immer. Ich bin zwar immer noch der Meinung, dass Software keine Hardware zerstören kann, aber diese Diskussion vernünftig zu führen ist schwierig.
 
Naja HW-lastig nicht unbedingt, aber die Graka wird angeblich, wenn man sich in irgendwelchen Menüs befindet, bis zum Anschlag ausgereizt und dann rauchen sie ab. Aus welchen Gründen auch immer. Ich bin zwar immer noch der Meinung, dass Software keine Hardware zerstören kann, aber diese Diskussion vernünftig zu führen ist schwierig.

Sollten die Evergreen nicht eine Art Hardwaremonitoring enthalten, was genau solche Überhitzungen verhindern soll?

Ohne mich damit auch nur minimal beschäftigt zu haben, finde ich es etwas merkwürdig, dass die Karten angeblich im Menü stärker als im Spiel belastet werden sollen. Oder gibt es auch Meldungen zu überhitzten Karten im Spiel? *noahnung*
 
The Way It's Meant To Be Played? *suspect*

In den Tests wurden die neuen ATI Karten doch mit Furmark "auf Selbstzerstörung überprüft" oder nicht?
 
Software kann hardware durchaus zerstören....
Wenn die HW nicht ausreichende schutzsysteme aufweist und die Software mal eben den lüfter abschaltet.... nunja *noahnung*
 
Das ganze Thema hat 3DCenter mal auf den Nenner gebracht. Ich Zitiere hier einfach mal:

Kurz noch etwas zu den technischen Hintergründen der Grafikkarten-Überhitzungsproblemen unter StarCraft II: Diese treten wie bekannt vorzugsweise dann auf, wenn gar nichts passiert – beispielsweise wenn ein Menü geöffnet ist. Das erste Problem hieran ist, daß in solchen Sequenzen die Last völlig einseitig auf der Grafikkarte liegt, die CPU also so gut wie gar nichts zu tun hat. Im normalen Spielfluß ist es dagegen so, daß selbst bei einer weitgehenden Grafikkarten-Limitierung immer auch viele CPU-Berechnungen anstehen – zum einen zur Unterstützung der Grafikkarten-Berechnungen, zum anderen Grafikkarten-fremde Berechnungen wie die der K.I., der Physik, etc. Das zweite Problem ist, das es sich bei Menü-Grafik oder ähnliches oftmals um eine äußerst einfache Grafikdarstellung handelt. Ein anderer bekannter Fall hierzu war die Stations-Grafik unter EVE Online – auch dort kam es zu extrem hohen Grafikkarten-Temperaturen an dieser eigentlich lächerlichen Stelle, was aber inzwischen (auf unseren Hinweis hin) mit einem Patch behoben wurde.

Während eine normale Spielegrafik meist an irgendwelchen Flaschenhälsen im Grafikchip hängt – mal ist es die Geschwindigkeit des Anti-Aliasings, mal die der Shader-Einheiten, mal die irgendwelcher Spezialfunktionen – kommt diese einfache Grafik dem näher, was man als Lasttests für Grafikkarten benutzt. Die zu berechnende Grafik ist also derart einfach, daß die Berechnung kaum an Flaschenhälse stößt und daher die Hardware-Einheiten des Grafikchips nahezu optimal ausnutzen kann. Und wenn in dieser Situation – keine bremsende CPU-Last und nahezu ausgelasteter Grafikchip – kein Frameraten-Cap vorhanden oder aber ein Vsync aktiv ist, heizt sich der Grafikchip mit der Erzeugung irre hoher Frameraten bei faktischen Standbildern folgerichtig maßlos auf. Was auch bedeutet: Dieses Problem kann selbstverständlich auch bei anderen Spielen auftreten, dies ist kein spezifisches Problem von StarCraft II.

Was dagegen seitens der Spieleentwickler getan werden kann, wurde vorstehend schon gesagt: Entweder einen Frameraten-Cap einbauen (aber bitte abschaltbar, weil es ansonsten das Benchmarking stört) oder eine (natürlich auch in Menüs funktionierende) Vsync-Option anzubieten – für StarCraft II gibt es hierfür erst einmal einen manuellen Hotfix, es soll aber noch ein Patch hierfür folgen. Und natürlich ist es auch nicht notwendig, das Problem erst beim Spieler entstehen zu lassen, dies kann man problemlos schon bei der Entwicklung des Spiels bedenken und vorausschauend lösen. Schließlich sind die vereinzelten Abstürze unter StarCraft II nur die Spitze des Eisbergs – selbst wenn es keine Abstürze gibt, ist es nicht sinnvoll, wenn die Grafikkarte ausgerechnet in Menügrafiken o.ä. stark aufgeheizt wird, dies tut der Lebensdauer der Hardware sicherlich nicht gut.
 
Sollten die Evergreen nicht eine Art Hardwaremonitoring enthalten, was genau solche Überhitzungen verhindern soll?
Ja, gibt es. Das klappt sogar erstaunlich gut. Man denke an die Videos wo bei laufendem FurMark eine GeForce GTX 480 des Kühlers beraubt wird.

Aber die Erklärung mit der unerwartet hohen Last im vermeintlichen Leerlauf leuchtet ein. Man denke da an die Xbox 360:
Microsoft betont währenddessen (wieder einmal), dass die Mehrheit der Xbox-360-Eigentümer "ein unvergleichliches Spielvergnügen mit ihrem Produkt erleben", während nur "ein kleiner Prozentsatz unserer Kunden eine Fehlermeldung, angezeigt durch die Fehlermeldung E74 auf dem Bildschirm, erleben". Konkrete Angaben über die Zahl der betroffenen Kunden machten die Redmonder bislang nicht.

Die Website Joystiq, die Meldungen von Betroffenen sammelt, will in den vergangenen Monaten jedoch steigende Ausfallraten beobachtet haben. Spekuliert wird daher unter anderem, dass der Scaler-Chip der Konsole wegen Überhitzung ausfällt ausfällt, die durch das neue Xbox Dashboard ausgelöst wird. Bei der neuen Oberfläche soll der Grafikchip stärker beansprucht werden als beim alten "Blade-Dashboard".
Quelle: heise online - Microsoft weitet Garantieverlängerung für Xbox 360 aus
 
Ja, gibt es. Das klappt sogar erstaunlich gut. Man denke an die Videos wo bei laufendem FurMark eine GeForce GTX 480 des Kühlers beraubt wird.

Verbaut nVidia jetzt die Evergreens? *kopfkratz
 
Verbaut nVidia jetzt die Evergreens? *kopfkratz
Das nicht, aber ATi wird dem nicht hinterher stehen. So schlecht die Software auch ist, die Hardware ist meist ebenbürtig.

Hier habe ich ein Video gefunden wie eine X800 das Entfernen des Kühlkörpers überlebt. Sie scheint bereits Throttling zu beherrschen: Klick
 
Zurück
Oben Unten