Intel ARC A310/380/580/750/770 (Alchemist/PCIe 4.0): Tests/Meinungen im Netz. Links in Post 1

Eine der größten Schwächen der IT-Online Medien derzeit. Da wird etwas vorgesetztes aus den Quellen wiedergekäut, ohne auch nur mal links oder rechts zu schauen, wie das denn sonst so im Vergleich aussieht.
 
Ich enke eher das es das übliche Problem ist, es verkauf sich besser auf ein bewährtes Ziel einzuprügeln.
 
Vor ein paar Tagen habe ich endlich mal ne 770 Limited ergattern können, fange gerade mit meinen Versuchen an und nun sehe ich wie die Verfügbarkeit bei Geizhals zunimmt un die Preise anfangen purzeln. *buck*
Na egal, erstmal das Teil etwas ausprobieren und schauen was damit so geht.
 
irgendwie ruhig geworden um die Dinger
 
Hab zwar eine aber kann die nicht auf Vollast testen weil dann das 450W Netzteil auf der FX Plattform dicht macht. xD
Für DC User ist sie aber wegen diverser Unzulänglichkeiten nahezu unbrauchbar.
 
Zum zocken ist sie unbrauchbar weil es schnellere Karten für weniger Geld gibt die weniger verbrauchen ...
Intel passt den Preis auch einfach nicht an, für 300€ könnte sie ja eine Alternative sein aber für um die 400€ halt nicht ...

Hinzu kommt das nur die dämlich Limited Editon von Intel die 16GB hat und alle anderen nur 8GB in einer Zeit in der alle anderen Karten drum herum mit 12GB bestückt sind ...
 
Auch wenn der Preis ca gleich wäre hat man da beim spielen ggf noch diverse Unwägbarkeiten.
 
Ich habe halt die Limited mit den 16 GB aber kann damit nicht weiter testen weil das neue Netzteil auf sich warten läßt.
Mich würde beispielsweise interessieren wie es bei den Treibern ums Multithreading steht. Die anderen beiden haben für die Unzulänglichkeiten von DX bis 11 ja inzwischen entsprechende Workarounds integriert. Mich würde nicht wunder wenn sowas bei Intel noch fehlt und aufgrund des Alters der APIs wohl auch nicht mehr integriert wird.
 
Ich hätte Intel ja gerne unterstützt damit die weiter machen mit den GPUs denn ein dritter Player wäre gut für den Markt aber denen Geld schenken für nichts sehe ich halt auch nicht.

Warum eignet die sich eigentlich nicht fürs crunchen?
 
Wenn ich das in den Kommentaren bei Computerbase richtig gelesen habe liegt das vor allem daran das einige Spiele direkten DX9 Support bekommen haben anstatt über die offensichtlich leistungsfressende DX12 Übersetzung zu gehen.
 
Ja aber das ist doch garnicht möglich wenn ich das richtig verstanden habe, die GPU Unterstützt doch garkein DX9 oder war es der Treiber der das nicht kann?
 
So, das neue Netzteil ist da und nun kann ich endlich die 3D Tests fahren, wobei meine Testplattform mit dem FX-8350 nicht zuletzt wegen dem fehlenden SAM Support udn lediglich PCIe 2.0 natürlich absolut suboptimal ist.

Die 4 Tests die ich bisher laufen ließ (3DMark Timespy, Shadow of the Tomb Raider, Superposition Benchmark, Valley Benchmark) liefen an und für sich aber das Speichermanagement des Treibers scheint absolut für die Tonne zu sein denn die Ruckler die auftraten hingen nicht nur an der API sondern meinem EIndruck nach auch vom VRAM Bedarf des Programms ab und waren wohl nicht zuletzt wegen des fehlenden SAM Supports recht ausgeprägt.
Sie hatten immer diesen Hummiband Effekt (Bildfluss bleibt stehen und läuft dann kurzzeitig deutlich schneller bis der normale Zeitpunkt erreich ist) den ich sonst vor allem vom relativ leichten VRAM Überlauf kenne. Bei 16 GB VRAM sollte das so nicht auftreten. Am stärksten waren die Hänger beim Superposition Benchmark, beim Valley Benchmark (Fenstermodus, FullHD, Ultra Shader, 8x FSAA) trat es hingegen am schwächsten auf.
Was mir aber ebenfalls bei den beiden Timespy Benchmarks auffiel, die GPU wurde nie durchgehend ausgelastet, noch nicht einmal bei der Ultra Version für UHD Setings. Spätestens da sollte der FX aber keine bedeutende Rolle mehr für die GPU Auslastung spielen.
 
Da haben die Blauen noch viel Arbeit am Treiber vor sich, aber schon witzig das fast jedem klar war das egal wie gut die Hardware wird die Intel bringt das quasi alles am miserablen Treiber scheitern wird und so ist es ja auch.
Wenn der Treiber für nen Spiel optimiert ist läuft die Karte genau in den Bereichen die Intel angekündigt hat, ist er es nicht kannst fast genausogut mit ner 5 Jahre alten AMD oder NV Karte spielen ^^
 
Nicht unbedingt denn ich für meinen Teil sehe genau 2 grundsätzliche Probleme.
1. Die Bedienoberfläche als Overlay, sogar als Fullscreen Overlay ist ein absoluter Schuss in den Ofen weil sie die Bedienung teils erheblich behindert. Die Bedienung und der Funktionsumfang ist hingegen gewöhnungsbedürftig aber OK.
2. Der bei meiner Config teils extrem ungleichmäßige Bildfluss zerstört eine an sonsten durchaus ausreichende Performance der Karte. Bei einer Config mit SAM Support soll das Problem ja erheblich kleiner aber dennoch nicht ganz verschwunden sein weshalb ich davon ausgehe dass das grundlegene Problem deutlich tiefer liegt.
 
Ich schränke dann mal auf FAST alles liegt am Treiber ein, da mag es sicherlich auch noch andere Probleme geben ... die Arbeit von Raja hat aber irgendwie immer einen faden beigeschmack ...
 
Na ja, eine fast Jahrzehnte lange Vernachlässigung der GPU Treiber weil "für die IGPs reichts ja" kann man eben nicht mal eben aufholen. Dafür brauchte Intel Raja nicht, das Problem der unterirdischen Gaming Treiber gab es schon vor ihm.
Irgendwie hat der Treiber etwas von ambitionierter Flickschusterei bei der man ach so kreativ sein wollte um aufzufallen. Klassischer Fall von "zu viele Baustellen auf einmal".
Bei den GPUs selbst würde mich mal interessieren wie deren Sheduler arbeitet denn die Verhaltensweise mit dem SAM Support ist schon eigenartig. Nicht das dort deutlich mehr über die CPU bearbeitet wird und deshalb der VRAM direkter adressiert werden muss.
 
Sind hier noch weitere Besitzer einer Arc 770 Limited unterwegs?
Ich habe hatte hier mit meiner einen recht eigenartigen Effekt bei der RGB Beleuchtung denn unterhalb des "ARC" Schriftzuges war bei mir eine RGB LED bei der offensichtlich blau nicht funktionierte und deshalb farblich entsprechend abwich aber jetzt wo die Karte über Nacht bei den DC Projekten "Primegrid" und "Einstein" ackern durfte und so paar Betriebsstunden aufs Auge gedrückt bekam funktioniert sie plötzlich einwandfrei.

Ich weiß zwar nicht wie das nach einer längeren Pause aussieht aber hat den Effekt noch jemand anderes beobachten können?
 
Gab auch bei Computerbase ne News dazu. Am spannendsten fand ich diesen Abschnitt, vor allem den zweiten Teil davon:

Lisa Pearce übernimmt die Consumer-GPUs​


Die bislang von ihm geleitete Accelerated Computing Systems and Graphics Group („AXG“) wird in der Client Compute Group („CCG“) aufgehen, die Consumer-Produkte wie die CPUs der Core-i-Serie und die GPUs der Arc-Serie vereint.


Lisa Pearce, die bislang die Entwicklung der Grafiktreiber bei Intel verantwortet hat, leitet die Consumer-GPU-Gruppe und untersteht Michelle Johnston, welche die gesamte CCG-Sparte verantwortet.
Warum fällt mir da nur der Spruch "vom Regen in die Traufe" ein?
 
Zurück
Oben Unten