News Energieeffiziente Richland-APU A10-6700T soll diese Woche verfügbar werden

Er hat 800. Hatte ja bis vor kurzem einen ;)

Die 800 sind Stream-Prozessoren, was meines Wissens eben nicht die Unified Shader sind. Zumindest stehts so auf Wikipedia.

Aber selbst wenns 800 sind, ändert das nichts das es mehr sind^^
 
Es ändert sehr wohl etwas, da du VLIW(5/4) (wie z.B. RV770) Shader nicht mit GCN(1/2) (wie z.B. Kaveri) gleichsetzen kannst. Letztere sind eindeutig effizienter, oder, anders ausgedrückt, 500 GCN Shader können effektiv mehr leisten, als 500 VLIW5 Shader. Wieviel mehr in Form einer APU bzw. wie nahe man an eine HD4870 herankommt, bleibt abzuwarten. Ein netter Sprung gegenüber Trinity/Richland ist aber auf alle Fälle drinnen...

LG
 
Es ändert sehr wohl etwas, da du VLIW(5/4) (wie z.B. RV770) Shader nicht mit GCN(1/2) (wie z.B. Kaveri) gleichsetzen kannst. Letztere sind eindeutig effizienter, oder, anders ausgedrückt, 500 GCN Shader können effektiv mehr leisten, als 500 VLIW5 Shader. [...] Ein netter Sprung gegenüber Trinity/Richland ist aber auf alle Fälle drinnen...

Ah, okay, naja, das wusst ich eben nicht ;) Ich kann halt eben nur von den direkten erfahrungen und beobachtungen sprechen, die ich gemacht habe und da kommt zumindest der 5800K und +10% auch der 6800K nicht an die 4850/4870 ran. Wenn Kaveri dann keinen Sprung macht, wärs irgendwie doch sehr doof...^^
 
Und was willst du jetzt mit Cinebench? Wo testet das Programm die 3D Leistung bei Spielen?
Ich war so frei, mir das raus zu suchen was mich interessiert:-)
Unter FireStrike, falls die Werte stimmen, denn die A10-6800K stimmen nicht, ist das lediglich Intel HD 4000 Niveau.
 
Ich war so frei, mir das raus zu suchen was mich interessiert:-)
Unter FireStrike, falls die Werte stimmen, denn die A10-6800K stimmen nicht, ist das lediglich Intel HD 4000 Niveau.


Fire Strike könnte man aber auch als Wursthülle bezeichnen (Worst Case) ;) Auf meinem PC frage ich mich, warum das Teil "nur" 2800" Punkte erreicht. Weder der Lüfter der CPU, noch der Lüfter der Grafikkarte dreht hoch.

Jedenfalls sind die Treiber bei der Intel Geschichte so eingestellt, dass sie auch einfach mal was weglassen und ein "fertig" an den Hauptprozess senden, was auch gerne zu Softwareabstürzen führt...

Wenn man bedenkt, dass so eine Apu nur einen Bruchteil kostet und alle grafische Details berechnet....

Hier ein interessantes Video dazu:

 
Ich würde es mal so formulieren: Da es einen Pentium G2120 mit HD 4000 Grafik u. 45 W TDP noch nicht gibt, hat der hier schon seine daseins Berechtigung.
 
Ich würde es mal so formulieren: Da es einen Pentium G2120 mit HD 4000 Grafik u. 45 W TDP noch nicht gibt, hat der hier schon seine daseins Berechtigung.

Da die integrierte Grafik vom Gesamtkonzept der CPU abhängig ist, kann man aus "4000" "5000" machen ;)
Ich nehme an, dass Intel die CPU Grafik so stiefmütterlich behandelt (hat) , weil sie davon ausgingen, dass das mit Raytracing und Multiprozess-Programmierung besser klappen würde.
Der Atom ist ja so entstanden. Zu der Zeit, als er rauskam, hätte man 32 Stück davon im Multiprozess laufen lassen können, somit 64 virtuelle Kerne gehabt... die bestens skalierten, noch besser bei 64 Bit Programmierung.

Die Chance bei AMD liegt in der schnellen Reduzierung der Leistungsaufnahme. So kann der 6700T aufgrund der niedrigen Leistungsaufnahme "standardmäßig" übertaktet werden, ohne Schaden zu nehmen und ist so schneller als der 6800 (besonders der Grafikteil).
Was sich da noch entwickelt, bleibt spannend.
 
So kann der 6700T aufgrund der niedrigen Leistungsaufnahme "standardmäßig" übertaktet werden, ohne Schaden zu nehmen und ist so schneller als der 6800 (besonders der Grafikteil).

Ähm, verstehe ich nicht. Kannst du das nochmal anders formulieren?
 
Die Chance bei AMD liegt in der schnellen Reduzierung der Leistungsaufnahme. So kann der 6700T aufgrund der niedrigen Leistungsaufnahme "standardmäßig" übertaktet werden, ohne Schaden zu nehmen und ist so schneller als der 6800 (besonders der Grafikteil).
Was sich da noch entwickelt, bleibt spannend.

Ja! zur Reduktion des Strombedarfs .. Übertakten ist Nische... Entscheidend ist erstmal dass Kaveri durchgehend minimum 25% bei der SinglethreadPerformance zulegt (versprochen sind 30) und definitiv ANFANG 2014 flächig verfügbar ist - nach Aschermittwoch brauchen sie den erst gar nicht mehr auspacken! :-/

Eine 35Wattversion würde günstige AiO-Computer (ohne teure Notebooktechnik) praktisch herbeischreien und auch bei den "Shuttlequadern" dürfte man ganz weit vorn (besonders im Verbund mit A85X) liegen.... Wäre , völlig im Gegensatz zum üblichen Modus Operandi das AMD-Marketing mal so schlau, sich zwei potentere Assemlierer im Vorfeld zu greifen (etwa Lenovo & MSI ) und mit denen was gescheites, mit konsequentem Verzicht auf das "beknackter-Schminkspiegel-kippt-motivationslos-nach-hinten-Design" als Appetithapen zu gestalten , vereinfachte das die Nummer ungemein! ;)

Mmoe
 
Ähm, verstehe ich nicht. Kannst du das nochmal anders formulieren?

Bin ja kein "AMD" Spezi. Aber es soll möglich sein, CPU oder Grafik höher zu takten. In verbindung mit schnelleren RAM-Zugriffen könnte somit der Grafikteil schneller werden als beim 6800 , obwohl weniger Leistung benötigt wird. Leider gibt es noch keine aussagekräftigen Benchmarks zu sehen.
 
Ich würde es mal so formulieren: Da es einen Pentium G2120 mit HD 4000 Grafik u. 45 W TDP noch nicht gibt, hat der hier schon seine daseins Berechtigung.

Die neuen Haswell i3 mit HD4400 kommen dem aber auch gefährlich nahe.
Die sind jetzt bei geizhals gelistet und verfügbar.
 
Heute was gefunden .... Intel schläft wirklich nicht. Iris Pro 5200 CPU Grafik....

Wenn AMD schon so gut ist und Intel jetzt auch noch komplett DX11.1 in dieser Geschwindigkeit unterstützt, sehe ich den Markt hier für Nvidia geschlossen. Es sei denn, NVIDIA würde plötzlich mit einem, vollwertigen PC System daher kommen....
 
Langsam kommen die ersten erschwinglichen Monitore mit Ultra HD Auflösung (3840 x 2160) auf den Markt. Das erfordert so einen großen Sprung bei der Rechenleistung, dass alle verfügbaren und für die nächste Zeit angekündigten APUs dafür nicht genügend Leistung bieten. Mit Ultra HD bekommen dedizierte Grafikkarten endlich wieder eine größere Daseinsberechtigung. nVidia wird sich demnach noch eine Weile am Markt behaupten können. Und man darf auch den Einfluß von Xbox One und Playstation 4 nicht unterschätzen. Die beiden Next-Gen Konsolen könnten ebenfalls dafür sorgen, dass die derzeitigen APUs bei den nächsten Toptiteln schnell zum Flaschenhals werden. APUs werden noch geraume Zeit auf das Entry-Level Segment beschränkt bleiben.
 
Langsam kommen die ersten erschwinglichen Monitore mit Ultra HD Auflösung (3840 x 2160) auf den Markt. Das erfordert so einen großen Sprung bei der Rechenleistung, dass alle verfügbaren und für die nächste Zeit angekündigten APUs dafür nicht genügend Leistung bieten. Mit Ultra HD bekommen dedizierte Grafikkarten endlich wieder eine größere Daseinsberechtigung. nVidia wird sich demnach noch eine Weile am Markt behaupten können. Und man darf auch den Einfluß von Xbox One und Playstation 4 nicht unterschätzen. Die beiden Next-Gen Konsolen könnten ebenfalls dafür sorgen, dass die derzeitigen APUs bei den nächsten Toptiteln schnell zum Flaschenhals werden.

Mir erschließt sich diese hohe Auflösung nicht. Zum Einen braucht man schon 60" (und größer) Bildschirme, damit sich das bei Filmen lohnt, zum Anderen sind die Texturen bei aktuellsten Games in keinster Weise HD-gerecht, geschweige denn 4K bzw. Ultra HD.
Aber, die Industrie will ja was verkaufen.
 
Ultra HD Auflösung macht schon Sinn. Bei Spielen macht es Kantenglättung beinah überflüssig und ermöglicht künftig eine ganz neue Form des Fotorealismus. Abseits der Spiele gibt es ebenfalls Vorteile. Unter Windows hat man mehr Platz auf dem Desktop und das erleichtert das Multitasking und damit die Produktivität. Und ich finde Ultra HD machen sich auch bei 30" bestens. Es müssen keine 60" sein. Man denke nur an die 15,4" Notebooks mit Full HD Auflösung (1920x1080). Einfacher Dreisatz. Mit denen arbeitet es sich viel angenehmer als bei ihren Kollegen mit mageren 1366x768.
 
Ultra HD Auflösung macht schon Sinn. Bei Spielen macht es Kantenglättung beinah überflüssig und ermöglicht künftig eine ganz neue Form des Fotorealismus. Abseits der Spiele gibt es ebenfalls Vorteile. Unter Windows hat man mehr Platz auf dem Desktop und das erleichtert das Multitasking und damit die Produktivität. Und ich finde Ultra HD machen sich auch bei 30" bestens. Es müssen keine 60" sein. Man denke nur an die 15,4" Notebooks mit Full HD Auflösung (1920x1080). Einfacher Dreisatz. Mit denen arbeitet es sich viel angenehmer als bei ihren Kollegen mit mageren 1366x768.

Letzteres hängt aber nur damit zusammen, dass die Skalierung unter Windows nicht so flexibel ist. Ich kenne genug Leute, denen die HD Auflösung bei 24" schon zu viel ist. Dann wird auf 150% gestellt und die Inhalte werden nicht korrekt angezeigt.

Kantenglättung wäre ein Argument, zumal das Anti-Aliasing mehr Rechenzeit beansprucht, als die Skalierung auf 4K/Ultra HD.
Full HD in seiner Auflösung ist am besten an einem 42" Gerät zu sehen. Kleinere Bildschirme sorgen für weniger erkennbare Details, außer man hängt
5cm vor der Glotze ;)
 


Hat jemand zufällig ein Geschwindigkeitstestvideo zu "Grid 2" in 1080P für den 6800K zur Hand ;) ?
 
Zuletzt bearbeitet:
Das sind aber nur 1280x1024, keine 1080p.
 
Langsam kommen die ersten erschwinglichen Monitore mit Ultra HD Auflösung (3840 x 2160) auf den Markt. Das erfordert so einen großen Sprung bei der Rechenleistung, dass alle verfügbaren und für die nächste Zeit angekündigten APUs dafür nicht genügend Leistung bieten. Mit Ultra HD bekommen dedizierte Grafikkarten endlich wieder eine größere Daseinsberechtigung. nVidia wird sich demnach noch eine Weile am Markt behaupten können. Und man darf auch den Einfluß von Xbox One und Playstation 4 nicht unterschätzen. Die beiden Next-Gen Konsolen könnten ebenfalls dafür sorgen, dass die derzeitigen APUs bei den nächsten Toptiteln schnell zum Flaschenhals werden. APUs werden noch geraume Zeit auf das Entry-Level Segment beschränkt bleiben.


Vorausgesetzt die PS4 und die Xbox One unterstützt schon HDMI 1.5 falls nicht, legt Euch wieder schlafen und wartet nochmal 1-2 Jahre bis entsprechende Gerätschaften komplett UHD unterstützen. Am PC dürfte es schneller gehen, da DP die erforderliche Bandbreite zur Verfügung stellen kann.
 
Zurück
Oben Unten