Genau, die werden da alle mit einer APU am Start sein. *rofl*

*rofl*

du ziehst alles aus dem Kontext aber egal;D

werde glücklich mit deinem i7 und der 780, und misch dich nicht bei Sachen ein die du nicht beurteilen kannst.
oh sry kannst du doch anhand von 2 spielen von sehr sehr vielen.
 
Zuletzt bearbeitet:
du ziehst alles aus dem Kontext aber egal

Wer hat den Tuniere in das Spiel gebracht?

werde glücklich mit deinem i7 und der 780, und misch dich nicht bei Sachen ein die du nicht beurteilen kannst.

1. ich bin glücklich damit.
2. es ist nicht sehr schlau eine Bewertung an Hand einer Signatur abzugeben und dadurch festzulegen über welche Erfahrungen der Gegenüber verfügt.
3. ich entscheide selber wo ich was in diesem Forum zu schreibe oder nicht.
4. das ist hier ein Kommentarthread zu einem Review also beziehe ich mich auch auf Inhalte des Reviews (weitere Benchmarks zu APU's gibt es massenhaft im Netz).
5. sachlicher und vor allem freundlicher Schreibstil bei dir wären auch dahin förderlich das man dich auch ernst nimmt.
6. nun troll weiter.
 
Bin ja mal gespannt, was dann los ist wenn Intel die schnellere iGpu hat, wenn ich mich nicht irre, ist es bei den Notebooks nur Sündhaft überteuert doch schon so, mal sehen wie schnell es dann heist das iGpu vollkommen überbewertet sind.
Beim Stromverbrauch haben wir es ja schon.
Mal gucken wo die Reise noch weiter hingeht.
Wäre nur schön, wenn AMD keine Cpu Leistung ( L3 Cache/Module) mehr für die iGpu opfern müste.
 
Wozu ? Bei der derzeitigen Softwaresituation kommt es in freier Wildbahn alle Schaltjahre mal dazu , dass Kern 3&4 angeworfen werden :]
Dass genau dann auch noch die GPU aufdreht dürfte eigendlich nur beim Daddeln und vor allem (zu 98,5%) beim Benchen vorkommen! ..-und beim Spielen werden die meisten es andersrum (iGPU hoch) wünschen :-*

Mmoe

Da ich nicht spiele kann ich auch mit der iGPU nichts anfangen. Es gibt nur eben keine neueren Athlon mit cTDP oder nativ 45Watt TDP.
Also mein Quad (Athlon II X4 615E) ist permanent über 60% ausgelastet, auf allen vier Kernen und da das
eben öfter leistungsmässig mal knapp wird, suche ich da neueren Ersatz dafür (mit <= 45Watt TDP).
Aber ich seh schon, ich muss mich da nach einem Avoton umsehen.
 
Wer hat den Tuniere in das Spiel gebracht?
.

das schon nur hab dies nicht im zusammenhang zu einer apu geschrieben, sondern das dir eine särkere gpu nicht mehr skill gibt,
bzw. das im shooter Bereich(esl usw.) keiner mit 4k Ultra xyz x msaa zockt;)


Bin ja mal gespannt, was dann los ist wenn Intel die schnellere iGpu hat, wenn ich mich nicht irre, ist es bei den Notebooks nur Sündhaft überteuert doch schon so, mal sehen wie schnell es dann heist das iGpu vollkommen überbewertet sind.
.

1. ist in etwa gleich, zu einem a10 Notebook mit dualchannel(1600), viele apu Notebooks werden nur mit singlechannel(1333) getestet.
2. ne wieso die hd 5200 ist ja ganz gut, ABER dies wurde sich seitens Intel nur teuer erkauft,
dazu dann in relation einen a10 mit 128mb edram und schon wärs wieder anderst.
 
Zuletzt bearbeitet:
Bin ja mal gespannt, was dann los ist wenn Intel die schnellere iGpu hat, wenn ich mich nicht irre, ist es bei den Notebooks nur Sündhaft überteuert doch schon so, mal sehen wie schnell es dann heist das iGpu vollkommen überbewertet sind.
Da Intel keine GPUs mehr entwickelt wir das wohl nie passieren. Sie verbauen Nvidia IP. Intel ist noch weit hinter AMD was eine optimierte Fertigungstechnik für CPU+GPU Transistoren angeht, da auf CPU optimiert. Auch was Nutzung der Speicherbandbreite und gemeinsame Speicherbereiche angeht liegt Intel Jahre zurück, da alles auf CPU dimensioniert. Sie retten sich 2-3 Jahre durch die Iris Pro mit Onboard Speicher, aber auch nur zum Gleichstand der vorherigen Generation.

Schnelle GPU ist das kleinste Problem, doch AMD ist auf dem steinigen Weg alles andere auf dem Die dafür anzupassen schon ein paar Jahre unterwegs. Integrationsdichte ist der größte Schwachpunkt bei Intel, wie man auch in der Vergangenheit sah wie lange es dauerte um auf AMD aufzuholen wenn Funktionen auf den selben Die integriert wurden. Noch nicht mal Broadwell kann als echter SoC produziert werden, sondern benötigt ein MCP Träger für 2 Dies. Ein Chip der aus zwei besteht, sehr witzig. Das selbe haben sie ja auch bei Clarkdale behauptet mit der GPU, die sogar in völlig anderer Fertigung entstand. Es ist und bleibt ein SiP (System in Package) solange die integrierten Funktionen nicht direkt auf einem Die aus der Produktion kommen. SoCs sind monolithische Dies. monolithische fertigung ist genau das wo es bei Intel hapert im Gegensatz zu allen seinen Mitbewerbern.

Also rechne nicht damit, dass Intel bei iGPUs die nächsten 5 Jahre etwas anderes macht als hinterher zu hecheln bei der Leistung, trotz schneller Nvidia Technologie.
 
Das Problem an den APUs ist doch nur das der Käufer nicht in der Lage ist dies richtig ein zu schätzen für seine Bedürfnisse und richtig zu konfigurieren.Wenn ich keine Ahnung davon habe,dann muss ich halt 1000 EU fürn Intel + dicker Graka ausgeben....,die die es können kommen sogar mit einem Athlon 5350 zurecht.
 
Was wiederum an den Testseiten und an selbst ernannten "Enthusiasten" liegt, die nur eine Währung kennen: FPS
Da möchte Intels Marketing und sie machen das sehr gut.
 
Auch wenn es arg Offtopic ist: Das habe ich noch nirgendwo gelesen das die iGPU in den Intel CPUs von Nividia stammen soll - hast du da Belege zu? Gerne auch per PM oder an anderer Stelle.

Davon ab würde ich mich leider nicht darauf verlassen das es noch lange dauert:

Intels Broadwell-Grafik: Schneller und effizienter Angriff auf AMD
 
Zuletzt bearbeitet:
Da Intel keine GPUs mehr entwickelt wir das wohl nie passieren. Sie verbauen Nvidia IP.
Gibt es dafür eine belastbare Quelle? Ich bezweilfe es nämlich. Intel hat zwar Zugriff auf den Patentpool von nVidia, aber fertige Designs wurden meines Wissens nicht ausgetauscht. Jedenfalls nicht bei Sandy Bridge, Ivy Bridge und Haswell. Bei Atoms wie dem Clover Trail hat Intel sich dagegen bei Dritten bedient und eine iGPU von PowerVR zugekauft. Ich sehe an für sich auch keinerlei Ähnlichkeiten bei der HD 4600 mit aktuellen nVidia Chips. Ich denke es handelt sich um eigenständige Entwicklungen von Intel. Und so schnell die iGPUs von Intel auch sein mögen, Intel vermasselt es doch ohnehin zuverlässig durch die Direct3D/OpenGL Treiber. Insofern würde ich wenn eine APU gewünscht ist, ohne zu Zögern eine von AMD nehmen.
Monolithische fertigung ist genau das wo es bei Intel hapert im Gegensatz zu allen seinen Mitbewerbern.
Ich könnte mir vorstellen, dass dies keine Frage des Könnens ist. Es ist eine wirtschaftliche Entscheidung. So bekommt Intel ältere Fabs ausgelastet, die noch nicht auf 2x/1xnm umgerüstet wurden. Ein monolithischer SoC wäre mit der Fertigungstechnik von Intel eine Leichtigkeit, aber ein MCP ist wohl einfach kostengünstiger ohne nennenswerte Nachteile beim Stromverbrauch oder der Leistungsfähigkeit zu haben. Es gibt schließlich keinen äußeren Zwang für einen Single Die durch akute Platznot wie bei den Atoms, welche möglichst kleine Gehäuse für Tablets und Smartphones besitzen müssen.
Natürlich kann man mit den aktuellen APUs auch neuere Spiele bei recht hohen Qualitätseinstellungen spielen.
Das sind die Aussagen, die mich stören. Dadurch sind die Erwartungen von Laien doch viel zu hoch. Für ältere Spiele oder viele Indie Titel ist eine APU völlig ausreichend, aber beim Rest ist sie nur ein Sprungbrett hin zu einer dedizierten Grafikkarte. Man kann die meisten neueren Spiele eben nicht mit hohen Qualitätseinstellungen flüssig spielen. Es wäre schön, wenn dem so wäre, aber das bietet selbst ein A10-7850K nicht einmal ansatzweise. Und die iGPUs von Intel noch weniger. Wenn man solche überzogene Verheißungen tätigt, wie dass sich alle neueren Spiele mit hohen Qualitätseinstellungen betreiben lassen, heißt es später wieder einmal "AMD taugt nichts", sobald es dann doch ruckelt. Man sollte lieber ein realistisches Bild vermitteln.
 
Zuletzt bearbeitet:
..
Das sind die Aussagen, die mich stören. Dadurch sind die Erwartungen von Laien doch viel zu hoch. Für ältere Spiele oder viele Indie Titel ist eine APU völlig ausreichend, ...

Und das ist mir wiederum zu pessimistisch aka Licht unter den Scheffel gestellt, die APUs sind zu mehr in der Lage, als irgendwelche alten Spiele zu stemmen. Sie beherrschen das vollständige DX11.2 Featureset in Hardware und haben auch eine nicht gerade geringe Rohleistung - natürlich sind extra Grafikkarten schneller.
In den Ohren eines Laien könnte mein Satz wohl schon etwas übertriebene Erwartungen wecken, andererseits habe ich nicht von Full-HD gesprochen.;)
 
Zuletzt bearbeitet:
Hört mal ich werde hier den Offtopic nicht noch weiter ausbauen. Errate hat die Quellen per PN bekommen. Nvidia IP ist seit Sandy Bridge verbaut und zuvor hatte es keine Intel GPU auf dem selben Die gegeben mit der CPU. AMD braucht 3 APU-Generationen Llano, Trinity und Kaveri um die Transistoren sowohl für CPU als auch GPU sowie alles andere auf dem Die zu balancieren. Die richtige Transistordichte und mögliche Taktraten unterscheiden sich gravierend bei GPU und CPU. Das gleicht Intel einfach durch kleinere Fertigung und geringere Packdichte aus. Das kostet richtig Geld im Moment. Bei selber Fertigungsgröße wie AMD wäre Intel nicht in der Lage eine auch nur Ansatzweise konkurrenzfähige GPU auf ein CPU Die zu bringen. Den Weg müssen sie noch gehen, den AMD hinter sich hat. Dies könnte auch ein valider Grund für AMD gewesen sein auf die immer neueste Fertigungsgröße zu verzichten. Etablierte Prozesse sind besser zu balancieren und das Risiko vermindert sich enorm.

Doch wie soll Intel mit seiner Strategie, bei Fertigung immer einen Schritt weiter als alle anderen zu sein, dies bewerkstelligen? Sollen sie iGPUs in 20nm oder 28nm herstellen wenn die CPUs schon bei 14nm Trigate sind? Warum sind denn Nvidia und AMD bei GPUs noch nicht dort?

Alle iGPUs von AMD haben einen diskreten Vorreiter der neue Fertigungsgrößen vorab testet inkl. der GPU Architektur. Dann kommt der Transit auf CPU Transistor Fertigung. Intel muss mit getesteten Designs arbeiten um Architektur Probleme auszuschließen. Da ist keine Eigenentwicklung möglich, nach dem scheitern von Larabee.
 
Da Intel keine GPUs mehr entwickelt wir das wohl nie passieren. Sie verbauen Nvidia IP. Intel ist noch weit hinter AMD was eine optimierte Fertigungstechnik für CPU+GPU Transistoren angeht, da auf CPU optimiert. Auch was Nutzung der Speicherbandbreite und gemeinsame Speicherbereiche angeht liegt Intel Jahre zurück, da alles auf CPU dimensioniert. Sie retten sich 2-3 Jahre durch die Iris Pro mit Onboard Speicher, aber auch nur zum Gleichstand der vorherigen Generation.

Schnelle GPU ist das kleinste Problem, doch AMD ist auf dem steinigen Weg alles andere auf dem Die dafür anzupassen schon ein paar Jahre unterwegs. Integrationsdichte ist der größte Schwachpunkt bei Intel, wie man auch in der Vergangenheit sah wie lange es dauerte um auf AMD aufzuholen wenn Funktionen auf den selben Die integriert wurden. Noch nicht mal Broadwell kann als echter SoC produziert werden, sondern benötigt ein MCP Träger für 2 Dies. Ein Chip der aus zwei besteht, sehr witzig. Das selbe haben sie ja auch bei Clarkdale behauptet mit der GPU, die sogar in völlig anderer Fertigung entstand. Es ist und bleibt ein SiP (System in Package) solange die integrierten Funktionen nicht direkt auf einem Die aus der Produktion kommen. SoCs sind monolithische Dies. monolithische fertigung ist genau das wo es bei Intel hapert im Gegensatz zu allen seinen Mitbewerbern.

Also rechne nicht damit, dass Intel bei iGPUs die nächsten 5 Jahre etwas anderes macht als hinterher zu hecheln bei der Leistung, trotz schneller Nvidia Technologie.

Ist doch vollkommen Wurscht ob die iGpu auf dem Die ist oder nicht, zumindest für den Anwender, es zählt was rauskommt.
Davon mal abgesehen, das ist auch eine Art von Modulbauweise, im Gegensatz zu Amd kann Intel jede Cpu ( was sie ja auch tun) mit verschiedenen IGpu´s ausrüsten, und muss auch die Cpu nicht als Athlon verbraten weil die iGpu im Eimer ist.
Und es ist auch Egal ob Intel mit der iGpu hinterherhechelt, fürs ernsthafte Spielen reichts immer noch nicht ( muss es eigentlich nicht), weil der Großteil der iGpu Cpu sowieso nur dazu da ist ein Bild auf den Moni zu bekommen.
Das ganze HSA etc. gedöhns steht immer noch größtenteils in den Sternen.
Das problem bei Amd ist, sie müssen für die wesentlich bessere iGpu, momentan auf viel mehr bei der Cpu verzichten.
Das muss Intel nicht.
 
Zuletzt bearbeitet:
Da ich nicht spiele kann ich auch mit der iGPU nichts anfangen. Es gibt nur eben keine neueren Athlon mit cTDP oder nativ 45Watt TDP.
Also mein Quad (Athlon II X4 615E) ist permanent über 60% ausgelastet, auf allen vier Kernen und da das
eben öfter leistungsmässig mal knapp wird, suche ich da neueren Ersatz dafür (mit <= 45Watt TDP).
Aber ich seh schon, ich muss mich da nach einem Avoton umsehen.
Was spricht gegen einen A8-7600 auf 45W runtergeregelt?
 
@LordAntrax: Die iGPU ist bei aktuellen Intel CPUs zusammen mit den x86 Kernen auf einem Die. Getrennt waren sie noch bei Westmere. Dort befand sich die iGPU zusammen mit dem PCIe Root Complex und dem Memory Controller auf einem separatem Baustein im Package, angebunden über QPI, wie man es vom Socket Interconnect bei Servern kennt. Bei den Desktop Haswell sind nur noch die 128MB eDRAM extern, auf welche die Iris Pro Grafik und die x86 Kerne gemeinsam zugreifen dürfen. Die Iris Pro trifft man jedoch allein im Core 4570/4670/4770R an. Alle anderen Desktop Haswells haben nur einen Single Die im Package. Intel legt dabei verschiedene Dice für Dual- und Quad-Cores auf und setzt nicht auf eine "Resteverwertung" wie AMD.

hw01_4vkzp.jpg


Was Complicated angesprochen hat, ist der Umstand, dass bei den U- und Y-Ausführungen von Haswell und künftig Broadwell der PCH auf das Package wandert. Diese kommen unter anderem in Ultrabooks zum Einsatz. Das PCH wird ein separater Baustein im Gehäuse bleiben. So kann man für den iGPU/CPU-Part dieselben Dice verwenden, wie auf dem Desktop, wo der PCH weiterhin auf dem Mainboard sitzen wird. Dort nennt sich der PCH dann zum Beispiel H87 oder Z97. Sonst bräuchte man allein wegen SATA, USB und so weiter eine eigene Maske für diese besonders sparsamen CPUs. Das wäre einfach zu unwirtschaftlich. Eine technische Herausforderung wäre es jedenfalls nicht. Nicht bei den Mitteln, die Intel zur Verfügung stehen.

hw02_kgs62.jpg


Die Integration des PCH betrifft wie gesagt nur die mobilen Haswell mit der Kennung U und Y. Core mit H und M am Ende sind nicht betroffen. Lange Rede, kurzer Sinn: ~95% aller Intel CPUs haben nur einen Chip im Package. In Ausnahmefällen gibt es einen externen L4-Cache (besagte 128MB eDRAM) oder den Chipsatz als separaten Baustein im selben Gehäuse. Dort war Intel der Aufwand für eine Integration vom Nutzen einfach zu hoch.

@Complicated: Du machst ja ein ziemliches Geheimnis aus deinen Quellen. Welche Gründe gibt es denn dafür?
 
Zuletzt bearbeitet:
Was spricht gegen einen A8-7600 auf 45W runtergeregelt?

Nichts, wenn sich die iGPU runterregeln lässt.
So siehts doch so aus, das die CPU nicht mal die 3,1 Ghz zuverlässig halten kann.
Ergo ist er auch nicht/kaum schneller als das was drin ist (AII-X4-615E).
Dann wohl lieber noch einen 83xx auf 2.0Ghz und undervoltet, allerdings auf uralter Plattform.
Das macht alles irgendwie keinen Sinn, sondern kostet nur Geld für nichts.
 
Das sind die Aussagen, die mich stören. Dadurch sind die Erwartungen von Laien doch viel zu hoch. Für ältere Spiele oder viele Indie Titel ist eine APU völlig ausreichend, aber beim Rest ist sie nur ein Sprungbrett hin zu einer dedizierten Grafikkarte. Man kann die meisten neueren Spiele eben nicht mit hohen Qualitätseinstellungen flüssig spielen. Es wäre schön, wenn dem so wäre, aber das bietet selbst ein A10-7850K nicht einmal ansatzweise.
Diese Aussagen beruhen wohl auf eigenen Erfahrungen, es gibt auch zig Videos bei YouTube z.B.


Sorry aber wenn das nicht ernst gemeintes spielen ist, dann weiß ich auch nicht weiter.
Vor allem wie gut das aussieht und aufnehmen tut er nebenher auch noch. (daher kein perfekten Bildfluss)
 
Battlefield 4 System Requirements (PC)

PROCESSOR
AMD ATHLON X2 2.8 GHZ
INTEL CORE 2 DUO 2.4 GHZ
MEMORY
4 GB
GRAPHICS CARD
AMD RADEON HD 3870
NVIDIA GEFORCE 8800 GT
GRAPHICS MEMORY
512 MB

Typischer Konsolen-Port halt, der selbst auf 6-7 Jahre alter PC Hardware noch brauchbar laeuft... Noch Fragen?
(die Spielszene auf dem Boot erinnert mich irgendwie stark an das alte shoot-em-up Game "Incoming" - aus dem Jahre 1999 *buck* )

Schoen zu sehen, wie absolut billig das auf Action gemachte, 100% gescriptete cineastische Konsolen-Szenario durchlaeuft... Fast wie diese interaktiven CD's aus den 90'ern. Kein Wunder, dass es vergleichsweise wenig Performance braucht; bleibt halt ein Shooter volloptimiert fuer Konsolen-Kiddies und leicht gemachte Erfolgserlebnisse.
 
Zuletzt bearbeitet:
Ich habe eine Frage zum APU A6600K (Richland) Ich habe im Bios den GPU von 840 auf 900 Erhöht, gibt es beim GPU Teil auch eine art PStates? Also um Strom zu sparen z.B. 200/400/840/900? Wenn ja Funktioniert diese Funktion überhaupt noch wenn ich den im Bios erhöhe? Frage weil ich meine im Test hier gelesen zu haben, wenn man da Handanlegt fährt der APU den die ganze Zeit auf Vollstoff?
 
@Complicated: Du machst ja ein ziemliches Geheimnis aus deinen Quellen. Welche Gründe gibt es denn dafür?
Nein mache ich nicht. Ich hatte ihn wie gewünscht per PN verschickt damit der Offtopic hier nicht weiter geht. Hat ja viel genützt. Er hat ihn aj auch gepostet:

Wenn es danach geht, steckt ebenso AMD Technik in den iGPUs von Intel. Von AMD wurden gleichfalls Patente lizenziert.
Kann sein, was ich aber nicht glaube da AMD keine GPU IP an Intel lizenziert. Oder hast du eine Quelle?

Doch wie widerlegt das meine Aussage dass in Intels GPUs keine eigene Entwicklung steckt und somit auch nicht mit viel Geld nach Bedarf etwas vom Himmel fällt? AMD und Nvidia sind in der Entwicklung immer mindestens eine oder zwei Generationen weiter als was auf den Markt kommt und für Lizenzen frei gegeben wird. das bedeutet, dass selbst wenn Intel mal Pantentrecht völlig ausser acht lassen würde, immer noch 2 Genrationen Rückstand hätten auf die Entwicklungsabteilung und das ohne das Know-How.
Intel muss denn Rückstand selber aufholen, doch das ist nicht leicht. Keine Übernahme Kandidaten und das Top GPU Personal reißt sich nicht gerade darum iGPUs zu entwickeln. Große Mamut Konzerne haben den Vorteil der Kaufkraft, doch sie sind es nicht die bei Innovationen voraus gehen, was an der schieren Größe und fehlenden flexibilität liegt.
 
@Complicated: Wie kommt es dann, dass die iGPU des Haswell keinem vergangenem GeForce Design ähnelt? Und wieso wird bereits Direct3D 11.1 unterstützt und wieso gibt es Erweiterungen, wie PixelSync, die nVidia nicht bietet? Und vor allem wieso unterhält Intel so ein großes Rendering Research Team, wenn nVidia die ganze Vorarbeit leistet? Und wieso vergrößert man es noch, indem man zum Beispiel vor zwei Jahren 3DLabs aufgekauft hat. Ich finde es spricht da schon ziemlich viel für eine eigenständige iGPU Architektur. Jedenfalls gibt es dafür mehr Hinweise, als für das Gegenteil. Dass Intel noch gewaltigen Nachholbedarf gegenüber AMD hat, bestreite ich gar nicht. Und das ist sogar gut so, sonst gäbe es überhaupt keinen Grund mehr für eine "grüne" Kaufentscheidung.
 
Sag mal liest du eigentlich was ich schreibe? Ich habe deine Fragen alle beantwortet. Vergleiche mal die ganzen ARM SoCs die alle auf der selben IP basieren, die Unterschiede sind gravierend wie z.B. Apples Cyclone. Intel MUSS in der Entwicklung das aufholen was sie derzeit zeitgleich einkaufen, ansonsten werden sie nie eine eigene iGPU haben. Nur auf gekaufter IP hinkt man immer 2 Jahre hinterher - schrieb ich doch. Und und warum GPU Know-How dazu gekauft werden muss schrieb ich auch - aber es muss auch zum Verkauf stehen. Wen gibt es da auf Augenhöhe mit AMD und Nvidia?

Und deswegen sind sie bei der GPU einiges im Rückstand - akzeptiere es doch einfach oder lass mich in Ruhe damit. Ich bin doch nicht zuständig dafür, dass du die Zusammenhänge nicht mal in dem kurzen Text von mir verstehst und fange bei Adam und Eva an.
 
Zurück
Oben Unten