Dann ist letztendlich dein einziges Argument das es keine Desktop Grafikkarten von Intel gibt und siehst sie deshalb im Rückstand?
Die iris Pro Grafik kann durch den zusätzliche Zwischenspeicher ganz gut mit der bandbreitenlimitierten GPU des Kaveris mithalten wärend nvidia nichts vergleichbares im Angebot hat. Im Punkt hardwareseitigen DirectX Support ist man wiederum nvidia überlegen.

Ich sehe hier beim besten Willen keinen Rückstand sondern eher den Entschluss keinen Desktop Grafikchip produzieren zu wollen.
 
Sag mal liest du eigentlich was ich schreibe? Ich habe deine Fragen alle beantwortet.
Tut mir leid, du stellst nur Behauptungen auf, ohne die geringsten Belege. Und ohne Belege, muss man davon ausgehen, dass die Hauptarbeit von internen Teams bei Intel gestemmt wurde, ob dem nun so war oder nicht. Solange sich nicht eine IP Schmiede als Co-Designer zu erkennen gibt, gibt es keinerlei Anhaltspunkte für das Gegenteil. Bis dahin sollte man von einem Intel Design ausgehen. Dass Patente von AMD und nVidia von Intel genutzt werden ist klar. Ohne Cross-Licensing (oder gegen Gebühren) lässt sich heute kein Grafikprozessor mehr bauen. Das wurde von verschiedenen Seiten verlautbart.

Vielleicht findet der eine oder andere diesen Link interessant: Klick

PS: Außerdem stellt sich die Frage, wieso Intel dies nicht zugeben sollte. Bei der PowerVR Grafik einiger Atom hat man nie versucht es zu verheimlichen.
 
@FalconFly: Erschwingliche 4K Monitore mit 28" sind bekanntlich auf dem Vormarsch. Damit hat sich das APU Thema ohnehin bald für die nächsten Jahre erledigt, sobald es um 3D Spiele geht. Das kommt AMD natürlich zu Recht, denn so können sie endlich wieder mehr dedizierte Radeons verkaufen und gehen nicht leer aus, indem sie sich selbst das Wasser abgraben. Damit möchte ich nicht sagen, dass APUs überflüssig wäre. Bei Office, Internet und Multimedia machen sie ihre Sache sehr gut. Vor allem in mobilen Geräten, wie Notebooks. Aber die 3D Leistung, die sie bieten, ist doch sehr niedrig und hinkt Jahre hinterher. Bei stark reduzierten Details bleiben zwar viele Titel spielbar, aber ein Vergnügen ist das selten. APUs bleiben vorerst eine kostengünstige Behelfslösung. Wer regelmäßig spielt, kommt um den Kauf einer dedizierten Grafikkarte nicht herum. Bei vielen Gamern folgt die Einsicht rasch und die iGPU liegt brach. Und mit einem 4K Monitor wird dann selbst dem anspruchlosesten Anwender die Diashow zuviel. *buck*

Nehme ich die im Review getesteten 2 Spiele ist mein Fazit die 32 und 28 FPS bei FHD wären mir persönlich zu wenig.

Und was wollt IHR machen?
Selbst erattes Kiste schafft in TR nicht mehr als 30 FPS in Tomb Raider mit 3.840 × 2.160....
http://www.computerbase.de/2014-08/...vy-bridge-e/2/#diagramm-tomb-raider-3840-2160

Wobei seine Graka bei Tomb Raider - 2.560 × 1.600 4xSSAA/16xAF nicht mal 20 schafft........
http://www.computerbase.de/2014-09/...-benchmarks/6/#diagramm-tomb-raider-2560-1600


Jetzt kommt wieder ABER.......gut dann kommt auch mein ABER
ABER bei der APU kann ich auch die Einstellungen anpassen genauso wie ichs auch bei ner 780 machen MUSS.
 
Wenn ich das richtig gelesen habe ist aber die Kantenglättung mit drin.
An der Stelle sollte man nicht vergessen das man bei einer höheren Pixeldichte auch die Kantenglättung runterschrauben kann, wodurch insbesondere beim SSAA die Framerate deutlich anch oben geht.
Gerade den Punkt Bildeinstellungen sollte man nie vergessen denn wer sagt denn das man nicht auch mit reduzierten Details oder abgeschalteter Kantenglättung spielen kann?
 
Battlefield 4 System Requirements (PC)

PROCESSOR
AMD ATHLON X2 2.8 GHZ
INTEL CORE 2 DUO 2.4 GHZ
MEMORY
4 GB
GRAPHICS CARD
AMD RADEON HD 3870
NVIDIA GEFORCE 8800 GT
GRAPHICS MEMORY
512 MB

Typischer Konsolen-Port halt, der selbst auf 6-7 Jahre alter PC Hardware noch brauchbar laeuft... Noch Fragen?
(die Spielszene auf dem Boot erinnert mich irgendwie stark an das alte shoot-em-up Game "Incoming" - aus dem Jahre 1999 *buck* )

Schoen zu sehen, wie absolut billig das auf Action gemachte, 100% gescriptete cineastische Konsolen-Szenario durchlaeuft... Fast wie diese interaktiven CD's aus den 90'ern. Kein Wunder, dass es vergleichsweise wenig Performance braucht; bleibt halt ein Shooter volloptimiert fuer Konsolen-Kiddies und leicht gemachte Erfolgserlebnisse.
Sowas soll für Kiddies sein? Die Eltern werden es dir danken, lauter nasse Stühle und Sofas! *buck*
Das Video ist mit 1080p aufgenommen wie es aussieht, da möchte ich mal eine XBOX erleben, die das so sauber wiedergeben kann. *joy*
 
@SPINA 1,5 Mrd. Lizenzgebühr sind kein Beleg für dich, dass Nvidia IP verbaut wird? Was denn dann?
Intel gibt über seine GPU Architektur so viel bekannt wie Apple über seinen A7 oder A8 - ich kenne das PDF das du verlinkt hast. Übrigens hies die PowerVR SGX 545 GPU im Cloverview Intel HD Graphic - Namen sind da Schall und Rauch. Denn die können SOFORT von einem Lizenznehmer kopiert werden. Die Basis ist frei erwerbbare Technologie. AMD oder Nvidia sind nicht so leicht zu kopieren, ohne deren Zustimmung. Sie haben die Kontrolle über ihre Technik wie Intel über x86. Schau dir mal AMDs Probleme an wenn es um Instruktionssätze geht, die in das x86 Design fliessen sollen. Schau dir doch an was mit den SSE Befehlssätzen war. Da hat AMD für die Tonne entwickelt.
 
@SPINA 1,5 Mrd. Lizenzgebühr sind kein Beleg für dich, dass Nvidia IP verbaut wird? Was denn dann?
Da ging es doch um den so genannten "Chipsatzstreit". Das Geld ist geflossen, damit es keine nForce für die Nehalem Generation (und neuer) gibt. Bis dato, könnte es sogar mehr Geld in die Kassen von Intel gespült haben, als es gekostet hat, weil in Folge die SLI Restriktionen gelockert wurden. So hatte man auf der eigenen Plattform nicht nur einen Marktanteil von 100% bei den Chipsätzen, sondern konnte den eigenen Chipsätzen noch den SLI Stempel aufdrücken. Jedenfalls wenn der Mainboardhersteller bereit war die dafür fälligen 5 US-Dollar an nVidia zu überweisen, damit das Feature über das BIOS/UEFI freigeschaltet wird. Obendrein hat man noch die AMD Plattform geschwächt, weil die ATi/AMD Chipsätze damals noch nicht so weit waren wie heute. Während die nForce beim Sockel 775 ein Nischendasein gefristet haben, hatten sie beim Sockel AM2(+) einen größeren Stellenwert. Nach dem Wegfall der einen Plattform, sah nVidia jedoch keinen Sinn in der Fortführung des Programms. Das nennt man zwei Fliegen mit einer Klappe schlagen.
 
Zuletzt bearbeitet:
Ich sagte doch du liest nicht richtig - zweiter Absatz dort:
Intel will pay NVIDIA $1.5 billion over the next six years for access to its patent portfolio, which includes its GPU and supercomputing technology. In addition to the cash, NVIDIA will also get access to parts of Intel's patent portfolio, including patents covering microprocessors and chipsets. However, the deal excludes proprietary Intel x86 designs, and some other areas like flash memory.
Nicht dass der Nvidia CEO eine glaubwürdige Quelle wäre, doch der nächste Satz:
"The cross-licensing agreement allows Intel to integrate NVIDIA technologies and those that are covered by our patents into their CPUs, such as Sandy Bridge, for example," said Jen-Hsuan.
 
Selbst wenn Intel für ein GPU Design lizenziertes Know-how von nvidia nutzen würde dann heißt das noch lange nicht das der letztendliche Chip ihrer Architektur gleichen würde. Es können auch einfach nur Teile dessen in einem Design genutzt werden das noch in der Entwicklung ist wodurch man bei heutigen Produkten davon exakt garnichts sieht.

Damit ist es letztendlich sinnlos darüber zu argumentieren.
 
@Complicated: Das ist mir bekannt. Solch ein Patentaustausch ist als Zusatzvereinbarung nicht unüblich und nicht der Anlass für den Deal. Außerdem stellt sich die Frage, wer von beiden Parteien mehr von dem Patentaustausch profitiert. Ob das wirklich Intel ist? Und dass Intel Patente von nVidia unentgeltlich nutzt, habe ich nie bestritten. Ich habe es selbst im Parallelthread zum K12 vor einigen Tagen ins Spiel gebracht. Intel nutzt ebenso Patente von AMD. Nur bedeutet die Verwendung von 3rd Party Patenten noch lange nicht, dass man fremde Chipdesign 1:1 kopiert. Das steht auf einem ganz anderen Blatt.
 
Zuletzt bearbeitet:
Ich habe nie von 1:1 Kopien gesprochen. Das sind auch die Beispiele von ARM nicht, die ich aufgeführt habe. Du hast Behauotet die hat Intel Entwickelt und ich sagte Nvidia lizenziert das an Intel.
 
Zuletzt bearbeitet:
Nachdem sie jetzt der alleinige Chipsatzhersteller für Intel CPUs sind, waren die 1,5Mrd. ja wohl ein Taschengeld, egal was da für Patente noch dranhängen.
 
Wenn ich das richtig gelesen habe ist aber die Kantenglättung mit drin.
An der Stelle sollte man nicht vergessen das man bei einer höheren Pixeldichte auch die Kantenglättung runterschrauben kann, wodurch insbesondere beim SSAA die Framerate deutlich anch oben geht.
Gerade den Punkt Bildeinstellungen sollte man nie vergessen denn wer sagt denn das man nicht auch mit reduzierten Details oder abgeschalteter Kantenglättung spielen kann?
Darum geht es ja,wenn ich bei ner 780 schon nicht voll aufdrehen kann,wieso muss ichs bei ner APU dann machen wie es hier verlangt wird?
Wie schon richtig geschrieben wurde,ich kann mit nem A10 7850K nahe zu JEDES Spiel in Full HD ohne Probleme Spielen und ob ich hier oder dort ein wenig niedriger gehen muss gegenüber ner 780 sollt kein Beinbruch sein.Ein Beinbruch ist es aber wenn ich nur 500EU fürn Rechner hab und nicht mal EINE 780 für alle Spiel auf MAX reicht.;)
 
Du hast Behauptet die hat Intel Entwickelt und ich sagte Nvidia lizenziert das an Intel.
Bloß ohne eine Quellen zu nennen, die dies bestätigt. Und damit ist die ganze Diskussion müßig und muss meinerseits nicht fortgeführt werden. Außerdem würde dies soviele Fragen aufwerfen, die unbeantwortet bleiben, dass es einfach unwahrscheinlich erscheint. Wenn nVidia fertige Chipdesigns herausrückt und so die eigenen Marktanteile an dedizierten Grafikprozessoren schmälert, die weit höhere Margen versprechen, wieso haben sich Intel und nVidia dann nicht verbündet um gemeinsam die Playstation 4 und Xbox One zu erorbern? Statt dessen gingen beide leer aus, weil AMD der einzige ernsthafte Bewerber als Zulieferer war. Das ist im Grunde gut so, weil es zur Zeit die einzige Sparte bei AMD ist, die zuverlässig Gewinn abwirft.
 
Nachdem sie jetzt der alleinige Chipsatzhersteller für Intel CPUs sind, waren die 1,5Mrd. ja wohl ein Taschengeld, egal was da für Patente noch dranhängen.
Wer ist alleiniger Chipsatz Hersteller für Intel?

--- Update ---

Bloß ohne eine Quellen zu nennen, die dies bestätigt.
Doch und das nun dreimal schon. Hier noch der nächste Absatz aus der SELBEN QUELLE:

"Licensing a technology is different than incorporating an entire processor. The settlement provides Intel with access to our IP and patents, such as Sandy Bridge which already uses NVIDIA technology. The license enables Intel to extend that model for the next 6 years."
Ich zitiere Ausschnitte damit du den Rest selber liest. Gehts denn noch Ignoranter?
 
Wenn nVidia fertige Chipdesigns herausrückt und so die eigenen Marktanteile an dedizierten Grafikprozessoren schmälert, die weit höhere Margen versprechen, wieso haben sich Intel und nVidia dann nicht verbündet um gemeinsam die Playstation 4 und Xbox One zu erorbern?
Das ist dein Problem bei Verständnis. IP ist Intelctuel Property. Das ist kein fertiges Chipdesign zwingend, aber sicher auch ein Shader Design, ein Tesselation Design oder ein ROP Design.

Und Intel und Nvidia haben bis heute nicht die Integrationsdichte die AMD erreicht hat, wenn sie in das selbe System verbaut werden sollen. Deshalb hat AMD die Konsolen. Auch das schrieb ich schon.
 
IP ist Intelctuel Property. Das ist kein fertiges Chipdesign...
Genau, und darin sind wir uns einig. Intel nutzt nVidia Technologie. Aber das sagt kein bisschen über das Ausmaß aus. ;)

Die zitierten Aussagen von Jen-Hsun Huang sind außerdem stets mit Vorsicht zu genießen, weil er gern dick aufträgt und übertreibt.
 
Und was wollt IHR machen?

Nicht Äpfel mit Birnen vergleichen. Ich jedenfalls hatte von FHD gesprochen nicht von 4K und auch nicht von 1440p/1600p. Über 4k denke ich beim jetzigen Stand von 4k Monitoren und Grafikkarten nicht mal nach. Ich spiele diese 2 Spiele nicht ich wollte da nur mit ausdrücken das mir so um 30 FPS zu wenig wären beim spielen.

Meine Spiele schafft die 780 mit 1440p auch mit 60+ FPS ohne etwas runterzudrehen.
 
Die zitierten Aussagen von Jen-Hsun Huang sind außerdem stets mit Vorsicht zu genießen, weil er gern dick aufträgt und übertreibt.
Schön dass du auch schon da angekommen bist wo der Thread vor 10 Beiträgen war.
Nicht dass der Nvidia CEO eine glaubwürdige Quelle wäre, doch der nächste Satz:

Du hast gesagt das sei Intel Technologie - das ist es nicht. Nvidia Technologie kann Intel nicht weiter entwickeln. Sie müssen um die Patente herum andere Lösungen suchen, was wiederum die Entwicklungskosten belegen von Intel, sowie Zukäufe die nur annähernd etwas Innovatives in GPU Technik zu bieten haben. Nvidia hält sie aber für 6 Jahre im Spiel um das mit viel Geld aufzuholen, sofern die besten Köpfe bei Highend ihnen keinen Strich durch die Rechnung machen wie bei Larabee wo sie 2-3 Jahre zu spät waren mit der Leistung. Und die sitzen eben bei Nvidia und AMD, die Top Designer. Die wollen eine Titan designen und keine Gen 9 IGP. Da kann Intel in 3 Jahren schauen wie nah ihre eigene Entwicklung an die beiden grossen ran kommt.
 
Nicht Äpfel mit Birnen vergleichen. Ich jedenfalls hatte von FHD gesprochen nicht von 4K und auch nicht von 1440p/1600p. Über 4k denke ich beim jetzigen Stand von 4k Monitoren und Grafikkarten nicht mal nach. Ich spiele diese 2 Spiele nicht ich wollte da nur mit ausdrücken das mir so um 30 FPS zu wenig wären beim spielen.

Meine Spiele schafft die 780 mit 1440p auch mit 60+ FPS ohne etwas runterzudrehen.

Hier sprichst auch Zweideutig.
Das kann man ja jedem wohl selber überlassen mit welcher Qualität/Auflösung/FPS er gerne seine Spiele spielen möchte. Das eine APU/iGPU (egal von welchem Hersteller) bei vielen nicht die Ansprüche erfüllt ist denke ich offensichtlich. Da braucht es auch kein 4k für und schon gar nicht abfällige Bemerkungen.
Mit der richtigen Einstellung müssen es doch keine 30FPS sein.
Beide Spiele wurde auf mittel in Full HD getestet mit nur 2133MHz Ram und SR oder DR?!
In NFS World z.b. liegen zwischen niedrig (nicht sehr niedrig) und mittel z.b. locker 30-40% oder noch mehr.
Somit würden die Spiele auf niedrig in Full HD vielleicht schon 60FPS + schaffen.
Oder mittel mit 2400MHz DR Ram um 40FPS.......man muss es nur wollen und nicht meinen die tollen bunten Balken sind Gesetz.;)
 
Darum geht es ja,wenn ich bei ner 780 schon nicht voll aufdrehen kann,wieso muss ichs bei ner APU dann machen wie es hier verlangt wird?
Wie schon richtig geschrieben wurde,ich kann mit nem A10 7850K nahe zu JEDES Spiel in Full HD ohne Probleme Spielen und ob ich hier oder dort ein wenig niedriger gehen muss gegenüber ner 780 sollt kein Beinbruch sein.Ein Beinbruch ist es aber wenn ich nur 500EU fürn Rechner hab und nicht mal EINE 780 für alle Spiel auf MAX reicht.;)
Um jetzt mal speziell bei den APUs zu bleiben habe ich bereits bei meinem Richland die Erfahrung gemacht das sich erfreulich viele Spiele damit spielen lassen sofern man auf die Kantenglättung verzichtet. Ich vermute mal das die einfach zu viel von der knappen Speicherbandbreite frißt. Mal ganz zu schweigen davon das SSAA so massiv Leistung frißt das man damit praktisch jede Grafikkarte in die Knie zwingen kann.
 
Eben,dann ist es doch egal ob ich die Einstellung bei ner 780 runterstellen muss oder ner APU, zudem sind es doch eh nur wenige Tittel die so Extrem sind.
Richland mit iGPU hab ich übersprungen,ich hab nur den Athlon 5350 @ OC womit man schon in Full HD Spielen kann,Llano A8 3850 und den A10 7850K der z.b. LOL selbst als 65Watt locker auf max schafft wie auch einige andere Tittel.
 
Nen Testrechner mit dem Bavani habe ich auch noch aber dessen GPU ist für diverse Titel dann doch schon zu schwach aber für Spiele wie Half Life 2 reicht es letztendlich doch noch.
Unterm Strich kommt es also vor allem darauf an um welche Spiele es sich handelt weshalb sich mal wieder zeigt das Pauschalaussagen zur Spielbarkeit Blödsinn sind.
Den Kaveri überspringe ich wiederum da er sich durch die Speicherbandbreitenlimitierung von der Spieleleistung her zu wenig vom Richland distanzieren kann und ich die anderen Features in dem Rechner nicht benötige.
 
Zurück
Oben Unten