welche cpu? Intel i7 4790s / 4790 / 4790k

welche cpu? Intel i7 4790s / 4790 / 4790k


  • Anzahl der Umfrageteilnehmer
    12
  • Umfrage geschlossen .
der Xeon 1231 v3 erscheint mir absolut unlogisch, er hat eine tdp angabe von 80, und der 4790k 88 und das bei höherer leistung. der 4790k hat aber auch noch eine gpu verbaut u der xeon nicht. ich verstehe da nicht wiso der xeon scheinbar mehr strom für seine 4 kerne als der 4790 braucht, wenn man mal davon ausgeht, das die gpu mehr als nur 8 watt ausmacht.
Vergiss mal bitte ganz schnell die TDP-Angabe.
Dir kommt es ja vermutlich auf den realen Verbrauch an, nicht auf einen theoretischen Wert, nach dem sich die PC-Hersteller bei Netzteil- und Kühlungsdimensionierung richten.
Für alle 4 CPUs sollte es Messwerte unter realen Bedinungen im Netz geben und ich habe da noch in Erinnerung, dass die sich schon deutlich unterscheiden. Der 4970k dürfte die 88W aus- wenn nicht sogar überreizen. Wenn alle CPU-Kerne und zusätzlich noch die interne GPU voll gefordert werden, dann sind da auch mal über 100W fällig, sofern das Mainboard nicht drosselt.
Mal abgesehen davon sind ja alle 4 CPUs was den CPU-Teil angeht, so ziemlich identisch. Bei gleichem Takt sollte also auch gleicher Stromverbrauch rauskommen.

Darum würde ich auf alle Fälle den 4790k nehmen, egal wie schnell der dann wirklich läuft. Allein schon weil der besser gekühlt wird. In der Praxis würde ich wahrscheinlich dann eher die Werte des Xeon einstellen (also GPU aus und ca. 3,4GHz, was einen sehr sparsamen Dauerbetrieb ergeben sollte. Meinen FX-8350 lass ich auch nur selten mit 4GHz laufen - es tut aber gut zu wissen, dass ich es jederzeit könnte, ohne dabei schon übertakten zu müssen.
Wenn es zudem gar nicht um Boinc-Dauerbetrieb geht, sondern nur um Gaming, dann ist der Stromverbrauch sogar total vernachlässigbar.
 
Unabhängig der Debatte...bedenke bitte, daß Intel aus Gründen der Vergangenheit eigentlich völlig unkaufbar ist... *suspect*......................[/I]

sei mir ned böse, aber ich kann nu wirklich keinen moralischen bekommen bei hardware, wenn es nur 2 hersteller gibt. hätte aldi mit seinem brot vor 3 ~ 4 jahren kinder in uganda versklavt und kätzchen in italen getötet, würd ich wohl nie wieder bei aldi kaufen, da es noch genug andere märkte gibt. intel und amd sind jedoch nur noch 2, keine auswahl vorhanden. den moralsichen kann ich mir also nicht leisten.

und intel hat ja nun auch keine kinder versklavt oder kätzchen getötet.

das in der wirtschaft mit ellbögen gegen kopf und knien in die nieren gearbeitet wird, ist ja nicht neu. amd hätte dies wohl ebenso gemacht. ceo ist ceo, jene sind alle gleich, unabhängig von der firma.



Ich würde sagen dann nimm den 4790k...........................

ich sehe das langsam immer mehr wie du, das es in die richtung 4790k gehen wird, er bietet die beste leistung, ist am besten kühlbar, ist variable nach oben wie nach unten was den takt angeht.


eine frage an dich habe ich noch, ist es bei den intel systemen möglich die spannungen und den multi aus dem windows heraus zu regeln?

sprich innerhalb von windows / realtime versch oc setups aufzurufen? cpu voltage / cpu multi usw?

Wenn die Arbeit doppelt so lang dauert, sollte der Gesamtsystem Verbrauch auch halb so hoch sein, oder?

kommt immer auf die cpu an.

und es ist nicht so wichtig wie lange das rendern dauert, sondern wie hoch der verbraucht ist. zeit war vor 4 jahren noch wichtig aber heute ist die cpu leistung durch die bank für den bereich hoch genug, wichtig ist mir nur noch der verbrauch.



Vergiss mal bitte ganz schnell die TDP-Angabe.

...

Mal abgesehen davon sind ja alle 4 CPUs was den CPU-Teil angeht, so ziemlich identisch. Bei gleichem Takt sollte also auch gleicher Stromverbrauch rauskommen.

Darum würde ich auf alle Fälle den 4790k nehmen, egal wie schnell der dann wirklich läuft. Allein schon weil der besser gekühlt wird. In der Praxis würde ich wahrscheinlich dann eher die Werte des Xeon einstellen (also GPU aus und ca. 3,4GHz, was einen sehr sparsamen Dauerbetrieb ergeben sollte.

auch dir danke, für die anregung.

der 4790k wird wohl die beste wahl sein, sagte dies ja schon zu Majohandro.
 
Du kannst die CPU mit Ai Siute III auch vom Windows Steuern. Du kannst die CPU übertakten,sogar den Ram soweit ich gesehen habe. Alle Spannungen manuell einstellen. Volle Einstellungen an der NB u.s.w. Au Siute III gibt es aber nur bei Asus Mainboards. Viel sagen Ai Siute ist Müll bei mir läuft es super. Ich habe meine CPU übertaktet und die Feineinstellungen über Ai Siute eingestellt während Prime 95 lief.
Ich muss sagen wo meine Einstellungen stabil liefen habe ich es dann im BIOS nochmal eingestellt. Es läuft alles wie es soll. Bin zufrieden sehr zufrieden.

Da ich leider bis Ende nächster Woche noch im Urlaub bin schau dir mal ein paar Videos auf youtube an. Mit der Software kann man einiges einstellen und auslesen.

Was andere Mainboardhersteller an Software anbieten weiß ich nicht da ich nur Asus Bords verwende.

Nächste Woche Freitag bin ich wieder zu Hause falls noch Fragen offen sein sollten kannst du dich gerne melden.

Gruß
 
Zuletzt bearbeitet:
kommt immer auf die cpu an.

und es ist nicht so wichtig wie lange das rendern dauert, sondern wie hoch der verbraucht ist. zeit war vor 4 jahren noch wichtig aber heute ist die cpu leistung durch die bank für den bereich hoch genug, wichtig ist mir nur noch der verbrauch.
Hm, dann würde ich aber eher noch weiter unten ansetzen wenn es dir nur um den Verbrauch geht Zeit aber egal ist.
Du weist ja, dass wir Strom in KWh (KiloWattStunden) bezahlen und nicht in Watt?
 
Also ich muss Lügen aber ich glaube meiner braucht mit einer Input voltage von 1,55 Volt und einer Spannung von 1,265 Volt bei 4,7 GHz 110 Watt unter Prime. Da mein PC nur zum zocken und surfen genutzt wird ist der Verbrauch egal da weder Battlefield noch Warframe die CPU an seine Grenzen bringt. Im Multi bei Battlfield verbraucht mein Pc zwischen 280-300 Watt. Was bei meinem System voll in Ordnung geht.

Am Ende muss der TE entscheiden was er macht da er seinen Strom selber zahlt;)
 
Zuletzt bearbeitet:
auch dir danke, für die anregung.

der 4790k wird wohl die beste wahl sein, sagte dies ja schon zu Majohandro.
Ok, sagen und schreiben fließt ineinander.

@Majo
Was meinst du, kann dein System ein GTX980 SLI stemmen?
Mal auf den Verbrauch pfeifen, wenn 2-3 Stunden zocken reichen, soll es auch entsprechend krachen auf dem Schirm! *greater*
 
Mein 4770k hat zwei asus Matrix r9 280x gestemmt. Ich habe im netzt jemand mit einem i5 auf 4,5 GHz und zwei Titan im sli gesehen. Mein i7 schafft jede Graka im 2 way sli. Da mache ichmir keine Sorgen;) aber meine 780er reicht noch locker für BF3 und Warframe. Ich warte auf die 980 ti. Wenn der Verbrauch gut ist werde ich zwei Stück einbauen;)

Eigentlich reicht eine da der Asus Monitor alles butterweich wiedergibt mit G Sync. Da sind die FPS nicht mehr so wichtig.

Gruß
 
achtung TL:DR



habe erst gestern die probe aufs exempel gemacht und meine cpu bei haven / valley / alien isolation / shadow of mordor so lange mit dem multi nach unten gesetzt, bis die avg fps bei 4k, / kein aa / kein vsync / max gfx settings (ssao/hdao und co. immer deak, weil ich diese unrealistischen schatten optisch unschön finde!) das sinken angefangen haben.

ich habe die titel deshalb ausgewählt, da sie gpu und nicht cpu orientiert und neu sind, außer die benches, also nicht so neu. dies empfinde ich zumindest so, da meine cpu bei den spielen meist nur um die 20 ~ 22% ausgelastet ist.

nun was soll ich sagen, bei meiner cpu 8350, stock 4 ghz, kein turbo, begannen meist die avg fps erst ab ~2.8 ghz zu sinken.

27 avg fps haven
28 avg fps valley
35 avg fps modor
57 avg fps alien

ich habe danach die cpu nochmal auf 4,6 ghz übertaktet und alles nochmal laufen lassen. naja die fps sind kaum gestiegen gegen über den 4 ghz stock, nur marginal im 1 bzw 0,x bereich oder gar nicht. die gpu war ja meist schon ab 2.8 ghz voll ausgelastet, also was sollte da noch steigen.

die gpu auslastung begann erst beim reduzieren des cpu multi zu sinken (~2.8ghz +/- 200mhz).



spiele welche schlechte ports sind, viel auf die cpu auslagern wegen schlechter optimierung o. generel schlecht optimiert sind, watchdogs war letztens ein gutes beispiel dafür, ignoriere ich onehin. ich spiele nichts was auf biegen und brechen leistung braucht, aufgrund der sparwut der hersteller.

battlefield 4 nehme ich mal nicht her, da das ein multiplayer ist und recht viel von dem ganzen networking auf der cpu erledigt und ins optische umgesetzt werden werden muss, rüber zur gpu - spieletyp bedingt. das ist einer der fälle wo ich gerne breit bin zu glauben das mehr cpu auch mehr bringt.



kommenden monat, bzw. sobald wieder eine solche zotac wie ich sie breits habe, zu einem normalen preis lieferbar ist, werde ich schon mal eine bestellen und sie im aktuellen system im sli betrieb laufen lassen und nochmals testen ab wann welches cpu limit zu erfühlen ist.

die zahlen werde ich aufheben und auch screens dazu machen, danach dann alles nochmals, mit einem undervolted 4790k.



ich will das nun für mich mal klären, was dieses ganze "DU MUSST 1000€ CPU KAUFEN!" getue im rest vom internet wirklich auf sich hat, wenn es ums spielen geht ;)

mmn. u. nachdem was ich bis jetzt gesehen habe ist das meist genau das selbe, wie das "DU MUSST PCIE 3.0 X16 HABEN BEI 4K SLI!!" was, wie in meinem ersten post zu sehen, ja doch schon des öfteren widerlegt wurde.

edit:

Eigentlich reicht eine da der Asus Monitor alles butterweich wiedergibt mit G Sync. Da sind die FPS nicht mehr so wichtig.

mein gedanke.
 
Das ist blödsinn das man eine 1000 Euro CPU oder 2x PCIE x16 im SLI haben muss. Auf sowas würde ich nicht hören. Ich hatte vorher ein 4770k und zwei Asus Matrix R9 280x im CFX die mit PCIE 3.0 x8 angebunden waren. Die Leistung war super und ich war sehr zufrieden in BF3 und Warframe.

Ich übertreibe es vielleicht auch mal gerne in Sachen Hardware aber was man nicht nutzt muss man auch nicht haben;)


Ich bin gespannt wie es bei dir läuft. Der Unterschied zwischen Fx und i7 wird deutlich sein in den meisten Games.
 
Zuletzt bearbeitet:
spiele welche schlechte ports sind, viel auf die cpu auslagern wegen schlechter optimierung o. generel schlecht optimiert sind, watchdogs war letztens ein gutes beispiel dafür, ignoriere ich onehin. ich spiele nichts was auf biegen und brechen leistung braucht, aufgrund der sparwut der hersteller.

battlefield 4 nehme ich mal nicht her, da das ein multiplayer ist und recht viel von dem ganzen networking auf der cpu erledigt und ins optische umgesetzt werden werden muss, rüber zur gpu - spieletyp bedingt. das ist einer der fälle wo ich gerne breit bin zu glauben das mehr cpu auch mehr bringt.
Wenn du dich über schlechte Ports ärgerst, solltest aber doch besser zu einer AMD Karte greifen, weil Mantle hier auch ansetzt.

Daher habe ich BF4 auf dem Testgelände getestet, damit es kein Einfluß der Internet Latenz gibt.
Bei den Bildern die ich gepostet habe ist das komplette System @ standard Takt.
Also 4GHz (FX-8 ) reichen für zwei Karten locker um sich von einer Karte deutlich abzusetzen.

Die meisten 990FX Mainboards können sogar drei Karten aufnehmen, das hat man bestimmt gemacht, weil die FX CPUs eh zu langsam sind.
Allgemein finde ich etwas Merkwürdig, sobald ein FX im Benchmark vor einem Intel ist, wird es gekonnt ignoriert.

Schau dir Bitte auch die Frametimes an, da kommt Intel leider noch nicht mit, da hilft nur G-sync.
 
@ Windhund

Wolltest du jetzt mit dem Post sagen das ein Fx mit zwei Karten mehr FPS auf dem Schirm bringt als ein i7 und zwei Grakas?
Kann auch sein das ich gerade ein bisschen doof bin.

Zum Thema G Sync;

G Sync bringt dir mit z.b zwei GTX 980 glaube ich auch nicht viel. Bei dem Acer mit 4k Auflösung läuft G Sync nur von 30- 60 FPS da er nur 60 Hz hat. Bei meinem Asus greift G Sync von 30-144 FPS. Das war auch ein Grund warum ich den Asus genommen habe.

Wenn man g Sync nutzt braucht man keine zwei Grafikkarten das es mit einer Graka und G Sync besser läuft als mit zwei ohne G Sync bzw auch mit. Wenn deine zwei Grakas mehr FPS bringen als dein Monitor bildwiederholungsfrequenz hat funktioniert G Sync wie V Sync.

Bei mir läuft das optimal finde ich . Mit der 780er in BF3 zwischen 85 und 110 FPS auf max mit 4x MSAA. Und das läuft so flüssig ich denke ich kann nicht mehr ohne G Sync;)

Deswegen sollte der TE sich schon eine Graka kaufen die zu dem Monitor passt.

Gruß
 
@ Windhund

Wolltest du jetzt mit dem Post sagen das ein Fx mit zwei Karten mehr FPS auf dem Schirm bringt als ein i7 und zwei Grakas?
Kann auch sein das ich gerade ein bisschen doof bin.

Zum Thema G Sync;
Nein das natürlich nicht, aber die Ausgabe ist einfach Qualitativer (Gleichmäßiger), musst dir nur die Bilder hier im Thread anschauen von Tobi und mir (BF4).
Ob man nun wie AMD eine eigene API nutzt um die Hardware besser untereinander zu kommunizieren lassen, oder das gestreute Signal am Monitor glättet ist im Grunde egal.
FreeSync ist das gegenstück zu G-sync und erfordert auch einen Kompatiblen Monitor.
Das brauch ich aber alles nicht, da AMD das mit vorhandener Hardware löst. ;)
 
Ja gut ok. Man darf nicht vergessen das jeder ein anderes empfinden von flüssig hat. Jeder sollte sich genau erkundigen was er verbaut damit jeder seine Hardware so kombiniert das es für ihn optimal ist.

Die beiden Matrix Karten die ich hatte waren und sind der Hammer. Ich habe sie beide noch und kann mich nicht trennen;)

Die 780er von EVGA läuft bei mir mit 1250/1600 MHz und die hat echt bums muss ich sagen. Der Monitor rundet das noch perfekt ab. Ich brauche keine zwei Karten denke ich.

Manchmal denke ich das sich NVIDIA ins eigene Fleisch geschnitten hat da viele einmalig viel Geld für so ein Monitor bezahlen aber dann kein Multi GPU mehr benötigen. Ich denke NVIDIA macht mehr Umsatz an Multi GPU Systemen anstatt an G Sync.


Ich bin gespannt was AMD da mit freesync anstellt aber solange meine 780er noch alles locker packt was ich so Spiele werde ich auch keine neue einbauen. Obwohl ich gespannt bin auf die 980 zu.

Naja der TE wird ja bestimmt Feedback geben wenn es soweit ist mit seinem System.

Gruß
 
@Majohandro das ziel ist es über 30 fps zu haben, 40 ok 60 optimal, g-sync ist das zuckerl. 30+ fps schaffe ich mit dem setup locker bei 4k. zumindest in der nahen zukunft.

mir sind 4k wichtiger, als 60+ fps. ich weiß das 120 fps sehr sehr schön sind, viel wichtiger für das spielgefühl sind für mich und für mein gehirn die 4k auflösung und ca. 60 fps. 30 fps tut etwas weh aber wenn ich es mir aussuchen müsste 120 fps@ 1080p oder 4k @ 60fps, ich würde 4k wählen bei 60fps.

mag sein, das einige spiele in den framecap laufen und bei 60 ende ist, wozu 100 rendern wenn das display nur 60 wiedergeben kann, damit kann ich aber leben, spare ich strom und hab reservern für spiele die es benötigen.

4k @ 120fps das ist absolute zukunftsmusik, meine güte 8fach sli oder was? :D



@WindHund

ja mantle, alles gut und schön aber leider eben noch nicht verbreitet genug, noch nicht u. leider! als das ich meine hardware darauf ausrichten würde. und intel hat nun mal das besser verhältnis von stromverbrauch zu leistung, auch wenn der preis meist immer unter aller kanone ist wie ich finde.




gott bin ich gerade besoffen, schönen abend noch jungs :D
 
Ja gut ok. Man darf nicht vergessen das jeder ein anderes empfinden von flüssig hat. Jeder sollte sich genau erkundigen was er verbaut damit jeder seine Hardware so kombiniert das es für ihn optimal ist.
um MGPU mit SGPU zu vergleichen muss man schon reichlich schmerzbefreit sein. aber da kommt man eh vom hundersten ins tausendste, denn die kette für lagfreies, stotterfreies und immersionsstarkes spielen, inkludiert nicht nur die grafikkarte und den bildschirm/fernseher/beamer. auch die eingabegeräte und die leidensfähigkeit des users gehören mit in die gleichung.
dazu dann ggf. noch die interessen des users, "wie" er etwas spielt (down gesampelt, mit stereoskopie, mit oder ohne glättung/sync usw). einfach nur stupide balken vergleichen bringt in keine richtung weiter, denn was nutzen vergleiche irgendwelcher frameraten im 2D betrieb, wenn die immersion und framerate @3D eine komplett andere ist..!? davon ab wird die kluft zwischen den beiden IHVs was vergleichbarkeit angeht eh immer größer, weil ich mit einer NV ganz andere möglichkeiten habe als mit einer AMD graka.. nicht zuletzt aufgrund des größeren VRAM; auch featureseitig.

Die 780er von EVGA läuft bei mir mit 1250/1600 MHz und die hat echt bums muss ich sagen. Der Monitor rundet das noch perfekt ab. Ich brauche keine zwei Karten denke ich.
da es inzwischen DSR für kepler gibt, sollte der wunsch nach einer zweiten karte oder der wunsch nach mehr VRAM sicher recht schnell aufkommen - bei dem einen oder anderen.
JManchmal denke ich das sich NVIDIA ins eigene Fleisch geschnitten hat da viele einmalig viel Geld für so ein Monitor bezahlen aber dann kein Multi GPU mehr benötigen. Ich denke NVIDIA macht mehr Umsatz an Multi GPU Systemen anstatt an G Sync.
dazu muss man das aber schon seeeehr oberflächlich betrachten oder man hat noch nicht das spiel respektive die einstellung gefunden, die die framerate unter 30fps drückt. DSR anschauen und ggf. mal mit 3D-brille spielen.

btw,
merke: bei AMD wird immer alles gut - irgendwann - mir versprechen die das seit 1998 und würde ich darauf warten, wäre ich wohl 50 bis das gesamtpaket endlich mal stimmt.


(..)

mfg
tobi
 
Zuletzt bearbeitet:
@Tobi

Wenn ich aus dem Urlaub komme werde ich das mal mit DSR testen.

Wenn ich wirklich irgendwann mehr Vram brauche hoffe ich auf die 980 ti mit 4-6 GB Vram oder ne neue Titan mit 8 GB Vram.

Zwei 970er im SLI wären eventuell auch interessant vom P/L her gesehen. Aber ich werde erstmal warten was da noch kommt.

Das mit dem G Sync und ins eigene Fleisch schneiden war nur so ein Gedanke.
Solange meine Graka meine Spiele noch ohne Probleme befeuern kann werde ich keine neue holen.

Gruß
 
@WindHund

ja mantle, alles gut und schön aber leider eben noch nicht verbreitet genug, noch nicht u. leider! als das ich meine hardware darauf ausrichten würde. und intel hat nun mal das besser verhältnis von stromverbrauch zu leistung, auch wenn der preis meist immer unter aller kanone ist wie ich finde.

gott bin ich gerade besoffen, schönen abend noch jungs :D
Ich sag mal so, wer Mantle nicht unterstüzt, dem fehlt es an technischem Verständniss.
Ohne Mantle bist du einfach auf Intel und nvidia Hardware angewießen, weil die Programme nun mal so schlecht bleiben wie sie sind.

Ich hoffe du findest was du willst, die Entscheidung bleibt klar bei dir.

In diesem Sinne, heute ist Wasen angesagt!
 
Zuletzt bearbeitet:
Nur weil man Mantel nicht unterstützt fehlt es am Technischen Verdtändniss?
Das würde ich so nicht unterschreiben.

Naja jedem das seine. Bin gespannt wie es dann beim TE läuft.
 
Zuletzt bearbeitet:
Nur weil man Mantel nicht unterstützt fehlt es am Technischen Verdtändniss?
Das würde ich so nicht unterschreiben.

Naja jedem das seine. Bin gespannt wie es dann beim TE läuft.
Naja, technische Grundkenntnisse sind heutzutage eher selten, wie in deinem und Tobis Fall!
Wasen war Super! Ich meine, ein Zuckerflash zu haben.... *buck*

Nach dem Bild reicht ein Modul um zwei HD 7970 @ stock auf über 96% Auslastung zu bringen, ist das genehm so? http://abload.de/img/140823_boinc_715w9ssua.jpg
 
Du hast das mit Boinc ausgelastet. Das kann ich auch mit nem i7. Leider habe ich nur eine Karte drin. Ist ja auch egal.
Das soll nicht aus dem Ruder laufen.
 
Du hast das mit Boinc ausgelastet. Das kann ich auch mit nem i7. Leider habe ich nur eine Karte drin. Ist ja auch egal.
Das soll nicht aus dem Ruder laufen.
Ja das ist "nur" Boinc, trotzdem beachtlich, 6x boincsimap WUs auf der CPU also nur ein Modul übrig, das schon mit Hintergrund Programmen beschäftigt ist.

Schau dir mal den Post hier von Complicated an: http://www.planet3dnow.de/vbulletin...etzung-fuer-Mantle-API-in-Sniper-Elite-3-nach

;D
 
Was ich definitive sagen kann ist das der i7 die beiden Matrix Karten besser ausgelastet hat als der 8350. Man kann ein Leben lang diskutieren was besser oder schlechter ist.

Das wichtigste ist das man die Hardware so auswählt das man selber zufrieden mit der Leistung ist;)
 
Was ich definitive sagen kann ist das der i7 die beiden Matrix Karten besser ausgelastet hat als der 8350. Man kann ein Leben lang diskutieren was besser oder schlechter ist.

Das wichtigste ist das man die Hardware so auswählt das man selber zufrieden mit der Leistung ist;)
Das hast du wohl vollkommen richtig Erkannt, nur bleibt die Software nicht stehen.
Vor allem die Treiber nicht, also immer up to date bleiben. ;)

Wenn du wieder an dein System ran kommst, lass mal ein bischen SIMAP laufen und lass mal die Temperaturen sehen. :)
 
Wie meinst du das wenn ich wieder an mein System ran komme. Meinst du damit zwei Grafikkarten? Und welche Temperaturen interessieren dich den?

Edit: Ach so du meinst wenn ich aus dem Urlaub komme;)
 
Zurück
Oben Unten