Neuer Artikel: OEM vs. Retail - Netzteile

@ProphetCHRIS,

Weißt du von wem die TX-Reihe von Corsair produziert wird, von Seasonic oder jemand anderem.
Ich bin zwar nicht der Prophet, aber ich sag's mal trotzdem: Zumindest das 750W Modell ist wohl auch von CWT, wie das 550er VX und das 1kW HX. (TX@jonnyguru)

@3,3+5V Schiene: Da ziehen selbst Top-End (Dual Sockel, Quad SLi) Systeme keine 80W Combined mehr.
 
Ich bin zwar nicht der Prophet, aber ich sag's mal trotzdem: Zumindest das 750W Modell ist wohl auch von CWT, wie das 550er VX und das 1kW HX.
Ja sind von CWT, leider. Ich bin kein Fan von CWT aber die haben im Moment sehr günstige Preise für ihre ~1000er Modelle. Ebenfalls sehr beliebt sind die Enhance 1000W Modelle, die von sehr vielen anderen Herstellern benutzt werden und ebenfalls günstig angeboten werden.

Das VX550 hab ich ebenfalls letzte Woche bekommen. Das kommt aber eher in die PCGH und AnandTech. Der Artikel OEM vs Retail war einfach nur längst überflüssig bei P3D, weswegen ich den geschrieben habe.
 
ne, war ganz und garnich überflüssig. ;)
"Man weiß ja wie es gemeint"
 
deshalb is die Druckversion (>Artikel Optionen) ganz nett. ;)
Man lernt nie aus!

An dieser Stelle auch vielen Dank an dich Prophet Chris, dass du uns mit solchen interessanten und durchdachten Tests erhalten bleibst :D

Ich werde mich wohl beim Corsair bedienen. Das sollte ja durchaus passend für mein System sein. Wobei es anscheinend die aktuelle Referenz in der Preisklasse <75€ zu sein scheint?

MfG Jan
 
Zuletzt bearbeitet:
Ja sind von CWT, leider. Ich bin kein Fan von CWT aber die haben im Moment sehr günstige Preise für ihre ~1000er Modelle. Ebenfalls sehr beliebt sind die Enhance 1000W Modelle, die von sehr vielen anderen Herstellern benutzt werden und ebenfalls günstig angeboten werden.

Das VX550 hab ich ebenfalls letzte Woche bekommen. Das kommt aber eher in die PCGH und AnandTech. Der Artikel OEM vs Retail war einfach nur längst überflüssig bei P3D, weswegen ich den geschrieben habe.

Und was ist an CWT so schlecht, mal abgesehen von kleinen Mängeln beim Zusammenbau des NTs, was ich bei einem Review nachlesen konnte, was ich davon finden konnte. Der Rest schien soweit okay zu sein. Wobei CWT auch ehr nach No-Name NT klingt.

VX 550 @JonnyGuru

Jedenfalls besser als das BeQuiet Dark Power P6 Pro, da man hier keine Pins ins NT reindrücken kann (Nachteil des Kabelmanagment entfällt) eine 12V Schiene besitzt und daher der Strang ingesamt höher belastet werden kann, es eine bessere Effizenz hat. Die Lautstärke ist in ungefair gleich, SS ist hörbar lauter (anhand eines SS 380 Watt getestet)
 
Zuletzt bearbeitet:
Und was ist an CWT so schlecht, mal abgesehen von kleinen Mängeln beim Zusammenbau des NTs, was ich bei einem Review nachlesen konnte, was ich davon finden konnte. Der Rest schien soweit okay zu sein. Wobei CWT auch ehr nach No-Name NT klingt.

VX 550 @JonnyGuru

Jedenfalls besser als das BeQuiet Dark Power P6 Pro, da man hier keine Pins ins NT reindrücken kann (Nachteil des Kabelmanagment entfällt) eine 12V Schiene besitzt und daher der Strang ingesamt höher belastet werden kann, es eine bessere Effizenz hat. Die Lautstärke ist in ungefair gleich, SS ist hörbar lauter (anhand eines SS 380 Watt getestet)
CWT ist keinesfalls ein noname Hersteller. Die bauen sehr gute Netzteile, welche aber leider mit leichten Problemen beim Thermal Management zurechtkommen müssen. Ansonsten haben die sich seit einem Jahr jetzt wirklich gesteigert. Alles kein Problem, es gibt eben nur bessere Alternativen. Ich bin mir auch ziemlich sicher, dass bq! da schon bald nachlegen wird bei den Netzteilen. Die SP haben sie ja schon verbessert und ein Ulgrade auf die P6 Serie kommt sicherlich auch bald. Ausfallraten mal außer Acht gelassen, denn wie gesagt beschweren sich immer nur die bei denen etwas ausfällt. Wenn man nun be quiet als meistverkauftes Netzteil hat fallen natürlich mehr Netzteile aus. Hier sollte prozentual geschaut werden, denn wenn einer 10 Nts verkauft und da kommt eines wieder beschwert sich nur ein Kunde. Wenn man 100 verkauft und 10 ausfallen beschweren sich schon 10 Kunden. Deswegen kann man als "Nichtwisser" keinesfalls von höheren Ausfallraten sprechen. Dies sollte dann doch ein Distri oder Onlineshop übernehmen.
 
CWT ist keinesfalls ein noname Hersteller. Die bauen sehr gute Netzteile, welche aber leider mit leichten Problemen beim Thermal Management zurechtkommen müssen. Ansonsten haben die sich seit einem Jahr jetzt wirklich gesteigert. Alles kein Problem, es gibt eben nur bessere Alternativen. Ich bin mir auch ziemlich sicher, dass bq! da schon bald nachlegen wird bei den Netzteilen. Die SP haben sie ja schon verbessert und ein Ulgrade auf die P6 Serie kommt sicherlich auch bald. Ausfallraten mal außer Acht gelassen, denn wie gesagt beschweren sich immer nur die bei denen etwas ausfällt. Wenn man nun be quiet als meistverkauftes Netzteil hat fallen natürlich mehr Netzteile aus. Hier sollte prozentual geschaut werden, denn wenn einer 10 Nts verkauft und da kommt eines wieder beschwert sich nur ein Kunde. Wenn man 100 verkauft und 10 ausfallen beschweren sich schon 10 Kunden. Deswegen kann man als "Nichtwisser" keinesfalls von höheren Ausfallraten sprechen. Dies sollte dann doch ein Distri oder Onlineshop übernehmen.


Gut die anderen verbauten BQ waren es 3 oder 4 davon ist eines aus der SP-Serie laufen noch, und meines lief ja auch mehr als 1,5Jahre ohne Probleme. Allerdings ist es schon ein Mängel wenn ich ein Stecker ins Laufwerk stecke das andere richtig rum ins NT reinstecke es anmache und mir das Plastik um den Masse Pin wegschmilzt wie am Laufwerk es leicht angekokelt ist. Das NT läuft jedenfalls nicht mehr fehlerfrei, aber da Laufwerk läuft zum Glück noch. Und als ich den Stecker rausgezogen habe, sah ich halt das ein anderer Pins sich ins NT reingedrückt hat. Ob das letztendlich die Ursache war kann ich nicht sagen, aber in Reviews wurde das schlechte verlöten der Bauteile oder der Eindruck derer schon bemängelt. Das machen andere halt wohl besser. Allerdings hat man hier den Vorteil das man das NT in Deutschland reklamieren kann und ein neues bekommt. Bei Corsair dürften mir da selbst die 5 Jahre Garantie nichts nutzen wenn die Kosten für den Versand nicht viel weniger betragen als das NT überhaupt wert ist. Aber ich hoffe mal das es Corsair in 5 Jahren geschafft hat, wie andere Hersteller auch in (NL) Fuss zu fassen.

Was die neue BeQuiet SP 80+ Serie dann bringen wird, wird man sehen. Bin jedenfalls schon interessiert daran. Und wie du schon geschrieben hast, die DP Serie davon was mitbekommt.
 
höchst interessanter test, aber testet doch mal die
xilence nt´s, die gibts von 200w-1kw in diversen ausführungen
und sind dabei sehr leise und spottenbillig (und haben vorabtausch ;-), die würden mich
durchaus mehr interessieren und ja ein fortron 350 als vergleich; wäre durchaus nett gewesen
 
Najo, ein Xilence ist ja im 2006er RoundUp und es hat nicht gerade geglänzt, besser als LC-Power (was nicht wirklich schwer ist), aber nicht so gut wie die altbekannten Marken.
 
Allerdings sind die einfachen Modelle aus der Xilence Red-Wing Serie, und es gibt ein Netzteil was sich sehr stark von den kleineren absetzt. Ob es allerdings besser ist, ist eine anderen Frage.
 
[3DC]Payne;3370700 schrieb:
Die BQT SPs sind doch Fortrons, oder??
Jap, aber es gilt trotzdem "You get what you pay for" und BQ! war wohl sehr knauserig bei der Lüftersteuerung, die ist reihenweise abgeraucht, selbst ohne Zusatzlüfter dran.
 
Jap, aber es gilt trotzdem "You get what you pay for" und BQ! war wohl sehr knauserig bei der Lüftersteuerung, die ist reihenweise abgeraucht, selbst ohne Zusatzlüfter dran.
Und genau das haben die ja nun geändert. Also die neuen SP werden wohl alle Fehler ausgemerzt haben. Es war eben das erste von dem Hersteller und da muss man sich erst einmal anpassen.
 
Wenn es hier schon so viel Werbung für die "neuen" BQ! NTs gibt...
Wann kann man die "neuen" denn kaufen? Werden die "neuen" BQ! von der Effizienz besser als die Seasonic sein?
 
Wenn es hier schon so viel Werbung für die "neuen" BQ! NTs gibt...
Wann kann man die "neuen" denn kaufen? Werden die "neuen" BQ! von der Effizienz besser als die Seasonic sein?
Ja, die neuen SP sollen schon im Handel sein. Verwechsel viel Info nicht mit Werbung ;)
 
Ja, die neuen SP sollen schon im Handel sein. Verwechsel viel Info nicht mit Werbung ;)

:-)
Bezieht sich das "Ja" auf die höhere Effizienz?

Edit: Kann ich das "neue" von dem "alten" BQ! SP an irgendeiner Nummer bei den Onlineshops unterscheiden?
 
Zuletzt bearbeitet:
:-)
Bezieht sich das "Ja" auf die höhere Effizienz?

Edit: Kann ich das "neue" von dem "alten" BQ! SP an irgendeiner Nummer bei den Onlineshops unterscheiden?
Ich denke die Bilder sollten anders sein, da das Gehäuse eine Prägung hat. Ansonsten werden die Shops schon bescheid geben, wenn sie eine "bessere" Variante zu verkaufen haben. Ja, das Ja war wegen der höheren Effizienz.
 
Also, der Test an sich ist ja recht interessant - aber, großes aber:

Es ist bei Darstellungen von Daten absolut unabdingbar, korrekte Skalen an den Achsen zu verwenden. Zuerst fiel es mir bei der Effizienz auf Seite 3 auf - "Junge, die geht ja total in den Keller". Dabei geht sie von 84 auf 80 runter. Natürlich ist das ein Abfallen, aber keinesfalls in einem solchen Maße, wie von der Abbildung impliziert.

Zur Erinnerung - solche Achsen sollten immer bei 0 beginnen. In wissenschaftlichen Publikationen ist sowas Pflicht, da es nicht zu verfälschenden Eindrücken führt. Wenn damit dann halt Unterschiede zwischen 81,5 und 81,0 nicht zur Geltung kommen, dann hat das einen Grund - es sind eben keine großen Unterschiede, und dann eben nicht über solche Graphen darstellbar. Dafür muss man dann halt eine Tabelle machen und es im Text klar machen - wobei halt wiedeurm zu beachten ist, dass irgendwelche Unterschiede <1% eben nicht groß (und damit relevant?) sind.

Sorry, aber eine verfälschende Darstellung (und darum handelt es sich hier leider) verschandelt für mich durchaus einen Artikel. Ja, es werden jetzt viele heulen "Wir wissen doch, worum es geht" usw. - aber warum etwas falsch darstellen, wenn's auch richtig geht? Falls jemand sagt "aber bei der Lautstärke ist das anders wichtig - da ist ein kleiner Unterschied schon sehr wichtig" - dann muss man da halt eine logarithmische Auftragung wählen.

Seht's nicht als fieses Gemecker, auch wenn ich's massiv schreibe - aber es hat seinen Grund, dass man eine solche Darstellung in keinem seriösen Magazin (oder gar einer Publikation) findet.

Klingon
 
Zuletzt bearbeitet:
@Klingon

KANNST DU DICH EIN WENIG MIT DEN GROSSBUCHSTABEN ZURÜCKHALTEN?

DENN DAS UNTERSTREICHT HÖCHSTENS DIE ÜBERHEBLICHKEIT UND KEINESWEGS DEN GEWOLLTEN INHALT DEINES BETRAGES.
DER AUTOR DES BETRAGES IST JA NICHT BLÖDE.
ER VERSTEHT ES SICHER AUCH SO.

DANKE

lg
__tom
 
...
Zur Erinnerung - solche Achsen sollten immer bei NULL beginnen. In wissenschaftlichen Publikationen ist sowas Pflicht, da es nicht zu verfälschenden Eindrücken führt. Wenn damit dann halt Unterschiede zwischen 81,5 und 81,0 nicht zur Geltung kommen, dann hat das einen Grund - es sind eben keine GROßEN Unterschiede, und dann eben nicht über solche Graphen darstellbar. ...

Naja, meiner unbedeutenden Meinung nach muss der Graph nicht unbedingt bei 0 anfangen, aber den Schnitt bei 80% anzusetzen finde ich ebenfalls etwas zu hoch gegriffen.
50% oder doch 60% mit einer grünen Linie bei 80% wäre da besser angebracht gewesen. Bei dieser Aufteilung kommen die kleinen Unterschiede noch zur Geltung, man sieht aber auch deutlich, dass die Effizientz weiterhin deutlich im "grünen" Bereich bleibt.

Ansonsten: Super Artikel!

AndyK
 
Oh man ... :]
Naja zu der Großschreibung ist ja schon genug gesagt.
Dass hier nur ein bestimmter Bereich betrachtet wird und nicht bei 0 begonnen wird ist denke ich so gewollt, da es teilweise um die Darstellung recht kleiner Unterschiede geht, die sich dabei alle in recht hohem Niveau des Wertebereiches bewegen.
Hier bei 0 anzufangen wäre sinnlos und würde am Ziel der Darstellung vorbeigehen, da man viele Unterschiede (wenn man die Grafik nicht gerade gigantisch vergrößert) nicht mehr auf den ersten Blick erkennen würde, gleichzeitig aber nen schönen leeren Bereich der Skala hätte.

Dieser Beitrag zum Thema "wissenschaftliches Arbeiten" wirkt leider eher überheblich als sachlich und angemessen.
Nebenbei handelt es sich hier nicht um eine wissenschaftliche Publikation (wobei ich meine Meinung zu einem gewissen "Alleinherrschaftsanspruch" der Wissenschaft mal außen vor lasse... :]).
 
Zuletzt bearbeitet:
Sry, falls jemandem die Großschreibung zu sehr aufgestoßen ist - meine Absicht war lediglich das Unterstreichen einzelner Worte, und mit dem Code des Boards wollte ich mich da nicht befassen....

Natürlich habt ihr genau geantwortet, was ich vorweg nahm "da sieht man die Unterschiede ja nicht mehr...". Ja, das ist der Grund - die Unterschiede sind dort nicht mehr stark vorhanden!

Wie weit diese aufzublasen ist noch angemessen? Faktor 10? Faktor 2? Kann man nicht sagen, deshalb wird Faktor 1 dort als korrekt angesehen, da unverfälschend. Alles andere ist verfälschend - das Auge *nimmt* halt einen linearen Zusammenhang an (doppelt so groß - doppelt so viel/wenig). Wenn ihr den halt direkt "korrekturrechnen" müsst im Kopf, um auf die Info zu kommen "macht nicht viel Unterschied", warum dann nicht direkt die reelle Grafik darstellen, in der der Unterschied halt nur klein ist? Die Abweichungen bewegen sich halt nur im 5%-Rahmen (84 -> 80%), die sind nicht stark. Wenn's im Graphen nicht rüberkommt, muss man's halt mit "Effizienz ändert sich nicht stark, zwischen 84% im besten Bereich und 80% im schwächsten" im Text darstellen.

Das Bezugnehmen auf Wissenschaft hat nix mit Arroganz zu tun, aber grafische Darstellungen dieser Art kommen nun mal aus einem Bereich, der sich Gedanken um Wissensvermittlung macht. Und in einem Elektronik-Buch (was sicherlich genug mit einem NT-Test zu tun hätte), würdet ihr nie eine solche Darstellung finden. Mit eben den genannten Gründen. *Wenn* schon mal jemand unbedingt eine solche Darstellung, wie hier getätigt, vornimmt, dann "muss" er das Zeichen für "unterbrochene Achse" mit einbringen. Das allerdings wird oft schon direkt gelesen als "minimale Schwankungen/Unterschiede sollen dargestellt werden, weil man sie sonst überhaupt nicht sehen könnte". Mit Recht.

Sorry, aber sonst kommt man gleich in Bereiche, wo die Zehnerstellen bei 3DMark-Läufen als Maßstab in GraKa-Tests genommen werden, um den optischen Eindruck von "Karte X ist 5x so schnell wie Karte Y" zu geben.
 
Sry, falls jemandem die Großschreibung zu sehr aufgestoßen ist - meine Absicht war lediglich das Unterstreichen einzelner Worte, und mit dem Code des Boards wollte ich mich da nicht befassen....

Natürlich habt ihr genau geantwortet, was ich vorweg nahm "da sieht man die Unterschiede ja nicht mehr...". Ja, das ist der Grund - die Unterschiede sind dort nicht mehr stark vorhanden!

Wie weit diese aufzublasen ist noch angemessen? Faktor 10? Faktor 2? Kann man nicht sagen, deshalb wird Faktor 1 dort als korrekt angesehen, da unverfälschend. Alles andere ist verfälschend - das Auge *nimmt* halt einen linearen Zusammenhang an (doppelt so groß - doppelt so viel/wenig). Wenn ihr den halt direkt "korrekturrechnen" müsst im Kopf, um auf die Info zu kommen "macht nicht viel Unterschied", warum dann nicht direkt die reelle Grafik darstellen, in der der Unterschied halt nur klein ist? Die Abweichungen bewegen sich halt nur im 5%-Rahmen (84 -> 80%), die sind nicht stark. Wenn's im Graphen nicht rüberkommt, muss man's halt mit "Effizienz ändert sich nicht stark, zwischen 84% im besten Bereich und 80% im schwächsten" im Text darstellen.

Das Bezugnehmen auf Wissenschaft hat nix mit Arroganz zu tun, aber grafische Darstellungen dieser Art kommen nun mal aus einem Bereich, der sich Gedanken um Wissensvermittlung macht. Und in einem Elektronik-Buch (was sicherlich genug mit einem NT-Test zu tun hätte), würdet ihr nie eine solche Darstellung finden. Mit eben den genannten Gründen. *Wenn* schon mal jemand unbedingt eine solche Darstellung, wie hier getätigt, vornimmt, dann "muss" er das Zeichen für "unterbrochene Achse" mit einbringen. Das allerdings wird oft schon direkt gelesen als "minimale Schwankungen/Unterschiede sollen dargestellt werden, weil man sie sonst überhaupt nicht sehen könnte". Mit Recht.

Sorry, aber sonst kommt man gleich in Bereiche, wo die Zehnerstellen bei 3DMark-Läufen als Maßstab in GraKa-Tests genommen werden, um den optischen Eindruck von "Karte X ist 5x so schnell wie Karte Y" zu geben.
Deinen Einwand verstehe ich, aber ändern werde ich in Zukunft nichts daran. Es ist hier wirklich Blödsinn bei 0 anzufangen, da der Wert bei diesen Ergebnissen niemals bei 0 anfängt. Also wäre es reiner Bandbreitenverschwendung hier eine lange Grafik anzuhängen. Die Vergleichsgrafiken zeigen den wichtigen Bereich der Auslastung zwischen 20 und 100%.. +10%. Es macht hier nichtmal Sinn darüber nachzudenken, von 0 anzufangen, da es nichtmal ansatzweise irgendeinen Zweck erfüllen würde. Verfällscht ist hier nichts, da die Werte groß, dick und fett an beiden Seiten stehen. Wenn ich bei 0 anfangen würde kommen die nächten Schlauberger und meinen, dass man nichts mehr erkennt und sich nur eine dicke Wurst auf der Grafik langzieht...
 
Es ist hier wirklich Blödsinn bei 0 anzufangen, da der Wert bei diesen Ergebnissen niemals bei 0 anfängt. Also wäre es reiner Bandbreitenverschwendung hier eine lange Grafik anzuhängen.

Nun ja, man wählt die Skalierung ja nicht, um möglichst wenig Bandbreite zu nutzen. Am wenigsten davon würde wohl Text verbrauchen [..]
Aber mit derselben Begründung machen Kiddies Grafikkarten-Tests, bei denen eben vier identische Chips genutzt werden, deren 3DMark-Werte sich dann wirklich im Bereich <1% unterscheiden. Darf man diese dann über den halben Bildschirm als Grafik aufblähen? Die könnten dann genauso sagen, dass Werte "darunter" nie erreicht werden. So wie Du hier.

Die Vergleichsgrafiken zeigen den wichtigen Bereich der Auslastung zwischen 20 und 100%.. +10%. Es macht hier nichtmal Sinn darüber nachzudenken, von 0 anzufangen, da es nichtmal ansatzweise irgendeinen Zweck erfüllen würde.

Nun ja - der Bereich der Auslastung ist ja nicht so stark komprimiert wie der Wirkungsgrad - wenn man davon absieht, dass die Auslastungsachse mit einem Bereich von 0-100% auch nicht viel breiter würde, lag mein Schwerpunkt auf der y-Achse. Diese bläst die "Schwankungen" zu extremer Abweichung auf. Graphen sollen verdeutlichen - natürlich muss man sie dennoch lesen, aber wenn ich durch das Lesen erst wieder meinen Eindruck korrigieren muss, den ich vom Betrachten des Graphen erhalten habe, dann stimmt da doch etwas nicht...?

Verfällscht ist hier nichts, da die Werte groß, dick und fett an beiden Seiten stehen.
Wie oben schon geschrieben - es entsteht ein verfälschender Eindruck. Graphen sollen Entwicklungen und Verhältnisse zueinander darstellen - wenn diese "verfälschend betonen" und man das erst korrektur-lesen muss, wo liegt dann der Wert? Du kannst ja gerne von "Optimum bei X% sprechen", das lehnt niemand ab, aber es ist halt kein so starkes Optimum/Maximum, wie Dein Graph (eindeutig!) impliziert. Auch im Mathe-Unterricht hat man ja schon gelernt, dass jeder Graph einen Ursprung haben sollte....

Wenn ich bei 0 anfangen würde kommen die nächten Schlauberger und meinen, dass man nichts mehr erkennt und sich nur eine dicke Wurst auf der Grafik langzieht...

Das könnte dann daran liegen, dass die Abweichungen eben nicht groß sind. Die Hersteller bezeichnen das übrigens berechtigt dann als "hält über den gesamten Einsatzbereich eine Effizienz von ~8x %".... Wenn solche Schlauberger kommen, sind das auch diejenigen, die ein Mainboard zu einem "Sieger" küren, weil es bei einem bestimmten Test 0,623% vor dem Rest-Feld lag. Anstatt dann zu sagen, dass halt alle ungefähr gleichauf liegen (fast jede neue BIOS-Revision macht doch schon mehr Unterschied....). Aber sind solche Schlauberger schlau, und sind sie ein Maßstab?
 
Zurück
Oben Unten