Artikel Vergleich von Netzwerkadaptern

@Allfred

3Com bezieht meines Wissen seine NIC Chips von Broadcom.

siehe Wikipedia

In the lucrative server network interface card business, 3Com remained second in market share, after Intel. 3Com never managed to beat Intel with its own products or even with joint ventures with Broadcom[citation needed]. It started developing Gigabit Ethernet cards in-house but later scrapped the plans. Later, it formed a joint venture with Broadcom, where Broadcom would develop the main ASIC component and the NIC would be 3Com branded

wobei der Test mit der Broadcom NetXtreme II 5706/5708 Interessant gewesen währe... naja man kann eben nicht alles haben ;)
 
3Com bezieht meines Wissen seine NIC Chips von Broadcom.
Ich wollte auf etwas anderes hinaus als die eigentlichen HW Hersteller: Das Zusammenspiel von NIC und Switch ist mitunter von seltsamen Effekten begleitet. Gerade wenn wie hier in einem Benchmark wenige Prozent Durchsatz über den Sieger entscheiden - wird auch die Harmonie im Verbund wichtiger als wenn es in einer bestehenden Ethernet Topologie rein auf Funktion ankommt.
a020.gif
 
Also meine Intel Gigabit CT Desktop Adapter kam in einem robusten Antistatik-Blister mit Intel-Logo und nicht in einem Karton ohne zusätzlichen Schutz.
Aber ich habe auch zur OEM Version gegriffen und keine Retail. Deswegen habe ich wohl auch keinen Hologramm-Aufkleber auf der Rückseite. *buck*

Die Lieferumfang war aber derselbe. Also mit LowProfile-Slotblech und so weiter...
 
Toller Test!

Einzig negativ fällt das Testsystem auf. Trotzdem kam scheinbar ein repräsentativer Test zustande.

Interessant ist noch das die Karten alle etwa gleich viel Strom verbrauchen (3 bis 4 Watt).

Erwähnenswert währe noch das bei einem Zockersystem (Mehrkern CPU) die Auslastung durch die Killer NIC so gut wie keinen einfluss mehr haben wird. Da kein Spiel alle Kerne zu 100% auslastet sollte der positive Effekt durch die Killer NIC (Ping, FPS) stärker sein als bei dem niedrig dimensioniertem Testsystem.

Die Killer NIC stellt für für den ein oder anderen nicht überzeugten Spieler sicherlich jetzt ein passendes Weihnachtsgeschenk dar ;D

EDIT: Die repräsentierten Daten hätten vielleicht auch an einem anderen Router gemessern werden können.
 
Schöner Test!

@heikosch
Gehen die Optimierungen wohl flöten wenn man beim Bigfoot Adapter die Network-Manager Software aus dem Autostart nimmt?
Da gab es übrigens erst gestern ein Update...
Ich hatte die Killer 2100 bereits nach dem letzten Test gekauft und konnte feststellen das das Rubberbanding in BF-BC2 mit de Bigfoot Karte verschwunden war. Außerdem war im Serverbrowser deutlich zu sehen das der Durchschnitt der Latenzen zu den Servern gefallen ist. Auch die Minimalwerte die bei mir immer so um 50ms lagen, fielen mit der Bigfoot Karte auf 36ms.

In diesem Test hätte ich mir mehr Spieletests gewünscht und auch den Vergleich zu Broadcom.

20% mehr min FPS wären zu diesem Preis auch nicht unbedingt durch eine Grafikkarte realisierbar. Besonders nicht zu diesem geringügig gestiegenen Stromverbrauch.
 
Zuletzt bearbeitet:
Erwähnenswert währe noch das bei einem Zockersystem (Mehrkern CPU) die Auslastung durch die Killer NIC so gut wie keinen einfluss mehr haben wird. Da kein Spiel alle Kerne zu 100% auslastet sollte der positive Effekt durch die Killer NIC (Ping, FPS) stärker sein als bei dem niedrig dimensioniertem Testsystem.

Entweder ich versteh dich falsch, oder es sollte genau andersherum sein. Wenn im Testsystem gern mal Peaks von 100% auftreten und dort noch die Onboardlösung Last verursacht, dann stellt das die Idealsituation für eine Karte dar, die ihren Kram komplett selbst erledigt. Wenn das System sonst eh nicht viel zu tun hat isses grade egal, ob die NIC ihre Berechnungen selbst durchführt oder auslagert.
 
Zum Test allgemein: Ich finde es super, dass bei P3D immer wieder solch exklusive Tests vorhanden sind - und nicht nur die für mich langweiligen Netzteiltests *suspect* Gerade Tests für Netzwerkkarten habe ich online so gut wie keine in den letzten Monaten gefunden; ich denke nämlich darüber nach, mir ein par Netzwerkkarten für den Server und Desktop zu besorgen. Um mal genauer zu sein: Der Server ist mein Media-Server im lokalen Netzwerk, Gamingserver (Minecraft) und demnächst soll er zum Router umgewandelt werden. Soll heißen, dass der Onboardcontroller die Arbeit an zwei Netzwerkkarten abgeben soll. Ich bräuchte also eine für das lokale Netzwerk mit starkem Durchsatz und eine fürs Internet (6 MBit/s Upload, 100 MBit/s Download) für einen sehr guten Ping. Nun tue ich mich aber dennoch schwer an der Interpretation des Tests: Wäre die Intel T2 für den Server (Ubuntu Server 11.10 x64 ) eine gute Wahl oder nicht? :)


@heikosch:
"Während des Tests mit NetIO habe ich mir auch einmal die Auslastung angesehen, aber diese nicht aufgezeichnet, sondern nur Notizen gemacht. Ich kann das ja mal so niederschreiben, wie ich mir das notiert habe:

Intel I350-T2 - Spitzenlast: 65%, Durchschnitt eher bei 35-60%
Intel Gigabit CT Desktop Adapter - Spitzenlast: 65%, Durchschnitt eher bei 35-50%
Onboard - Spitzenlast: 72%, Durchschnitt eher bei 40-55%
Bigfoot Networks Killer 2100 - Spitzenlast: 96%, Durchschnitt eher bei 50-60%"

Welche Auslastung wovon? CPU-Auslastung?

Für die Zukunft bitte mehr davon, wenn möglich :)
 
Was mir noch einfällt: Wie schaut es vom Support unterschiedlicher Betriebssysteme aus? Gibts außer Windowstreiber weiter gepflegte Treiber? Gibts für die Bigfoot Linuxunterstützung?, cFos-Speed gibts auch nur für die Windowswelt.
 
Also meine Frage wäre, in wie weit der eigentlich nur ein kosmetischer Effekt ist? Nur weil ein Echo-Request bevorzugt wird (QoS - daher der geringe Ping unter Last bei cFos Speed), und somit ein etwas geringerer Wert berechnet wird, heißt das noch nicht, dass sich auch Effektiv etwas an der Latenz für eine normale Anwendung ändert.

Was mich wundert sind die Ergebnisse von Counter Strike - wie sind diese drastischen Unterschiede erklärbar? Durch die CPU-Auslastung?

Was auf jeden Fall auffällt, ist, dass es keinen vernünftigen Netzwerk-Benchmark gibt, der realistische Situationen berücksichtigt.
 
und wenn man bedenkt das ASRock User das cfos umsonst von der ASR Homepage für viele Boards runterladen können bin ich doch erstaunt was des Teil bringt.
http://www.asrock.com/feature/XFastLAN/index.asp

PS: wie immer ein sehr feiner Test
 
Zuletzt bearbeitet:
Danke für den Test, da aber das Testsystem weit von einem System entfernt ist, mit dem man "anständig" zocken kann und dementsprechend auch auf "potente" Hardware setzt, um eben einen Vorteil zu bekommen, glaube ich einfach nicht, dass mit einem höherwertigen Testsystem immer noch ca. 20% mehr Minimum-FPS drin sind.
Denn wenn dem so wäre, dann würden sich diese Karten ja wie geschnitten Brot verkaufen und die Verbreitung wäre viel höher.

Wenn der Test mit einem, wie Oi!Olli schon geschrieben hat, Midrange System entstanden wäre, dann würde ich sofort losrennen und mir so eine Karte organisieren, aber so ist es doch mehr als bedenklich - zumindest in meinen Augen.
 
Sehr interessanter Test, zumal ich zufällig gesehen hab, das die cFos Lösung bei AsRock als Zubehör mit dabei ist (kann man sich bei AsRock runterladen). Werd ich am Wochende mal testen...

Gruß
Satyr

EDIT: Da war wohl doch einer schneller
 
=[KKB]=Becks;4528400 schrieb:
Wäre die Intel T2 für den Server (Ubuntu Server 11.10 x64 ) eine gute Wahl oder nicht? :)

Da ich nicht mit Linux rumgespielt habe, kann ich dir leider diese Frage nicht beantworten. Treiber gibt es, wie ich bei Intel nachgesehen habe. Inwieweit man die Ergebnisse 1:1 ummünzen kann, bleibt aber fraglich. Unter Windows sieht man vor allem im LAN die in meinen Augen beeindruckende Konstanz der Werte. Wie von einem Server gewohnt, kommt es da auf Stabilität und gleichbleibende Leistung an.

=[KKB]=Becks;4528400 schrieb:
Welche Auslastung wovon? CPU-Auslastung?

Genau, das repräsentiert die CPU-Last, abgelesen im Taskmanager... also nicht wirklich präzise und eher eine grobe Marschlinie, die ich euch dort geben kann.

Gehen die Optimierungen wohl flöten wenn man beim Bigfoot Adapter die Network-Manager Software aus dem Autostart nimmt?

Der Killer Network Manager wird bestimmt für die endgültige Priorisierung sorgen. Aber selbst wenn man den Manager ausschalten würde, bleibt bestimmt noch ein Plus übrig. Wenn man sich ähnlich wie bei den Intel-NICs die Treibereinstellungen ansieht, lauert da auch eine Menge. Somit wird das nur noch das letzte Quäntchen sein. Die Anwendungssteuerung kann man im Manager aber genauso wie die Protokollierung abschalten. Bei mir läuft der Manager im Notebook immer nebenbei und mich stört es nicht. ;)
Wie man immer wieder nur sagen kann, wird sich die Leistung der Killer wahrscheinlich aus der Kombination von Hardware und Software ergeben.

----

Zum Schluss noch ein paar Worte zu der Diskussion um ein passendes Testsystem:
1. kam mir der Gedanke, dass NICs wie die Intel-Lösungen gerne einmal in Home-Servern zum Einsatz kommen. Da dort die Auslastung (Server-typisch) oftmals eher dahindümpelt und eher im Heimbereich Effizienz gefragt ist, kommt eine kleine APU doch ganz gelegen. SATA 6Gb/s, PCIe-Ports für die NICs... mehr braucht man ja nicht.
2. ist ein schwächeres System wirklich geeigneter, um Unterschiede aufzuzeigen. Ich hatte schon einmal den Fall, dass ein Quadcore-System mit einer 9800GT Mikroruckler produzierte, obwohl die FPS-Anzeige bei konstant 100 Bilder/Sekunde stand. Durch die beiden Limitierungen von Grafik- und Prozessorleistung hielt ich die Auswahl mit CSS als weitverbreitetes Spiel für angebracht.
3. kommt auch eine gewisse Zeitfrage dazu. Mehr testen bedeutet für mich auch zusätzliche Aufwendung und es ist ja immer die Frage, wieviel Zeit man nebenbei mal für sowas opfern kann. Ich habe das ja schon aus eigenem Interesse und aufgrund der Nachfragen ausgedehnt.
4. muss ich zugeben, dass ich im Moment fast gar nicht am Spielen bin und somit kein besonders spielefähiges System hier habe. Meine ITX-Mainboards bieten nun einmal immer keine zahlreichen Ports für Grafikkarten und so weiter.
 
=[KKB]=Becks;4528400 schrieb:
Wäre die Intel T2 für den Server (Ubuntu Server 11.10 x64 ) eine gute Wahl oder nicht? :)

Also aus meiner eigenen Erfahrung mit Linux, in meinem Fall Centos 5 bzw 6. waren folgende:
Mit den Onboad Karten und einigen (damals PCI) Gbit Karten hatte ich mit den Linux Treibern so meine Probleme. Teilweise ging noch nicht mal die Verbindung, bzw. nur auf 100 Mbit statt Gigabit.
Seit dem hab ich eine Intel (erst PCI, dann PCI-E) Karte im Server und keine Probleme mehr.

Im Zweifel einfach ausprobieren ob alles unter Linux Klappt (Ubuntu hat eh meistens neuer Treiber dabei) und wenns dann nicht klappen will, kannst immer noch in eine Intel investieren :)
 
Zuletzt bearbeitet:
Bin ja geradezu erschüttert wie stark sich die FPS von Counterstrike beeinflussen lassen. Vor allem der Unterschied Onboard zu Onboard+cFos ist bemerkenswert. Gerade bei einem Game wie Counterstrike sollte man meinen, der Multiplayer bzw die Netzanbindung wäre vernüftig implementiert, aber stattdessen scheint da tatsächlich das Rendering auf Antworten aus dem Netzwerkstack warten zu müssen. Ist für mich ein absolutes Unding in der Programmierung. Da kann man nur hoffen dass dies bei anderen Games/Engines vernüftig realisiert ist, denn dann würde ein lahmes Netzwerk genau Null Auswirkungen auf die Anzahl der dargestellten Bilderchen haben...
 
Counterstirker sind auch die einzigen Leute die sich seit Jahren über einen Ping >5ms im LAN beschweren. ;)
 
(...)
Zum Schluss noch ein paar Worte zu der Diskussion um ein passendes Testsystem:
1. kam mir der Gedanke, dass NICs wie die Intel-Lösungen gerne einmal in Home-Servern zum Einsatz kommen. Da dort die Auslastung (Server-typisch) oftmals eher dahindümpelt und eher im Heimbereich Effizienz gefragt ist, kommt eine kleine APU doch ganz gelegen. SATA 6Gb/s, PCIe-Ports für die NICs... mehr braucht man ja nicht.
2. ist ein schwächeres System wirklich geeigneter, um Unterschiede aufzuzeigen. Ich hatte schon einmal den Fall, dass ein Quadcore-System mit einer 9800GT Mikroruckler produzierte, obwohl die FPS-Anzeige bei konstant 100 Bilder/Sekunde stand. Durch die beiden Limitierungen von Grafik- und Prozessorleistung hielt ich die Auswahl mit CSS als weitverbreitetes Spiel für angebracht.
3. kommt auch eine gewisse Zeitfrage dazu. Mehr testen bedeutet für mich auch zusätzliche Aufwendung und es ist ja immer die Frage, wieviel Zeit man nebenbei mal für sowas opfern kann. Ich habe das ja schon aus eigenem Interesse und aufgrund der Nachfragen ausgedehnt.
4. muss ich zugeben, dass ich im Moment fast gar nicht am Spielen bin und somit kein besonders spielefähiges System hier habe. Meine ITX-Mainboards bieten nun einmal immer keine zahlreichen Ports für Grafikkarten und so weiter.

Das ist schon richtig, doch wie ich schon geschrieben hatte, glaube ich einfach nicht, dass die Killer NIC bei einem Mittelklasse System ebenfalls solche Verbesserungen erzeugt und ich glaube zudem auch nicht, dass jemand, der ein ITX System sein Eigen nennt, soviel CSS spielt, dass es ihm um jeden Frame ankommt, der er mehr hat. ;D

Dass das alles zeitintensiv ohne Ende ist, ist völlig einleuchtend und das will ich auch gar nicht in Abrede stellen, doch ich für meinen Teil nehme den Test so, wie er ist - wenn ich mit nem ITX System CSS spielen will, dann hole ich massiv Frames mit der NIC raus. Wenn ich aber mit meinem jetzigen System CSS spielen will und mehr Frames brauche, dann hab ich keine Ahnung, ob die NIC hier soviel bringen kann oder ob eine neue CPU/GraKa nicht doch sinnvoller wäre.
 
SO...


WOOOOOO SIND DIE KRITIKER die beim ersten test noch gesagt haben, das das mit der killer und den spielen alles schwachsinn ist??

dieser test ist so ziemlich das beste, was man im netz findet. DANKE.

er bestätigt meine früheren aussagen.

habs mal im bigfoot-forum gepostet.

mfg
Er zeigt, dass die Killer nur als Gamerkarte geeignet ist, sobald der Rechner auch normale Aufgaben übernehmen soll, ist sie nicht so ideal, speziell wenn nur am Wochenende gespielt wird. Für den Alltag sehe ich aber die Onboard-Karte oder eine Intel CT bei weitem besser geeignet, das schließt auch den Gelegenheitsspieler mit ein. Gerade eine Sicherung des Rechners, wie sie z.B. Windows Professional auf einen Netzwerkspeicher anbietet bremst die Killer schon aus, vielleicht mag das dem einen oder anderen egal sein, wer aber täglich das Backup inklusive eines Images der Systempartition anfertigt und auf ein flottes NAS speichert, den kann die Zeit, die die Killer mehr braucht, schon störend sein.

Für einen Computer, der nur zum Spielen genutzt wird, ist die Killer sicher die beste Wahl, zumindest so lange die Spiele das Netzwerk auch benötigt um Teile des Spielablaufs generieren zu können (Multiplayerspiele).

Fazit: Zwei Netzwerkkarten, die Killer für das Spielen von Multiplayerspielen und Onbaord oder Intel für den Alltag. Dies aber nur, wenn der Rechner auch sehr oft zum Spielen im Multiplayermodus genutzt wird und dort auch von nutzen sein kann. Wer nur ab und an im Multiplayermodus spielt, der kann die Killer getrost ignorieren.
 
Entweder ich versteh dich falsch, oder es sollte genau andersherum sein. Wenn im Testsystem gern mal Peaks von 100% auftreten und dort noch die Onboardlösung Last verursacht, dann stellt das die Idealsituation für eine Karte dar, die ihren Kram komplett selbst erledigt. Wenn das System sonst eh nicht viel zu tun hat isses grade egal, ob die NIC ihre Berechnungen selbst durchführt oder auslagert.

Die hohe Auslastung war auch bei der Killer NIC da.
Die Auslastung auf einem Gamer PC sollte sich aber soweit in grenzen halten das es nur noch wenige Prozent sind. Da aber die Engine eines Spiels nich zu 100% auslastet fallen die wenigen Prozente von der NIC nicht mehr auf und Bremsen das System.

Dagegen beim Testsystem auf dem CS (was schon Auslastet) lief + NIC Aufwand der auf mehrere zehn Prozentbeziffert wurde. Hier bremst die Netzwerkauslastung sicherlich.
.
EDIT :
.

Er zeigt, dass die Killer nur als Gamerkarte geeignet ist, sobald der Rechner auch normale Aufgaben übernehmen soll, ist sie nicht so ideal, speziell wenn nur am Wochenende gespielt wird.

Stimmt! Ich könnte mir aber vorstellen das vom Hersteller im Treiber auch eine Funktion zur Durchsatzoptimierung enthalten ist *buck*
 
Stimmt! Ich könnte mir aber vorstellen das vom Hersteller im Treiber auch eine Funktion zur Durchsatzoptimierung enthalten ist *buck*
Dann sollte die Karte das aber auch automatisch erkennen, ansonsten könnte man ähnliches sicher auch mit einer perfekt eingestellten Intel CT erreichen, also den besseren UDP-Durchsatz fürs Gaming sowie die bessere Latenz. Möglicherweise nicht ganz so gut wie bei der Killer, aber ausreichend fürs Geld. Sollte man die Durchsatzoptimierung aber jedes mal Manuell aktivieren bzw. deaktvieren müssen, so hat das ganze nur Sinn, wenn es ein Hacken in einer Systray-Anwendung ist. Für 80 € bietet die Karte nur in einem einzigen Spezialgebiet tatsächlich mehr als die anderen getesteten Karten und dieser ist für die meisten auch nur ein kleiner Teil der PC-Nutzung.
 
ich glaube das der Maßstab, mit dem hier einige eine Bewertung durchführen, nicht ganz zutreffend ist

wie sehen denn "normale Aufgaben" einer Netzwerkkarte im "REGELFALL" aus? Die wenigsten Leute haben bei sich ein NAS oder Netzwerk auf diversen Rechnern zu stehen.
Ich denke das die meisten Leute nur einen Rechner und evtl. noch ein Notebook besitzen. Oder halt nur ein Notebook... Oder wieviele Familien mit mehreren Rechnern im Haushalt haben diese gar nicht richtig vernetzt um dort große Datenmengen zu verschieben usw...
Es sieht doch so aus das in den meisten Fällen dieser Adapter zur Verbindung zu einem Modem/Router dient und ab dort geht es meistens nurnoch mit geringer Bandbreite in's Inet oder oft nur mit 100Mbit weiter usw...
Da merkt man sicher absolut keinen Unterschied, was Transferraten angeht, egal ob ich Killer Nic oder Intel oder Onboard nutze.
Anders sieht es halt aus wenn gezockt wird...

Außerdem wurde leider nicht getestet wie sich das ganze noch in Verbindung mit VOIP verhält, hier habe ich z.B. mit Skype und Killer 2100 auch noch sehr positive Erfahrungen gemacht.

Schade das in dem Test nicht weiter auf die manuellen Optimierungsmöglichkeiten unter Windows eingegangen wurde. Das hätte sicher auch noch viele interessiert.
 
Zuletzt bearbeitet:
Schade das in dem Test nicht weiter auf die manuellen Optimierungsmöglichkeiten unter Windows eingegangen wurde. Das hätte sicher auch noch viele interessiert.
Das war doch erst der Part II eines ganz neuen Tests. Viele guten Ansätze für weiterführende Tests nennst Du doch schon. Bleiben wir gespannt. 8)
 
ich glaube das der Maßstab, mit dem hier einige eine Bewertung durchführen, nicht ganz zutreffend ist

wie sehen denn "normale Aufgaben" einer Netzwerkkarte im "REGELFALL" aus? Die wenigsten Leute haben bei sich ein NAS oder Netzwerk auf diversen Rechnern zu stehen.
Ich denke das die meisten Leute nur einen Rechner und evtl. noch ein Notebook besitzen. Oder halt nur ein Notebook... Oder wieviele Familien mit mehreren Rechnern im Haushalt haben diese gar nicht richtig vernetzt um dort große Datenmengen zu verschieben usw...
Es sieht doch so aus das in den meisten Fällen dieser Adapter zur Verbindung zu einem Modem/Router dient und ab dort geht es meistens nurnoch mit geringer Bandbreite in's Inet oder oft nur mit 100Mbit weiter usw...
Da merkt man sicher absolut keinen Unterschied, was Transferraten angeht, egal ob ich Killer Nic oder Intel oder Onboard nutze.
Anders sieht es halt aus wenn gezockt wird...
Mag sein, dass die Anforderungen teilweise zu hoch sind, wenn man den normalen Haushalt betrachtet, aber dann brauchen wir dieses Thema gar nicht erst anzuschauen, nicht mal flüchtig. Eine Killer hat in einem Ottonormal-Haushalt überhaupt nichts verloren. Hier limitiert dann der Router oder das Modem. Wenn man von durchschnittlich 3 MBit/s Internetzugang ausgeht, reicht auch die normale Onboard-Karte fürs Spielen übers Internet. Wenn man schon Karten testet oder deren sinnvolle Verwendung feststellen will, muss man sich ein Szenario anschauen, welches auch für die Karte sinn macht.

Ein schlechter Autovergleich wäre: Man kauft sich einen Ferrari um die Straße runter zum Postkasten zu fahren. Das ganze in einer Spielzone ...

GBit/s oder 100MBit/s im LAN, einen alten Router, welcher vielleicht 30MBit/s aus dem Internet schafft, aber auch nur, wenn kein Upload vorhanden ist, ist dann als Standard anzusehen. GBit/s in der Konfiguration auch nur, wenn ein zusätzlicher Switch vorhanden ist. Daran dann einen normalen DSL Anschluss, zumeist im unteren einstelligen Bereich, nur in Städten kann man relativ schnelles Internet bekommen und dort auch nicht überall. Daher sollte man, wenn man schon realistisch das ganze betrachtet, von eben einem solchen Setting ausgehen. Jeder der weiß, welcher Router bei ihm steht und welche Eigenschaften dieser hat (Durchsatz, Komponenten, ...), ist schon über dem Durchschnitt.

Sollte man diese Ansetzte nehmen, dann kann man das testen gleich sein lassen bzw. das Ergebnis ist vorhersagbar: keine oder nur sehr kleine Unterschiede.

Aufgabe einer Netzwerkkarte im Regelfall heißt: So schnell wie möglich die Daten zu bewegen. Bei einer GBit-Karte ist das ein GBit-Netzwerk, dem sie sich gegenüber beweisen muss, nicht das 100MBit-Netzwerk, in dem jede GBit-Karte die selbe Leistung bietet (Messungenauigkeit). Wen interessiert das Szenario, man spielt und macht sonst nichts, wenn man die VOLLE Leistung einer Karte feststellen möchte. Hier ist es dann schon notwendig auch mal über den Durchschnitt zu schauen, Karten die kaum belastet sind verhalten sich normal immer besser als unter Belastung, Latenz ist geringer, da nur eine Verbindung genutzt wird, Durchsatz ist besser da die Bandbreite nur einer Verbindung zur Verfügunggestellt wird. Einen UDP-Durchsatz, welcher doppelt so hoch ist wie bei einer anderen Karte, das ganze sich aber jenseits der 100MBit/s abspielt ist für den Durchschnitt uninteressant. Spieler auf einer LAN oder hinter VDSL/Kabel sind schon nicht mehr Durchschnitt, daher uninteressant, wenn man deiner Argumentation folgt.

Zudem sollte man überlegen, wer kauft sich so eine Karte, der Sohn vom Nachbarn weniger, außer er bekommt seinen Vater überredet, dass die ach so toll ist und er sie braucht. Diese Karte wird eher von versierten Leuten gekauft (die, die die Karte nur aufgrund der Werbung kaufen, würden auch 100€ pro Proteinshake ausgeben, wenn der für sie irgend einen Vorteil bietet, überspitzt gesagt), welche normal eben nicht nur Spielen. Solche nennt man auch Gelegenheitsspieler. Profispieler sind eine ganz andere Kategorie, dort wird nicht auf das Geld geschaut, da wird das gekauft, was die beste Leistung bringt. Profispieler sind aber noch weniger Durchschnitt als der Gelegenheitsspieler.

Zurück zum Setting, welches man betrachten muss. Das Setting ist demnach ein bisschen über dem Durchschnitt, es geht auch um Daten, welche im Netzwerk verschoben werden (Hobby, Arbeit, Laufwerk fehlt, ...), es sind mehrere Geräte vorhanden (2-3 Rechner, Notebook, Netbook, Smartphone, Tablet, Drucker, NAS, ... (wobei nicht alles bei jedem vorhanden sein muss)). Mehrere Personen nutzen das Netzwerk, auch Simultan. Sohn spielt (hat vielleicht die Killer), Vater bearbeitet das Urlaubsvideo, nutzt dazu auch Speicher auf einem NAS/anderen Rechner, Mutter informiert sich im Netz und die Tochter chattet/telefoniert übers Internet. Das ganze am Wochenende oder am Abend. das wäre ein Setting, das man verwenden kann, hier müssen sich die Netzwerkkarten beweisen. Das Umzusetzen ist sehr wahrscheinlich nicht möglich oder nur mit sehr hohem Aufwand. Verlangt auch keiner. Aber so ein Setting kann man im Hintergrund haben, um die Leistung der Karten einzuschätzen.

Nur einen oder zwei Rechner, einer davon normal nur zum Zeitpunkt aktiv, mag vielleicht vielfach nützen, nur braucht es da weniger die Killer, wenn der Router zu alt ist und bremst. Wenn die Killer die Latenz um 20ms senkt, der Router aber wieder 18ms drauf packt, so ist das in der Messungenauigkeit. Jeder Switch und auch jeder Router erhöht die Latenz, daher gibt es in so einem Setting eine bessere Möglichkeit das gewünschte Ergebnis zu erreichen. Man kauft sich einen besseren Router, welcher aber nicht gleich wieder dank neuer Funktionen ausgereizt wird. Ein USB-Stick oder eine USB-Festplatte am Router als billiges NAS (Router bietet die Möglichkeit und eine USB-Platte hat man eh zu Hause) wäre kontraproduktiv. Eine schnelle CPU im Router ist nicht unbedingt ein Garant für ein schnelles Routing, ob hier ein NAT genutzt wird oder ein echtes Routing stattfindet ist erst mal egal. Die Firmware darf hier keinen Fehler haben und sollte so stabil wie möglich sein und alle Operationen so schnell wie möglich umsetzen. Dadurch gewinnt man auch ein paar ms an Latenz.

Die Killer ist in einem Spiele-PC, welcher überwiegend im lokalen Netzwerk spielt sicher optimal, wenn hauptsächlich im Internet gespielt wird, würde ich persönlich zu einem besseren Router greifen.
 
@fst Zitat von dir: "Er zeigt, dass die Killer nur als Gamerkarte geeignet ist"

Das war der Aufhänger für meine Position. Diese Aussage ist meiner Auffasung nach (siehe meine Argumentation) falsch. Alle Netzwerkadapter auf Herz und Nieren zu prüfen geht vollkommen in Ordnung. Das du bei deinem Fazit von einem nicht zutreffenden Regelfall ausgehst, hast du ja jetzt selbst nochmal geschrieben.

Für über 90% der User ist es, durch ihr nutzungsverhalten, uninteressant welchen der getesteten Netzwerkadapter sie nutzen. Es sei denn, das sie online zocken. dann empfielt sich die Bigfoot Karte.

Außerdem gibt es noch weitere Anwendungen die stark vom UDP gebrauch machen. Diese werden sicher ebenfalls durch Bigfoot beschleunigt.
Das sich die Verbindungsqualität auch durch andere Peripherie beeinflussen lässt, sollte klar sein. ist hier aber nicht das Thema.

Ich habe niemals von zu hohen Anforderungen gesprochen. Was hier getestet wurde waren im wesentlichen Benchmarks. Dabei hast du halt eine Gewichtung festgelegt, die meiner Meinung nach nicht dem Regelfall entspricht.
In wie weit sich diese Benchmarkergebnisse auch auf reale Anwendung übertragen lässt, ist auch noch völlig offen.
 
Zuletzt bearbeitet:
Zurück
Oben Unten