Artikel Neuer Artikel: AMD FX "Vishera"

Eine echte Fx-Killeranwendung fehlt hier.
Wie meinst du das?
Dem ersten stimme ich zu, bei Taktgleichstand egal ob versus 4C/8T SNB oder IVB, ist der FX-8350 nicht mehr vorne.

Und hier kommt auch ein für mich wichtiger Fakt hinzu...
Man kann bzw sollte aus meiner Sicht auch bei Taktgleichstand vergleichen aber auch Leistung zum Energiebedarf.
Das heißt ich takte SNB oder IVB so weit nach oben, bis dieser ähnlich viel Energie umwandelt, wie der FX.*

*Und dann wäre von mir aus ein i7-3770K immner noch gute 100€ teurer als-wie ein FX-8350.
Dann zeigt sich aber auch, dass er für 100€ bei ähnlicher TDP und entsprechendem Energiebedarf (was ja für manche unwichtig ist) auch schneller (teilweise deutlich) ist, auch unter Linux.
Zudem habe ich dann noch die HD 4000 die in eins, zwei Softwarelösungen das Kaufargument noch zusätzlich stützen kann.
 
Zuletzt bearbeitet:
Ahhh... okay. - Vielen Dank.
 
@Opteron
Ich denke das derzeit die Rechenleistung der ARM Chips dagegen spricht aber dort ist die derzeitige Steigerung der Rechenleistung ja recht ordentlich. Mittel bis längerfristig könnten sie durchaus als Alternative erscheinen.
CPU-Rechenleistung ist mMn eher irrelevant. Die aktuellen Cortex A15 haben schon 128bit SIMD FPUs, das reicht für ausreichend "wumms", dazu gibts doppelt soviele 128bit Register. Die 64bit Erweiterung legt leistungstechnisch nochmal ~20-30% drauf. Der Cortex A57 soll in 20nm z.B. bis zu 50% schneller sein, als ein A15@28nm: http://www.arm.com/products/processors/cortex-a50/cortex-a57-processor.php (unter Performance).

Wenn der Umstieg jetzt beschlossen wird, bzw. diskutiert wird, dann sprechen wir über den Zeitraum 2014++, eben dann, wenn die ersten ARM-64 Chips in 20nm auf den Markt kommen.

Abgesehen davon ist big/little Computing (Dualcore aus nem lahmen, stromsparenden Kern und nem schnellen Kern) auch noch ne interessante Sache. Davon hab ich bei intel z.B. noch nichts gehört. Wäre für Apple sicherlich ne nette Sache. z.B. ein Tablet, dass in ner Dockingstation zum vollwertigem Apple-PC wird, und im Mobilbetrieb nur die kleine CPU nutzt und den Akku schont.
 
Lies mal Heise Artikel der ist sehr aufschlussreich, von Wumms ist da noch nicht viel zu sehen.

Und es bezieht sich zu den Plänen die X86 Plattform in Applegeräten zu ersetzen.
 
Derzeit knackt man mit dem besten ARM gerade mal so einen SingleCore Atom.
Mit den vorhergesagten 50% Leistungszuwachs ist man 2014++ gearde so auf Bobcat Niveau.
Kann ich mir in einem PowerBook nicht wirklich vorstellen.
 
Lies mal Heise Artikel der ist sehr aufschlussreich, von Wumms ist da noch nicht viel zu sehen.

Und es bezieht sich zu den Plänen die X86 Plattform in Applegeräten zu ersetzen.
Hab ich schon vorm Schreiben meines Textes oben ;-)
Vergiß nicht, dass ich "ausreichend" schrieb ;-)

@Twodee:
Ach so 8-16 ARM Kerne plus GPU Shader wären doch nicht von schlechten Eltern.
 
Das sie nicht so korrupt wie Intel sind.
Wenn das Volk solche Sachen wie Intel unterstützt, muss man sich hinterher nicht Fragen warum die Situation im Moment so ist wie sie ist.

Samsung ist auch locker auf dem Niveau von Intel, trotzdem wird über Samsung nicht gelästert sondern Samsung-Gegner gemobbt.

AMD hat zu wenig Geld um so korrupt zu sein ;D

Man darf trotz solcher Parolen nicht alles vergessen.

Intel ist so groß geworden, weil sie viel entwickelt haben und gute Produkte bauen können. AMD hat lange Zeit einfach nachgebaut, erst mit dem Athlon haben sie wirklich was geleistet

Intel entwickelt immer noch Produkte, die der Markt verlangt. Produkte, die ich als Enduser gut finde. AMD dagegen hat völlig am Markt vorbeientwickelt und fährt zwei bzw. 1,5 Schienen die mir nicht wirklich für meine Zwecke brauchbar vorkommen.

Somit bye bye AMD-Sympathie. Hab dich unterstützt seit Slot A-Athlon bis AM3+, also 12 Jahre. Und was hab ich jetzt davon? Langsame Stromfresser, bei denen Entwicklungkosten gespart wurden um sie im Serversegment für nicht vorhandene Kunden zu stecken.


Und wie hätte dort der FX-4 abgeschnitten? ;)
Ungenutzte Kerne bringen ebend nix, da zählt dann ebend nur noch die Taktfrequenz.

Keine Ahnung ;)

Ich hab Programme die max 2 Kerne nutzen, aber auch welche die durchaus von Quadcore profitieren. Und solche Gebiete deckt mein i5-3470 ab.
 
In einer perfekt parallelisierten Welt sicher nicht....
Wobei ich denke das dies die abgegrenzte Apple Welt eher erreichen wird als der x86er Desktop Teil.
.
EDIT :
.

Keine Ahnung ;)

Ich hab Programme die max 2 Kerne nutzen, aber auch welche die durchaus von Quadcore profitieren. Und solche Gebiete deckt mein i5-3470 ab.
Nutzt das Programm selbst nur 2 Kerne dann kann lediglich die sonstige Software noch die Performance beeinflussen aber solange das nur die 0815 Grundlast ist sollten dafür bereits die 2 virtuellen Kerne des i3 reichen. Da dürfte kaum ein Unterschied zum gleich getakteten i5 bestehen.
Da wir aber bei 4 Kernen bereits im Bereich der Llanos und Trinitys sind ergeben sich hierbei noch ganz andere Varianten als nur die AM3(+) Plattform. ;)
 
Die Trinity spielen aber mit ihren 4 Quasi-Kernen nicht in der i5-Klasse ;) , max. i3

Und von HT bin ich nicht vollkommen überzeugt
 
Das sie nicht so korrupt wie Intel sind.
Wenn das Volk solche Sachen wie Intel unterstützt, muss man sich hinterher nicht Fragen warum die Situation im Moment so ist wie sie ist.

Es gilt wie bei jedem Produkt, man muss alles immer etwas tiefgründiger hinterfragen und nicht nur die Fassade anschauen und aufs eigene Ego schauen.
Ganz ehrlich? Ich finde diese Einstellung sehr positiv.
Allerdings fangen die Probleme genau da an, dann dürfte man in der Schlussfolgerung auch:

- Keine Unternehmen unterstützen, die mit dem Teufel zusammenarbeiten.
- Und keine Produkte verwenden die auf Intels "Software-Development" zurückgreifen (Intel-Compiler).

Was soviel bedeutet, dass du deinen Rechner jetzt sofort ausschalten müsstest?
Wer ein Windows Betriebssystem nutzt unterstütze somit die zusammenarbeite zwischen Microsoft und Intel und somit letzeres Unternehmen aktiv.

Desweiteren dürfte man keinen Internetanbieter nutzen, dessen RZ aus Intel-Produkte besteht, man müsste es strengstens vermeiden, Internetseiten zu besuchen die Intel-Server nutzen.
 
Zuletzt bearbeitet:
Die Trinity spielen aber mit ihren 4 Quasi-Kernen nicht in der i5-Klasse ;) , max. i3

Und von HT bin ich nicht vollkommen überzeugt
Das ist relativ egal sofern ds Programm nicht mehr Kerne nutzen kann und ihm andere Programme nicht die Rechenleistung wegfressen. ;)
Da kann der Prozessor 1000 Kerne haben und ist bei gleicher Taktfrequenz kein deut schneller.
Das typische Multicore Problem von heute.
 
Das interessiert Average Joe herzlich wenig, der sieht nur, was welche CPU für welchen Preis bei gegebener Software leistet.
Also ich geh doch mal davon aus, dass wir hier keine Avarage Joe´s sind.
Mir ist es jedenfalls nicht herzlich egal.

Was den Mehrtakt angeht, wieso gibt Intel die CPUs nicht mit mehr Takt frei wenn sie so sparsam sind wie immer behauptet wird?
Es ist doch egal wie die Mehrleistung zustande kommt, ob mit mehr Takt oder mehr Logik.
Zumal ersteres unter Umständen weniger Energie benötigt bei der Herstellung.
Immerhin hat allein ein Modul eines FX doppelt soviel L2 Cache wie ein I7-2600k Insgesamt an L2 Cache zur verfügung hat.

MfG
 
Zuletzt bearbeitet:
Ganz ehrlich? Ich finde diese Einstellung sehr positiv.
Allerdings fangen die Probleme genau da an, dann dürfte man in der Schlussfolgerung auch:

- Keine Unternehmen unterstützen, die mit dem Teufel zusammenarbeiten.
- Und keine Produkte verwenden die auf Intels "Software-Development" zurückgreifen (Intel-Compiler).

Was soviel bedeutet, dass du deinen Rechner jetzt sofort ausschalten müsstest?
Wer ein Windows Betriebssystem nutzt unterstütze somit die zusammenarbeite zwischen Microsoft und Intel und somit letzeres Unternehmen aktiv.

Desweiteren dürfte man keinen Internetanbieter nutzen, dessen RZ aus Intel-Produkte besteht, man müsste es strengstens vermeiden, Internetseiten zu besuchen die Intel-Server nutzen.
Ja das hast Du sicher recht, das Ganze ist nicht einfach und gelingt sicher auch nicht überall.
Aber dort wo es für mich eben sehr einfach geht, wie bei AMD oder Intel, dann nutzt man es auch aus. (die meisten würden ja nicht merken ob AMD oder Intel drunter ist, von dem her könnten diesen Schritt sicher noch viel mehr Leute machen)
Ich gehöre mit meiner Einstellung sicher zur Minderheit an, das ist mir klar - ich kann aber damit gut leben. :)
 
Ja. Das ist auch vollkommen in Ordnung, ich schätze das sogar. Meinte nur... konsequent geht hier nicht.
 
Weil sie nicht müssen und es schon bei dem Takt reicht um größtenteils vorn zu sein...

Und was nützt es dem FX? *noahnung*

Also ich geh doch mal davon aus, dass wir hier keine Avarage Joe´s sind.
Mir ist es jedenfalls nicht herzlich egal.

Was den Mehrtakt angeht, wieso gibt Intel die CPUs nicht mit mehr Takt frei wenn sie so sparsam sind wie immer behauptet wird?
Es ist doch egal wie die Mehrleistung zustande kommt, ob mit mehr Takt oder mehr Logik.
Zumal ersteres unter Umständen weniger Energie benötigt bei der Herstellung.
Immerhin hat allein ein Modul eines FX doppelt soviel L2 Cache wie ein I7-2600k Insgesamt an L2 Cache zur verfügung hat.

MfG
 
@Sagi
Bei dem Preis sollten sie das auch! ;)
Wegen dem Cache spiele ich auf den Verbrauch an, mehr als 8x mehr Cache bei gerade mal doppelten Verbrauch.

Intel nutzt doch einen inklusiven Cache, muss das auch bei der Programmierung berücksichtigt werden?
 
Intel entwickelt immer noch Produkte, die der Markt verlangt. Produkte, die ich als Enduser gut finde. AMD dagegen hat völlig am Markt vorbeientwickelt und fährt zwei bzw. 1,5 Schienen die mir nicht wirklich für meine Zwecke brauchbar vorkommen.
achso ... so beliebte produkte wie die ultrabooks ... *lol*

und mit wievielen versuchen ist intel bisher bei mobilen geräten gescheitert?

ich kritisiere amd auch häufig. aber man muss mal festhalten, dass intel ähnlich strauchelt wie amd. mit dem klitzekleinen unterschied, dass intel sich eine marktposition zum teil ergaunert hat, die es intel erlaubt, auch mal problematische situationen zu überstehen, wo im vergleich eher kleine firmen wie amd quasi implodieren. dort wo der bär steppt, hat intel wenig zu bieten. die haben bestimmte entwicklungen genauso verschlafen wie amd oder microsoft. mit dem unterschied, dass intel und microsoft in ihren angestammten segmenten als quasi monopolisten immer noch ganz gutes geld verdienen.

Sales of Intel Atom Hit All-Time Low: Netbooks Doomed.

Wintel takes kicking from Apple, market share at all-time low

As Power of Wintel Wanes, Microsoft and Intel Are Losing Market Shares.

Microsoft’s share of the operating system market for the three major type of devices - PCs, smartphones and tablets - combined is expected to slip to 33% in 2016, down from 44% in 2011, according to an IHS iSuppli report. Meanwhile, Intel’s share of microprocessors will fall to 29%, down from 41%. At the same time, the total size of the market will double from 2011 to 2016, almost entirely due to the strong growth of the smartphone and media tablet segments.

oder aktuell

Apple soll Abschied von Intel prüfen

aha, wer tut denn intel kritisieren? seh ich kaum jemanden. und gemessen an den möglichkeiten, die intel finanziell und technisch so hat, haben die in letzter zeit reichlich peinliche fehler produziert. spricht nur selten jemand drüber, wo hingegen bestimmte personen in schöner regelmäßig amd's bulldozer flop breit treten.

noch mal, wo sind denn die diskussionen über intels pleiten, pech und pannen? das waren in letzter zeit aber deutlich mehr als bei amd und auch deutlich teurer.

http://www.heise.de/ct/meldung/Eine-kurze-Geschichte-der-Intel-Chipfehler-1182740.html

http://www.heise.de/newsticker/meldung/Bug-in-Intel-Chip-erzwingt-grosse-Umtauschaktion-20562.html
http://www.heise.de/newsticker/meld...-ruft-1-13-GHz-Pentium-III-zurueck-30131.html
http://www.heise.de/newsticker/meldung/Intel-zieht-neuen-Pentium-4-vorerst-zurueck-77757.html
http://www.heise.de/newsticker/meldung/Intel-ruft-915G-P-und-925X-Chips-zurueck-103077.html
http://www.heise.de/newsticker/meld...rds-mit-einigen-Intel-Chipsaetzen-161665.html
http://www.hardwareluxx.de/index.ph...-intel-bestaetigt-fsb-bug-beim-yorkfield.html
http://www.heise.de/ct/meldung/Inte...uen-Mainboard-Chipsaetzen-Update-1181172.html
http://www.heise.de/ct/meldung/Firmware-Probleme-bei-SSD-320-Intel-verspricht-Update-1243697.html

von solchen kleineren problemen wie dem sandy bridge freeze, dem damaligen cold-boot-bug (it's a feature), treiber-problemen usw. mal ganz abgesehen. und dann haben wir noch diverse teure projekte, die intel erfolgreich in den sand gesetzt hat (wie z.b. viiv). wo ist denn da die kritik? hat da irgendwer intel boykottiert? da wirken amd's performance-probleme ja geradezu läppisch. :]

von daher sollte man mal die augen aufmachen und etwas sachlicher an die geschichte rangehen.


achso, und intel hat nur das wohl des endkunden im sinn. deshalb gibt es auch so schöne und sinnlose (weil künstliche) diversifizierungen in intels produktpalette. *suspect*
 
Was den Mehrtakt angeht, wieso gibt Intel die CPUs nicht mit mehr Takt frei wenn sie so sparsam sind wie immer behauptet wird?
Windhund, jetzt mal Butter bei de Fische! Was heißt hier bitte es wird behauptet?
(Eine Behauptung ist für mich, ein nicht mit Fakten belegbares Argument, welches noch nicht bestätigt und daher unwahr ist.)

Sind wir jetzt schon so weit, das selbst der niedrige Energiebedarf von SNB oder IVB nicht der Realität entsprechen würde, oder wie? Oder wie?

Und die Antwort ist ein ganz einfache:
Leistung zur Energieumwandlung bekommt immer mehr Gewicht, einschließlich der resultierenden niedrige Verlustleistung.
Warum zum Teufel sollte man einen 22nm Chip auf 5GHz prügeln und dabei die Spannung extrem erhöhen? Schwachsinn.
Kannst du dir grob vorstellen, wo sich leistungsmäßig ein IVB 4C/8T @ 4,5 - 5GHz einordnen würde? Die CPUs sollen leistungsfähiger und stromsparender werden?

Ich gebe dir Brief und Siegel, dass was AMD durch EOL K10 einbüßt, kann BD so, niemals kompensieren.
Es gib genau einen Punkt, wo ich mich vorerst nicht umstimmen lasse: Intels größter Vorteil, liegt am Marktanteil im Serverbereich.
Die heulen da groß herum, wenn es im Mainstream mal ein paar % market share gibt, in Wirklichkeit sind das doch nur Peanuts.
Wenn Intel was beschäftigt, dann so eine Geschichte, wie was da gerade bei Apple läuft und ARM+AMD+SeaMicro.
Wie der Spiegel ONLINE - Link von cruger auch umschreibt, dass zeigt doch wo die Reise hingehen soll und das finde ich gut so.
Apple switched doch nicht von Intel auf ARM um primär die Leistung zu steigern. Was hilft AMD derzeit zu überleben? Die GPU-Sparte und stromsparende, billige APUs.
Bei dem Preis sollten sie das auch!
Ein Intel Xeon E3-1230V2 kostet derzeit 25€ mehr als ein AMD FX-8350, das ist schon ein enormer Unterschied oder Posting #376.
 
Zuletzt bearbeitet:
Was den Mehrtakt angeht, wieso gibt Intel die CPUs nicht mit mehr Takt frei wenn sie so sparsam sind wie immer behauptet wird?
Ich habe da 2 meine Theorien

1. Sie haben es aufgrund fehlenden Konkurrenzdrucks nicht nötig
2. Sie sind letztendlich doch auf einen Konkurrenten angewiesen
 
Windhund, jetzt mal Butter bei de Fische! Was heißt hier bitte es wird behauptet?
(Eine Behauptung ist für mich, ein nicht mit Fakten belegbares Argument, welches noch nicht bestätigt und daher unwahr ist.)

Sind wir jetzt schon so weit, das selbst der niedrige Energiebedarf von SNB oder IVB nicht der Realität entsprechen würde, oder wie? Oder wie?
Tja, wenn es um den Preis für die Energieumwandlung geht, ja dann ist es nicht real!
Es ist gut möglich das Stromspitzen so schnell sind das sie von einem gewöhnlichem Energiemessgerät nicht erfasst werden können.
Messgeräte die sowas können kosten unsummen (ich rede hier von mehreren Monatseinkommen)
ABER man kann die Spitzen bei den kWh erahnen, wie schaut es denn bei den 3DM11 kWh aus die Music ermittelt hat, ist da die differenz immer noch doppelt so viel?

Ich habe da 2 meine Theorien
1. Sie haben es aufgrund fehlenden Konkurrenzdrucks nicht nötig
2. Sie sind letztendlich doch auf einen Konkurrenten angewiesen
3. siehe oben. :)
 
btw. anstatt Spitzen zu messen, sollte mal lieber über einen Zeitraum hinweg den Verbrauch messen.
Wie z.B. hier: http://www.tomshardware.de/fx-8350-vishera-review-Benchmarks-Test,testberichte-241128-16.html (letztes Diagramm)

Der Verbrauch über einen Zeitraum verteilt wäre wirklich ein guter Indikator für die reale Leistungsaufnahme abseits von LinX und Co. Allerdings ist diese Erhebung in meinen Augen eine große Herausforderung und ganz ehrlich - ich traue mich da nicht ran.

Um sowas zu erheben, muss jeder Testkandidat mit identischen Auslastungsszenarien getestet werden, was bereits äußerst schwierig ist. Klar kann ich ein einzelnes Programm nehmen (wie ich z.B. 3DMark), aber wenn es um mehrere Programme oder längere Zeiträume geht, wird es schwierig. Wenn ich THGs Diagramm nehme, dann haben die die Leistungsaufnahme während des kompletten Benchmark-Parcours ermittelt. Doch ganz ehrlich: Wie stellt man sowas an? Man müsste jedes einzelne Programm in der exakt gleichen Reihenfolge und in exakt der gleichen Anzahl starten. Doch was ist mit Ergebnissen, die augenscheinlich nicht stimmen können? Wenn ich ein Programm zur Kontrolle mehrfach laufen lassen muss, um reproduzierbare Ergebnisse zu bekommen, verändere ich die durschnittliche Leistungsaufnahme....

Wenn das nun ein Programm wie x264 ist, wo die CPU lange mit hoher Last läuft - dann verfälscht das schnell das Bild. Oder auch der Zeitpunkt eines Benchmark-Endes: Ich zum Beispiel nutze die langen Benchmarks wie z.B. PCMark und x264 dazu, andere Dinge zu erledigen. Ich sitze nicht permanent vorm Testrechner und warte darauf, dass der Durchlauf endlich fertig ist. Würde ich das tun, müsste ich die Hälfte des Testumfangs zusammenstreichen. Genau das müsste man aber tun, um nicht Gefahr zu laufen, einen Kandidaten zu bevorteilen, weil das System nach dem Benchmark-Ende vielleicht fünf Minuten idlet und das natürlich in die Durchschnittsrechnung mit reinläuft.

Ich selbst habe auch schon überlegt, ob ich solch eine Betrachtung über den kompletten Benchmark-Parcours mache, bin dann aber aufgrund der eben genannten Aspekte wieder davon abgerückt. Mit den mir zur Verfügung stehenden Mitteln ist das schlichtweg nicht möglich. Wenn dann noch Sachen wie echtes Multitasking hinzukommt (damit meine ich mehrere Programme, nicht mehrere Threads eines einzelnen Benchmarks), wird es noch einmal schwieriger und ist meiner Meinung nach nicht mehr lösbar.

Einzige Abhilfe wäre meiner Meinung nach hier ein Script, welches verschiedene Programme nacheinander ausführt. Bei sowas könnte man sogar über Multitasking nachdenken. Doch sowas wird nur bei Programmen funktionieren, die mittels Kommandozeilen arbeiten können. Und das dürfte bei einigen Programmen schwierig werden, sodass man diese aus dem Parcours streichen müsste - was wieder zu Lasten der Qualität geht.

Wenn man allerdings einen derartigen Weg einschlagen würde, könnte man die Ergebnisse der Benchmarks nicht mehr für die Ergebnisdiagramme heranziehen. Denn bei einem automatisierten Ablauf wird es schwierig, überhaupt Ergebnisse vermerken zu können. Zudem können sich Anwendungen gegenseitig in Sachen Performance beeinflussen (speziell bei Multitasking), sodass man die Benchmarks hinterher ohnehin nochmal durchführen müsste. Und das kostet dann wieder mehr Zeit....

Lange Rede, kurzer Sinn: Ich würde eine Betrachtung des Durschnittsverbrauchs begrüßen, allerdings halte ich solch ein Vorhaben für kaum realisierbar (zumindest nicht mit reproduzierbaren, belastbaren Zahlen). *noahnung*
 
Der Verbrauch über einen Zeitraum verteilt wäre wirklich ein guter Indikator für die reale Leistungsaufnahme abseits von LinX und Co. Allerdings ist diese Erhebung in meinen Augen eine große Herausforderung und ganz ehrlich - ich traue mich da nicht ran.
Das war keine Aufforderung an dich ;) - nur ein Argument, um Windhunds Behauptung zu entkräften.
Um sowas zu erheben, muss jeder Testkandidat mit identischen Auslastungsszenarien getestet werden, was bereits äußerst schwierig ist. Klar kann ich ein einzelnes Programm nehmen (wie ich z.B. 3DMark), aber wenn es um mehrere Programme oder längere Zeiträume geht, wird es schwierig. Wenn ich THGs Diagramm nehme, dann haben die die Leistungsaufnahme während des kompletten Benchmark-Parcours ermittelt. Doch ganz ehrlich: Wie stellt man sowas an? Man müsste jedes einzelne Programm in der exakt gleichen Reihenfolge und in exakt der gleichen Anzahl starten. Doch was ist mit Ergebnissen, die augenscheinlich nicht stimmen können? Wenn ich ein Programm zur Kontrolle mehrfach laufen lassen muss, um reproduzierbare Ergebnisse zu bekommen, verändere ich die durschnittliche Leistungsaufnahme....

Wenn das nun ein Programm wie x264 ist, wo die CPU lange mit hoher Last läuft - dann verfälscht das schnell das Bild. Oder auch der Zeitpunkt eines Benchmark-Endes: Ich zum Beispiel nutze die langen Benchmarks wie z.B. PCMark und x264 dazu, andere Dinge zu erledigen. Ich sitze nicht permanent vorm Testrechner und warte darauf, dass der Durchlauf endlich fertig ist. Würde ich das tun, müsste ich die Hälfte des Testumfangs zusammenstreichen. Genau das müsste man aber tun, um nicht Gefahr zu laufen, einen Kandidaten zu bevorteilen, weil das System nach dem Benchmark-Ende vielleicht fünf Minuten idlet und das natürlich in die Durchschnittsrechnung mit reinläuft.
THG verwendet afaik ein Skript, welches eben für einen *gleichen/reproduzierbaren* Ablauf sorgt.
Ich selbst habe auch schon überlegt, ob ich solch eine Betrachtung über den kompletten Benchmark-Parcours mache, bin dann aber aufgrund der eben genannten Aspekte wieder davon abgerückt. Mit den mir zur Verfügung stehenden Mitteln ist das schlichtweg nicht möglich. Wenn dann noch Sachen wie echtes Multitasking hinzukommt (damit meine ich mehrere Programme, nicht mehrere Threads eines einzelnen Benchmarks), wird es noch einmal schwieriger und ist meiner Meinung nach nicht mehr lösbar.
Vorschlag: Bilde eine Arbeitsgruppe, ich hätte Interesse :)
Einzige Abhilfe wäre meiner Meinung nach hier ein Script, welches verschiedene Programme nacheinander ausführt. Bei sowas könnte man sogar über Multitasking nachdenken. Doch sowas wird nur bei Programmen funktionieren, die mittels Kommandozeilen arbeiten können. Und das dürfte bei einigen Programmen schwierig werden, sodass man diese aus dem Parcours streichen müsste - was wieder zu Lasten der Qualität geht.
Bingo. Evtl gehts auch über Macros
Wenn man allerdings einen derartigen Weg einschlagen würde, könnte man die Ergebnisse der Benchmarks nicht mehr für die Ergebnisdiagramme heranziehen. Denn bei einem automatisierten Ablauf wird es schwierig, überhaupt Ergebnisse vermerken zu können.

Man "bencht" sowieso erst einzeln, da weiß man was herauskommt.
Später bencht man alles in Folge, und mißt nur den Gesamtverbauch in der Zeit.
Die Jeweiligen Ergebnisse mit dem Gesamtverbrauch verrechnen ist mMn nicht unbedigt nötig.
Zudem können sich Anwendungen gegenseitig in Sachen Performance beeinflussen (speziell bei Multitasking), sodass man die Benchmarks hinterher ohnehin nochmal durchführen müsste. Und das kostet dann wieder mehr Zeit....
Ist das der Fall wenn sie nacheinander Ablaufen?

Lange Rede, kurzer Sinn: Ich würde eine Betrachtung des Durschnittsverbrauchs begrüßen, allerdings halte ich solch ein Vorhaben für kaum realisierbar (zumindest nicht mit reproduzierbaren, belastbaren Zahlen). *noahnung*
*hust* zu Voreilig ;)
 
Zuletzt bearbeitet:
Zurück
Oben Unten