dualcore und zukunftige spiele - eine überlegung

Lopi schrieb:
aus diesem Posting

"Du machst es dir da etwas zu einfach. Ein Compiler der automatisch ein Problem auf mehere Cores verteilen kann gibs leider nicht. Außerdem lassen sich sehr viele Probleme nicht parallelisieren. "

Teils doch:
OpenMP 2.5 API
Multi-Threading für einen Source-Code ist natürlich eine feine Sache.
Allerdings laufen ja bei einem Spiel mehrer Threads, teils eben so von Spieleprogrammierer so selbst erstellt, teils eben durch die verwendeten Bibliotheken.


zu OpenMP 2.5 API auch: http://www.golem.de/0506/38645.html
Ziegt auch, daß Intel dem alles eine große Bedeutung zumißt - schließlich steht die ganze Produktplanung für Mitte 2006 ff.auf Multi-Core.


zu PuckPoltergeist:
sowas - http://geizhals.net/eu/a157456.html = Sempron 64 2600+ für 60.- Euro hat er noch Mitte 2004 als völligen Blödsinn und die damalige Ankündigung vom AMD-CEO Ruiz zum Ende für 32 Bit CPUs bis Mitte 2005 als 'Marketing-Geblubber' abgetan.
Daher - einfach ein dickes Fell bzgl. seiner kategorischen Einwände sich zulegen - kommt eh alles anders wie er so verkündet.
 
im spielebereich wird es für multicore lösungen viele neue konzepte geben an denen noch gearbeitet wird. die ersten spiele ,die erscheinen werden ,sind eher tests was möglich ist . wenn die entwickler ein paar jahre erfahrung haben werden garantiert spiele grundsätzlich anders aufgebaut sein als jetzt. ich finde es schon erstaunlich das man 60 prozent leistungszuwachs für ein spiel angiebt. das ist dafür das man soetwas erstmalig in diesem umfang entwickelt sehr viel.


@rkinet

nu reichts aber. welchen sinn soll den nen 64bit sempron haben abgesehen davon das der sich besser verkauft? du machst dich grad mal wieder unglaublich lächerlich.
 
Zuletzt bearbeitet:
Shdow schrieb:
aus diesem Posting
im spielebereich wird es für multicore lösungen viele neue konzepte geben an denen noch gearbeitet wird. die ersten spiele ,die erscheinen werden ,sind eher tests was möglich ist . wenn die entwickler ein paar jahre erfahrung haben werden garantiert spiele grundsätzlich anders aufgebaut sein als jetzt.
s. http://www.the-inquirer.com/?article=24884

Xbox 360 launch title list finalised

Es erscheint recht unwahrscheinlich, daß in wenigen Monaten Spiele auf den XBox 360 Markt kommen, die von der 6 logischen Cores in der XBox nur einen nutzen, weil alles noch im Teststadium sein soll lt. Shdow.

Shdow schrieb:
aus diesem Posting
@rkinet

nu reichts aber. welchen sinn soll den nen 64bit sempron haben abgesehen davon das der sich besser verkauft? du machst dich grad mal wieder unglaublich lächerlich.
a) AMD lebt von möglichst guten Verkäufen und für die 64 Bit gibts noch $3 mehr für AMD.

b) Solange Microsoft noch beim 64 Bit Windows mauert muss der Kleine leider noch unter 32 Bit laufen. Ab Longhorn wird dies aber schon anders ...
 
rkinet schrieb:
aus diesem Posting

Multi-Threading für einen Source-Code ist natürlich eine feine Sache.
Allerdings laufen ja bei einem Spiel mehrer Threads, teils eben so von Spieleprogrammierer so selbst erstellt, teils eben durch die verwendeten Bibliotheken.

Wo, welche Spiele nutzen das? Ich kenne im Moment ein Spiel, welches multithreaded ist, das ist UT2k3/UT2k4. Das ist aber auch nur deshalb multithreaded, weil das icculus beim Port auf Linux so implementiert hat. Nach meinem Wissen war (ist?) das bei der Windowsvariante nicht der Fall.

zu PuckPoltergeist:
sowas - http://geizhals.net/eu/a157456.html = Sempron 64 2600+ für 60.- Euro hat er noch Mitte 2004 als völligen Blödsinn und die damalige Ankündigung vom AMD-CEO Ruiz zum Ende für 32 Bit CPUs bis Mitte 2005 als 'Marketing-Geblubber' abgetan.

Es ist schon immer wieder toll, wie du dir die Realität zurecht biegst. Ich habe es nie als Blödsinn abgetan, dass 64bit-CPUs zum kleinen Preis zu bekommen sind. Was ich als Blödsinn bezeichnet habe, ist die Notwendigkeit von 64bit auf dem Desktop. Da konnte mir bis jetzt auch noch niemand etwas gegenteiliges aufzeigen, von ein paar Ansätzen mal abgesehen.
Und die Ankündigung von Ruiz war die Frage, "Warum sollte Mitte 2005 noch irgendwer einen PC ohne 64-Bit-Technologie kaufen wollen?". Ist für mich nach wie vor Marketing-Geblubber, oder gibt es einen sinnvollen technischen Grund für 64bit?
 
Lopi schrieb:
aus diesem Posting

"Du machst es dir da etwas zu einfach. Ein Compiler der automatisch ein Problem auf mehere Cores verteilen kann gibs leider nicht. Außerdem lassen sich sehr viele Probleme nicht parallelisieren. "

Teils doch:
OpenMP 2.5 API

Äh nein, das kann OpenMP auch nicht leisten. Den Code muss der Programmierer schon noch parallelisieren. Das geht nicht automatisch.
 
@PuckPoltergeist - drei Statements, kein einziger Link dazu angegeben.

Ich lassen mich vom Gegenteil überzeugen, wenn Fachleute oder Insider das Multithread-Designs für Spiele verwerfen.
Bisher kenne ich nur real entwickelte Hardware dafür (XBox 360, PS/3) und viele geeignete Spiele (s. http://www.theinquirer.net/?article=24884).

Ebenso nutzen die Konsolen 64 Bit (s. http://www.heise.de/newsticker/meldung/59548),
womit der Nutzen bei (Multithread) Spielen für Konsole und Desktop ersichtlich ist.
 
rkinet schrieb:
aus diesem Posting

@PuckPoltergeist - drei Statements, kein einziger Link dazu angegeben.

Wozu? Brauchst du wirklich bunte Marketing-Bildchen, um dir eine Meinung bilden zu können? Außerdem, als ich das letzte mal mit Links gedient hatte, hast du die schlichtweg abgelehnt, weil deine Überzeugung nicht unterstützt wurde.

Ich lassen mich vom Gegenteil überzeugen, wenn Fachleute oder Insider das Multithread-Designs für Spiele verwerfen.
Bisher kenne ich nur real entwickelte Hardware dafür (XBox 360, PS/3) und viele geeignete Spiele (s. http://www.theinquirer.net/?article=24884).

Du kennst wirklich nur schwarz und weiß, oder? Es behauptet doch niemand, dass Multithreading für Spiele sinnlos ist. Was aber Fakt ist, ist dass bei weitem nicht alle Programme davon profitieren. Das habe ich schon mehrfach angeführt. Einmal muss sich das Problem überhaupt parallelisieren lassen. Dass das bei Spielen meist der Fall ist, setze ich hierbei jetzt mal voraus. Dann muss die Parallelisierung aber auch einen Speedup bringen. Es nützt nichts, wenn man das gesamte Programm in viele hübsche Threads aufteilt, wobei dann aber immer noch einer die Hauptarbeit macht, und die anderen sich langweilen. Im schlimmsten Fall wird man dadurch sogar noch langsamer, weil die Synchronisation der Threads jeglichen Geschwindigkeitsgewinn wieder auffrisst.
So, und schlussendlich müssen die Programme erstmal parallel programmiert werden. Das ist eine ziemliche Herausvorderung für die Entwickler, weil deutlich komplexer als singlethreaded. Da helfen auch Spezifikationen wie OpenMP nur bedingt. Man kann nicht davon ausgehen, dass man seinen vorhandenen Quellcode einfach nochmal mit einem andere Schalter durch den Compiler jagt, oder zusätzlich noch ein Bibliothek einbindet, und schon wird das Programm parallelisiert. Sowas muss schon im Konzept berücksichtigt werden. Programmier doch mal eine multithreaded Anwendung (eine nichtriviale), dann wirst du sehen, was da für ein Aufwand dahinter steckt.

Deine Äußerungen zu dem Thema lassen mich stark vermuten, dass du keine Ahnung hast, was die Techniken überhaupt bewirken, wie sie funktionieren und wie man sie nutzen kann. Was die Virtualisierung im Bezug auf die Parallelisierung eines Programms bringen soll, weißt wahrscheinlich auch nur du.
Links, Benchmarks, Ankündigungen und bunte Bildchen sind zwar hübsch. Wenn man aber das Prinzip nicht versteht, bringen die auch nichts. Du hast in genügend Threads die wildesten Vermutunge aufgestellt, die Antworten auf fachliche Fragen bist du aber immer schuldig geblieben.

edit:
Um mal auf die Frage des Threadstarters zurück zu kommen, es wird noch eine ziemliche Weile dauern, bis Multicore-CPUs einen Vorteil gegenüber den Singlecores haben. Die Programmierer müssen sich erstmal in das neue Modell einarbeiten, um es wirklich effizient nutzen zu können. Bis dahin sind die höher getakteten Singlecores wohl in den meisten Fällen schneller.
 
Zuletzt bearbeitet:
rkinet schrieb:
aus diesem Posting

zu OpenMP 2.5 API auch: http://www.golem.de/0506/38645.html
Ziegt auch, daß Intel dem alles eine große Bedeutung zumißt - schließlich steht die ganze Produktplanung für Mitte 2006 ff.auf Multi-Core.

... OpenMP ist eine begrüßenswerte Entwicklung, aber den Hype den du drum machst hat es nicht verdient -- genauso wenig wie die Auto-Parallelisierungsoption des ICC 9.0! Intel selbst schreibt dazu: "For the most part, the auto-parallelizer focuses on sophisticated loop unrolling and splitting". Loop-Unroling Techniken sind altbekannt. In diesem Fall beschränkt sich das Unrolling auf einfache Loops. Diese werden dann in mehrere Teile (Threads) zerlegt. D.h. bei etwas komplexeren Schleifen-Bedingungen oder Code mit Seiteneffekten guckst man damit in die Röhre.

OpenMP ist eine Spracherweiterung für C++/Fortran das zusätzlich eine API definiert. Das hat folgende Konsequenzen:
1) OpenMP setzt Änderungen am Source voraus
2) Die Tool-Chain (Compiler, etc.) muss OpenMP implementieren

Daneben gibt es eine Reihe von Eigenschaften von OpenMP die für einige Anwendungen nicht akzeptabel sind, z.B. "different degrees of parallelism may result in different numeric results" oder "it is possible and permitted to develop a program that does not behave correctly when executed sequentially.".
 
@MP-Zweifler,

was soll diese Geisterdiskussion ?
Die entsprechende Hardware ist für Spiele, aber auch bei IBM, Intel und AMD in der öffentlich bereits verkündeten Produkteinführung.
Natürlich ein Game-Designer sagen NEIN - nur wie lange wird er und die dazugehörige Firma noch am Markt 2006ff. überleben ?

Single-Core ist in der Ziellinie angekommen und wird grob Mitte 2006 seine Bedeutung verlieren.

Natürlich sind einige Probleme vorhanden - aber das ganze Thema ist nun wirklich nicht neu in der Programmierwelt. Auch wird es Übergangsphasen geben, aber keine ewig langen.

Es erscheint auch sehr realistisch daß Windows Vista Multi-Core gut unterstützt (Microsoft hat ja bei dessen Einführung schon 8-12 Monate XBox 360 hinter sich) und so der Wechsel auf 64 Bit/ Multi-Core in einem Rutsch Mitte 2006 für den Massenmarkt erfolgt. Es erscheint kaum vollstellbar, daß ein Wühltisch/ALDI PC Ende 2006 noch mit Single-Core verkauffähig ist.
 
rkinet schrieb:
aus diesem Posting

Es erscheint auch sehr realistisch daß Windows Vista Multi-Core gut unterstützt

Es sei denn, MS macht einen Schritt zurück, und schafft SMP in Windows wieder ab. Weniger realistisch erscheint dagegen, dass rkinet irgendwann aus seiner Traumwelt aufwacht, und sich fachlich an den Diskussionen beteiligt, anstatt Marketingblasen hinterher zu hechten. :]
 
PuckPoltergeist schrieb:
aus diesem Posting
Weniger realistisch erscheint dagegen, dass rkinet irgendwann aus seiner Traumwelt aufwacht, und sich fachlich an den Diskussionen beteiligt, anstatt Marketingblasen hinterher zu hechten.
Immer noch kein Link ?

Das Minimum für Fachdiskussionen zum PC sind nun einmal Links und plausible Zusammenhänge zur Produktpolitik der Marktteilnehmer.
Dort ist nachweislich 64 Bit und Multi-Core für die nahe Zukunft eine beschlossene Sache - die Software wird da sicherlich nicht um Jahre hinterher hinken (speziell bei den neuen Konsolen). Und Intel/AMD/nvidia/ATI werden alle Hebel in Bewegung setzen, daß der PC-Markt nicht ausdörrt, weil die Leute Konsolen mit Multicore-Softwareunterstützung den dann altbackenen Single-Core PCs vorziehen.
 
rkinet schrieb:
aus diesem Posting

Immer noch kein Link ?

Das Minimum für Fachdiskussionen zum PC sind nun einmal Links und plausible Zusammenhänge zur Produktpolitik der Marktteilnehmer.
Dort ist nachweislich 64 Bit und Multi-Core für die nahe Zukunft eine beschlossene Sache - die Software wird da sicherlich nicht um Jahre hinterher hinken (speziell bei den neuen Konsolen). Und Intel/AMD/nvidia/ATI werden alle Hebel in Bewegung setzen, daß der PC-Markt nicht ausdörrt, weil die Leute Konsolen mit Multicore-Softwareunterstützung den dann altbackenen Single-Core PCs vorziehen.

Ei, du übertreibst da ein bissel. Was du mit "Leuten" meinst, dass sind vielleicht die, die Bescheid wissen. Frag doch mal Otto-Normal-User, was ein Dual-Core ist. Abgesehen davon braucht es auch niemand im Büro.
 
Kommando schrieb:
aus diesem Posting
Frag doch mal Otto-Normal-User, was ein Dual-Core ist.
Abgesehen davon braucht es auch niemand im Büro.
http://www.eetimes.de/at/news/showArticle.jhtml?articleID=60404627

Nanu, gibt Intel dann 2006/7 das Office-Geschäft auf ?
Dann kein Dell bei Firmen mehr ?
Intel steigt ja breit auf Multi-Core um - also auch im Büro.

Ob man es braucht - Windows Vista wirds schon so richten ..
(ob Virenscan, Datenbank-Sync im Hintergrund - man kann sich vieles für zwei Cores vorstellen)
 
rkinet schrieb:
aus diesem Posting

Immer noch kein Link ?

Das Minimum für Fachdiskussionen zum PC sind nun einmal Links und plausible Zusammenhänge zur Produktpolitik der Marktteilnehmer.
Dort ist nachweislich 64 Bit und Multi-Core für die nahe Zukunft eine beschlossene Sache - die Software wird da sicherlich nicht um Jahre hinterher hinken (speziell bei den neuen Konsolen). Und Intel/AMD/nvidia/ATI werden alle Hebel in Bewegung setzen, daß der PC-Markt nicht ausdörrt, weil die Leute Konsolen mit Multicore-Softwareunterstützung den dann altbackenen Single-Core PCs vorziehen.

Du willst es nicht kapieren, oder? Es geht nicht um marktpolitische Entscheidungen, es geht um die Leistungsfähigkeit von Mehrprozessorsystemen gegenüber Einzelprozessorsystemen. Und auch wenn Intel und AMD in einem Jahr nur noch Multicore-CPUs herstellen, lässt sich davon auch keine Mehrleistung gegenüber gleich oder soger geringfügig höher getakteten System herbeten.

Du willst Links? Bittesehr, die sind größtenteils schonmal da gewesen:
http://hardware.slashdot.org/comments.pl?sid=154333&cid=12947910
http://www.next-gen.biz/index.php?option=com_content&task=view&id=510&Itemid=2
http://www.projectlan.de/console-cpus.html
http://www.anandtech.com/video/showdoc.aspx?i=2453&p=1
http://arstechnica.com/news.ars/post/20050629-5054.html
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=2377&p=1

Und das Minimum für Fachdiskussionen ist immer noch das Verständnis für das Thema. Ohne selbiges nützen die besten Links nichts.
 
PuckPoltergeist schrieb:
Den Total-Verriß - s. arstechnica - hat anandtech wieder aus dem Netz genommen und durch zwei realistischere Artikel ersetzt.

Außer solchen Schnellschüssen und einigen gestressten Programmieren, die eben für Multi-Threadning viel vom gewohnten Code ändern müssen, gibts nichts, was das Zukunftkonzept Multi-Core in Frage stellt.
Also, wenige Autoren jenseits der direkt betroffen Entwickler äußerten sich bisher negativ zur XBox 360 und dem Cell. Weshalb beide trotzdem an MS und Sony von IBM verkauft werden konnte bleibt ebenfalls im dunklen - kennt sich IBM etwa nicht mit CPU-Designs aus ?

PuckPoltergeist schrieb:
aus diesem Posting
Du willst es nicht kapieren, oder?
...
Und das Minimum für Fachdiskussionen ist immer noch das Verständnis für das Thema. Ohne selbiges nützen die besten Links nichts.
Liest sich wie Hinrichtungs-Journalismus ... schon mal bei Computer-BILD beworben ?
 
Schlagt euch die Köpfe weiter gegenseitig ein ...

MIPS, ARM, SUN, AMD, Intel, Texas Instruments, NEC, STMicroelectronics und andere backen an Mehrfachkernen. Das bedeutet aber nicht, dass Einzelkerne sinnlos sein werden ... es ist und bleibt ein Problem der Software die Mehrfachkerne auszulasten.

Seit den letzten Jahren hinkt traditionell die Softwareentwicklung der Hardware hinterher. Neben den Kompilern ist aber immer noch nach wie vor ein findiger Kopf und eine konsequente frühe Planung notwendig, um Dual/Multi-Cores sinnvoll einzusetzen, für Einzel-CPUs bedeutet dies aber dann einen Leistungsverlust, da Software komplexer ausfällt.

PS: Wer hier Links setzt, der muss sich auch im klaren sein, ob und wie sie genutzt werden ... Die Nutzungsquote ist üblicherweise vergleichsweise gering ... so viel zum Sinn und Unsinn zum Linksetzen.
 
rkinet schrieb:
aus diesem Posting

Außer solchen Schnellschüssen und einigen gestressten Programmieren, die eben für Multi-Threadning viel vom gewohnten Code ändern müssen, gibts nichts, was das Zukunftkonzept Multi-Core in Frage stellt.

Danke, du hast mir damit bestätigt, dass du wirklich keine Ahnung von Parallelisierung und multithreaded Programmierung hast.

Also, wenige Autoren jenseits der direkt betroffen Entwickler äußerten sich bisher negativ zur XBox 360 und dem Cell.

Wer ist nochmal für die Effizienz eines Programms zuständig?

Liest sich wie Hinrichtungs-Journalismus ... schon mal bei Computer-BILD beworben ?

Wieso? Die vielen Links hast du doch selber angefordert. Und hingerichtet hast du dich mit deinen Beiträgen schon selber. Das muss niemand mehr für dich übernehmen.
 
Bokill schrieb:
aus diesem Posting

MIPS, ARM, SUN, AMD, Intel, Texas Instruments, NEC, STN und andere backen an Mehrfachkernen. Das bedeutet aber nicht, dass Einzelkerne sinnlos sein werden ... es ist und bleibt ein Problem der Software die Mehrfachkerne auszulasten.

Nichts anderes erzähle ich doch. Dazu noch die Tatsache, dass es nicht trivial ist, diese Auslastung zu erreichen. :)

Seit den letzten Jahren hinkt traditionell die Softwareentwicklung der Hardware hinterher.

Erklär mal bitte genauer. Weiß jetzt nicht so ganz, worauf du hinaus willst. ???

Neben den Kompilern ist aber immer noch nach wie vor ein findiger Kopf und eine konsequente frühe Planung notwendig, um Dual/Multi-Cores sinnvoll einzusetzen, für Einzel-CPUs bedeutet dies aber dann einen Leistungsverlust, da Software komplexer ausfällt.

Ich wage zu behaupte, dass dieser findige Kopf niemals ersetzt werden kann.

PS: Wer hier Links setzt, der muss sich auch im klaren sein, ob und wie sie genutzt werden ... Die Nutzungsquote ist üblicherweise vergleichsweise gering ... so viel zum Sinn und Unsinn zum Linksetzen.

Ich sehe auch wenig Sinn darin, eine Link zu setzen, wenn da nur nochmal genau das selbe drinn steht, was ich hier schon geschrieben habe, und das mit dem entsprechenden Fachwissen nachvollziehbar ist. Wichtig sind Links vor allem dann, wenn sie zu dem notwendigen Fachwissen führen, damit Auslegungen und Beschreibungen nachvollzogen werden können. Es bringt mir überhaupt nichts, wenn jemand schreibt Firma XY bringt Produkt Z, welches viel schneller ist, als alle bisherigen Produkte, und das mit nem Link zur Presseerklärung von Firma XY garniert, in der steht, Produkt Z ist viel schneller als alle bisherigen Produkte. Da ist mir eine Erklärung, wieso Produkt Z nun viel schneller ist, sehr viel lieber. ;)
 
PuckPoltergeist schrieb:
aus diesem Posting

Erklär mal bitte genauer. Weiß jetzt nicht so ganz, worauf du hinaus willst. ???

Ich denke das neue Befehlssätze Anfangs spärlich eingesetzt werden um die Abwärtskompatibilität zu gewährleisten.

Es wäre doch heute Fatal Software zu entwickeln die nur auf Dual Core CPUs lauffähig wäre. So werden die nächsten Jahre sicher viele Programme mit der Option der Nutzung von Dual Core CPUs entstehen. Erfahrungsgemäß bringt das dann garantiert nicht wirklich viel. (z.B. Quake 3 Engine die eher langsamer wird mit Multi (Prozessor) Unterstützung.)

Da es nunmal keine Compiler gibt die wirklich Effizient jeden Code für Dual Core Maschinen erzeugen können wird es wohl sehr viel länger dauern bis man wirklich einen Leistungsgewinn daraus schlagen kann.

Wäre es techn. möglich dann würde man wohl weiter lieber den Takt erhöhen wollen. Es bringt ungleich mehr zumal keine neuen Compiler und "mehr Programmier-Know-how" benötigen würde.

Aber so wie es jetzt aussieht sind wesentlich höhere Taktraten mit der derzeitigen Technik nicht realisierbar. :(

Gibt es denn überhaupt irgendwelche neuen Ideen zur Steigerung der Effizienz? (Stichwort Superskalarität in den 90ern oder später Hyperthreading)
 
Zuletzt bearbeitet:
PuckPoltergeist schrieb:
aus diesem Posting
Erklär mal bitte genauer. Weiß jetzt nicht so ganz, worauf du hinaus willst. ???
Nö ... habe schon zu viel schwarze Buchstaben im Forum hier hinterlassen ...

Nur so viel. Die ganzen Hardwarefeatures der CPUs in den letzten Jahren wurden erst langsam zeitverzögert in der Softwarewelt breitenwirksam eingeführt.

Nur in Anwendungen, die für sehr teures Geld auch echten Nutzen versprechen sind jetzt schon für Multicore ausgerichtet worden. Aber dort sind die dicken Eisen zu Hause, mit den üblichen Verdächtigen HP, SUN, IBM, Fujitsu, NEC und entsprechenden Anwendungen aus Forschung, Finanz und Technik.

MIPS, ARM, Freescale, Texas Instruments hingegen kommen von unten mit Multicores bei Handies, tragbaren Multimedia-Tools, etct. um die gesteigerten Leistungshunger der Konsumenten gerecht zu werden.
 
Bokill schrieb:
aus diesem Posting

Nur so viel. Die ganzen Hardwarefeatures der CPUs in den letzten Jahren wurden erst langsam zeitverzögert in der Softwarewelt breitenwirksam eingeführt.

Axo, das meinst du. Dachte schon, du willst auf die Softwarekrise hinaus. Diese Verzögerung ist aber nicht neu, sondern schon immer dagewesen. Das liegt ganz einfach an der Relation Aufwand-Nutzen. Zum einen begründen diese Features häufig neue Paradigmen, die erstmal erlernt und umgesetzt werden wollen. Das bedeutet meist sehr viel mehr Aufwand, als die bisherigen Vorgehensweisen. Zum anderen nützen solche Features anfangs nur relativ wenig, weil es ja auch nur wenige CPUs/Rechner mit damit gibt. Man muss also entweder zweigleisig fahren, oder man schließt eine große Nutzergruppe zu Gunsten einer kleine Gruppe aus. Macht für viele Softwareanbieter wenig Sinn. Dadurch ist die Marktdurchdringung mit entsprechender Software halt recht langsam.

Nur in Anwendungen, die für sehr teures Geld auch echten Nutzen versprechen sind jetzt schon für Multicore ausgerichtet worden. Aber dort sind die dicken Eisen zu Hause, mit den üblichen Verdächtigen HP, SUN, IBM, Fujitsu, NEC und entsprechenden Anwendungen aus Forschung, Finanz und Technik.

Halt wieder die Frage nach dem Sinn. In den von dir genannten Bereichen bringt sowas auch recht viel mehr Nutzen, als z.B. im Heimbereich oder bei der Sekretöse unterm Schreibtisch. Die Korrespondenzen vom Chef oder die Mail tippt sich davon auch nicht schneller. Dass jetzt trotzdem Mehrprozessorsysteme auf breiter Front Einzug halten, liegt ganz einfach daran, dass die Erhöhung von Takt und ILP vorerst an ihre Grenzen angelangt sind. (siehe Crazy_Chris). Die Entwickler werden jetzt also mehr oder weniger gezwungen an dem TLP zu arbeiten. Inwiefern und wo das Früchte tragen wird, muss sich erst noch zeigen. Für eine Programmierer ist es die unangenehme Richtung, siehe Interview mit Tim Sweeney zur Unreal-Engine, wo von zwei bis dreifacher Entwicklungszeit gegenüber von singlethreaded Anwendungen gesprochen wird. Das kann man nicht einfach unter den Tisch kehren.
 
@rkinet

auf die frage welchen vorteil ausser Marketing die 64 bit haben kommt von dir:


"a) AMD lebt von möglichst guten Verkäufen und für die 64 Bit gibts noch $3 mehr für AMD. "

und das obwoh du direkt vorher das hier schreibst:

"zu PuckPoltergeist:
sowas - http://geizhals.net/eu/a157456.html = Sempron 64 2600+ für 60.- Euro hat er noch Mitte 2004 als völligen Blödsinn und die damalige Ankündigung vom AMD-CEO Ruiz zum Ende für 32 Bit CPUs bis Mitte 2005 als 'Marketing-Geblubber' abgetan."

ich versteh sowas nicht das müßen doch unglaubliche schmerzen sein die du erleidest.

ja wir wissen alle das sich dual core durchsetzen wird. das bestreitet doch auch keiner. du legst aber allen anderen in den mund sie würden das gegenteil behaupten , weil sie sich im gegensatz zu dir die frage stellen was das bringen soll.



@ thema software und rückstand

ich weiß leider nicht mehr wer es war aber ein international sehr anerkannter Software Analyst hatte bis 1992 gemeint die hardware ist nicht leistungsfähig genug. ab 1993 präsentierte er ein gegenteiliges bild das mitlerweile die software zurückgefallen wäre, da durch die zunehmende komplexität nicht mehr so eine hohe anpassung im selben zeitraum möglich wäre. ist auch viel billiger mittlerweile paar prozessoren mehr zu kaufen als zig millionen in softwareoptimierung,eventuell sogar auf assemblerebene ,zu stecken.
 
Zuletzt bearbeitet:
Shdow schrieb:
aus diesem Posting

@rkinet

auf die frage welchen vorteil ausser Marketing die 64 bit haben kommt von dir:


"a) AMD lebt von möglichst guten Verkäufen und für die 64 Bit gibts noch $3 mehr für AMD. "

und das obwoh du direkt vorher das hier schreibst:

"zu PuckPoltergeist:
sowas - http://geizhals.net/eu/a157456.html = Sempron 64 2600+ für 60.- Euro hat er noch Mitte 2004 als völligen Blödsinn und die damalige Ankündigung vom AMD-CEO Ruiz zum Ende für 32 Bit CPUs bis Mitte 2005 als 'Marketing-Geblubber' abgetan."

ich versteh sowas nicht das müßen doch unglaubliche schmerzen sein die du erleidest.

Ist doch ganz logisch, weil AMD an jeder CPU $3 mehr verdient, können sie diese auch billiger abgeben. Ergo hat man einen guten Vorteil für den Käufer. ;D
 
Shdow schrieb:
aus diesem Posting
@rkinet

auf die frage welchen vorteil ausser Marketing die 64 bit haben kommt von dir:

"a) AMD lebt von möglichst guten Verkäufen und für die 64 Bit gibts noch $3 mehr für AMD. "

und das obwoh du direkt vorher das hier schreibst:

"zu PuckPoltergeist:
sowas - http://geizhals.net/eu/a157456.html = Sempron 64 2600+ für 60.- Euro hat er noch Mitte 2004 als völligen Blödsinn und die damalige Ankündigung vom AMD-CEO Ruiz zum Ende für 32 Bit CPUs bis Mitte 2005 als 'Marketing-Geblubber' abgetan."

ich versteh sowas nicht das müßen doch unglaubliche schmerzen sein die du erleidest.

ja wir wissen alle das sich dual core durchsetzen wird. das bestreitet doch auch keiner. du legst aber allen anderen in den mund sie würden das gegenteil behaupten , weil sie sich im gegensatz zu dir die frage stellen was das bringen soll.
a) seit 1. August erledigt - 32 Bit und 64 Bit sind preisgleich

b) 64 Bit sollte sich bis Mitte 2005 lt. CEO-Ruiz durchsetzen und hat es heute mit der neuen Preisliste auch. Es trat auch exakt das ein, was AMD damals sagte: Es werden (jenseits vom absoluten Budget) nur noch 64 Bit verkauft.

c) 64 Bit wird heute nur noch von Microsoft gebremst, die eben schon die Kombination mit Multi-Core in Form von Windows Vista anpeilen. Das hat die Einführung von 64 Bit beim Desktop verzögert. Bei LINUX ist das aber längst abgeschlossen.
 
rkinet schrieb:
b) 64 Bit sollte sich bis Mitte 2005 lt. CEO-Ruiz durchsetzen und hat es heute mit der neuen Preisliste auch. Es trat auch exakt das ein, was AMD damals sagte: Es werden (jenseits vom absoluten Budget) nur noch 64 Bit verkauft.

c) 64 Bit wird heute nur noch von Microsoft gebremst, die eben schon die Kombination mit Multi-Core in Form von Windows Vista anpeilen. Das hat die Einführung von 64 Bit beim Desktop verzögert. Bei LINUX ist das aber längst abgeschlossen.
Du checkst es nicht, oder?
Nur weil die Firmen nurnoch Dualcore verkaufen wollen, und das Marketing dir erzählt, daß jetzt Dualcore-Prozzies unendlich wichtig sind und Singlecore nur noch veralteter Schrott ist (dito mit 32 vs 64 Bit) gibt es nach wie vor keinen _wirklichen_technischen_ Grund für Dualcore und 64 Bit in ner Officebüchse. [1]
Und komm jetzt nicht mit Vista, wenns jetzt schon soweit ist, daß es nen A64X2 für ein OS benötigt, dann gute Nacht.

Cherry
[1] ja, ich weiß, daß es sicher viele sinnvolle Anwendungsgebiete für sowohl 64Bit als auch Multiprozessing gibt, im Homeuser- und SoHo-Bereich ist es aber lange nicht so dringend nötig, wie das Marketing dir weismachen will.

PS: bei meiner Schwester werkelt nen K6/2+ unter WinXP. Das einzige Problem, daß die Büchse hat, ist fehlende FPU-Power für aktuelle Videocodecs, sprich er ist nur bedingt zum Filme gucken geeignet (mpeg, dvd geht prima, divx nur, wenns günstig codiert ist). Ansonsten tut der als Schreibmaschinenersatz, Surf und Musikstation und für die Games, die sie zockt, wunderprächtig, und ist noch dazu komplett unhörbar (ohne aufwendige Kühlung: ein Slot-A-Kühlkörper auf den Prozessorsockel gezimmert, darauf ein 50er Lüfter auf 5 Volt, Netzteillüfter ebenfalls auf 5 Volt, Platte entkoppelt aufgehängt -> ich hatte die Kiste vor paar Monaten hier zum Neuinstallieren, und um ne größere Platte einzubauen. Er lag da offen bei mir aufm Fußboden, und die CPU-Temp ging dann soweit runter, daß der CPU-Lüfter auch stehen blieb. Gespenstisches Gefühl, an nem scheinbar ausgeschalteten Rechner zu arbeiten :), weil die Kiste selbst offen nur hörbar ist, wenn man mit dem Ohr direkt rangeht)
Und jetzt kommst du bitte und erklärst mir, warum ich dieser Zielgruppe unbedingt nen X2 untern Schreibtisch stellen muß, der viel mehr Rechenzeit verwarten kann, und trotz aller Sparsamkeit nie so leise wird die die K6-Kiste. Danke.
 
Zurück
Oben Unten