AMD verpatzt es!

http://www.computerbase.de/news/hardware/prozessoren/amd/2007/dezember/amd_phenom_9550_9650_quartal/

Kein BIOS-Update, da ...
Derzeit sind nicht einmal die technischen Dokumente auf dem aktuellen Stand, die das Erratum beinhalten, da die entsprechende Person „on vacation“ (im Urlaub) sei.

Kein Scherz - bei dem Börsenliebling AMD ist eben ein wichtiger Mann in Urlaub, da muss die Welt eben auf ein neues BIOS warten ;D
Man kann nur hoffen, dass jener nicht im Urlaub ernsthaft erkrankt, sonst kostet das weiter zweistellige Millionenbeträge.

Was Computerbase da beschreibt ist das Innenleben einer Chaos-Firma.
Wobei wir miese technische Dokumentation ja schon seit Jahren kennen.

Und - Phenom 9550 und 9650
Es ist nur ein kleiner - klitzekleiner Fehler aber trotzdem werden die Phenome 9500 und 9600 durch neue Modelle mit anderer Bezeichnung ersetzt.
 
Also 140 Euro ab AMD-Malaysia und 20% Händler und 19% MwSt. macht 200 Euro

Mit 105 Euro ab AMD-Malaysia dann 150 Euro (Triple-Core)

AMD verkauft je Quartal ca. 15 Mill. CPUs und erlöst ca. $900 Mill. oder 625 Mill. Euro - macht $60 oder 42 Euro je CPU im Durchschnitt.

da diese nicht von Malaysia kommen können erklärt sich aber von selbst.
Ich verweise nurmal auch den CPU Stempel.
"Diffused in Germany"

Wenn könnte evtl was von Chartered kommen, Frage wäre was da dann drauf steht.
 
Zuletzt bearbeitet:
da diese nicht von Malaysia kommen können erklärt sich aber von selbst.
Ich verweise nurmal auch den CPU Stempel.
"Diffused in Germany"

Wenn könnte evtl was von Chartered kommen, Frage wäre was da dann drauf steht.
Eine Chipendverpackung hat AMD meines Wissens nach nicht in Dresden.

Was neu in Dresden ist, dass ist eine Teilfertigung für das C4-Verfahren (auch als Flip-Chip"-Endverpackung bekannt). Dort werden die Löt-Bumps auf dem Die untergebracht mehr nicht.

In Malaysia und China werden nach wie vor die Chips auf dem Chipträger endverpackt. Ich frage mich aber in der Tat auch, was "diffused" in diesem Zusammenhang bedeutet. Wäre da dankbar für einen Hinweis.

MFG Bobo(2007)
 
Ich persönlich halte an meiner Theorie fest.
Es war nie die absicht seitens AMD das der Phenom das "non plus Ultra" wird, "er soll mithalten nicht überragen".

Wie ich zu der Theorie komme lässt leicht sagen.

- AMD ändert die K8 Architektur ab was grundsätzlich schonmal zweifel offen lässt, die da wären:
1. Wie soll eine knapp 5 Jahre alte Architektur die man Poliert mit einer völlig neuen mithalten?
2. Braucht ein unternehmen solange um einene auf das Maximum ausgereizte Architektur nochmals zu verbessern?
3. Klar ist das der A64 ein meilenstein war, die Latenzzeiten waren nahe dem Theoretischen Maximum die HT technologie einmalig und der eingebaute Speicherkontroller sagenhaft.
Immer neue Steppings die noch das letze an vorhandener Leistung ausreitzen.
Aber irgendwann ist das maximum erreicht.

- Wieso braucht AMD solange für eine verbesserung des Coredesigns ohne das Paralell ein noch viel größeres Projekt läuft?

- Der launch wurde immer wieder aufgeschoben da meiner Theorie zufolge zuwenig leute an der verbesserung arbeiteten.

- Bugs werden erst "zuspät" entdeckt und langsam beseitigt, wie kann ein solches unternehmen einen Prozessor auf den Markt bringen bei dem wenn alle Cores ausgelastet sind freezet? Im Normalfall werden hunderte test´s durchgeführt um jede schwäche aufzudecken und alle warscheinlichkeiten auszuschließen, so nicht beim Phenom was wieder zu meiner theorie passen würde "Nebenprodukt"

- AMD gibt wenig support an Mainboardhersteller auserdem sind wenige Boards beim Launch Phenom fähig.
Auserdem wird der Bug seitens AMD´s nicht genug supportet "Das das B2-Stepping von AMDs aktuelle Phenom-Prozessoren einen Fehler im so genannten Translation-Lookaside-Buffer (TLB) des L3-Cache hat, ist ja mittlerweile bekannt. Zwar soll sich dieser nach Aussage von AMD durch ein BIOS-Update umschiffen lassen, jedoch hat bisher noch kein Hersteller geschafft ein solches bereitzustellen, was jedoch derzeit der schlechten Unterstützung durch AMD selbst zugeschoben wird."

Kurtz und knapp:
- Wieso braucht AMD solange für eine solch "Miserable verbesserung"?
- Wieso gibt AMD unzurechenden Support?
- Wieso werden solche gravierenden fehler zuspät entdeckt?

Was sich geändert hat zum K8 ist meines wissens der L3 cache über den alle kerne kommunizieren und ein par kleinigkeiten, also Theoretisch wurde die Crossbar durch einen L3 ersetzt und 2 Cores hinzugefügt.

Abschließend möchte ich sagen, wenn AMD wollte das alles glatt läuft wären sie anderst an die sache herangegangen. Meiner meinung nach soll der Phenom die lücke zwischen dem K8 und der von grund auf neu gestalteten Architektur (die ich das nächste halbe Jahr erwarte) schließen.

Gruß,
Piwo

PS: Die vielen Rechtschreibfehler stammen vom LRS nicht von mir ;D
 
Zuletzt bearbeitet:
Mal eine bloede Frage: Kann man einen 4core so schalten, dass immer nur 2 Kerne im Wechsel aktiv sind, uebertaktet laufen, und die restliche 2 Kerne kuehlen sich ab?

Gruss
Dev Art
 
Mal eine bloede Frage: Kann man einen 4core so schalten, dass immer nur 2 Kerne im Wechsel aktiv sind, uebertaktet laufen, und die restliche 2 Kerne kuehlen sich ab?

Gruss
Dev Art
Welchen sinn soll das verflogen?
Damit sich die anderen beiden aufheizen?

Ne mal im ernst, die kerne sind auf einer silizium fläche wenn sich einer durch auslastung ehitzt werden die anderen mit erwärmt da die fläche so gering ist das es meist nur wenige grad unterschied zu einem ausgalsteten und einem ungenutzten core sind
 
Kurtz und knapp:
- Wieso braucht AMD solange für eine solch "Miserable verbesserung"?
- Wieso gibt AMD unzurechenden Support?
- Wieso werden solche gravierenden fehler zuspät entdeckt?
AMD schafft es ja nicht einmal eine technisch fehlerfreie Preisliste ins Internet zustellen.

Da stehen immer noch angebliche 65nm K8 Single-Core mit 1M L2-Cache statt tatsächlich 90nm Produkte - http://www.amd.com/us-en/Processors...0_118_609,00.html?redir=CPT301?redir=SPDR0010

Die schleppende sonstige Docu ist schon lange bekannt und AMD hat nie was dagegeben unternommen.

AMD hat aber still und heimlich die K10 Entwicklung nach Indien verlagert, wo man hochwertig, aber auch langsam arbeitet. Und der L3-TLB-Fehler ist ein versteckter Fehler, der erst bei späteren Test auffiel. Kann passieren, aber AMD hat keine Zwischenschritte wie Dual-Core mit L3 gemacht, wo es früher aufgefallen wäre.

Auch wird AMD nicht an Wunder-CPUs arbeiten. Der K10 ist draußen und sein Nachfolger wird sich weit in 2009 hinein ziehen und soll auch lt. AMD kaum Verbesserungen bringen.Aber universeller für Opteron bis Sempron verwendbar sein.

Ursache für all die Probleme sind wahrscheinlich die Unternehmensparolen aus 2004 ff., welche den Desktop-Markt als nachrangig für AMD einstufte. Angesichts des späteren Kaufes von ATI / Chipsätzen / GPUs eine krasse Fehljustierung der Unternehmensziele, was aber da schon schädlich genug war.

Wohl das Hauptproblem war und ist, dass AMD nicht mit seinen Kunden und den Medien spricht. Intel & Apple machen das ganz anders - und werden mit Kohle überschüttet.
Selbst gute Ansätze wie die 45 Watt K8 werden lieblos auf den Markt geworfen statt die Vorzüge publikumswirksam zu präsentieren.

Vielleicht hilft der andauernder Sturzflug des AMD-Aktienkurses, dass zumindest das Management bald ausgetauscht wird. Ein AMD-Lenker, der mit seinen Kunden auch mal redet - das sind locker $100-$250 Mill. mehr Erlöse je Quartal.
 
Haelst Du den Hans Deppe fuer geeignet? Mal ganz unverbluemt direkt gefragt.

Gruss
Dev Art
 
Wohl das Hauptproblem war und ist, dass AMD nicht mit seinen Kunden und den Medien spricht. Intel & Apple machen das ganz anders - und werden mit Kohle überschüttet.
Selbst gute Ansätze wie die 45 Watt K8 werden lieblos auf den Markt geworfen statt die Vorzüge publikumswirksam zu präsentieren.

AMD sollte sich halt spezialisieren auf den Firmenkundenbereich. Z. B. warum überlässt man den Sektor Thin Clients VIA mit ihren CPUs? Warum propagiert AMD keinen Athlon X2 mit AMD Chipsatz für Business-PCs? (Firmen wollen günstig Office-Software-taugliche PCs und keine Gamer-Boliden für LAN-Partys.) Warum überlässt man selbst beim Sockel F den Chipsatz-Markt für Server dem Graka-Rivalen Nvidia?

Die Firma VIA hat sich vor Jahren aus dem Wettkampf verabschiedet und ist z. B. Lieferant fast aller Thin Client Hersteller und hat die EPIA - Welle losgetreten. Und die existieren immer noch, obwohl sie nicht gegen AMD und schon garnicht gegen Intel anstinken können.
 
Haelst Du den Hans Deppe fuer geeignet? Mal ganz unverbluemt direkt gefragt.
http://www.heise.de/newsticker/meldung/14635

Der ist mittlerweile 61 o. 62 Jahre alt.
Das ist zwar heute kein Alter mehr, aber angesichts der gigantischen Probleme bei AMD aber nicht gerade optimal.

Wie wäre es smit ihm: http://www.heise.de/newsticker/meldung/68655
Dirk Meyer - 45 Jahre, ein Ex-CPU Entwickler.

Der gilt auch schon aus anderen Quellen als Ruiz-Nachfolger.
Zumindest hat er den Schwung und auch die Fähigkeit auf die Menscheh nzuzugehen und AMD offener zu machen.
Außerdem kennt er die Tücken einer CPU-Entwicklung und könnte frühzeitiger eingreifen.

http://de.wikipedia.org/wiki/Hector_Ruiz
Hector Ruiz wird demnächst 62 Jahre alt und seine technische Ära liegt schon lange zurück.

AMD sollte sich halt spezialisieren auf den Firmenkundenbereich. Z. B. warum überlässt man den Sektor Thin Clients VIA mit ihren CPUs? Warum propagiert AMD keinen Athlon X2 mit AMD Chipsatz für Business-PCs? (Firmen wollen günstig Office-Software-taugliche PCs und keine Gamer-Boliden für LAN-Partys.) Warum überlässt man selbst beim Sockel F den Chipsatz-Markt für Server dem Graka-Rivalen Nvidia?
AMD hat sogar eine Embedded Gruppe. Zuletzt kam mal der K8 Sempron 2100 mit 1 GHz - wohl nur mit direkten Beziehungen zu H.Ruiz erhältlich.
Es gab einmal den 17W Geode NX 1750 auf So.A Basis. Wenige Boards hatten ein geeignetes BIOS und die CPU war gering verfügbar.

Bei der 45 Watt Linie fehlt eine passende Definition für den Strombedarf.
Der So. AM2 ist mit 95A schon überdimensioniert und verlangt locker 120 Watt allen auf der 12V Schiene, obwohl eine 45 Watt CPU nur 50-55 Watt benötigt.
Bei AM2+ und AM3 sind es 110A zzgl 20A für die Northbridge oder ca. 150 Watt.
Hier fehlt eine moderater ausgelegte Socket-Variante, die dann kompakte, leise und sparsame PCs / Thin Clients ermöglichen würde.
Man könnte locker mit einem 175-200W Netzteil einen Office-PC betreiben, wenn man vernünftige Limits setzt (wie max. 65W CPU, max. 25 W zusätzliche Grafikkarte)

Es gäbe viele Ansätze für AMD. Aber noch immer sind die Desktop-Rechner nur No.3 in der AMD-Priorität incl. Office-PCs.
Angesichts der anderen Problem wandern nur die 'Abfälle' der Opteron-Entwicklung dortthin - bis AMD pleite oder H.Ruiz pensioniert ist.
 
Zuletzt bearbeitet:
AMD sollte sich halt spezialisieren auf den Firmenkundenbereich. Z. B. warum überlässt man den Sektor Thin Clients VIA mit ihren CPUs? Warum propagiert AMD keinen Athlon X2 mit AMD Chipsatz für Business-PCs? (Firmen wollen günstig Office-Software-taugliche PCs und keine Gamer-Boliden für LAN-Partys.) Warum überlässt man selbst beim Sockel F den Chipsatz-Markt für Server dem Graka-Rivalen Nvidia?

Die Firma VIA hat sich vor Jahren aus dem Wettkampf verabschiedet und ist z. B. Lieferant fast aller Thin Client Hersteller und hat die EPIA - Welle losgetreten. Und die existieren immer noch, obwohl sie nicht gegen AMD und schon garnicht gegen Intel anstinken können.
Das Problem wird sein das AMD nicht das nötige Know-How hat um alles zu machen.
Sie sind frisch in den Chipsatzmarkt eingestiegen Nvidia hat dort natürlich überhand.
Nvidia macht chips für intel und AMD also auch lonenswerter. Es wird nie einen C2Q geben der auf nem 690G Läuft und umgekert. Alles was AMD nicht gewachsen ist muss die Firma abtreten das bringt natürlich verluste da man selbst nichts mehr einholt auf der Chipsatz ebene.

Wieso AMD ATI gekauft hat kann ich/man nicht richtig nachvolziehen.
An einem Zeitpunkt der umstellung (DX9- DX10) neue Chipgenerationen (R600) usw.
ATI mag für office rechner genügen mehr aber nicht.
Bei ATI benötigt man ne CF mastercard nen board für CF (gibt nich sehr viele) und ne normale Karte.
Bei Nvidia einfach 2 gleiche karten bei denen SLI auf der verpackung steht in eines der in megen vorhandenen SLI boards, fertig!

Erschwerend kommt hinzu das die 8800er serie allesamt die HD 3800er schlagen und Nvidia hat noch nichtmal DX10.1 wenn die ersten von Nvidia kommen kann AMD wieder nachlegen um im unteren Higend bis Lowend mithalten zu können.
Das problem in Grafikmarkt ist das man entwerder game´t oder nicht Sprich für office brauch ich keine "middelend" da reicht nen ATI Rage 128 aber will ich zocken brauch ich ne gute Sprich 8800Ultra.
Gelegenheitszocker in dem sinn gibt es nicht mehr viele die paar die sage bischen GTA da kauf ich mit ne HD 2600 das reicht die sind selten.

Sprich ganz oder garnicht.
 
Zuletzt bearbeitet:
Es wird nie einen C2Q geben der auf nem 690G Läuft und umgekert. .......

Und was ist das? Sogar mit Penryn-Support



Bei ATI benötigt man ne CF mastercard nen board für CF (gibt nich sehr viele) und ne normale Karte.
Bei Nvidia einfach 2 gleiche karten bei denen SLI auf der verpackung steht in eines der in megen vorhandenen SLI boards, fertig!

Erschwerend kommt hinzu das die 8800er serie allesamt die HD 3800er schlagen und Nvidia hat noch nichtmal DX10.1 wenn die ersten von Nvidia kommen kann AMD wieder nachlegen um im unteren Higend bis Lowend mithalten zu können.
Das problem in Grafikmarkt ist das man entwerder game´t oder nicht Sprich für office brauch ich keine "middelend" da reicht nen ATI Rage 128 aber will ich zocken brauch ich ne gute Sprich 8800Ultra.
Gelegenheitszocker in dem sinn gibt es nicht mehr viele die paar die sage bischen GTA da kauf ich mit ne HD 2600 das reicht die sind selten.


Komisch, hier steht was ganz anderes *noahnung*

Ati 3870 Crossfire-Test

http://www.technic3d.com/article-593,1-sapphire-hd3870-crossfire-amd-wieder-an-der-spitze.htm


Meine Meinung...erst mal abwarten bis sich das ganze ein bisschen eingespielt hat. Auf Game-Benchmarks würde ich nicht viel geben, da werden wohl noch einige Treiber und Bios-Updates kommen, also noch nicht optimiert das ganze...Der K10 und die 3850/3870 sind grundsätzlich mal besser als alles was AMD/ATI davor hatte...

Grüße!
 
Zuletzt bearbeitet:
Das Problem wird sein das AMD nicht das nötige Know-How hat um alles zu machen.
Sie sind frisch in den Chipsatzmarkt eingestiegen Nvidia hat dort natürlich überhand.
Nvidia macht chips für intel und AMD also auch lonenswerter. Es wird nie einen C2Q geben der auf nem 690G Läuft und umgekert. Alles was AMD nicht gewachsen ist muss die Firma abtreten das bringt natürlich verluste da man selbst nichts mehr einholt auf der Chipsatz ebene.


AMD bringt seit Jahren Chips raus nur eher für Serverboards und nicht für Privatkunden das ist also schonmal nicht ganz richtig.
 
AMD bringt seit Jahren Chips raus nur eher für Serverboards und nicht für Privatkunden das ist also schonmal nicht ganz richtig.
Eher gesagt ... AMD brachte vor Jahren Chips im Serverbereich raus ... seit der 8000er Serie kam da nix mehr, AMD wollte nie in den Markt, sonder hat das nur aus der Not heraus gemacht, da viele aus Angst vor Intel, keinen Chipsatz entwerfen wollten.
Mittlerweile schauts besser aus -> keine (orginal) AMD Chipsätze mehr.

Die jetzigen AMD Chipsätze sind ja eigentlich ATi Chipsätze. Meiner Meinung nach das Besten was AMD jemals hatte ... nur blöd, dass jetzt die CPU nicht mehr so doll ist ..

Es ist wirklich zum Haareraufen ... jahrelang das lamentieren "Der K8 ist toll, aber die VIA; nvidia, SiS, xy Chipsätze sind sch.. lecht, instabil, wir trauen dem nicht, etc. pp" und jetzt sowas...

Als AMD Fan ist man sowas Ähnliches wie der Fußballfan einer Fahrstuhlmannschaft ... Aufstieg-Abstieg-Missmanagment-Trainerwechsel ...

ciao

Alex

P.S: Die Uli Chipsätze waren auch nicht schlecht, nur fehlte damals noch die Sli/CF Fähigkeit für den high-end Markt.
 
Ich würde eher die VIA die Rollstuhlmannschaft zuschieben. AMD ist vielleicht 2. Liga, aber immer noch nicht abgeschrieben.

Auch mit ULi konnte man 2xPCIe fähige Boards bieten. Nur war das weder von nvidia noch von ATI gewünscht, man wollte ja seinen einen Chipsatz verkaufen, vor allem nvidia... Obwohl es da ein Board gab auf dem SLi (mit ULi) liefe, allerdings nur kurz, bis egonvidia per neuem Treiber dem Treiben einen Riegel vorschob.
 
Meine Güte, denken hier wirklich so viele nur in Spielerdimensionen??

1. Jedes wirklich SMP taugliche Programm profitiert von mehr Prozessorkernen, da das programm die Arbeit auf die einzelnen kerne verteilen kann.

2. Jeder der viel mit Multitasking arbeitet profitiert von mehr Prozessorkernen, da einfach mehr Programme parallel arbeiten können.

3. Wenn spiele nicht die Arbeit an sich, sondern nur einzelne Aufgaben auf einzelne Kerne legen (z.B. Kern 1 rendert, Kern 2 macht Physikberechnung, Kern 3 Datenaufbereitung, kern 4 Audioausgabe, verarbeitung der Ein.- und Ausgabegeräte usw.), dann wird der Prozessor auch nie gleichmäßig ausgelastet werden und somit begrenzt der Kern der am meisten ackert das mehr an Performance.

Wieviel Sinn ein Prozessor mit soundso viel Kernen macht hängt also vor allem vom anwenderverhalte und der eingesetzten Software ab.

Genau hier sehe ich den Vorteil von AMDs Quadcore Konzept, bei dem sich die einzelnen Kerne auch unterschiedlich takten lassen. Die Taktung wird einfach an das Arbeitsaufkommen angepasst und somit die optimale Leistung bei einer entsprechende Stromaufnahme erreicht. Nun fehlt nur noch eine entsprechende softwareseitige Umsetzung dafür.

Für mich liegt der größte vorteil der K10 Architektur weniger in der rechenleistung der einzelnen Kerne als vielmehr in der Infrastruktur an sich (Crossbar, HT-Link, integrierter Speichercontroller, unabhängige Taktung und Stromversorgung der einzelnen Kerne, Kompatibilität zur bestehenden Hardware usw.) und da sind sie Intel derzeit meilenweit vorraus. Was im Gegenzug aber leider vernachlässigt wurde ist die Arbeit am Rechenwerk an sich.
 
Wieso AMD ATI gekauft hat kann ich/man nicht richtig nachvolziehen.
An einem Zeitpunkt der umstellung (DX9- DX10) neue Chipgenerationen (R600) usw.
ATI mag für office rechner genügen mehr aber nicht.
Bei ATI benötigt man ne CF mastercard nen board für CF (gibt nich sehr viele) und ne normale Karte.


.

du solltest dein Wissen noch etwas erweitern und dann postenl. *suspect*
Für dich scheint AMD/ATI nur Grakas und CPUs herzustellen.
Dies ist nicht der Fall. Und man sage nur Stichwort "AMD Live"

Das Problem wird sein das AMD nicht das nötige Know-How hat um alles zu machen.
Sie sind frisch in den Chipsatzmarkt eingestiegen Nvidia hat dort natürlich überhand.

AMD hat einige Inovationen vorzuweisen.
Sie haben meist als einer der ersten neue Prozesse in ihre Produktion aufgenommen.
Das sie mit ihrer evtl kleinen FAB und wenig Budged nicht alles schaffen können ist eine andere Sache.
Das für ein doch reletiv kleines Unternehmen in dem Sektment ist schon beachtlich.

Man stelle sich aber mal die PCs ohne AMD vor? Wie teuer wären dann Intel Chips? Was hätte man jetzt für Produkte, siehe wo keine Konkurenz da auch keine Entwicklung. ....
 
Zuletzt bearbeitet:
Man stelle sich aber mal die PCs ohne AMD vor? Wie teuer wären dann Intel Chips? Was hätte man jetzt für Produkte, siehe wo keine Konkurenz da auch keine Entwicklung. ....

Dieses Argument hasse ich am meisten :( .
Als ob es erst günstige PCs gibt, seit AMD eigene CPUs herstellt. Es gab noch viele andere billig-CPU-Anbieter in den 90er Jahren und es sind immer wieder welche verschwunden und neu aufgetaucht. Dementsprechend kann ich die Sorge um die ach so hohen Preise nicht teilen.
 
Meine Güte, denken hier wirklich so viele nur in Spielerdimensionen??

Na, weil nun mal der größte Teil der User die hohe Performance ihres Prozessors für nichts anderes braucht?
Für die normalen Anwendungen reicht ein Dualcore nun mal wirklich aus.
Und die Highperformanceanwendungen die es gibt werden im Vergleich zu den Spielen viel seltener verwendet, das interessiert nur hier einen prozentual hohen Anteil.

@ ITpassion-de:
Kann ich verstehen, was die Innovation angeht stimmt das Argument jedoch.
Ohne den K8 wäre Intel bei weitem nicht so unter Druck gewesen was den Pentium 4 angeht und zum Handeln gewzungen gewesen.
Genauso nun die umgekehrte Situation, der Conroe von Intel zwingt AMD zu mehr Innovation und neuem Design.
Gäbe es nur ein Unternehmen, egal ob nun Intel oder AMD, so wäre der Innovationsdruck bei weitem nicht in diesem Ausmaße vorhanden.
Ich denke das ist die Stelle an der wir am meisten profitieren.
 
Zuletzt bearbeitet:
Dieses Argument hasse ich am meisten :( .
Als ob es erst günstige PCs gibt, seit AMD eigene CPUs herstellt. Es gab noch viele andere billig-CPU-Anbieter in den 90er Jahren und es sind immer wieder welche verschwunden und neu aufgetaucht. Dementsprechend kann ich die Sorge um die ach so hohen Preise nicht teilen.
Es gab auch mal eine Konkurrenz zu Microsoft.

Oder heute per Linux, das 'geringfügig' preiswerter als Windows ist ;D

Oder Office-Pakete.
Gäbe es eine fairen Wettbewerb bei Office-Paketen wären wir vielleicht bei 20-50 Euro je kompletten Paket.

Ohne AMD hätte Intel einerseits noch +15% des Umsatzes am Weltmarkt, der weitgehend als Gewinn wirken würde.
Intel würde dann die Performance seine Standard-CPUs einschränken und deutlich höhere Preise bei Top-Produkten nehmen.
Sicherlich würde Intel auch den Takt der CPUs wirkungsvoll verriegeln, also OC ade.
All diese Maßnahmen würden weniger Leitung für das gleiche Geld und viel höhere Kosten für Power-User ergeben.
Intel liefert die guten CPUs ja nicht aus kundenfreundlichkeit zu attraktiven Preisen aus, sondern wiel AMD sonst Marktanteile weg nimmt.

Langfristig würden die Innovationen erlahmen, er teure Fab-Bau zeitlich verzögert werden und fast Schrott ausgeliefert werden - vgl. MS Vista.
 
Es gab auch mal eine Konkurrenz zu Microsoft.

Gibt es in vielen Teilbereichen immernoch, z.B. Webbrowser, Officeanwendungen, Serverbetriebsysteme, etc...

Oder heute per Linux, das 'geringfügig' preiswerter als Windows ist ;D

Im Serverbereich wird von der 'CT einmal jährlich ein Kostenvergleich zwischen MS Server und Linux Server angestellt und das Resumé der letzten Jahre war jeweils das die Gesamtkosten identisch sind. Nur die Proportionen sind unterschiedlich. Bei MS war die Anschaffung teurer und die Wartung günstiger, bei Linux umgekehrt.

Oder Office-Pakete.
Gäbe es eine fairen Wettbewerb bei Office-Paketen wären wir vielleicht bei 20-50 Euro je kompletten Paket.

Es gibt Gratis Officelösungen für alle Plattformen, dennoch kaufen (oder stehlen) die Leute lieber ein MS Office für Kaufpreise zwischen 150,- und 800,- Euro.
Im übrigen hat alleine ein MS Word zu Zeiten als Wordperfect noch stark war rund 800,- DM gekostet.

Ohne AMD hätte Intel einerseits noch +15% des Umsatzes am Weltmarkt, der weitgehend als Gewinn wirken würde.
Intel würde dann die Performance seine Standard-CPUs einschränken und deutlich höhere Preise bei Top-Produkten nehmen.
Sicherlich würde Intel auch den Takt der CPUs wirkungsvoll verriegeln, also OC ade.
All diese Maßnahmen würden weniger Leitung für das gleiche Geld und viel höhere Kosten für Power-User ergeben.
Intel liefert die guten CPUs ja nicht aus kundenfreundlichkeit zu attraktiven Preisen aus, sondern wiel AMD sonst Marktanteile weg nimmt.

Ich weiß nicht wie du auf diese abstruse Vorstellung kommst. Es gab Zeiten mit und ohne Konkurenz. Und zu beiden Zeiten günstige und teure CPUs. Ebenso gab es viel Fortschritt im Bereich der Prozessoren auch als Intel mehr oder weniger der einzige x86 Hersteller war.

Langfristig würden die Innovationen erlahmen, er teure Fab-Bau zeitlich verzögert werden und fast Schrott ausgeliefert werden - vgl. MS Vista.

Deine Thesen werden von der realen Geschichte in keinster Weise bestättigt. Im übrigen weiß ich nicht was du an Vista auszusetzen hast. Es wurde 60.000.000 mal verkauft und die meisten werden wohl damit problemlos arbeiten können.
 
Zuletzt bearbeitet:
Im übrigen weiß ich nicht was du an Vista auszusetzen hast. Es wurde 60.000.000 mal verkauft und die meisten werden wohl damit problemlos arbeiten können.

Von den Verkaufszahlen von Windows Vista auf die Qualität des Betriebssystems zu schlussfolgern halte ich für sehr gewagt.
 
Von den Verkaufszahlen von Windows Vista auf die Qualität des Betriebssystems zu schlussfolgern halte ich für sehr gewagt.

Schau dir die Qualität von WIndows me und die dazugehörigen Verkaufzahlen an, das spricht Bände.

Aber nichts desto trotz. Ich benutze Vista x64 seit dem 19.01.07 habe es noch nie neu installiert, habe zwischenzeitlich x Hardwareumabuten gemacht (4x Boardtausch, $x CPU Tasuch, etc..) überhaupt kein Problem udn die Performance leidet auch nicht darunter. Im übrigen ist mein Rechner immer an und hat x Aufgaben, unter anderem Spielen, Fernwartung, Hardcoremultitasking, etc... .
 
Aber nichts desto trotz. Ich benutze Vista x64 seit dem 19.01.07 habe es noch nie neu installiert, habe zwischenzeitlich x Hardwareumabuten gemacht (4x Boardtausch, $x CPU Tasuch, etc..) überhaupt kein Problem udn die Performance leidet auch nicht darunter. Im übrigen ist mein Rechner immer an und hat x Aufgaben, unter anderem Spielen, Fernwartung, Hardcoremultitasking, etc... .

Das stellt ja auch keiner in Frage. Aber schau dir doch mal dein System an. Und schau dir doch im Gegensatz dazu mal die ganzen Komplettsysteme und Laptops an, die mit Vista verkauft werden. 1GB Ram, Intel Celeron (der alte, nicht der neue!) und meist eine sehr schwache Grafiklösung. So sieht der Alltag doch leider noch immer aus.

Auf solchen Maschinen, auf denen übrigens XP hervorragend läuft, wird Windows Vista zum Krampf. Nur: Kauf doch mal solch ein Gerät mit XP. Leider ist die Auswahl erschreckend gering.

Was ich damit sagen will: Gerade in der Anfangszeit von Vista wurden viele Lizenzen notgedrungen gekauft, weil es kaum Angebote von XP-PCs gab. Somit sind viele Vista-Lizenzen über den Ladentisch gegangen, die zwar in die Microsoft-Statistik mit reinzählen, dennoch aber "ungewollt" gekauft wurden.
 
Na, weil nun mal der größte Teil der User die hohe Performance ihres Prozessors für nichts anderes braucht?
Für die normalen Anwendungen reicht ein Dualcore nun mal wirklich aus.
Und die Highperformanceanwendungen die es gibt werden im Vergleich zu den Spielen viel seltener verwendet, das interessiert nur hier einen prozentual hohen Anteil.

Ich antworte mal mit 2 Zitaten aus genau diesem Beitrag von mir.

3. Wenn spiele nicht die Arbeit an sich, sondern nur einzelne Aufgaben auf einzelne Kerne legen (z.B. Kern 1 rendert, Kern 2 macht Physikberechnung, Kern 3 Datenaufbereitung, kern 4 Audioausgabe, verarbeitung der Ein.- und Ausgabegeräte usw.), dann wird der Prozessor auch nie gleichmäßig ausgelastet werden und somit begrenzt der Kern der am meisten ackert das mehr an Performance.

Wieviel Sinn ein Prozessor mit soundso viel Kernen macht hängt also vor allem vom anwenderverhalte und der eingesetzten Software ab.

Da derzeit so gut wie garkein Spiel von einem Quadcore ernsthaft profitiert ist gerade ein TrippleCore für Spieler am interessantesten. 2 Kerne für die rechenintensiven Sachen wie die Grafikberechnung und die Spielphysik und ein Kern für die restlichen Aufgaben. Die Prozessoren mit 4 und mehr kernen sind derzeit im grunde genommen nur für Workstations interessant, bei denen die anfallende Arbeit auch halbwegs gleichmäßig auf die Kerne verteilt wird.
.
EDIT :
.

Ohne AMD hätte Intel einerseits noch +15% des Umsatzes am Weltmarkt, der weitgehend als Gewinn wirken würde.
Falsch...ohne AMD hätte Intel nur deren Marktanteile.....da sich der Umsatz an den Verkaufspreisen orientiert ist dieser nicht absehbar und der Gewinn steigt wohl aufgrund fehlender Innovationen (kein Konkurrenzdruck = weniger Kosten für Forschung und Entwicklung) noch stärker und die Produkte wären wohl bei weitem nicht so leistungsfähig wie heute.

Sehen kann man diese Auswirkungen ja aufgrund der mangelnden Konkurrenz im oberen Leistungsspektrum bereits heute.
.
EDIT :
.

Schau dir die Qualität von WIndows me und die dazugehörigen Verkaufzahlen an, das spricht Bände.

Aber nichts desto trotz. Ich benutze Vista x64 seit dem 19.01.07 habe es noch nie neu installiert, habe zwischenzeitlich x Hardwareumabuten gemacht (4x Boardtausch, $x CPU Tasuch, etc..) überhaupt kein Problem udn die Performance leidet auch nicht darunter. Im übrigen ist mein Rechner immer an und hat x Aufgaben, unter anderem Spielen, Fernwartung, Hardcoremultitasking, etc... .

Das meiste davon konnte man bereits mit Windows 9x machen......der problematische Mainboardtausch (Inaccessible Boot device) kam erst mit dem Treibermodell des NT Kernels auf. bestenfalls würde ich diesen Vorteil als Bugfix bezeichnen..
 
Zurück
Oben Unten