News Plant AMD die Entlassung von weiteren 30 Prozent der Belegschaft? [Update]

Was ich nicht verstehe ist, wenn man nun schon mal eine innovative Grundlage geschaffen hat (so einige Aussagen hier im Forum), warum man dann nicht mal einen Zwischensprint einlegt um den wenigstens so in Position zu rücken, dass man ihn auch halbwegs vorzeigen kann. Seit Erscheinen des Bullis lesen ich hin und wieder, dass relativ schnell "updates" dieses Konzept auf den Markt kommen sollen, um die größte Nachtteile auszugleichen, aber der Gegenteil ist doch der Fall (allerdings verfolge ich es momentan nicht genau), oder sehe ich das Falsch?

Ich kann nicht sehen, wie man diese Verzögerungen durch Abbau von 30% je reinholen wird. Das für AMD sinnvollste wird doch sein, einen akzeptablen Käufer zu finden?! *noahnung*
 
Llano kam im Juni 2011. Bulldozer in Form von Zambezi dann vor einem Jahr im Oktober 2011. Trinity wurde dieses Jahr gelauncht Mai 2012(Mobil), Oktober Desktop und nun bald BD2 bzw Vishera.
Wenn das kein hohes Tempo ist weiß ichs auch nicht. Was soll denn noch schneller gehen?
 
Auch wenn es einigen nicht passt ist heutzutage die größte Performancebremse die Software selbst und das gilt für beide Hersteller. Intels Architektur kommt mit dieser Situation nur deutlich besser klar.
Selbst bei Intel gingen die ersten Versionen einer neuen Architektur regelmäßig ziemlich in die Hose. Siehe der erste Pentium, im 32 Bit Bereich der Pentium Pro (auch wenn ich mir nicht sicher bin ob man ihn als neue Architektur bezeichnen kann) oder ebend der Pentium 4. Der Rest beruhte eher auf Evolution.

So nebenbei....ich habe von Programmierung keine Ahnung aber ich kann mir nicht vorstellen das es zeitintensiver ist die Software an die Hardware anzupassen als anders herum. Zumal letzteres wohl eher auf einen technischen Stillstand hinaus läuft.
 
@ tomturbo: Das "technische" Problem des Geldmangels. Ich halte die Idee von HSA äußerst brauchbar. Allerdings muss man entsprechend selber wohl die Software drumrumbasteln oder eben andere Firmen entsprechend dazu überreden.

Wie viel Geld investiert AMD in die Forschung und Entwicklung im Vergleich zu intel und nvidia? Ich glaube nicht, dass ohne die Möglichkeit dieser Finanzierung langfristig überhaupt noch eine Konkurrenzfähigkeit zu beiden Firmen bestehen kann. *noahnung*

@ Effe: Kein Problem der Geschwindigkeit, wenn sie mit intel halbwegs gleich auf liegen würden. Wann waren denn Trinity und Vishera angekündigt (bei der ersten Ankündigung)? Nochmals: *noahnung*
 
Und? Gab es beim FX schon einen Shrink? ;)

Nö. Aber was willst du damit sagen? Das AMD in Gegensatz zu Intel nicht weiterkommt?

ABER leider total an der Realität des Marktes vorbeientwickelt, weil die Software nicht so funktioniert wie es für das Bulldozer-Konzept notwendig wäre.
Diese Überlegungen sind halt anscheinend bei der Entwicklung des Bulldozers ignoriert worden.

Das schreibe ich seit ca. 1 Jahr. Meistens ernte ich Beleidigungen oder siehe nächstes Zitat in diesem Beitrag.

Die Serverarchitekturist einzige Entwicklung im CPU-Abschnitt und keiner kann was damit anfangen.

Auch wenn es einigen nicht passt ist heutzutage die größte Performancebremse die Software selbst

Wenn ich das nicht weiß, wer dann? Ich setze selbst teils recht alte SW ein, nur manche Games sind noch halbwegs aktuell. Und die mag ein BD auch nicht so recht. Klar würde er das händeln, aber wenn ein Intel das noch besser schafft bei sehr viel weniger Stromverbrauch, was soll ich mit einem AMD?
Ich kann das nicht auf AMD optimieren und auch kein anderer wird es tun.


Was ich nicht verstehe ist, wenn man nun schon mal eine innovative Grundlage geschaffen hat (so einige Aussagen hier im Forum), warum man dann nicht mal einen Zwischensprint einlegt um den wenigstens so in Position zu rücken, dass man ihn auch halbwegs vorzeigen kann.

Die "Innovation" ist null und nichtig, da man sie kaum bis garnicht nutzen kann.

Was soll denn noch schneller gehen?

Das Problem ist: Kaum Fortschritte, dafür Rückschritte. Außer dem iGPU im Trinity und mehr Maximaltakt gings nicht weiter.

Wie viel Geld investiert AMD in die Forschung und Entwicklung im Vergleich zu intel und nvidia?

Ich weiß nicht ob die weniger als Nvidia investieren. Aber was ich weiß: Sie investieren nur in Bereiche in denen sie auch langfristig so gut wie nix verkaufen.



Wenn es tatsächlich mal einen AMD-Themenabend innerhalb nächster Zeit geben sollte, würde ich gern was fragen: Warum laßt ihr alle treuen Kunden in Stich und entwickelt für die, die nie große Abnehmer waren?
 
Wenn es tatsächlich mal einen AMD-Themenabend innerhalb nächster Zeit geben sollte, würde ich gern was fragen: Warum laßt ihr alle treuen Kunden in Stich und entwickelt für die, die nie große Abnehmer waren?
Rein interessehalber: Wer ist mit die hier gemeint?


Ich bin mir im übrigen ziemlich sicher, dass zu dem Zeitpunkt, als Bulldozer grünes Licht für die Entwicklung bekam, keiner bei AMD gesagt hat: Cool und jetzt bauen wir mal den ultimativen Server-Prozessor. Der Desktopmarkt kann uns den Buckel runterrutschen.
Das war dann wohl eher die Auslegung des Marketings, mit der man die Performancecharakteristik des fertigen Produktes verkaufen wollte. Aber selbst im Servermarkt sieht Bulldozer doch nicht so wirklich viel besser aus, oder? Den oft von der Axt beschworenen (herbeigeredete?) Aufschwung im Servermarkt konnte ich jedenfalls nicht feststellen.

Ich würde die Aussage unter Damage Control abhaken.
 
Na, die Serv er-Bauer. Soweit ich weiß krebst AMD da bei 5% rum, trotzdem wird eigentlich nur dafür entwickelt.

Somit kann man hier das Hauptargument der AMD-Fanboys entkräftigen, das alles nur am Entwicklungsbudget gescheitert ist; es ist an der Ausrichtung der Entwicklung gescheitert.

Als der BD kam konnte er fast mit den 2 Jahre alten Xeons mithalten, war aber wohl günstiger. Und von großen Verkäufen habe ich innerhalb des letzten Jahres auch nicht gehört

Und wer glaubt das sich das ändert, der liegt schief. Wenn Intel jetzt nicht seine Macht benutzt und die hohen Preise ihrer Server-CPUs nicht verdoppelt wird das nix für AMD.
 
Wenn ich das nicht weiß, wer dann? Ich setze selbst teils recht alte SW ein, nur manche Games sind noch halbwegs aktuell. Und die mag ein BD auch nicht so recht. Klar würde er das händeln, aber wenn ein Intel das noch besser schafft bei sehr viel weniger Stromverbrauch, was soll ich mit einem AMD?
Ich kann das nicht auf AMD optimieren und auch kein anderer wird es tun.
Technologisch oder vom Datum her recht aktuell? Das Eine hat nur allso oft nichts mit dem Anderen zu tuen.
Wenn einfach hingenommen wird das sich bei der Software Optimierung niemand um den Konkurrenten kümmert, dann könnte man auch sagen das gefordert wird das AMD nur Intel Clone basteln soll.
Klasse.....dann säßen wir heute vermutlich entweder immernoch auf der Netburst Architektur oder einem Itanium Abkömmling fest.
 
Wenn man so will, die meisten Games sind Konsolen-Portierungen und keine neuen technologischen Maßstäbe

Zum anderen kann ich nur sagen: Besser gut kopiert als sehr schlecht neu erfunden. Natürlich hätte ich nix gegen einen zweiten Athlon Argon oder Clawhammer, aber AMD scheint entweder nicht in der Lage oder dazu gewillt zu sein, wieder solche wegweisende CPUs zu bauen

Viellicht wären wir noch bei Netburst, aber wenn alle SW darauf optimiert wäre, was wäre schlecht daran? Die größten lagen bei 125W, also genau wie die FX
 
Klasse.....dann säßen wir heute vermutlich entweder immernoch auf der Netburst Architektur oder einem Itanium Abkömmling fest.
Der Athlon 64 war kein Klon und konnte den Netburst dennoch schlagen, genau deswegen hat Intel dann doch den Pentium 4 zu gunsten der Pentium M-Architektur aufgeben müssen.

Dein Einwand passt also nicht, den mit Athlon 64 hat AMD bewiesen, dass man auch ohne zu Clonen was besseres machen kann.

Problem ist eher ein anderes. So wie ich das sehe, sind die ganzen Wissenschaftler nicht mehr bei AMD. AMD hat nur noch Ingenieure, die die Bausteine zusammenstellen können, aber keine Wissenschaftler, die neue, revolutionäre Bausteine bauen können. Entweder das, oder die Leitung gibt den Ingenieuren und Wissenschaftlern falsche Richtungsvorgaben.
 
Zuletzt bearbeitet:
@Scour
Wären es nur Konsolen Ports, dann müßten sie auch mit deutlich schwächerer Hardware auskommen oder mit Blick auf die PS3 besser auf Multicore optimiert sein.
Was schlecht an der Netburst Geschichte wäre? Nun ja, wir wären vermutlich bestenfalls bei Dualcores (wenn überhaupt), würden weiterhin dem GHz Rennen nachlaufen (die Taktsteigerungen frißt die Ersparnis kleinerer Fertigungsprozesse auf) und hätten vermutlich einen Bruchteil der heutigen Rechenleistung. Im Hinblick auf 64 Bit wären wir bei der Itanium Architektur die in vielen Bereichen alles andere als ein Renner ist/war. Von einem ernsthaften Preiskampf kann dann vermutlich auch keine Rede sein und was das bedeutet dürfte wohl auch klar sein.

Du wünschst dir ernsthaft einen solchen Zustand herbei?

@CPU-Klaus
Den falschen Text zitiert oder das Posting nicht richtig gelesen?
 
@sompe:
Also zum Thema Software kann ich so viel sagen, dass das Problem im Prinzip an drei Ecken hängt:
Das eine sind die Entwickler, die müss(t)en natürlich ihren Stil ändern bzw. auf andere Art und Weise programmieren/ neu dazu lernen. Aber es sind ja auch nur Menschen und Menschen hängen oft an ihren Gewohnheiten...
Das andere sind Vorgaben bei der Entwicklung, die die Entwicklungsumgebung angehen. Also z.B. dass in einem Unternehmen nur eine bestimmte Software zur Entwicklung genutzt wird, etc. und dadurch evtl. neuere Compiler erst vergleichsweise spät kommen weil ein älteres Produkt erst einmal über mehrere Jahre genutzt wird.
Der letzte Punkt ist die Parallelisierung selber: Es lässt sich eben nicht jedes Problem beliebig stark parallelisieren. Daher wird auch in Zukunft für bestimmte Aufgaben eine hohe Singlethread-Leistung wichtig bleiben. Trivial ist Parallelisierung zudem auch nicht, da kann bei der Programmierung viel falsch gemacht werden.

Platt gesagt: Der Bohnenkaffee kann nicht aufgegossen werden bevor die Bohnen gemahlen wurden, wenn der Zwang zu einer Handmühle besteht dauert es eben länger und wenn durch Müdigkeit (a.k.a. einen Zugriffsfehler im Programm) anstatt des Wassers der Zucker im Wasserkocher aufgekocht wird, ist der Tag gleich am Morgen direkt im Eimer! ;)


@ Scour: Also von mir haste dafür sicherlich keinen für drauf bekommen.


Aber trotz der Problematik ist AMD ja nicht ganz tot und die Hoffnung stirbt zuletzt. Jetzt warten wir erstmal auf offizielle Vishera-Benches und dann schauen wir mal. Und die CPUs im Bereich E-450 & Co. sind ja durchaus sehr nett, bin da von meinem neuen Subnotebook hellauf begeistert.

Wenn AMD überhaupt halbwegs mit Intel beim Entwicklungstempo mitgehen kann ist das schon was, die Entwicklungsmannschaft ist schließlich deutlich kleiner. Intels Tick-Tock-Modell hat AMD nicht unerheblich unter Zugzwang gesetzt. Natürlich könnte AMD ein höheres Entwicklungstempo dringend gebrauchen aber auch hier muss man in der Realität bleiben und sagen, dass das was wir sehen eben das Maximum und angesichts der Größe auch gar nicht so übel ist.
Aber ob man nicht noch langsamer wird wenn man die Entwicklungsmannschaften eindampft oder vielleicht sogar auch noch im Grafikkartenmarkt den Anschluß verliert, das ist eben die Befürchtung die man haben muss durch diese Ankündigung.
 
Zuletzt bearbeitet:
Laut

http://www.gamestar.de/hardware/prozessoren/amd-fx-8150-bulldozer/amd_bulldozer,346,2561410.html

ist ja der BD so schlecht weil automatisierte Entwicklung eingesetzt wurde.

Desweiteren zieht die BD Technik ihre Leistung aus einer hohen Frequenz statt aus wenigen Takten pro Befehl.

Das ist beim P4 schon schlecht gewesen, Intel hatte es erkannt, deshalb ist Intel wieder etwas mehr Richtung mehr Hardware weniger Takte pro Befehl gegangen.

Aber die zusätzliche Hardware (zu weniger Takte pro Befehl) zu entwickeln kostet ja auch Geld. Und das hatte AMD wohl bei der Entwicklung des BD schon nicht (ausgeben wollen oder können).

Das sieht mir so aus als wenn man in der Vergangenheit einen (damals schon erkennbar) falschen Weg eingeschlagen hat und jetzt auf diesem falschen Weg noch schneller weiter laufen will.

Und dafür wurden dann wohl Millionen über Million für externe Berater ausgegeben.
 
Zuletzt bearbeitet:
To make matters worse, the original firing of Dirk Meyer was done for technically illiterate reasons that have not been stated publicly. The AMD board of directors had a plan and it is both technically naive and counter to the plans in place at the time. Instead of listening to the people who disagreed, they fired dissenters and put in to place a team that would first and foremost not question their new disastrous direction.

Das unterschreibe ich vollkommen...

Es muss nicht alles stimmen, was hier drinsteht aber sollte das auch nur zum Teil zutreffen dann gute Nacht...
http://semiaccurate.com/2012/10/15/amd-is-imploding-because-management-doesnt-understand-semiconductors/

Fraglich ist nur, was mit Intel passiert, wenn es AMD erwischt. Meine Kenntnisse des amerikanischen Kartellrechts sind zwar nur rudimentär, aber es könnte evtl. mit einer Zerschlagung Intels enden.
 
@Nightshift
Es muss letztendlich auch nicht alles parallelisiert werden sondern nur das bei dem es möglich ist.
Allerdings scheint man sich dazu noch nicht einmal die Mühe zu machen aktuelle Befehlssätze einzupflegen. Prozessoren mit AVX gibt es seit dem Marktstart der Sandybridge Architektur und das ist nun auch bald 2 Jahre her. (Januar 2011) FMA soll Intels nächste Generation ebenfalls beherrschen, womit man AMDs Bulldozer auch als Testbalon ansehen könnte aber auch hier tut sich abgesehen von synthetischen Benchmarks praktisch nichts. GPU Computering ist seit Jahren möglich aber wie schaut es hier bei einer Umsetzung in der Software aus? Eher düster....

Es wird aufgrund fehlenden Software Supports also von Generation zu Generation mehr und mehr Rechenleistung verschenkt und das ist genau der Punkt den ich letztendlich ankreide.

Die Entwicklung eines neuen Prozessors dürfte lockler 5 Jahre verschlingen (Vorstellung der SB Architektur auf der IDF 2006) aber wie lange dauert es dies in der Software einzuarbeiten?
 
Es muss nicht alles stimmen, was hier drinsteht aber sollte das auch nur zum Teil zutreffen dann gute Nacht...
http://semiaccurate.com/2012/10/15/amd-is-imploding-because-management-doesnt-understand-semiconductors/
Keine Ahnung wie viel davon auf Fakten basiert, was er da schreibt entspricht zu großen Teilen jedenfalls dem, wie ich die Sachlage bei AMD sehe.

Um die Zahlen zu schönen wurden die Entwicklungszeitpläne angepasst oder Projekte ganz gestrichen. Die Axt hat bis heute keinen klaren Plan vorgelegt, der über banale Stellenstreichungen hinaus geht. Zumindest ist mir eine wirklich klare Kommunikation dessen nicht bekannt.

In meinen Augen hat die aktuelle Situation nur recht wenig mit Derrick R. Meyer zu tun. Da liegen jetzt schon fast zwei Jahr dazwischen. In der Zeit konnten sehr viele sehr falsche Entscheidungen getroffen werden.
 
Wie viel Plan hat so ne Beratungsfirma von betriebsinternen Abläufen bei Chipdesign etc.? Das sind doch idR alles BWL'er, die außer Zahlen jonglieren und CashFlow berechnen wenig bis gar nix machen. Ich hab bisher noch nicht erlebt, das so eine Beratungsfirma ne dicke Kuh erfolgreich nachhaltig vom Eis geholt hat. Wenn da im Vorfeld schon die falschen Leute gehen mussten/gegangen sind, wird es ja noch schwieriger, die Situation zu entschärfen... :/
 
[3DC]Payne;4678378 schrieb:
Wirklich schade, dass 'Big Blue' am Ende gewonnen hat und wir so sehr verloren haben...

Dachte "Big Blue" sei der Spitzname von IBM.

Intel lief doch immer unter "Chipzilla"
 
Wie viel Plan hat so ne Beratungsfirma von betriebsinternen Abläufen bei Chipdesign etc.? Das sind doch idR alles BWL'er, die außer Zahlen jonglieren und CashFlow berechnen wenig bis gar nix machen.
Die haben schon auch wirkliche Experten mit Ingenieurskenntnissen am Start. Nicht zuletzt dafür gibts Studiengänge wie Wirtschaftsingenieur oder Wirtschaftsinformatiker.

Ich hab bisher noch nicht erlebt, das so eine Beratungsfirma ne dicke Kuh erfolgreich nachhaltig vom Eis geholt hat. Wenn da im Vorfeld schon die falschen Leute gehen mussten/gegangen sind, wird es ja noch schwieriger, die Situation zu entschärfen... :/
Der Erfolgsgeschichten von Beratungsfirmen gehen nicht so durch die Mainstream-Presse, weil schlechte Nachrichten sich nun mal besser verkaufen. Ganz daneben können die auch nicht liegen, sonst würde es diese Beratungsunternehmen nicht mehr geben.
 
Ich betrachte die Entwicklung auch mit sorge. Allerdings wundert es mich weniger. Seit längerem kann man fast nur noch Intel-Optimierte Test lesen, bei denen ich nicht weiss was für einen Prozessor AMD herstellen müsste um dort gut abzuschneiden. Besonders die deutchsprachigen Test bei Computerbase und PC Games Hardware (Toms Hardware Guide ist irgentwie nicht mehr so schlimm wie früher) fallen mit vielen Benchmarkprogrammen auf, die nachweislich oder stark vermutet auf Intel zugeschnitten sind wie Cinebench, Prime, Sandra,... oder auf deren Auswahl zutrifft. Wobei auch nicht immer klar ist welcher Teil gebenchmarkt bzw. welche Version. Beliebt ist es auch die Leistungsaufnahme von einem Intelprozessor auf einem sehr sparsamen Intelmainboard (Hergestellt von Intel) und den AMD Prozessor allerdings auf einem stromschluckenden Mainboard zuvermessen (allerdings muss man dabei anmerken das AMD dieses Board selbst mitliefert). Aber zum Teil auch in den Test in der C´t findet man dieses (wobei besonders die C´t immer mehr in den Test nachlässt). Wie kann man eigentlich Cinebench als ehrlichen Vergleichsbenchmark benutzen? Und anschließend werden in den Foren aufgrund dieser Test Intel gelobt und AMD nieder gemacht.
Auch wenn man sich das Angebot an Komplettrechner mit AMD Innenleben anschaut kommt einen oftmals das kalte Grausen. Besonders bei den Notebooks schein es für Deutschland unter den Hersteller einen Wettstreit zu geben wer die schlechteste Konfiguration anbietet. Die entsprechenden Intel-Gegenstücke haben auch gerne mal eine etwas sinnbefreite Konfiguration, aber die heftigsten Fehlleistungen bleibt diesen meist erspart oder es gibt von anfang an mehr Auswahl. Wenn dann eine solche konfigurationelle Fehlleistung auch noch getestet wird braucht man sich über eine vernichtenes Resultat nicht wundern. Als Bespiel sollte mal die Llano-Notebooktest mal geltet, die aufgrund des fehlenden Dual-Channels ihre Leistung nicht ausspielen können. Bei meinem HP 6465b merke ich schon im alltäglichen Gebrauch den Unterschied zw. Single und Dual Chanel. Es stöckt ein wenig.

AMD entwickelt sich immer mehr von einer Ing. geführten Firma zu einer BWL geführten. Bisher habe sie gerne mal neue Techniken eingeführt wie x86-64, NX-Bit, HT, integrierte Grafik,... . Oftmal wurden die Technik von Intel unter anderem Namen und überarbeitet übernommen. Irgentwie habe ich in derr letzten Zeit das Gefühl das die Aufgabe von AMD dadrin besteht für Intel neue Techniken marktfähig zumachen. Nach NX Bit hat es laut einem Artikel bei Intel die Direktive gegeben, keine fremde Technik 1:1 zu übernehmen (bzw. diese soweit wie möglich zu sabotieren). Wie soll da AMD mit ihren kleinen Anteil erfolgreich neue Befehle einführen? Auch die Zeiten der Intel-Clone sind schon seit Pentium vorbei. Auch nur weil Intel diese nicht mehr haben wollte. Selbst wenn Intel für AMD eine Ausnahme machen würde ist es nur eine Frage der Zeit bis auch das nicht mehr möglich ist. In der Historie gibt es genug Beispiele von Firmen die in deren Ungnade, bzw. deren Lizenzen einfach als Ungültig erklärt wurde (Viarama, weiße Boxen, Nvidia-Chipsätze für Core-I, ...).
Jetzt in der Krise und der Konkurrenz durch die Tabletts steigt der Bedarf nach Prozessoren nicht mehr bzw. sinkt. Intel muss den Output halten um seine teuren Fabriken auszulasten und versucht dieses auf Kosten von AMD und Via. Mit ihren i3 haben sie laut Prosorgefüster schon einen Preiskrieg begonnen. In der Vergangenheit waren sie skrupellos um ihre Ziele zuerreichen. Sie würde aber lieber auf Kosten der ARM Prozessoren machen aber in diesem Bereich kommen sie nicht richtig vorran.
Was bedeutet das für AMD? Meiner meinung nach haben sie trotz eigentlich guter Produkte schwierige Zeiten vorsich. Die Menge an an absetzbaren Prozessoren wird wohl schrumpfen. Das erkämpfen von mehr Marktanteilen gegenüber Arm Prozessorenherstellern oder Intel scheint mir nicht wahrscheinlich. Also müssen die Kosten runter In der Konsequenz sollte es für AMD in Zukunft noch schwierigerwerden (der Vergleich mit Via scheint mir auch passend). Allerdings sollten sich auch die PC Hersteller fragen wie lange die Alternative AMD noch bei Intel zieht ( ich schätze mal, dass man Via nicht mehr verwenden kann).
Wenn man sich überlegt wie lange AMD jammern musste, bis die umfangreichen Marktmanipulation untersucht wurden und deren eher geringen Konsquenzen daraus für Intel betrachtet (von daher hat Intel in diesem Aspekt alles richtig gemacht und weitere Manipulationen sind zuerwarten), ist von den Kartellbehörden nichts zuerwarten. Besonders von den amerikanischen Kartellbehörden waren gegenüber Intel sehr passiv. Es hatte mich erstaunt wie umfangreich Intel vorgeangen ist. Im Prinzip wurden nicht nur die wichtigsten PC Hersteller und Händler bestochen sondern auch Benchmark hersteller und sehr wahrscheinlich, weil es günstig ist und dazugehört die wichtigste Presse (wurde komischerweise nicht untersucht. Anscheint wollte man nicht in ein Waspennest reinstechen) bzw. die verwendung von PR Agenturen. Von daher sollten einen die obengenannten Test nicht wundern.

Vorallem sollte man die Zeitkomponent nicht einfach herausnehmen. Einige Dinge wirken sehr lange nach und 2, 3, 4, 5 Jahre sind normalerweise bei solchen Vorgängen eine keine lange dauer. Der eine Lehrer von mir hat gerne die Ursachen in der fernen Vergangenheit gesucht. So gegrundete er wieso Sigmar Garbriel nach Gerhard Glogowski in Niedersachsen Ministerpräsident wurde mit der Rivalität zwischen Hannover und Braunschweig, welche ihren Ursprung in der Verurteilung von Heinrich den Löwen hat. Nicht umsonst achtet Intel auf Kompatibilität auch zu sehr sehr alten Programmen (siehe den Kreuzung der C´t gegen das A20-Gate). Auch die mitverurteiltewn Firmen können nicht von heute auf morgen ihre Meinung ändern, damit würden sie sich gegen Schadensersatzansprüche anfällig machen. Wielange hat es nach der Entscheidung der EU Kommision gebraucht bis im Mediamarkt oder im Saturn Rechner mit AMD Prozessor gab bzw. es sinnvolle Rechner gab, bei deren einziger Zweck nicht darin bestand einen anzubieten, der trotzdem nicht gekauft wird? Auch liest man in letzter Zeit häufiger das alte nicht so marktliberale Richter gegen sehr Marktliberale (Dabei sollte man wissen das die Richter in den USA oder hier in Dtl. mehr oder weniger von der Politik bestimmt werden siehe das "Wunder von Karlsruhe") und diese wirken dann für längere Zeit (Besonders von den in letzter Zeit von den Repulikanern oder den Konsevertiven eingesetzten hört man nicht viele Bestrebungen Firmen ihren unlautern Praktiken zu sanktionieren. Für Intel hat es in den USA es das Urteil der EU-Kommision gebrauch, welches von der US Politik angegriffen wurde. Auf einen Prozess wie damals gegen Mikrosoft braucht man nicht mehr zu hoffen. (bzw. man kann nur noch hoffen das es passiert).
 
Zuletzt bearbeitet:
Naja, also ich hab in meiner Firma auch schon schlechte Zeiten gehabt. Da wurden auch viele gegangen.
Kennen die in US die Kurzzeitarbeit, das ist auch eine Möglichkeit sich nicht von allen Mitabeitern zu trennen.
Was kostet eigentlich so eine Beratungsfirma?

Würde mich mal interessieren welche GPU Sparte es genau betrifft. Sollten es ehmalige ATI Mitarbeiter sein, ist es halb so wild.
 
Was schlecht an der Netburst Geschichte wäre? Nun ja, wir wären vermutlich bestenfalls bei Dualcores (wenn überhaupt), würden weiterhin dem GHz Rennen nachlaufen (die Taktsteigerungen frißt die Ersparnis kleinerer Fertigungsprozesse auf) und hätten vermutlich einen Bruchteil der heutigen Rechenleistung.

Du beschreibst damit genau das was AMD gerade verbockt. Und bitte nicht wieder diese gigantischen AMD-Fehler jedem außer AMD in die Schuhe schieben

Außerdem solltest du selbst sehen das immer noch Takt und IPC für die Leistung zuständig ist, weil eben Optimierungen fehlen.

So gesehen wäre Netburst, das sicherlich die letzten 10 Jahre eine Weiterentwicklung durchgemacht hätte, nicht falsch.
 
Was kostet eigentlich so eine Beratungsfirma?
Also, was ich bisher aus der Ecke gehört/gesehen habe hinsichtlich Rechnungen, kannst du davon ausgehen, dass da selbst die HiWis ordentlich in Rechnung gestellt werden. Teilweise kostet das Bleistift in die Hand nehmen schon Unsummen. Den Namen zahlst dann als "Kunde" direkt mit.
 
Zurück
Oben Unten