Kolumne Neuausrichtung bei AMD: Gut oder schlecht? Diskussion im P3D-Team

Tja das ist ja eben das Problem bei den Blauen egal was man nimmt irgend etwas ist immer beschnitten. Ob Cpu ob Chipsatz irgendwas ist immer faul. ;)

Aber lasst es ruhig gut sein ich muss nicht überzeugt werden, denn ich persönlich bin vollkommen zufrieden mit meinem System.
Am meisten spare ich ein indem ich nichts kaufe. Das ist wohl eine der vernünftigsten Entscheidungen die man treffen kann.
Auch wenn mich Dinge wie 8 gleichzeitige Threads reizen würden brauche ich sie nicht.

Auf das nächste was ich mich freue ist ein Popcorn A-400.

lg
__tom
 
JETZT hat AMD die Chance nicht permanent gegen einen GOLIATH (INTEL) kämpfen zu müssen. Im ARM Markt gibt es noch keinen GOLIATH, sondern bisher nur DAVIDs.

Dass AMD solange gegen Intel bestanden hat ist ein absolutes Wunder, alle anderen x86 Davids sind vom Goliath vernichtet worden: Winchip, Cyrix, IBM, TI, Transmeta etc... erinnert sich noch jemand an diese?
 
http://www.heise.de/newsticker/meldung/AMD-entlaesst-Open-Source-Entwickler-1744670.html

Im Zuge der aktuellen Entlassungen hat AMD sein Operating System Research Center (OSRC) in Dresden geschlossen, wie heise open auf der LinuxCon Europe in Barcelona erfahren hat. Die dort beschäftigten Linux-Entwickler, die unter anderem an der Unterstützung von AMD-Prozessoren im Linux-Kernel und in Xen gearbeitet haben, wurden freigestellt.
Sieht so aus, also wollte AMD das Geschäft mit Serverprozessoren komplett aufgeben? *noahnung*

Und an Android o.ä. Geräten (oft ja Linux/Open Source als Unterbau) scheint man auch kein Interesse zu haben...

Wie soll denn das gut gehen? ???
 
Ich schrieb ja schon das AMD sich größte Mühe gibt alles falsch zu machen.
 
Intel = Schneller, weniger Verbrauch (somit leichter zu kühlen), insgesamt bessere Plattform mit nativem USB3.0, PCIe 3.0; für mich noch besonders wichtig, problemloses SATA-Hotpluggin

Ich sehe mich da deutlich objektiver als du es bist, du bringst nämlich keine stichhaltigen Argumente für deine Behauptungen sondern rein subjektive Ansichten

AMDs FX haben keine Grafik, das Argument ist somit hinfällig. Wenn dir eine "kastrierte Grafik" zu wenig ist, ist auch ein Trinity zu wenig.

Und Preis-/Leistung ist bei einigen Intel derzeit super, auf jeden Fall besser als bei AMD sobald man den Verbrauch einrechnet.
Jaja, ich weiß, der zählt nicht, nur der Anschaffungspreis, aber was solls

Was du hier schreibst gehört auch in die Kategorie "subjektive Ansichten", einschließlich PCIe 3.0, besonders aber das immer gern genommene "den Verbrauch einrechnen". Das hatten wir doch schon ein paar Mal?! Sobald man das richtig stellt, herrscht erstmal Funkstille, keine Antwort mehr. Tage später wird der "exorbitant hohe Stromverbrauch" wieder herbeigezaubert, wie ein Karnickel aus dem Zylinder, und das Spiel geht wieder von vorne los.
.
EDIT :
.

...Im Zuge der aktuellen Entlassungen hat AMD sein Operating System Research Center (OSRC) in Dresden geschlossen...

DAS wäre für mich ein Grund, AMD den Rücken zu kehren. Wenn die Linux-Unterstützung auf ein Level von "läuft gerade noch so eben" zurückfällt, kann ich die CPUs nicht mehr gebrauchen. Und das jetzt, wo Trinity richtig gut geworden ist, echt zum Kotzen *motz*
 
Scott Adam hat einen Comicstrip veröffentlicht, der mich sehr an AMD erinnert:

170969.stripd0sby.gif

Quelle: http://dilbert.com/2012-11-06/
 
Was du hier schreibst gehört auch in die Kategorie "subjektive Ansichten", einschließlich PCIe 3.0, besonders aber das immer gern genommene "den Verbrauch einrechnen". *

Wenn man immer den Kaufpreis von AMD als Argument nimmt kommt eben der Konter mit dem Verbrauch 8) . Mag sein das es denjenigen egal ist bei denen Mutti die Stromrechnung bezahlt, aber manche bezahlen es mit dem eigenen Geld

Du tust gerade so als gäbe es jeden Tag neue Argumente für AMD, aber die Argumente dagegen werden ungültig :-X

AMD hat sich eben entschlossen uns nicht mehr zu beachten.

Ich nehme das gerne zurück wenn der Steamroller einschlägt, aber AMDs Neuausrichtung läßt wenig Hoffnung aufkommen
 
Scour,

ich hoffe Du hast keine größeren Zahlungen als den Verbrauch von den phösen AMD CPUs.
Ich habe wesentlich größere Posten wie Steuern und Abgaben wo ich durchschnittlich schon fast ein halbes Jahr für den Staat arbeite.

Meiner Brieftasche wären halber Spritpreis oder günstigere Lebensmittel auch wesentlich zuträglicher.

Womit wir wieder bei der 5% zu 95% Diskussion wären und den vollkommen verschrobenen Ansichten diesbezüglich.
Schon ausgerechnet wieviel Prozent der Stromrechnung auf die AMD CPU abfällt?

lg
__tom
 
Wenn man immer den Kaufpreis von AMD als Argument nimmt kommt eben der Konter mit dem Verbrauch 8) . Mag sein das es denjenigen egal ist bei denen Mutti die Stromrechnung bezahlt, aber manche bezahlen es mit dem eigenen Geld

Du tust gerade so als gäbe es jeden Tag neue Argumente für AMD, aber die Argumente dagegen werden ungültig :-X

Der Stromverbrauch meiner Familie wird nicht von meiner Mutter bezahlt, keine Sorge. Ich habe auch nicht gesagt, dass Stromverbrauch prinzipiell egal wäre.

Beim günstigen Kaufpreis sparst Du bares Geld, das leuchtet ein, oder?

Dann gibt es das scheinbare Gegenargument, dass du das gesparte Geld über die Stromrechnung (mehr als) wieder los wirst. Das würde aber voraussetzen, dass deine CPU viel Strom verbrauchen würde. Und, oh schreck, das tut sie gar nicht. Zwar kann man in bunten Balkendiagrammen vieler Reviews lesen, dass es theoretisch möglich wäre, wenn denn bei CPU und GPU Volllast anliegen WÜRDE, dass dann auch der Verbrauch hoch WÄRE. Aber nochmal: In der Praxis tritt diese Situation einfach nicht ein. Und wenn, dann vielleicht für 10 Minuten alle zwei Wochen. Miss doch mal mit einem vernünftigen Messgerät nach (habe ich hier angeschlossen). Und dann rechne mal konkret vor, was das von deinem sauer verdienten Geld kostet!

Warum messen dann die Redaktionen den Verbrauch bei Volllast? Kannst sie gerne fragen! Weil es immerhin theoretisch interessant ist (da stimme ich zu), weil es sich so schön einfach messen lässt (prima Grund *lol*), weil sie nicht wissen, wie sie den realen Verbrauch messen sollen. Die c't sagt einfach, dass der reale Verbrauch nah am Idle-Verbrauch liegt. Nur kapieren die Leser das nicht (wobei Journalisten, die von vielen Lesern missverstanden werden, in der Pflicht sind, ihre Messungen vernünftig zu erklären).

Und ja, wenn jetzt einer den ganzen Tag (warum auch immer) BOINC rechnen möchte, soll er Intel kaufen, nichts dagegen.

Das wurde schon öfter (nicht nur von mir) ausgeführt, und meine Beobachtung ist, dass die Adressaten einfach abtauchen, statt auf Argumente einzugehen. Dafür kommt das Thema Tage später wieder auf den Tisch.
 
Zuletzt bearbeitet:
Genauso wie du auf Argumente eingehst ;D ?

Ich sehe halt immer das Gesamtergebnis

Und ich finde die AMDs auch nicht so billig, ein 8150 liegt bei 160€, dafür gibts auch schon einen 3450
 
Genauso wie du auf Argumente eingehst ;D ?

Wenn ich auf PCIe 3.0 eingehen würde, müsste ich dich wieder enttäuschen (schau dir mal an, wie viel % Leistung du bei PCIe 2.0 x8 statt x16 tatsächlich verlierst, du wirst dich wundern).

Was ist denn nun mit dem Stromverbrauch? Können wir den jetzt abhaken?
 
Der Stromverbrauch erfordert eine aufwendigere Kühlung. Der Intel-Boxed kühlt überdies durchweg sehr leise, der AMD Boxed (95W wie 125W) wird richtig laut.
 
OK, für diesen Fred schon ;)

Da muß ich dich enttäuschen, ich weiß genug über Bandbreiten und deren Auswirkungen ;D

Und nochmal die Frage: Warum denkt jeder bei PCIe 3.0 nur an Grafikkarten? Die nahezu verdoppelte Bandbreite gegenüber 2.0 sorgt dafür das man mit wenigen Lanes nette Zusatzchips anbinden kann.

Ich hab mir ein Z77-Board gekauft damit ich genügend Lanes für Zusatzkarten zur Verfügung habe. Wenn es mal SATA-Controller und USB3.0-Karten mit PCIe 3.0 gibt kann man endlich die Bandbreite mehrerer Geräte mit nur einer Lane nutzen.

Wer erinnert sich nicht an diese nette Beschreibung bei Geizhals?

"Achtung! Die volle Geschwindigkeit wird nicht erreicht auf Mainboards mit Intel H55/H57/P55/Q57/X58 Chipsets."

Damals war ich froh ein AM2+ Board zu haben, PCIe 2.0 :)
 
Der Stromverbrauch erfordert eine aufwendigere Kühlung. Der Intel-Boxed kühlt überdies durchweg sehr leise, der AMD Boxed (95W wie 125W) wird richtig laut.

Ich kaufe i. d. R. einen ordentlichen CPU-Kühler, bei Intel würde ich kein billigeres Modell als bei AMD nehmen. Einen AMD boxed habe ich auf einem K10 3-Kerner mit 95 W TDP im Einsatz, der ist sehr leise (wie gesagt, Volllast ist extrem selten).
 
Ist aber wieder ein Kostenfaktor ;)

Dazu habe ich eigentlich keine gute Erfahrung mit Boxed von einem X3. Selbst mit im Bios stark runtergereglten Lüfter ist es kein Leisetreter
 
OK, für diesen Fred schon ;)

Da muß ich dich enttäuschen, ich weiß genug über Bandbreiten und deren Auswirkungen ;D

Und nochmal die Frage: Warum denkt jeder bei PCIe 3.0 nur an Grafikkarten? Die nahezu verdoppelte Bandbreite gegenüber 2.0 sorgt dafür das man mit wenigen Lanes nette Zusatzchips anbinden kann.

Ich hab mir ein Z77-Board gekauft damit ich genügend Lanes für Zusatzkarten zur Verfügung habe. Wenn es mal SATA-Controller und USB3.0-Karten mit PCIe 3.0 gibt kann man endlich die Bandbreite mehrerer Geräte mit nur einer Lane nutzen.

Wer erinnert sich nicht an diese nette Beschreibung bei Geizhals?

"Achtung! Die volle Geschwindigkeit wird nicht erreicht auf Mainboards mit Intel H55/H57/P55/Q57/X58 Chipsets."

Damals war ich froh ein AM2+ Board zu haben, PCIe 2.0 :)

Aber was machst du damit? Ich komme mir ja schon wie eine Luxus-Göre vor, wenn ich das beste Mainboard nehme (ATX natürlich), obwohl micro-ATX eigentlich gereicht hätte. Unter den PCIe-Karten sind keine für zusätzliche Schnittstellen.

Wie viele Zusatz-Karten hast du in deinem PC?
 
4 Stück

2x USB3.0

2x SATA

+ Grafikkarte natürlich
 
Eigentlich ging es in dem Thema um die Neuausrichtung von AMD und nicht um irgendwelche Verbräuche von CPU + GraKa etc...

ARM ist die Chance für AMD... x86 Fanboy Kram ist hier fehl am Platz...
 
"Achtung! Die volle Geschwindigkeit wird nicht erreicht auf Mainboards mit Intel H55/H57/P55/Q57/X58 Chipsets."

Wo bei das nicht stimmt wenn man die USB 3.0 PCIe 1x Karte bei einem X58 in den 2. PEG 16 Slot steckt. Das sind "vollwertige" PCI 2.0 Lanes keine verkrüpelten mit halber Bandbreite wie die der Southbridge.

Man hat hier auch keinen Nachteil wie beim P55 das dann der 1. PEG Slot auf 8x geht.

Sorry für offtopic.

Die Entlassung der Open-Source-Entwickler halte ich für wenig vorausschauend aber hier geht es wohl um sparen um Teufel komm raus.
 
Als erstes stellt sich mir die Frage: Ändern wollen oder ändern müssen? Ist wahrscheinlich Ansichtssache.
Man kann es als strategische Maßnahme definieren, ja. Ich sehe es als eine Art letzte Maßnahme.

Entgegen einer anderen Meinung, lotet man für den Mainstream schon länger Alternativen aus.

IBM arbeitet seit 2008 bis heute (noch enger) mit ARM und Cadence (www.cadence.com) zusammen, aktuell:
"Agreement established to provide comprehensive design platform down to 14nm targeting low-power, high-performance for advanced consumer electronics"

Es gibt genau ein Thema, was seit Jahren aktuell und weiterhin beständig ist und konsequent verfolgt wird:
Mehr Rechenleistung, bei weniger Energiebedarf. "GreenIT" ist eines der besten Aushängeschilder eines Unternehmens.

Wer diesen Schritt verschläft oder nicht wahrhaben möchte, wird am Ende das Nachsehe haben...
Ich gebe ARM+AMD eine sehr gut Chance – Hier sehr attraktive Produkte für den Markt bereitstellen zu können.
Was AMD daraus macht oder machen kann, ist eine andere Frage, hier Kapazitäten hinzuführen halte ich für nicht falsch.

AMD hat einen aus meiner Sicht nicht zu vernachlässigenden Vorteil und das ist ATI KnowHow.
Da Branchenriesen wie Apple (jetzt wieder) und IBM starkes Interesse an ARM habe, sage ich das hier AMD nicht viel falsch machen kann.

Das Microsoft bereits ARM-Lizensen gekauft hat dürfte klar sein, im Mai - hat NVIDIA ("Project Denver") auch Lizenzen erworben.
Zudem sieht es für ARM sehr gut aus, MIPS wird verkauft, da wird sicherlich Technologie eingekauft werden.
Und wenn Apple - Bob für 2 Jahre aus dem Ruhestand zurückgeholt um Alternativen zu prüfen, hat das gute Gründe.

Das AMD back ins Servergeschäft MUSS (am besten mit ARM), sage ich seit Monaten, ich finde das Vorhaben gut.
Der AM3+ gehört schnellstmöglich eingestampft. Hauptaugenmerk sollte bei den APUs liegen, next gen BD bitte auf FM-Sockel.
Die zwei Sockel´-Strategie verärgert die OEMs und den Retail-Kunden und macht, für mein Befinden so wie das jetzt läuft, auch wenig Sinn.

Spekulation:
Wenn Intel, Apple als Exklusiv-Kunde verlieren sollte, bedeutet das - 10% , 15% in sales.
Das ist alleine nicht viel... ausreichend genug, trifft AMD+ARM allerdings ins schwarze, macht sich -10% (Beispiel) marketshare im Ernteprise bemerkbar.
Ist IBM, NVIDIA, Samsung usw. mit ARM (oder eigenständig) generell weiter erfolgreich, verliert man (Intel) zusätzlich und nicht nur im EP Kundschaft.
 
Zuletzt bearbeitet:
Die Patente von Mips sind an die Holding von Intel, Ibm und Arm gegangen. Falls Arm davon etwas nutzen wollte, wären erstmal Lizensgebühren fällig. Der Rest ging an Imag.Tech.. Da kann ich jetzt keinen Nutzen für AMD draus ersehen.
Ich vermute auch mal, das niemand auf AMD ARM Server wartet, dazu gibt es schon viel zu viel Konkurrenz mit erheblich mehr Erfahrung. Immer mehr stoßen hinzu. Dell u. HP hatten auch schon fertig.
Es ist auch eine Frage für wen man das Server Zeugs überhaupt herstellt. Kann man die Sachen, neben Dell, verkaufen oder droht Dell dann AMD mit Einkaufskürzungen?

Die AMD Rolle sieht immer noch sehr passiv aus. Man bauts, lagerts ein u. kürzt die Belegschaft, scheinbar ohne jegl. Konzept. Dabei wachsen bei den ODMs im Osten, welche mittlerweile Tochtergesellschaften gegründet haben, die Zuwächse im Servergeschäft zweistellig.
Nvidia benötigt lediglich Threaderzeuger für Ihre Teslas, da paßten speziell angepaßte Opterons sehr gut ins Konzept.
Trinity Käufer könnte man einen GPGPU Packer als download beilegen, die AM3+ CPU mit generell freiem Multi ausliefern.
Ist jetzt die Frage ob man weiter Pressepredigten, mit Motivationscharacter im Stile eines absteigenden Bundesligaclubs, in der Hoffnung das die Zuseher motiviert wurden u. das Wirtschaftswunder über Nacht eintritt, verbreitet oder ob man Märkte aktiv beeinflussen möchte.
Ansonsten dürfte es finanziell eng für 2013 werden o. die Mitarbeiterzahl hat sich dann halbiert.;D
 
Also mittlerweile bin ich von AMD schon ziemlich enttäuscht, die Schritte, die man nun ergriffen hat sind wohl die Schritte über die Kante zum Abgrund.

Ich finde das sehr schade, denn seit über 10 Jahren habe ich eigentlich nur noch AMD CPUs verbaut, die letzte von Intel war ein Pentium II.

Aber das war es dann jetzt wohl, die aktuelle CPU wird wohl die letzte von AMD sein. Zum Glück dürfte die aber noch ein paar Jährchen reichen. ;)
 
Ich gebe ARM+AMD eine sehr gut Chance – Hier sehr attraktive Produkte für den Markt bereitstellen zu können.
Was AMD daraus macht oder machen kann, ist eine andere Frage, hier Kapazitäten hinzuführen halte ich für nicht falsch.

AMD hat einen aus meiner Sicht nicht zu vernachlässigenden Vorteil und das ist ATI KnowHow.
Selbst als primärer Spieler kann ich mir hier interessante alternativen vorstellen.
Wie wäre es beispielsweise mit einer Integration einer entsprechend leistungsstarken ARM CPU auf der Grafikkarte, wobei hier das Mainboard nur noch der Träger des Chipsatzes zum Anschlußt der sonstigen Geräte und Steckkarten wäre? Selbst wenn dies das Ende des traditionellen Renderns wäre. Wäre eine entsprechende Karte nicht potet genug fürs Ray Tracing?
Im x86er Bereich sehe ich aufgrund Intels Marktdominanz und deren gesteigertes Entwicklungstempo nicht all so viele Chancen und die die man bisher hatte wurden nahezu konsequent vom Markt ignoriert.
Was liegt da näher als sich neuen Märkten zu zu wenden? *noahnung*
 
Zurück
Oben Unten