Kann AMD mittelfristig noch mithalten?

@Reina
"by a large margin" heißt dann irgendwas im Bereich von 30%, single-threaded, bei ausgesuchter Software (meist Benchmarking Tools). Das sind dann bei Bilanzen je nachdem wie verschwurbelt die Software oder das Macro geschrieben wurde bis zu - sage und staune! - was sind es denn? Mal 3-5 Sekunden Unterschied, in denen der Kaffee kälter wird bei einer "großen" Berechnung.
Was man noch anmerken sollte: den i3 gibt es nicht im Preisbereich zwischen 50 und 90 EUR. Die kleineren Llanos schon; diese decken damit den Preis/Performancebereich zwischen SB-Celeron und i3. Insofern eine gute Alternative. Aber das ist wohl Ansichtssache.

"Null-Chancen mehr für AMD" - gut dass du noch eine derart dezente und differenzierende Wortwahl beibehälst. Ich hatte schon befürchtet, die Chancen für AMD werden mittlerweile im negativen Bereich angesetzt.

Tschö und schöne Feiertage ;)
 
Ach du meinst sowas wie Office-Grafikanwendungen? *lol*
Mal sehn wann Lexware GPU-Beschleunigt wird ;D

Microsoft Office 2010. edit: Bei Libre Office gibt es die auch... bin mir jetzt nicht sicher ob bei Open Office... aber es gibt genügend Office-Anwendungen die auf DX zugreifen können.

Dazu in naher Zukunft browserbasierte Anwendungen, die es vereinzelt ja auch schon gibt.
 
Office-GPU:

"Eine dedizierte Grafikkarte beschleunigt laut Microsoft etwa die Darstellung von Excel-Grafiken oder aufwändige Übergänge zwischen Powerpoint-Charts."

Dass sowas auf einem Llano in einem praxisrelevanten Beispiel sichtbar besser läuft, als auf einer HD2000 Grafik eines i3/Pentium/Celeron, will ich aber erst einmal sehen.

Wie bedeutsam das Thema GPU bei Office ist, wird auch bei den Sockel-G34 Server-Mainboards deutlich, die oft auch in Terminalservern eingesetzt werden: Dort werden Matrox G200eW (16MB DDR2) eingesetzt oder VGA wird nebenbei von einem Aspeed AST2050 Controller ausgegeben...
 
Zuletzt bearbeitet:
Gut.Haben wir das geklärt.

Es geht mir nicht um die grafische Darstelltung/das Rendern von Power Point Folien, sondern z.B. um die Berechnung von Excel-Kalkulationen mit Hilfe der GPU u.ä..
Es gibt dafür schon Open Source Projekte, ich weiß nicht wie weit CUDA in der Hinsicht ist, aber genau hier stößt eine CPU an ihre Grenzen.

Und es geht natürlich nicht um irgendwelche Fitzeltabellen sondern richtig große spreadsheets.

Das ist nur ein Beispiel.
 
Zuletzt bearbeitet:
Gut.Haben wir das geklärt.

Es geht mir nicht um die grafische Darstelltung/das Rendern von Power Point Folien, sondern z.B. um die Berechnung von Excel-Kalkulationen mit Hilfe der GPU u.ä..
Es gibt dafür schon Open Source Projekte, ich weiß nicht wie weit CUDA in der Hinsicht ist, aber genau hier stößt eine CPU an ihre Grenzen.

Und es geht natürlich nicht um irgendwelche Fitzeltabellen sondern richtig große spreadsheets.

Das ist nur ein Beispiel.
Wenn dies tatsächlich mal produktiv eingesetzt werden wäre das in der Tat eine gute Gelegenheit für AMD zu zeigen, wie weit sie sind. Selbst wenn auch dies nur ein kleiner Teil des Gesamtspektrums der Arbeitswelt darstellt kenne ich da schon einige, die dafür Verwendung hätten, da sie mit solchen riesigen Tabellen arbeiten.

Aber das ist wie beim Bulldozer: Gerade in der IT gilt: "Lieber den Spatz in der Hand als die Taube auf dem Dach". Potentielle Leistungsschübe mit Win8 sollten schon beim Erscheinen des BD kein Kaufkriterium gewesen sein (konnte sich ja auch so nicht bestätigen) und ebenso ist es hier.


Letzten Endes kommt es doch aber darauf an, dass AMD seine CPUs gewinnbringend verkaufen kann. Das sie im Low-End-Bereich geringere Margen haben ist ja klar, aber ich fände es schon interessant zu wissen, wie profitabel sie da wirklich sind.
 
Von wem? Von mir?

Sagen wir mal so... ein 2600S ist keine typischer Office-CPU, in der Hinsicht würde ich das auch belächeln, das Ergebnis an sich aber nicht.

Ich dachte wir reden gerade von Office PCs... also Arbeits-/Büro-PCs die z.B in Behörden oder auch zu Hause zum Einsatz kommen.

Da stehen zum Teil noch von dir belächelte P4-Systeme, ich sitze btw. gerade an einem.

Neuanschaffungen werden gerne mit Sysmark ausgelotet, dem Benchmark vom BAPCo-nsortium aus dem Apple, Nvidia, VIA und AMD letztes Jahr ausgetreten sind. Warum? Veraltete Programme, und die Verweigerung, hardwarebeschleunigte Applikationen aufzunehmen bzw. entsprechend zu gewichten. Zu der Zeit gab es aber schon mehrere Programme die die GPU in Anspruch nehmen konnten, auch wenn es nur die grafische Darstellung ist.


Im "alltäglichen Büroalltag", wie du ihn dir vorstellst, wird natürlich nur mal eine Tabelle erstellt und irgendwelche Werte eingetragen, oder ein Word-Dokument ausgedruckt.

Es gibt aber auch "Offices", die einen anderen Alltag haben, losgelöst von den Klischees.

edit:

@Markstar

Du meinst also, AMD hätte gar nicht erst AM64 entwickeln sollen, weil es für den Endkundenmarkt zu dieser Zeit gar kein (Consumer) Windows OS gab (Marktanteil zu der Zeit 90%+), dass die Registererweiterung hätte nutzen können?
Oder Intel hätte sich SMT sparen können, weil Win 2000 es gar nicht richtig nutzen konnte und es anfangs ineffizient und zum Teil kontraproduktiv war?

Hardware first, Software follows.


Bulldozer hat aber andere Probleme, als "nur" die Software. Daher verstehe ich deinen Einwand nicht, er hat ja nichts mit CPU+GPU bzw, Hardwarebeschleunigung zu tun.
 
Zuletzt bearbeitet:
Von wem? Von mir?
Nein da waren andere am Zug.
Vllt finde ich die Stelle im Prozessor-Forum.
Sagen wir mal so... ein 2600S ist keine typischer Office-CPU, in der Hinsicht würde ich das auch belächeln, das Ergebnis an sich aber nicht.

Ich dachte wir reden gerade von Office PCs... also Arbeits-/Büro-PCs die z.B in Behörden oder auch zu Hause zum Einsatz kommen.
Beziehst du dich auf den chip-Artikel? Ich gehe stark davon aus das dieser angebliche Vorteil auch bei den kleinen I3-Modellen zum Vorschein kommt.
Da stehen zum Teil noch von dir belächelte P4-Systeme, ich sitze btw. gerade an einem.
...welche ich schon vor Jahren durch X2s ersetzt habe.
Neuanschaffungen werden gerne mit Sysmark ausgelotet, dem Benchmark vom BAPCo-nsortium aus dem Apple, Nvidia, VIA und AMD letztes Jahr ausgetreten sind. Warum? Veraltete Programme, und die Verweigerung, hardwarebeschleunigte Applikationen aufzunehmen bzw. entsprechend zu gewichten. Zu der Zeit gab es aber schon mehrere Programme die die GPU in Anspruch nehmen konnten, auch wenn es nur die grafische Darstellung ist.
Das wird sich noch ändern, spätestens wenn Intel etwas 100% äquivalentes (zu AMD APUs) auf die Beine gestellt hat.
Im "alltäglichen Büroalltag", wie du ihn dir vorstellst, wird natürlich nur mal eine Tabelle erstellt und irgendwelche Werte eingetragen, oder ein Word-Dokument ausgedruckt.
Bitte was? Ich stelle ihn mir nicht so vor, sondern das ist Realität.
Es gibt aber auch "Offices", die einen anderen Alltag haben, losgelöst von den Klischees.
Z.B. in Großbanken mit Brokern. Welche MultiMonitor-Systeme die wohl einsetzen?
 
Auch AMD mach Techdemos, man muss sich halt die mühe machen und sie suchen: http://www.pcgameshardware.de/aid,6...fuer-HD5870-und-HD-5850/Grafikkarte/Download/
Für Fusion braucht es keine extra Demo, das kannst auch mit den vorhandenen testen.
AMD hat freilich nicht so viel Software Entwickler wie Intel, daher dauert es einfach länger...
So eine Techdemo Sammlung hab ich schon lange gesucht. :)
Die Whiteout Techdemo läuft übrigens auch auf dem Llano relativ gut.
 
Und woher weißt du, dass dieser Leistungssprung nicht durch den Turbo realisiert wurde? Ich wüsste nicht, dass ein Core i3 einen besitzt. Ist dieser "Excel Test" HTT-aware?
Da würden andere Programme in gleichen maße profitieren. Tun sie aber nicht.
Bitte nicht von einem i7 auf einen i3 schließen. Und besonders nicht von Marketingfolien auf die Realität schließen.
Du hast offenbar nicht verstanden warum es mir mit Excel@Beschleunigung ging. Nicht um wieviel, sondern das es belächelt wurde, weil es beschleunigt wurde (*angeblich*!). Und nun ist es selbstverständlich ok, wenn es durch eine GPU beschleunigt wird, um es mal überspitzt auszudrücken. Allerdings sagte ich eben auch das dies von anderen Personen (also nicht vor dir) hier im Forum belächelt wurde. Ich fand es nur erstaunlich das es offenbar einen Unterschied in der Akzeptanz/Notwendigkeit gibt, abhängig wer es beschleunigt.
@X2... Wen interessiert was du ersetzt hast? Warum gehen hier alle von sich aus? Verstehe ich nicht. Reden wir über unser eigenes Befinden oder über AMD, die Konkurrenz und den "Markt"?
;D - Aber vielen dank für deine P4 info.
Und was wird sich ändern? Du meinst, dass die genannten Firmen wieder angekrochen kommen, wenn Intel...ähm ich meine BAPCo Sysmark-Bewertungskriterien ändert.
Das wäre ein Folge davon, wenn Intel großflächig per Compiler die zuküftigen Apps per CPU/GPU beschleunigt. Schwer vorstellbar?
@Büroalltag

Deine Behauptung wird belegt durch? Die Realität ist weitaus differenzierter, als du sie darlegst. Schwarz-Weiß is nich.
Richtig. Ich kann halt nur das wiedergeben was ich selber in meinem beruflichen Umfeld (Zulieferfirma für die Automobilindustrie) "gesehen" habe.
 
Zuletzt bearbeitet:
Das ist doch schon mal ein Ansatz. Du gehst von deiner Arbeit in einer PRIVATfirma aus, dann diesen Bezug doch auch bitte herstellen.

Ich habe zum Beispiel explizit Behörden genannt, daher auch der Seitschwenk zu Sysmark.Und dem P4, da kannst du dich ja auch mal schlau machen (P4+ Sysmark vs. Athlon).

(edit: Nochmal zur Erklärung, ich sitze gerade an einem, eigentlich "kaputten", Behördenrechner)

Das mit den Compilern checke ich gerade nicht, aber ich wusste nich dass ich mit nem Zaunpfahl "zuschlagen" muss. Alle Firmen sind aktive OpenCL-Nutzer.


@Beschleunigung?

Was für eine Beschleunigung? GPU-Beschleunigung? Wo steht das? Bitte mal mit "Quellen" belegen.
 
Zuletzt bearbeitet:
Ich kann mich noch an die spekulierten Leistungs Prognosen von Bulldozer errinern als der noch nicht vermarktet wurde, z.b. 50% mehr Leistung als Thuban durch 33% mehr Threads, 10% mehr NB Takt usw. :D
Wer hätte nach so einer langen K8 Pause gedacht das AMDs neue CPU Architektur "Der große Bulldozer" nicht auf hohe Thread Leistung ausgelegt ist (etwas weniger IPC als K8 vom Jahre 2003) *noahnung*
Heute ist es bei AMD sehr still geworden, die meißten Leute sind enttäuscht, weil Bulldozer 10 Monate nach Sandy Bridge keine Vorteile sondern nur Nachteile bietet (schwache Thread Leistung & hohe Leistungsaufnahme) wo ist der 2x A64 geblieben? Was haben sich die AMD Ingenieure nur dabei gedacht, 5-7 Jahre Entwicklungzeit ohne das die Integer Leistung höher ausfällt? Nur bei SSE/AVX Code profitiert der Bulldozer, FMA4 wird kein Standard... In Games ist Bulldozer eine totale Niete.
Insgesamt hat AMD mit Bulldozer einen viel schlechteren Start als Barcelona abgeliefert, Barcelona war im Server Bereich aufgrund der erweiterten FPU in bestimmten Anwenundgen gegenüber K8 mit 64 Bit FPU über Faktor 2 überlegen, Barcelona war im Server Bereich sogar besser als Core2 ;) Bulldozer kann heute sowas nicht vorlegen, hätte Intel die neue Xeon Serie vor Bulldozer vermarktet, dann hätte AMD nicht mehr atmen können http://www.computerbase.de/news/2012-03/xeon-e5-2600-intels-sandy-bridge-ep-nun-offiziell/, CMT ist nur ein Papiertiger.
 
Zuletzt bearbeitet:
Vielleicht sehen wir irgendwann mal wieder Lizenznachbauten wie schon in den 80ern und 90ern.
 
@Duplex

Das wird auch ein gewichtiger Grund gewesen sein warum Dirk Meyer gehen musste.
Wirklich erschreckend finde ich die Leistung bei verscheidenen Server-Benchmarks. Etwas wofür er eigentlich konzipiert wurde.

Unterm Strich ist das Problem aber zu vernachlässigen. AMD wird sich zukünftig auf andere Märkte konzentrieren und spezialisierte Anforderungen bedienen. Bei den Spielkonsolen scheint man ja recht erfolgreich zu sein. Das Design ist also wenn man optimiert nicht so schlecht.
Und auch bei Servern ist das Wachstum eher bei den effizienten System zu finden. Daher der Kauf von Seamicro.
Der Löwenanteil werden Notebooks(in allen Facetten) und Tablets sein. Und hier ist man mit der E und A-Serie besser aufgestellt als Intel. Wären da nicht die Fertigungsprobleme.
Ein Produkt welches nicht Verfügbar ist, lässt sich nicht verkaufen. Egal wie gut es ist.
nVidia muss das zur Zeit schmerzhaft bei ihrer Kepler-Serie feststellen. Ebenfalls nur ein Papiertiger.
 
@Duplex
Der Löwenanteil werden Notebooks(in allen Facetten) und Tablets sein. Und hier ist man mit der E und A-Serie besser aufgestellt als Intel.

Aber eben wieder nur im absoluten Billigsegment. Wie lange wird das noch der Fall sein? Mit IvyBridge liefert Intel bereits Grafikleistung die vollkommen ausreichend ist, hat aber die deutlich leistungsfähigeren CPUs mit besseren Verbrauchswerten. Bei AMD stimmt im Bereich der CPUs einfach der Produktmix nicht. Sie produzieren große DIEs und müssen diese für wenig Geld verkaufen, weil die Leistung in Kombination einfach suboptimal ist. Da sie in der Regel lange von einem CPU Design zehren müssen, schwächt sie das für mehrere Jahre. Bulldozer ist einfach zu schlecht. Das ist ein typischer Fall von Fehldesign. Der Fertigungsrückstand kann diesen Rückstand nicht erklären. Da wurde m.E. auf das völlig falsche Konzept gesetzt.

Ein Produkt welches nicht Verfügbar ist, lässt sich nicht verkaufen. Egal wie gut es ist.
nVidia muss das zur Zeit schmerzhaft bei ihrer Kepler-Serie feststellen. Ebenfalls nur ein Papiertiger.

Wer eine GTX680 will kann eine kaufen -> siehe hier:
http://geizhals.de/?cat=gra16_512&bpmax=&asuch=&v=l&plz=&dist=&xf=132_2048~1439_GTX+680&sort=p
 
Zuletzt bearbeitet:
Mit IvyBridge liefert Intel bereits Grafikleistung die vollkommen ausreichend ist

Dann ist die GTX680 ja überflüssig...
Wenn du eine kaufen willst, wirst du eine bekommen.
So war das nicht gemeint. Man steuert die Nachfrage über den Preis, in dem man den Preis so hoch ansetzt, das die wenigen vorhandenen Karten ausreichen.
So generiert man aber keinen Umsatz. Man holt lediglich das Maximum aus der bescheidenden Situation heraus.

x86 Leistung ist in Notebooks meist nicht das Problem. Wenn es irgendwo fehlt ist es GPU-Leistung. Und in ein Notebook lässt sich nicht mal eben eine GraKa nachrüsten.
Und was die Verbrauchswerte angeht, die meisten Llano-Notebooks haben eine längere Akkulaufzeit als vergleichbare Intel-Geräte.

Bessere Laufzeit + bessere GPU-Leistung + ausreichende x86 Leistung = runderes Produkt!

Beispiel
 
Zuletzt bearbeitet:
Aber eben wieder nur im absoluten Billigsegment...

"absolutes Billigsegment" *lol*

Welch eine Wortschöpfung. Will ich halbwegs vernünftig Spiele spielen, kann ich die aktuellen Intelchips in die Tonne hauen. Da nutzt mir die bessere CPU gar nichts.

Wenn die AMD APUs im CPU Bereich auch nur obere Mittelklasse sind, so sind die GPU-Anteile vergleichbar Spitzenklasse. Von "ABSOLUTEM BILLIGSEGMENT" kann da wohl keine Rede sein.

Diese Rhetorik ist mehr was für revolutionäre, weissgrüne Keramikdesigns.
 
Mit IvyBridge liefert Intel bereits Grafikleistung die vollkommen ausreichend ist, hat aber die deutlich leistungsfähigeren CPUs mit besseren Verbrauchswerten.

Na ist doch schön, das Intel sich mal so langsam auf Augenhöhe an AMD heran arbeitet die bereits mit Llano vollkommen ausreichende CPU-Leistung bei überragender Grafikleistung mit besseren Verbrauchswerten bieten.

Dumm nur das IB gegenüber Trinity erneut an Boden verlieren wird.

:-)
 
vrzone hat bei der Trinity Vorstellung in Texas ein paar interessante Sachen bzgl. Bulldozer und den Plänen von AMD mitbekommen. Fand ich ganz interessant zu lesen. Die nächsten zwei Jahre könnten durchaus sehr interessant werden.

Then we come to the CPUs, the real problem for years - I did overhear a discussion between the senior execs how did the whole thing turn out with the 'low IPC performance' Bulldozer instead of the other alternatives on the table, and how it will take some two years to completely turn around the switch to another much more IPC-efficient core architecture.

...

Talking about moving forward, the feel is that AMD is there to survive and thrive once again. Rather than repeating the bland statements of 'we don't want to compete in the high end, just on volume' which make no sense since a fabless company cannot compete on volumes against a competitor with seven large fabs at its disposal, this time there's clear indication that, after Piledriver, there will be substantial changes in both cores and system architecture from Steamroller onwards, that should help make AMD competitive closer to the top. I was told that delaying the socket migration beyond the AM3+, C32 and G34 to new socket is a good move,since AMD can design more aggressive, rather than stop gap, sockets for future platforms with better features like more memory and HyperTransport channels, as well as integrated PCIe v3, for greater future scalability. For the first time, some execs do acknowledge that Bulldozer approach may not have been the best one at the time, and things need to change. I was told that there is some good frequency scalability in the Piledriver core which should help gain some per-core performance ground.

...

The CPU core radical refresh is expected to complete within two years from now, along with brand new socket platforms, proving AMD a new base from which to attack the high end, again, just like in the good old Opteron/Althon 64 early times.

Read more: http://vr-zone.com/articles/amd-to-survive-and-thrive-still-/15564.html#ixzz1s1rLKeFZ
 
naja immerhin stimmt bald das p/l verhältniss 136€ für den fx 8120... *buck*
glaub ich gönn mir den ma zum basteln *suspect*
 
naja immerhin stimmt bald das p/l verhältniss 136€ für den fx 8120... *buck*
glaub ich gönn mir den ma zum basteln *suspect*
Welches ist eigentlich die günstigste Intel 8 Core CPU?
Brauche ein neue Virtuelle Umgebung, da kommt wohl nur AMD in Frage?!?
 
Ich glaub für sowas gibts das Kaufberatungsunterforum ;)
Ja sorry, das stimmt, aber ging ja oben auch ums das P/L Verhältnis. Daher denke ich ist AMD eigentlich im 8 Core Bereich um einiges besser aufgestellt, bin aber in Sachen Intel eben nicht mehr up to date.
Falls es so ist, kann AMD wohl mehr als nur mithalten um beim Thema zu bleiben.
Denke ich werd mich für den 8150 entscheiden, aber muss mich nochmals bei Intel etwas genauer umschauen...
 
Zurück
Oben Unten