App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Gerücht AMDs Fusion in 22nm?
- Ersteller S.I.
- Erstellt am
User-News
Von S.I.
Hinweis: Diese "User-News" wurde nicht von der Planet 3DNow! Redaktion veröffentlicht, sondern vom oben genannten Leser, der persönlich für den hier veröffentlichten Inhalt haftet.Da intel mit Clarksdale/Arrandale (CPU+GPU on Chip) Anfang 2010 auf den Markt stoßen will, ist AMD bedrängt mit Fusion nachzuziehen.
Angekündigt ist so etwas von AMD mit "Fusion" ja schon etwas länger, doch scheint es nicht ganz so einfach umsetzbar. Einige Versuche in 45nm wurden bereits abgebrochen. Die Hoffnung nennt sich nun 22nm, womit AMD jedoch weiter in Verzug käme, da dies für Q2 1012 geplant wäre....
Lt. Fuzilla steht die Chance jedoch nicht schlecht, dies auch mit 32nm zu schaffen und somit doch schon in Q2/2010 vorzustellen.
http://www.fudzilla.com/content/view/14792/1/
ach ja, Fusion soll übrigens in "Swift" umbenannt werden, weis der Geier warum
Angekündigt ist so etwas von AMD mit "Fusion" ja schon etwas länger, doch scheint es nicht ganz so einfach umsetzbar. Einige Versuche in 45nm wurden bereits abgebrochen. Die Hoffnung nennt sich nun 22nm, womit AMD jedoch weiter in Verzug käme, da dies für Q2 1012 geplant wäre....
Lt. Fuzilla steht die Chance jedoch nicht schlecht, dies auch mit 32nm zu schaffen und somit doch schon in Q2/2010 vorzustellen.
http://www.fudzilla.com/content/view/14792/1/
ach ja, Fusion soll übrigens in "Swift" umbenannt werden, weis der Geier warum
Zuletzt bearbeitet:
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Wobei Fudzilla unterscheidet in AMDs Fusion-Lösungen, welche alles auf einem Chip integrieren (22 nm) und den Schritt mit zwei Dice auf gemeinsamen Chipträger* (32 nm).
Intel macht das mit ihrem ersten integrierten Produkt auch nicht anders. Da wird vermutlich ein Grafikkern in 45 nm auf einem Chipträger zusammen mit einem Prozessor in 32 nm verlötet.
MFG Bobo(2009)
* = In diesem Falle wird dies auch gerne als "MCM" (Multi Chip Module) bezeichnet.
Intel macht das mit ihrem ersten integrierten Produkt auch nicht anders. Da wird vermutlich ein Grafikkern in 45 nm auf einem Chipträger zusammen mit einem Prozessor in 32 nm verlötet.
MFG Bobo(2009)
* = In diesem Falle wird dies auch gerne als "MCM" (Multi Chip Module) bezeichnet.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Ich weiß gar nicht, wo das Problem ist. Die integrierte Grafik in den aktuellen Chipsätzen verbraucht 4W (laut einer Folie letztens, Unterschied von Northbridge mit und ohne IGP), besonders groß dürfte das auch nicht sein. Das neben einen Regor und fertig (meinetwegen als MCM). Rein von Wärmeverbrauch und Diefläche her betrachtet sehe ich da kein Problem; wenn sie das also noch nicht machen, liegt es an was anderem.
Spacecake
Commodore Special
- Mitglied seit
- 13.02.2009
- Beiträge
- 416
- Renomée
- 87
- Standort
- Hessen
- Prozessor
- AMD Ryzen 7 5800X3D
- Mainboard
- Gigabyte X570S AORUS PRO AX
- Kühlung
- Arctic Liquid Freezer II 420
- Speicher
- 2x 32 GB Viper (SK Hynix) DDR4-3600 CL18
- Grafikprozessor
- PowerColor Hellhound 7900XTX 24GB
- Display
- LC-Power LC-M40-UWQHD-144 3440x1440 144Hz FreeSync Premium
- SSD
- Samsung SSD EVO 840 500GB S-ATA, NVMe SSDs: HP EX900 500GB, Intel 2TB, Transcend 2TB
- HDD
- 2x WD RED 4TB
- Optisches Laufwerk
- HL-DT-SD BD-RE BH16NS55
- Soundkarte
- Creative SoundblasterX AE-5
- Gehäuse
- Thermaltake TheTower 900
- Netzteil
- BeQuiet DarkPower Pro 750W Platinum
- Tastatur
- Roccat Vulcan 122 AIMO
- Maus
- Roccat Kone XP
- Betriebssystem
- Win11 x64 Pro
- Webbrowser
- Vivaldi
- Verschiedenes
- Roccat Elo 7.1 Air, Xbox Wireless Gamepad, Logitech G923, Oculus Rift CV1
- Internetanbindung
- ▼1000 MBit ▲200 MBit
@S.I. ich nehme an Du meintest 2012.
Danke für die Gerüchteküche
Grüße
Christian
Danke für die Gerüchteküche
Grüße
Christian
C4rp3di3m
Admiral Special
- Mitglied seit
- 14.12.2007
- Beiträge
- 1.842
- Renomée
- 172
- Standort
- Berlin
- Mein Desktopsystem
- Gigabyte FTW Storm Peak Army
- Prozessor
- AMD THREADRiPPER 7960X
- Mainboard
- GIGABYTE TRX50 AERO D / X690
- Kühlung
- Alphacool Eisblock XPX Pro Aurora Full Brass Black Digital
- Speicher
- Kingston Fury Renegade PRO 6000 CL32-1T Quadchannel DDR5
- Grafikprozessor
- GIGABYTE AORUS Radeon RX 6900XTXH Xtreme Waterforce XT Copper Edition
- Display
- LG UltraGear 27GN800-B, HDR10, 144Hz, 1440p
- SSD
- Crucial MX100-256GB SSD, Kingston KC3000 NVME, Gigabyte Aorus M2 Gen4 NVME
- HDD
- n/a
- Optisches Laufwerk
- n/a
- Soundkarte
- Dual Chip Onboard Realtek ALC4080 & ALC897
- Gehäuse
- Be Quiet Dark Base Pro 901 Big Tower
- Netzteil
- CORSiAR HX1000i ATX v3.0 Full-Modular 80+Plus Platinium
- Tastatur
- Lioncast [Mechanisch]
- Maus
- G502 HERO
- Betriebssystem
- Windows 11 PRO x64
- Webbrowser
- FireFox
- Verschiedenes
- 3 Radiatoren ST30 120HPE+2x360HPE Fullcopper Loop, Pump: VPP755 V.3 Stufe2@95L/h, 1x140mm Sys-FAN, 7x120 Radiator FAN
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
-
▼500MBit
▲100Mbit
Wozu soll dass bitte gut sein? Ok man spart etwas Platz auf dem MB mehr nicht. Was ist wenn eine Komponente kaputt geht? Ich war nie ein Freund von Kompaktanlagen im HIFI bereich aus gleichem Grund, geht was in Arsch Baustein austauschen fertig. Diese Lösung ist doch nur was für 08/15 Billig Office PCs sonst nix, da verdient man weder großes Geld und sonst was. AMD sollte sich besser auf seine CPU konzentrieren und da mal zu Intel aufholen anstatt Geld für so ein Nonsens rauszuschmeißen. Fusion? Pff dinge die kein Mensch braucht.
mfg
mfg
Oberst K
Captain Special
- Mitglied seit
- 29.03.2005
- Beiträge
- 237
- Renomée
- 0
- Standort
- StaLag 13
- Prozessor
- AMD Opteron 175
- Mainboard
- Epox 9NPA3 Ultra
- Kühlung
- Scythe Mine
- Speicher
- Kingston HyperX 1GB Kit @ 2-2-2-5-1T
- Grafikprozessor
- Sapphire HD 4770
- Display
- 19" BenQ 1280x1024
- HDD
- 2x Patriot, 2x Seagate
- Optisches Laufwerk
- LG 4163B
- Soundkarte
- Terratec Aureon 5.1
- Gehäuse
- Noname
- Netzteil
- Enermax 420W
- Betriebssystem
- Win XP
- Webbrowser
- Firefox
Wozu soll dass bitte gut sein? Ok man spart etwas Platz auf dem MB mehr nicht. Was ist wenn eine Komponente kaputt geht? Ich war nie ein Freund von Kompaktanlagen im HIFI bereich aus gleichem Grund, geht was in Arsch Baustein austauschen fertig. Diese Lösung ist doch nur was für 08/15 Billig Office PCs sonst nix, da verdient man weder großes Geld und sonst was. AMD sollte sich besser auf seine CPU konzentrieren und da mal zu Intel aufholen anstatt Geld für so ein Nonsens rauszuschmeißen. Fusion? Pff dinge die kein Mensch braucht.
mfg
In der Hinsicht kann man geteilter Meinung sein und ich würde sagen Platzersparnis ist nur ein Vorteil der sich daraus ergibt. Vielmehr sind die kurzen Signalwege ein Grund in diese Richtung zu gehen. Sogesehen ist das Beispiel mit der Austauschbarkeit von Komponenten in Audioanlagen nicht gerade günstig, denn die spielen in einer ganz anderen Liga was den Frequenzbereich angeht.
Dieser Tage habe ich die Daten von PCIe 3.0 gesehen und dort wurde der Takt um 2GHz von 10GHz auf 8GHz heruntergenommen, da der Stromverbrauch exponentiell mit der Frequenz ansteigt.
Was ich damit sagen will, die Datenraten zwischen Grafikeinheit und CPU werden in Zukunft sicher nicht abnehmen, was einen sehr schnellen Bus braucht. Günstigerweise sollten aber die Signalwege sehr kurz sein, da man sich sonst Antennen mit ner guten Abstrahlleistung baut und wo hinten kein Signal mehr ankommt... und genau das will man mit dem Fusion vermeiden - nur leider scheint das aktuell nicht so ganz zu klappen.
Ich gebe zu das die Austauschbarkeit dann weiter flöten geht und das auch die Ausfallraten mit steigenden Bauteilzahlen weiter steigen wird (dieses Verhalten ist ja schließlich kein Geheimnis...), aber ob es nur eine Billiglösung wird, bleibt eher abzuwarten, denn das kann heute noch keiner sagen... oder aber die Glaskugel hat besondere Fähigkeiten.
In der Hinsicht möchte ich mich auch nicht zu weit aus dem Fenster lehnen was in 3 Jahren alles passiert - vor allem nicht im Bereich Computerarchitektur.
P.S.: Hier noch der Link zu der Meldung zu PCIe 3.0 von elektroniknet
Zuletzt bearbeitet:
C4rp3di3m
Admiral Special
- Mitglied seit
- 14.12.2007
- Beiträge
- 1.842
- Renomée
- 172
- Standort
- Berlin
- Mein Desktopsystem
- Gigabyte FTW Storm Peak Army
- Prozessor
- AMD THREADRiPPER 7960X
- Mainboard
- GIGABYTE TRX50 AERO D / X690
- Kühlung
- Alphacool Eisblock XPX Pro Aurora Full Brass Black Digital
- Speicher
- Kingston Fury Renegade PRO 6000 CL32-1T Quadchannel DDR5
- Grafikprozessor
- GIGABYTE AORUS Radeon RX 6900XTXH Xtreme Waterforce XT Copper Edition
- Display
- LG UltraGear 27GN800-B, HDR10, 144Hz, 1440p
- SSD
- Crucial MX100-256GB SSD, Kingston KC3000 NVME, Gigabyte Aorus M2 Gen4 NVME
- HDD
- n/a
- Optisches Laufwerk
- n/a
- Soundkarte
- Dual Chip Onboard Realtek ALC4080 & ALC897
- Gehäuse
- Be Quiet Dark Base Pro 901 Big Tower
- Netzteil
- CORSiAR HX1000i ATX v3.0 Full-Modular 80+Plus Platinium
- Tastatur
- Lioncast [Mechanisch]
- Maus
- G502 HERO
- Betriebssystem
- Windows 11 PRO x64
- Webbrowser
- FireFox
- Verschiedenes
- 3 Radiatoren ST30 120HPE+2x360HPE Fullcopper Loop, Pump: VPP755 V.3 Stufe2@95L/h, 1x140mm Sys-FAN, 7x120 Radiator FAN
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
-
▼500MBit
▲100Mbit
Wenn ich mir meine ATI HD4850 so ansehe wie soll die bitte in einen kleinen Chip passen? Dieser Fusselirrsinn ist doch nur für Netbooks, Office PCs und Billig Notebooks zu gebrauchen. Es wird niemals ein Hiend Fusion CPUGPU geben was nützt die Busstreckenverkleinerung wenn dafür wieder Shared RAM gibt? Was soll´n dass für ne CPU werden wenn die da noch 512MB Ram Cache basteln würden so wie bei K7SlotA von AMD in VHS größe oder wat? Grade dort wo der Fussel sinn macht verdient man kein Geld so einfach ist dat. Die Netbooks sind eine Modeerscheinung wie oft kamen schon Leute zu mir und sagten boa das Ding war´n Fehlkauf, damit kann man nix außer Surfen und Emailschreiben usw. Wann war AMD Profitabel, wenn die mit Intel mithalten konnten richtig, so extra Würschte wie FUSCHion können die sich eigentlich doch gar nicht mehr Leisten und auf Intel Only im CPU Bereich habe ich kein Bock!
mfg
mfg
Oberst K
Captain Special
- Mitglied seit
- 29.03.2005
- Beiträge
- 237
- Renomée
- 0
- Standort
- StaLag 13
- Prozessor
- AMD Opteron 175
- Mainboard
- Epox 9NPA3 Ultra
- Kühlung
- Scythe Mine
- Speicher
- Kingston HyperX 1GB Kit @ 2-2-2-5-1T
- Grafikprozessor
- Sapphire HD 4770
- Display
- 19" BenQ 1280x1024
- HDD
- 2x Patriot, 2x Seagate
- Optisches Laufwerk
- LG 4163B
- Soundkarte
- Terratec Aureon 5.1
- Gehäuse
- Noname
- Netzteil
- Enermax 420W
- Betriebssystem
- Win XP
- Webbrowser
- Firefox
Ich glaube weiter oben war auch die Rede von Strukturverkleinerungen. Es sagt ja auch niemand das die Siliziumscheiben ewig bei rund 200mm² für ne CPU bleiben. Was passiert wenn man eine CPU neben eine GPU setzt? Braucht man dann unbedingt 512MB Cache um 512 MB RAM auszugleichen? Wie leistungsfähig kann so eine Verbindung sein? Sollte die nur auf Level Netbook sein oder steckt da mehr dahinter...
Das sind alles Dinge die für uns halbwegs schwierig abzuschätzen sind und daher eigentlich indiskutabel sind. Wenn es auf niedrigem Niveau ist, dann hast du natürlich vollkommen recht, aber wer von uns beiden hat so weiten Einblick in die Technik... *malzurAbwechslungzumKaffeesatzschiel*
mfg Oberst
P.S.: Das Verunglimpfen der Bezeichnung Fusion hilft hier in keiner Weise.
Das sind alles Dinge die für uns halbwegs schwierig abzuschätzen sind und daher eigentlich indiskutabel sind. Wenn es auf niedrigem Niveau ist, dann hast du natürlich vollkommen recht, aber wer von uns beiden hat so weiten Einblick in die Technik... *malzurAbwechslungzumKaffeesatzschiel*
mfg Oberst
P.S.: Das Verunglimpfen der Bezeichnung Fusion hilft hier in keiner Weise.
Wenn ich mir meine ATI HD4850 so ansehe wie soll die bitte in einen kleinen Chip passen? Dieser Fusselirrsinn ist doch nur für Netbooks, Office PCs und Billig Notebooks zu gebrauchen. Es wird niemals ein Hiend Fusion CPUGPU geben was nützt die Busstreckenverkleinerung wenn dafür wieder Shared RAM gibt? Was soll´n dass für ne CPU werden wenn die da noch 512MB Ram Cache basteln würden so wie bei K7SlotA von AMD in VHS größe oder wat? Grade dort wo der Fussel sinn macht verdient man kein Geld so einfach ist dat. Die Netbooks sind eine Modeerscheinung wie oft kamen schon Leute zu mir und sagten boa das Ding war´n Fehlkauf, damit kann man nix außer Surfen und Emailschreiben usw. Wann war AMD Profitabel, wenn die mit Intel mithalten konnten richtig, so extra Würschte wie FUSCHion können die sich eigentlich doch gar nicht mehr Leisten und auf Intel Only im CPU Bereich habe ich kein Bock!
mfg
Nun das mit dem Fehlkauf trifft bestimmt auf einige Geräte zu.
Aber die Dinger werden ja auch immer leistungsfähiger.
Ich hatte mir (eigentlich nur zum Test) das ALDI E1312 quasi-Netbook gekauft, und dachte dass ich es wegen zu geringer Leistung und zu kleinem Display wieder zurückbringen würde. Ich bin bis heute von dem Teil begeistert.
Es macht alles was es soll, und ist dabei auch noch ultramobil.
Was die Gewinnmargen für die Hardwarehersteller angeht, so denke ich dass ist eher eine Frage der Marktpositionierung.
Ein Apple-Book kostet in der Herstellung auch nur einen Bruchteil, aber gutes Marketing und ein ordentliches Gesamtkonzept erlaubt es, das Teil im Hochpreissegment zu verkaufen.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Die erste Generation ist sicher nicht besonders leistungsfähig und eignet sich natürlich eher für Notebooks und Officerechner. Aber nur weil es nicht sofort etwas für den fetten Gam0r-PC ist, heißt das ja noch nicht, daß es eine Fehlentwicklung wäre. Ist ja als grundlegende, langfristige Weichenstellung vorgesehen.
Das Problem mit dem RAM muß aber gelöst werden, wenn man die Leistung steigern will. Der RAM auf einer Grafikkarte hat eben wesentlich mehr Bandbreite, und die braucht eine GPU auch. Eine Bandbreitensteigerung des allgemeinen System-RAMs wäre aber auch nicht ganz falsch.
Ich finde es nur wieder armselig, daß AMD sich die Butter vom Brot nehmen läßt. Vor einiger Zeit dachte man, AMD könnte damit mal Intel unter Druck setzen, aber nee, nun überholt Intel sie wieder locker und kann mit der ersten Generation Erfahrungen sammeln, Marktanteile sichern und Entwickler für sich einnehmen, bevor AMD auch irgendwann auf dem Markt ankommt.
Das Problem mit dem RAM muß aber gelöst werden, wenn man die Leistung steigern will. Der RAM auf einer Grafikkarte hat eben wesentlich mehr Bandbreite, und die braucht eine GPU auch. Eine Bandbreitensteigerung des allgemeinen System-RAMs wäre aber auch nicht ganz falsch.
Ich finde es nur wieder armselig, daß AMD sich die Butter vom Brot nehmen läßt. Vor einiger Zeit dachte man, AMD könnte damit mal Intel unter Druck setzen, aber nee, nun überholt Intel sie wieder locker und kann mit der ersten Generation Erfahrungen sammeln, Marktanteile sichern und Entwickler für sich einnehmen, bevor AMD auch irgendwann auf dem Markt ankommt.
Jungs, mal langsam. Wer sagt denn, dass AMD sich nicht Zeit lässt? Die Idee, zwei verschiedene Dies auf einen Prozessor draufzumachen, hatten sie ja schon vorher, nur wäre das wenig elegant und würde Leistung verschenken.
Aber warum - und das ist für mich die eigentliche Frage - sollten sie überhaupt Technologievorreiter sein? Stellt Euch mal vor, die hätten ein Jahr vor dem Intel Atom einen ähnlichen Chip mit gleicher Leistung rausgebracht, sagen wir einen aufgebohrten Geode. Die Fach-Presse hätte das Ding in der Luft zerrissen, und die Hersteller hätten müde abgewunken.
Nein, ich könnte mir gut vorstellen, dass sie es Intel überlassen, einen Markt zu schaffen, den sie später betreten. Einen Atom-Konkurrenten haben sie ja schon.
Aber warum - und das ist für mich die eigentliche Frage - sollten sie überhaupt Technologievorreiter sein? Stellt Euch mal vor, die hätten ein Jahr vor dem Intel Atom einen ähnlichen Chip mit gleicher Leistung rausgebracht, sagen wir einen aufgebohrten Geode. Die Fach-Presse hätte das Ding in der Luft zerrissen, und die Hersteller hätten müde abgewunken.
Nein, ich könnte mir gut vorstellen, dass sie es Intel überlassen, einen Markt zu schaffen, den sie später betreten. Einen Atom-Konkurrenten haben sie ja schon.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Das ist keine echte Neuerung. Schon 2007 war die PCI-Sig bereit alte Zöpfe bei PCI-Express in der Version 3.0 abzuschneiden.... P.S.: Hier noch der Link zu der Meldung zu PCIe 3.0 von elektroniknet
Die Verdoppelung der Datenrate gegenüber der Version 2.0 erreicht man durch den Verzicht auf den 8b/10b-Layer.
Deinem Beitrag stimme ich ansonsten zu.
MFG Bobo(2009)
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
@7upMan: AMD muß deswegen Vorreiter sein, weil sie ihren Marktanteil ausbauen müssen. In der Halbleiterbranche gilt nun mal ganz besonders, daß die Größe zählt. Fixe Entwicklungskosten sind irre hoch, die Produktionskosten für ein Teil in der Serie dagegen vernachlässigbar. In den Quartalszahlen hat man ja gerade eben gesehen, daß der Umsatz nicht groß genug ist, um eine schwarze Null zu schreiben. Und man kann sich nicht darauf verlassen, daß der Markt so stark wächst, daß man schon irgendwie mitgezogen wird, man muß schon aktiv mitarbeiten. Der damalige Plan, auf 30% Marktanteil zu kommen, war weder idiotisch noch utopisch, nur hätte es mehr Energie erfordert und weniger zögerliches Abwarten. Um Marktanteil zu gewinnen, muß man aber nicht nur gerade mal so gut sein wie die Konkurrenz, sondern besser, deutlich besser, über längere Zeit deutlich besser. Firefox hat einen Browser-Marktanteil von nur ca. einem Viertel, dabei ist er jahrelang schon besser als der IE.
Die Grafiksparte läuft gut, da wird evolutionär das Produkt verbessert und nebenher bereits der Nachfolger, ganz wichtig: Sie werden auch fertig! Die Produktion und die Produktpflege läuft ebenfalls gut, schön alles auf 45nm umgestellt, Istanbul ist früher als geplant fertig geworden (und damit endlich einmal konkurrenzfähig). Wenn man diesen momentanen Schwung längere Zeit beibehalten könnte, wäre das sicher nicht zum Nachteil der Bilanzen.
Logischer Schritt wäre nun, daß es innerhalb der nächsten 12 Monate mehrere Fusion-Produkte gäbe, einerseits als billige IGP für Bürokisten, andererseits als strom- und platzsparende Lösung für Netbooks, und schließlich als fette Numbercruncher für Server. Könnte man bestimmt alles auf Basis der aktuellen 45nm-CPUs und der kommenden DX11-GPU-Generation basteln. Vielleicht wäre das nicht der Weisheit letzter Schluß (bzgl. Anbindung untereinander usw.), aber es würde erstmal funktionieren und man hätte was für den Markt. Verbesserte Version gibt's dann das Jahr drauf.
Aber was macht AMD? Läßt die Chance, ihren Laden auf Vordermann zu bringen, einfach verstreichen. Damals, als Fusion vorgestellt wurde, dachte man, "jetzt wird aufgezündet", aber dann kommt einfach nix hinterher, jahrelang nicht. In dieser schnelllebigen Brache ein Produkt auf 2012 zu verschieben heißt im Grunde "wir wissen nicht, ob wir das überhaupt machen", da fragt man sich, ob die überhaupt mehr haben als die drei Powerpointfolien von vor 2 Jahren. Und was die seitdem überhaupt gemacht haben.
Ach ja, die nächste CPU-Architektur ist ja auch verschoben auf den Sanktnimmerleinstag. Paßt ja gut. Ich glaub, der Next-Generation-AMD-Rechner wird rechtzeitig für Duke Nukem ForNever fertig.
Die Grafiksparte läuft gut, da wird evolutionär das Produkt verbessert und nebenher bereits der Nachfolger, ganz wichtig: Sie werden auch fertig! Die Produktion und die Produktpflege läuft ebenfalls gut, schön alles auf 45nm umgestellt, Istanbul ist früher als geplant fertig geworden (und damit endlich einmal konkurrenzfähig). Wenn man diesen momentanen Schwung längere Zeit beibehalten könnte, wäre das sicher nicht zum Nachteil der Bilanzen.
Logischer Schritt wäre nun, daß es innerhalb der nächsten 12 Monate mehrere Fusion-Produkte gäbe, einerseits als billige IGP für Bürokisten, andererseits als strom- und platzsparende Lösung für Netbooks, und schließlich als fette Numbercruncher für Server. Könnte man bestimmt alles auf Basis der aktuellen 45nm-CPUs und der kommenden DX11-GPU-Generation basteln. Vielleicht wäre das nicht der Weisheit letzter Schluß (bzgl. Anbindung untereinander usw.), aber es würde erstmal funktionieren und man hätte was für den Markt. Verbesserte Version gibt's dann das Jahr drauf.
Aber was macht AMD? Läßt die Chance, ihren Laden auf Vordermann zu bringen, einfach verstreichen. Damals, als Fusion vorgestellt wurde, dachte man, "jetzt wird aufgezündet", aber dann kommt einfach nix hinterher, jahrelang nicht. In dieser schnelllebigen Brache ein Produkt auf 2012 zu verschieben heißt im Grunde "wir wissen nicht, ob wir das überhaupt machen", da fragt man sich, ob die überhaupt mehr haben als die drei Powerpointfolien von vor 2 Jahren. Und was die seitdem überhaupt gemacht haben.
Ach ja, die nächste CPU-Architektur ist ja auch verschoben auf den Sanktnimmerleinstag. Paßt ja gut. Ich glaub, der Next-Generation-AMD-Rechner wird rechtzeitig für Duke Nukem ForNever fertig.
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Naja, ihr müsst auch sehen in welcher Situation AMD steckt... Auch entwickler und Projekte müssen bezahlt werden, manpower ist im verleich zu intel eher weniger vorhanden...
Manche argumentieren hier, als wären die Karten fair verteilt und nur AMDs marktanteil kleiner...
Dabei ist die ganze Firma nichtmal ein Schatte von Intel in der Mittagssonne!
Ich glaube mit den vielen quartalen in den roten Zahlen haben die ganz andere Sorgen als Geldintensive Entwicklungsprojekte, sondern müssen erstmal sehen dass sie so gut es geht mit dem hinkommen was sie haben, das Marketing verbessern etc. um wenigstens lange genug zu überleben um sich den nächsten großen Projekten annehmen zu können wenn die Krise mal nachgelassen hat.
Was eine Fab kostet will ich gar nicht wissen, tools für 45nm und 32nm etc. und was es für einen Aufwand bedeutet die Produktion zu verbessern etc. Vielleicht ist auch grade das Bandbreitenproblem etwas, daß sie in den Griff kriegen wollen vor einem Fusion-Produkt.
Solange intel keinen Clarkdale mit larrabee-Grafikkern bringt, haben sie selbst in Sachen IGP AMD nichts entgegen zu setzen. Ein uralter Radeon x800 o.ä. Wischt mit intels integrierten Chips den Boden auf!
Die APU ist soweit ich das verstehe auch mehr als nur ein Grafikchip neben der CPU ondie.
Man könnte sich z.b. einen six-channel-RAM-controller vorstellen, an einer Crossbar mit der CPU und GPU, wobei beide über den L3 und den RAM direkt daten austauschen können. Oder eine noch tiefere integration in Bulldozers clusterstruktur... die GPU als eine art Risesen-SSE-Einheit zu benutzen usw.
Intels Clarkdale-Weg ist kein technologischer fortschritt, sondern dient in erster Linie der Preissenkung für LowEnd - Systeme. Dann spart sich der Mainboard-Hersteller vollends die Northbridge ein. Wesentlich interessanter ist die Integration eines PCIE-anschluses ondie.
Es ist bei GPGPU wichtig dass CPU und GPU so einfach und effizient wie möglich daten austauschen können...
Ich glaube AMD ist sich serhwohl bewusst wo sie stehen und was Intel macht, aber sie haben schlicht nicht die Ressourcen auf so vielen Hochzeiten gleichzeitig zu tanzen. Nicht im Moment... Istanbul hat vorrang, dann vielleicht der Griffin-Nachfolger, als nächstes MAgny-Cours und der 32nm-Shrink.
Das ist für eine Firma dieser Größenordnung schon durchaus eine ordentliche TODO-Liste...
Manche argumentieren hier, als wären die Karten fair verteilt und nur AMDs marktanteil kleiner...
Dabei ist die ganze Firma nichtmal ein Schatte von Intel in der Mittagssonne!
Ich glaube mit den vielen quartalen in den roten Zahlen haben die ganz andere Sorgen als Geldintensive Entwicklungsprojekte, sondern müssen erstmal sehen dass sie so gut es geht mit dem hinkommen was sie haben, das Marketing verbessern etc. um wenigstens lange genug zu überleben um sich den nächsten großen Projekten annehmen zu können wenn die Krise mal nachgelassen hat.
Was eine Fab kostet will ich gar nicht wissen, tools für 45nm und 32nm etc. und was es für einen Aufwand bedeutet die Produktion zu verbessern etc. Vielleicht ist auch grade das Bandbreitenproblem etwas, daß sie in den Griff kriegen wollen vor einem Fusion-Produkt.
Solange intel keinen Clarkdale mit larrabee-Grafikkern bringt, haben sie selbst in Sachen IGP AMD nichts entgegen zu setzen. Ein uralter Radeon x800 o.ä. Wischt mit intels integrierten Chips den Boden auf!
Die APU ist soweit ich das verstehe auch mehr als nur ein Grafikchip neben der CPU ondie.
Man könnte sich z.b. einen six-channel-RAM-controller vorstellen, an einer Crossbar mit der CPU und GPU, wobei beide über den L3 und den RAM direkt daten austauschen können. Oder eine noch tiefere integration in Bulldozers clusterstruktur... die GPU als eine art Risesen-SSE-Einheit zu benutzen usw.
Intels Clarkdale-Weg ist kein technologischer fortschritt, sondern dient in erster Linie der Preissenkung für LowEnd - Systeme. Dann spart sich der Mainboard-Hersteller vollends die Northbridge ein. Wesentlich interessanter ist die Integration eines PCIE-anschluses ondie.
Es ist bei GPGPU wichtig dass CPU und GPU so einfach und effizient wie möglich daten austauschen können...
Ich glaube AMD ist sich serhwohl bewusst wo sie stehen und was Intel macht, aber sie haben schlicht nicht die Ressourcen auf so vielen Hochzeiten gleichzeitig zu tanzen. Nicht im Moment... Istanbul hat vorrang, dann vielleicht der Griffin-Nachfolger, als nächstes MAgny-Cours und der 32nm-Shrink.
Das ist für eine Firma dieser Größenordnung schon durchaus eine ordentliche TODO-Liste...
nukular4200
Commodore Special
- Mitglied seit
- 22.11.2006
- Beiträge
- 463
- Renomée
- 3
- Standort
- Berlin
- Prozessor
- Intel Celeron G1610
- Mainboard
- AsRock B75M
- Kühlung
- EKL Brocken + 120mm Scythe Slip Stream
- Speicher
- 2xG.Skill 4GB DDR3 1600Mhz
- Grafikprozessor
- Intel HD Graphics
- Display
- Samsung SyncMaster 2494HS, 23,6", 1920x1080
- HDD
- 1xSamsung 830 128GB, 1xSamsung F4 320GB,1xWD10EADS 1TB
- Optisches Laufwerk
- Pioneer 212-BK, ASUS Blu-Ray
- Soundkarte
- .Trust. Dolby Digital Live!
- Gehäuse
- Corsair Carbide 400R
- Netzteil
- Huntkey Jumper 300G Planet3DNow Edition
- Betriebssystem
- Windows 7 Professional x64
- Webbrowser
- SRWare Iron
@C4rp3di3m
Soweit ich weiß, lässt sich gerade im Billigsegment viel mehr Geld verdienen, da die Herstellungskosten dort gering sind, aber die Abnahmemenge hoch ist. Dein Vergleich zu einer HD 4850 hat in mir gleich auch einmal die Frage aufgeworfen, ob AMD mit dieser Karte überhaupt noch verdient, die geht im Einzelhandel inzwischen bei 80€ los.
Soweit ich weiß, lässt sich gerade im Billigsegment viel mehr Geld verdienen, da die Herstellungskosten dort gering sind, aber die Abnahmemenge hoch ist. Dein Vergleich zu einer HD 4850 hat in mir gleich auch einmal die Frage aufgeworfen, ob AMD mit dieser Karte überhaupt noch verdient, die geht im Einzelhandel inzwischen bei 80€ los.
hot
Admiral Special
- Mitglied seit
- 21.09.2002
- Beiträge
- 1.187
- Renomée
- 15
- Prozessor
- AMD Phenom 9500
- Mainboard
- Asrock AOD790GX/128
- Kühlung
- Scythe Mugen
- Speicher
- 2x Kingston DDR2 1066 CL7 1,9V
- Grafikprozessor
- Leadtek Geforce 260 Extreme+
- Display
- Samsung 2432BW
- HDD
- Samsung HD403LJ, Samung SP1614C
- Optisches Laufwerk
- LG HL55B
- Soundkarte
- Realtek ALC890
- Gehäuse
- Zirco AX
- Netzteil
- Coba Nitrox 600W Rev.2
- Betriebssystem
- Vista x64 HP
- Webbrowser
- Firefox
Es gibt mehrere Integrationsstufen.
1.) war ein MCM geplant, das Swift genannt werden sollte. Hierbei wäre wohl einfach ein Regor mit einer GPU kombiniert worden, Whiteswift sollte als SingleCore und Blackswift als DualCore auf den Markt kommen. Es gibt aber keinen faktischen Vorteil für diese MCM-Lösung, deshalb wurde diese wohl aus Geldmangel gecancelt.
Intel sieht übrigens mit Clarkdale eine ähnliche Lösung vor, mit dem Unterschied, dass das CPU-Die nicht mit einer GPU, sondern einem IGP gekoppelt wird, welcher alle Chipsatzfunktionen übernimmt. Das wäre bei Swift nicht der Fall gewesen.
Im Prinzip kann man diese Integrationsstufe nur mit sehr viel gutem Willen als Integration bezeichnen, da sich eigentlich zu dem Status-Quo genau nichts ändert. Es gibt weiterhin 3 Chips, von denen einer IGP-Funktionen übernimmt und weiterhin getrennt von der CPU arbeitet. Wenn man böse ist, könnte man sagen, dass Clarkdale wie der Core2 über einen FSB mit einem IGP verbunden wird, nur dass kein GTL zum Einsatz kommt, sondern QPI. An der eigentlichen Achitektur des Systems ändert sich im Prizip garnichts bei dem Sprung von Core2 auf Clarkdale, nur die Northbridge sitzt woanders.
2.) Eine GPU-Integration auf das Die. Das ist genau die Lösung, die Intel mit Sandy-Bridge und AMD mit Llano vorsieht, aber auch das ist hier nicht gemeint. Hier wird einfach eine GPU mit auf das CPU-Die designt, aber nicht integriert. Will heißen, die CPU existiert weiterhin parallel zur CPU, auch wenn diese auf einem Die sitzen.
3.) Volle Integration der GPU in die CPU-Funktionen bzw. der FPU. Das ist in Wirklichkeit Fusion, das war immer das Ziel (und das hat rein garnichts mit Swift zu tun ). Diese Ziel wird erst mit 22nm erreicht werden können, weil man dafür eine neue CPU-Generation benötigt. Wahrscheinlich ist das noch BD-Generation, aber wäre in 32nm zu heftig zu implementieren.
Darauf bezieht sich dieses "Gerücht".
Bitte an den Newsschreiber: Erst informieren, dann schreiben.
1.) war ein MCM geplant, das Swift genannt werden sollte. Hierbei wäre wohl einfach ein Regor mit einer GPU kombiniert worden, Whiteswift sollte als SingleCore und Blackswift als DualCore auf den Markt kommen. Es gibt aber keinen faktischen Vorteil für diese MCM-Lösung, deshalb wurde diese wohl aus Geldmangel gecancelt.
Intel sieht übrigens mit Clarkdale eine ähnliche Lösung vor, mit dem Unterschied, dass das CPU-Die nicht mit einer GPU, sondern einem IGP gekoppelt wird, welcher alle Chipsatzfunktionen übernimmt. Das wäre bei Swift nicht der Fall gewesen.
Im Prinzip kann man diese Integrationsstufe nur mit sehr viel gutem Willen als Integration bezeichnen, da sich eigentlich zu dem Status-Quo genau nichts ändert. Es gibt weiterhin 3 Chips, von denen einer IGP-Funktionen übernimmt und weiterhin getrennt von der CPU arbeitet. Wenn man böse ist, könnte man sagen, dass Clarkdale wie der Core2 über einen FSB mit einem IGP verbunden wird, nur dass kein GTL zum Einsatz kommt, sondern QPI. An der eigentlichen Achitektur des Systems ändert sich im Prizip garnichts bei dem Sprung von Core2 auf Clarkdale, nur die Northbridge sitzt woanders.
2.) Eine GPU-Integration auf das Die. Das ist genau die Lösung, die Intel mit Sandy-Bridge und AMD mit Llano vorsieht, aber auch das ist hier nicht gemeint. Hier wird einfach eine GPU mit auf das CPU-Die designt, aber nicht integriert. Will heißen, die CPU existiert weiterhin parallel zur CPU, auch wenn diese auf einem Die sitzen.
3.) Volle Integration der GPU in die CPU-Funktionen bzw. der FPU. Das ist in Wirklichkeit Fusion, das war immer das Ziel (und das hat rein garnichts mit Swift zu tun ). Diese Ziel wird erst mit 22nm erreicht werden können, weil man dafür eine neue CPU-Generation benötigt. Wahrscheinlich ist das noch BD-Generation, aber wäre in 32nm zu heftig zu implementieren.
Darauf bezieht sich dieses "Gerücht".
Bitte an den Newsschreiber: Erst informieren, dann schreiben.
Zuletzt bearbeitet:
neax
Grand Admiral Special
rkinet
Grand Admiral Special
tja, ... AMD selbst.Ich weiß gar nicht, wo das Problem ist.
Die GPUs hätten gute Chance als Bulk-32 nm in 2010 bzw. 28nm in 2011 am Markt zu sein. Bliebe nur noch die Aufgabe Dual-Core und GPUs zu vereinigen.
Gegen einen Clarkdale ist aber ein Dual-Core etwas zu unterdimensioniert, während ein Quad zuviel Performance hätte. Die richtige Anwort auf Clarkdale =2*2 Cores wäre ein nativer K10.5 Triple-Core (gewesen ? )
Theoretisch wäre ggf. Start mit Bulk 32nm als Dual-Core und Upgrade als Bulk-28nm incl. Upgrade CPU-Teil auch denkbar. 28nm läge besser als Intel und würde in Summe trotz Triple-Core ähnliche TDP-Werte ergeben wie 2*2 beim Clarkdale.
Dass AMD den großen Lima einfach ohne Yieldrate Problem verfrührt auf SOI-22nm schrumpfen kann erscheint fragwürdig. Allenfalls ein SOI-28nm wäre ggf. denkbar.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Selbst eine MCM-Lösung verhindert, dass konkurrierende Fremdchipsätze verbaut werden. Ich denke, das sowohl AMD, als auch Intel dieses markttechnische Feature gerne mitnehmen.... Im Prinzip kann man diese Integrationsstufe nur mit sehr viel gutem Willen als Integration bezeichnen, da sich eigentlich zu dem Status-Quo genau nichts ändert. ...
Wenn aus zwei Chips ein Chip wird, dann handelt es sich um Integration. Wie effizient und verzahnt die Chips miteinander sind spielt bei dem Begriff "integriert" keine Rolle2.) Eine GPU-Integration auf das Die. Das ist genau die Lösung, die Intel mit Sandy-Bridge und AMD mit Llano vorsieht, aber auch das ist hier nicht gemeint. Hier wird einfach eine GPU mit auf das CPU-Die designt, aber nicht integriert. Will heißen, die CPU existiert weiterhin parallel zur CPU, auch wenn diese auf einem Die sitzen. ...
Es gibt auch Chips, die nicht auf einem MCM eine Heimat finden, sondern die Chips werden direkt "huckepack" miteinander verbunden. Der Vorteil ist, dass das sehr platzsparend ist (wichtig im Mobil- und Embedded-Markt) und eine direktere Anbindung ermöglicht, als über ein PCB eines Mainboards (geringere Spannungen möglich, oder höherer Anbindungstakt [...]).
Ich finde der Begriff "native Integration" unnötig, wenn Chips eng verzahnt auf einem Dice vereinigt werden. Das führt zu nichts, wenn die Vorteile schon mit etwas andere Methoden möglich sind.
Was hinzu kommt, das ist das Risiko von Bugs in einem völlig neuen Design. Schon alleine deswegen geht man in der Industrie gerne auch mal den "dummen" Weg zwei bestehende Designs erst mal auf einem einzigen Chip unterzubringen.
Da stimme ich dir zu, dass AMD die GPU sehr eng mit dem Hauptprozessor verzahnen will, um noch zusätzliche Rechenleistung für eine Vielzahl von Anwendungen freizulegen. Jedenfalls verstehe ich so den Begriff "Fusion" von AMD. Mal schauen was daraus in der Praxis wird.3.) Volle Integration der GPU in die CPU-Funktionen bzw. der FPU. Das ist in Wirklichkeit Fusion, ...
MFG Bobo(2009)
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 142K