App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Was kommt (nach den ersten Deneb (K10.5+)) fuer den Desktop bis zum Launch der BD(APUs)?
- Ersteller TNT
- Erstellt am
Hier noch ein Bericht von CB
http://www.computerbase.de/news/hardware/prozessoren/amd/2010/februar/amd_details_32-nm-cpus/
http://www.computerbase.de/news/hardware/prozessoren/amd/2010/februar/amd_details_32-nm-cpus/
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
Die haben nur Anand als Quelle -> keine neuen Infos
Was soll eigentlich die Sockeldiskussion da? Ist doch völlig klar, dass der Llano nen neuen Sockel braucht. Hat aber ja nichts mit dem BD zu tun. Und was sollen die ständigen Verweise auf Intel? Was ist das ne News oder ein Aufsatz über die Vor- und Nachteile des Technologiekatalogs der beiden x86 Hersteller? Bis aufs Power Gating geht der Autor praktisch nicht auf den Inhalt der Präsentation ein. Achja Germanium wird auch von AMD bereits seit Jahren eingesetzt (ab 90 nm Prozess). Man da könnte ich mich aufregen ....
gaaaaanz ruhig ...
Zum Thema Llano und bekanntgegebene technische Daten:
K10 Kern runderneuert:
Dürfte recht klar sein, dass sich die Angaben zur Leistungsaufnahme und Taktfrequenz nur dem spezifizierten Bereich entsprechen, den man bei der Entwicklung im Lastenheft stehen hatte. Was das dann für das fertige Endprodukt bedeutet? Es wird aber sicher keine Llano Version geben, bei der alle Kerne gleichzeitig mit 1,3 V und 25 Watt betrieben werden. Dieser Zustand wird sicher nur @max-nitrogen-injection (wie Ge0rgy so schön schrieb) für einen einzelnen Kern erreicht. Dementsprechend macht es auch keinen Sinn die 25 Watt mal 4 zu rechnen. Im großen und ganzen ein runderneuerter K10 Kern, der aufs Stromsparen getrimmt wurde.
Power Gating
Da steht ja nirgendwo was von erster Generation, wäre also ein Einsatz bereits beim Thuban denkbar? Oder würde sich eine Implementierung bei 45 nm so stark unterscheiden? Ich kann die technische Herausforderung da nicht wirklich abschätzen.
Digital APM Modul
Wenn die Daten dazu nur ansatzweise stimmen sollten, ist das für mich die größte Innovation von den vorgestellten Technologien. Endlich genaue Messungen der Temperaturen. Je genauer ich den Ist-Zustand messen kann, um so feiner kann das Powermanagement regeln. Auch hier die Frage, könnte dieses Feature in abgespeckter Version bereits in Thuban (irgendeine Funktionseinheit muss ja den Turbo regeln) und Lisbon schlummern? Oder hängt ein solches Feature zu stark vom Prozess ab? Gerade bei den Sensoren wird das wohl nicht so einfach zu portieren sein.
Power aware clock grid design
Könnte mal einer der Wissenden dazu eine Abschätzung abgeben, wie groß der Effekt auf die Leistungsaufnahme des Die ist? Die Zahlen hören sich ja erstmal ziemlich imposant an, aber wie groß ist die Wirkung wirklich? Auch hier die Frage nach der Übertragbarkeit, Könnte man die gleiche Vernetzung auch bei den neuen Steppings im 45 nm Prozess verwenden, oder sind die nötigen Umbauten und Entwicklungsaufwendungen zu groß?
Ich stelle mir die 45 nm Frage auch mit Blick auf die noch vorzustellenden mobilen 45 nm Produkte, die von derartigen Technologien sicher stark profitieren würden. Auch hier wäre ja eine Einführung des Turbos wünschenswert. Aber das ist dann wohl alles mehr Wunschdenken meinerseits. Beim Power Gating hat AMD echt gepennt!
MfG @
.
EDIT :
.
noch was zum Power Gating:
Bei Intel wird ja der Zustand der Kerne in den L3-Cache geschrieben, bevor sie samt L2-Cache vom Netz genommen werden. Bei den Westmere soll es ja einen extra Speicherbereich geben (nicht der L3 Cache) wo des Zustand gespeichert wird, um so das Ab- und Anschalten der Kerne zu Beschleunigen und den L3 ebenfalls vom Netz nehmen zu können.
Da bin ich mal gespannt wie das von AMD umgesetzt wird. Werden also die L2-Caches nicht vom Netz genommen, oder wird es auch hier einen eigenen Speicherbereich geben? Ein L3-Cache steht ja nicht zur Verfügung.
QuelleDas Taktverteilnetz (Clock-Grid) von Llano wurde neu konstruiert und layoutet. Das Clock-Grid allein beansprucht laut AMD oft bis zu 30 Prozent des gesamten Energiebudgets. Mit 50 Prozent weniger Taktpuffern und mehrstufigem Clock-Gating drückt Llano den Verbrauchsanteil des Clock-Grids auf 8 Prozent. Die meisten Hochleistungsprozessoren überwachen die Betriebstemperatur durch ein Netz von Wärmesensoren und regeln bei Erhitzung Takt und Spannung ab. Je nach Umgebungstemperatur können diese analogen Methoden aber Testprofile verfälschen und potenziell den Chip abbremsen, bevor er ins Schwitzen gerät, argwöhnt man bei AMD. Der Llano hingegen überwacht schweißtreibende Aktivitäten "digital", nämlich anhand von Signalen, die statistisch besonders häufig zu erhöhtem Energieverbrauch führen. Über 90 Signale von verschiedenen Bereichen des Chips werden dabei ausgewertet, unter anderem die Zahl von Integer-Operationen oder Verzweigungsvorhersagefehler (Branch Prediction).
Zuletzt bearbeitet:
mocad_tom
Admiral Special
- Mitglied seit
- 17.06.2004
- Beiträge
- 1.234
- Renomée
- 52
Wo steht da denn was von idle ? Vielleicht sind das die üblichen TDP Angaben, die wären dann aber unter Last ...
http://www.amd.com/us-en/assets/content_type/white_papers_and_tech_docs/30430.pdf
Seite 78 -> Min P-State 800MHz 0.9V 7.9W
Gehe mal davon aus, dass es einem Prozessor, der mit 800Mhz getaktet ist relativ egal ist, ob er mit Primzahlenberechnung rumhantiert, oder ob er gerade ein Wordpad offen hat.
Ausserdem ist es ja so, dass der am höchsten getaktete Kern vorgibt welche Spannung anliegt - und zwar für alle Prozessoren. Da kann es dann auch mal vorkommen, dass der mit 1.3V und 800MHz laufen muss.
Zukünftig ist das egal, weil man sie ja stromlos schalten kann ..... endlich
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 2.979
- Renomée
- 231
@Digital APM Modul
Da habe ich wohl was verpasst. Kann mich bitte jemand auf den heutigen Stand der Dinge bringen, bzw. mir einen Link geben?
APM stand für mich immer für Advanced Precision Manufacturing und bezog sich darauf, im laufenden Fertigungsverfahren schon erste Prozessoreigenschaften durchzumessen, um entsprechend darauf reagieren zu können.
Jetzt soll es etwas mit den Temperatursensoren im laufenden Betrieb zu tun haben?
MfG
Da habe ich wohl was verpasst. Kann mich bitte jemand auf den heutigen Stand der Dinge bringen, bzw. mir einen Link geben?
APM stand für mich immer für Advanced Precision Manufacturing und bezog sich darauf, im laufenden Fertigungsverfahren schon erste Prozessoreigenschaften durchzumessen, um entsprechend darauf reagieren zu können.
Jetzt soll es etwas mit den Temperatursensoren im laufenden Betrieb zu tun haben?
MfG
LehmannSaW
Vice Admiral Special
- Mitglied seit
- 21.09.2007
- Beiträge
- 597
- Renomée
- 36
- Standort
- poloidal cell 5 im 3. grid block
- Mein Laptop
- HP ENVY x360 15 Dark Ash Silver mit Ryzen 5 2500U
- Prozessor
- AMD Ryzen 7 1800X
- Mainboard
- ASRock X370 Taichi
- Kühlung
- NZXT Kraken X61
- Speicher
- 16GB G.Skill Trident Z DDR4-3200 @ 3200Mhz
- Grafikprozessor
- Sapphire Radeon R9 Nano
- Display
- Acer Predator XR341CK 34-Zoll mit FreeSync
- SSD
- 250GB Samsung SSD 960 EVO M.2 + 256GB Samsung SSD 840 Pro SSD + 525GB Crucial MX300
- HDD
- 4TB Seagate Desktop SSHD
- Optisches Laufwerk
- keines
- Soundkarte
- on-Board
- Gehäuse
- NZXT S340 ELITE weiß
- Netzteil
- be quiet Straight Power 10 CM 800W
- Betriebssystem
- Windows 10 Pro 64
- Webbrowser
- Mozilla Firefox / IE
gaaaaanz ruhig ...
Genau Dr@, ganz ruhig!
CB haben doch immer einen faden Intel-Beigeschmack. Man wird ja auch nicht gegen die breite Masse schreiben, wenn man eben Diese ansprechen will, Richtig?
Es würde mich eher Verwundern, wenn eine AMD- oder ATI-News neutraler wäre.
Intel- oder NV-News lesen sich eben runder und schöner und erfreuen den User und den Moderator.
Als AMD-Befürworter einfach diese Seite meiden und niemals im Forum lesen!
Greets Lehmann
Dresdenboy
Redaktion
☆☆☆☆☆☆
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.033
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Bekommen Bulldozer und Bobcat eigentlich auch gleich GPU-Anteile dazu oder erstmal nicht? Bei Bulldozer wäre es ja eher überflüssig, da er wohl meist mit dicken Grafikkarten gekoppelt wird, aber Bobcat als kleine mobile-CPU würde sich doch gut machen mit integrierter Grafik, oder?
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Ontario (die erste auf Bobcat basierende CPU, Bobcat selbst ist ja nur ein Design-Name) ist AFAIK in den Roadmaps als APU gekennzeichnet, wird also wohl auch etwas GPUiges haben
Opteron
Redaktion
☆☆☆☆☆☆
Dafür gibts den Fusion Thread:Bekommen Bulldozer und Bobcat eigentlich auch gleich GPU-Anteile dazu oder erstmal nicht? Bei Bulldozer wäre es ja eher überflüssig, da er wohl meist mit dicken Grafikkarten gekoppelt wird, aber Bobcat als kleine mobile-CPU würde sich doch gut machen mit integrierter Grafik, oder?
http://www.planet3dnow.de/vbulletin/showthread.php?t=298967
Kurz: ja.
ciao
Alex
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Nicht wirklich. Ein K10.5 Kern bei 3 GHz und 1,3 V braucht weniger als 20 W. Das ergeben zumindest meine Messungen.25W verbraten kann jedenfalls ein aktueller 45nm-non-HKMG K10.5 Kern schon bei 3Ghz.
Ich denke, die 25 W TDP für einen Kern ist hier einfach sehr konservativ angegeben, um auch genügend Spielraum nach oben zu haben (spätere Takterhöhungen oder Turbo). Das heisst doch nicht viel mehr, als dass ein Llano Kern bis 25 W im Rahmen seiner Spezifikationen stabil arbeiten kann und dabei mehr als 3 GHz schafft. Für 4 Llano Kerne bei 3 GHz reicht sicherlich schon eine TDP von 65 W TDP (siehe X4 910e als Maszstab). Blieben noch 30 W für die GPU, um das ganze Paket in vernünftige 95 W TDP zu pressen.
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Kommt drauf an was man erreichen mag...
eine 30W GPU wird gut sein um die angestaubte IGP zu ersetzen die sich sonst in Chipsätzen findet, aber eine große Steigerung wird das eher nicht...
Wenn die Verbesserungen beim 32nm-Prozess wirklich so groß sind, sollten 4x3Ghz keine 65W verbraten, ohne L3-Cache wohlgemerkt, dem Wert kommen aktuelle Propus-Kerne schon zu nahe, und die haben noch weder 32nm noch HKMG. Jedes Watt dass die x86-Kerne iensparen können die GPU-Kerne mehr verbraten, d.h. man kann mehr davon draufpacken.
Die Anforderungen werden ja auch nicht weniger, größere Bildschirme, höhere Video-Auflösungen, aufwendigere Mechanismen zur Gängelung zahlender Kunden (aka. "Kopierschutz") usw.
Ich bin jedenfalls gespannt...
eine 30W GPU wird gut sein um die angestaubte IGP zu ersetzen die sich sonst in Chipsätzen findet, aber eine große Steigerung wird das eher nicht...
Wenn die Verbesserungen beim 32nm-Prozess wirklich so groß sind, sollten 4x3Ghz keine 65W verbraten, ohne L3-Cache wohlgemerkt, dem Wert kommen aktuelle Propus-Kerne schon zu nahe, und die haben noch weder 32nm noch HKMG. Jedes Watt dass die x86-Kerne iensparen können die GPU-Kerne mehr verbraten, d.h. man kann mehr davon draufpacken.
Die Anforderungen werden ja auch nicht weniger, größere Bildschirme, höhere Video-Auflösungen, aufwendigere Mechanismen zur Gängelung zahlender Kunden (aka. "Kopierschutz") usw.
Ich bin jedenfalls gespannt...
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.033
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
Eine 30W GPU ist keine Steigerung? Die aktuelle Onboard-Grafik verbraucht imho 4W, mit 30W allein für die GPU käme man irgendwo Richtung Redwood mit 400Shadern, UVD und allem Schnickschnack (immerhin ist ja noch ein Fertigungssprung dazwischen). Es ist jedenfalls Spielraum für eine nicht ganz schwache GPU vorhanden, auch wenn man diese rein spekulativen 30W nicht ausreizt.
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
@Ge0rgy
gruffi hat doch schon eine plausible Lösung der 25W gegeben, vielleicht wird es einen Turbo geben der @1,3V die 5- 6Ghz läuft @ 1Core. Der Rest @ 0W ergibt dann 25W für den Core und somit für die CPU auch ~25W
Ich würde mich jeden falls nicht an den 25W aufhängen, und eher den anderen Zahlen mehr Bedeutung / glauben schenken.
Viel interessanter sind für mich die 2,5W das ist dann wohl @ 800Mhz @0,8V, da wäre etwas um die 1W wünschenswert.
.
EDIT :
.
Ich sehe das genauso und befürchte das ein großer Flaschenhals bei der Speicheranbindung entsteht, ein QuadChannel wäre da wohl nice.
gruffi hat doch schon eine plausible Lösung der 25W gegeben, vielleicht wird es einen Turbo geben der @1,3V die 5- 6Ghz läuft @ 1Core. Der Rest @ 0W ergibt dann 25W für den Core und somit für die CPU auch ~25W
Ich würde mich jeden falls nicht an den 25W aufhängen, und eher den anderen Zahlen mehr Bedeutung / glauben schenken.
Viel interessanter sind für mich die 2,5W das ist dann wohl @ 800Mhz @0,8V, da wäre etwas um die 1W wünschenswert.
.
EDIT :
.
Eine 30W GPU ist keine Steigerung? Die aktuelle Onboard-Grafik verbraucht imho 4W, mit 30W allein für die GPU käme man irgendwo Richtung Redwood mit 400Shadern, UVD und allem Schnickschnack (immerhin ist ja noch ein Fertigungssprung dazwischen). Es ist jedenfalls Spielraum für eine nicht ganz schwache GPU vorhanden, auch wenn man diese rein spekulativen 30W nicht ausreizt.
Ich sehe das genauso und befürchte das ein großer Flaschenhals bei der Speicheranbindung entsteht, ein QuadChannel wäre da wohl nice.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Ich sehe das genauso und befürchte das ein großer Flaschenhals bei der Speicheranbindung entsteht, ein QuadChannel wäre da wohl nice.
Heißt es nicht explicit, dass Llano nur für OEMs zu haben sein soll?
Warum dann für Llano-System nicht das Gleiche tun, wie es AMD für seine RV7xx-GPUs eingeführt hat: auf eine neue Speichertechnologie zu setzen (damals GDDR5).
Ähnlich den aktuellen GPUs dürfte auch der Ram-Controller von Llano diverse Speicherarten ansprechen können: DDR3, GDDR3/5 etc.
Warum für Systeme, welche auch mit guter Grafik-Leistung protzen wollen, nicht einfach GDDR3/5-Speicher einsetzen? Wenn heute €50-Grakas schon 1GB-GDDR5-Ram drauf haben, dann wird in 2011 der Mehrpreis für 4GB-GDDR3/5 wohl auch nur noch sehr gering sein. So wie heute die Graka-Hersteller das Grafik-Ram frei wählen können, könnten womöglich dann auch die OEMd im Falle der teureren Quadcore-Llanos evtl. ebenfalls das Ram dann frei wählen. Das Zeug wird dann vermultich ebenfalls wie bei den Grakas aufgelötet, da braucht keiner irgendwelche Speicher-Riegel mehr.
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Schmink dir GDDR5 bitte ab.... Warum dann für Llano-System nicht das Gleiche tun, wie es AMD für seine RV7xx-GPUs eingeführt hat: auf eine neue Speichertechnologie zu setzen (damals GDDR5). ...
Dass Grafikspeicher so hoch getaktet wird, das liegt auch daran, dass alles auf ein PCB gelötet wird. System-RAM hingegen wird üblicherweise mit Steckslots bestückt und kann daher nicht so ideal verbunden werden -> Geringere Taktfrequenzen.
Darüber hinaus wäre es unüblich auf billigen zusteckbaren RAM zu verzichten zugunsten von womöglich proprietären neuen Speicher. DDR3 ist der geplante Standard für 2010 und 2011. Sogar Intels "neuer" Itanium "Tukwila" wurde wegen DDR3 nochmals umgestrickt, weil DDR3 mehr Aussichten hat als FB-DIMMs.
Auch andere Chips und Prozessoren werden meistenteils für DDR2 und/oder DDR3 entworfen. IBMs neuer Power7 wie auch Fujitsus geplanter High-End SPARC wird DDR3-Interfaces besitzen.
Mag sein, dass AMDs Llano womöglich einen Kanal für GDDR5 bereithält, damit OEMs GDRR5 gleich aufs Board leimen ... aber auch das ist recht unüblich und frisst Platz.
Ob AMD tatsächlich die Eier hat einen neuen Speicherstandard aus der Taufe zu heben, damit Mittelklasse-Enthusiasten gegebenfalls eigenständige GDDR5-Module nachrüsten? Unwahrscheinlich, zumal dann Steckmodule, anstatt aufgelöteter Speicherchips, die maximale Taktfrequenz nach unten ziehen.
MFG Bobo(2010)
rkinet
Grand Admiral Special
AMD steht hier voll im Zweispalt. Eigentlich sollte ja die $50 Grakas durch Fusion überflüssig werden und AMD damit die $50 selbst für den Chip einstecken können.Heißt es nicht explicit, dass Llano nur für OEMs zu haben sein soll?
Warum für Systeme, welche auch mit guter Grafik-Leistung protzen wollen, nicht einfach GDDR3/5-Speicher einsetzen? Wenn heute €50-Grakas schon 1GB-GDDR5-Ram drauf haben, dann wird in 2011 der Mehrpreis für 4GB-GDDR3/5 wohl auch nur noch sehr gering sein.
Andererseits könnten OEMs und Kunden weiterhin hartnäckig danach fragen.
Ein simpler Kompromiss wäre Triple-Core OHNE GDDR5 und Quad MIT. Wobei da eher nur 64 Bit Interface denkbar erscheint.
Ragas
Grand Admiral Special
- Mitglied seit
- 24.05.2005
- Beiträge
- 4.470
- Renomée
- 85
- Prozessor
- AMD Athlon 64 X2 3800+ @2520MHz; 1,4V; 53°C
- Mainboard
- Asus A8N-E
- Kühlung
- Thermaltake Sonic Tower (doppelt belüftet)
- Speicher
- 4x Infineon DDR400 512MB @207MHz
- Grafikprozessor
- Nvidia GeForce FX 7800GT
- Display
- 1.: 24", Samsung SyncMaster 2443BW, 1920x1200 TFT 2.: 19", Schneider, 1280x1024 CRT
- HDD
- Seagate Sata1 200GB 7200rpm, 2x250GB Seagate SATA2 im Raid0
- Optisches Laufwerk
- DVDBrenner LG GSA 4167
- Soundkarte
- Creative X-Fi Extreme Music
- Gehäuse
- Thermaltake Soprano Silber
- Netzteil
- Be-quiet! Darkpower 470W
- Betriebssystem
- Windows XP; Linux Mandriva 2007.1 (Kernel: 2.6.22.2 Ragas-Edition :D )
- Webbrowser
- Firefox
- Verschiedenes
- -Lüftersteuerung: Aerogate3
AMD steht hier voll im Zweispalt. Eigentlich sollte ja die $50 Grakas durch Fusion überflüssig werden und AMD damit die $50 selbst für den Chip einstecken können.
Andererseits könnten OEMs und Kunden weiterhin hartnäckig danach fragen.
Ein simpler Kompromiss wäre Triple-Core OHNE GDDR5 und Quad MIT. Wobei da eher nur 64 Bit Interface denkbar erscheint.
und wie soll man das machen? ich glaube trotzdem auch, dass sich gddr5 auch für den 4-kern nicht lohnt, da er nur in der unter-mittelklasse eingesetzt werden soll und dafür lohnt sich gddr5.
rkinet
Grand Admiral Special
Einfach das GDDR5 RAM mit auf den Träger auflöten ... ähnlich zu Modulen für Notebooks welche GPU-Schaltung und RAM zugleich enthalten.und wie soll man das machen?
ich glaube trotzdem auch, dass sich gddr5 auch für den 4-kern nicht lohnt, da er nur in der unter-mittelklasse eingesetzt werden soll und dafür lohnt sich gddr5.
Ansonsten kaufen die OEMs eben CPU plus exeterne $50 Grafikkarte. Und drücken AMD im Preis wg. zwei Komponenten.
Und 15-25 Watt einer GPU einfach noch CPU-Kühler wegbringen macht schon Sinn und dann kann trotzdem die Performance einer separaten $50 Grafikkarte einfordern.
Außerdem nimmt sich die GPU doch deutlich DRAM-Bandbreite selbst wenn 128 Bit DDR3 eher üppig zunächst erscheint-
Dresdenboy
Redaktion
☆☆☆☆☆☆
Ansonsten kaufen die OEMs eben CPU plus exeterne $50 Grafikkarte. Und drücken AMD im Preis wg. zwei Komponenten.
Und 15-25 Watt einer GPU einfach noch CPU-Kühler wegbringen macht schon Sinn und dann kann trotzdem die Performance einer separaten $50 Grafikkarte einfordern.
Außerdem nimmt sich die GPU doch deutlich DRAM-Bandbreite selbst wenn 128 Bit DDR3 eher üppig zunächst erscheint-
Solang die OEMs Platz haben, können sie das machen. Aber es zählen nicht nur diese Kosten, sondern z.B. auch Einbau, Designkomplexität, zusätzliche Bauteile,.. und natürlich Platz und Kühlung.
Naja, zur Leistungseinschätzung wissen wir auch noch nicht alle Details. Und DDR3-1333 brächte doch schon 21 GB/s.
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Dafür gibt es ja Bobcat.Viel interessanter sind für mich die 2,5W das ist dann wohl @ 800Mhz @0,8V, da wäre etwas um die 1W wünschenswert
Dr@
Grand Admiral Special
- Mitglied seit
- 19.05.2009
- Beiträge
- 12.791
- Renomée
- 4.066
- Standort
- Baden-Württemberg
- Aktuelle Projekte
- Collatz Conjecture
- Meine Systeme
- Zacate E-350 APU
- BOINC-Statistiken
- Mein Laptop
- FSC Lifebook S2110, HP Pavilion dm3-1010eg
- Prozessor
- Turion 64 MT37, Neo X2 L335, E-350
- Mainboard
- E35M1-I DELUXE
- Speicher
- 2x1 GiB DDR-333, 2x2 GiB DDR2-800, 2x2 GiB DDR3-1333
- Grafikprozessor
- RADEON XPRESS 200m, HD 3200, HD 4330, HD 6310
- Display
- 13,3", 13,3" , Dell UltraSharp U2311H
- HDD
- 100 GB, 320 GB, 120 GB +500 GB
- Optisches Laufwerk
- DVD-Brenner
- Betriebssystem
- WinXP SP3, Vista SP2, Win7 SP1 64-bit
- Webbrowser
- Firefox 13
JFs Kommentar zu seiner früheren Angabe zum Launch des Interlagos:
zur Erinnerung:
Kann mir jemand den Unterschied erklären?
Wenn die Dinger in 2011 auf den Markt kommen sollen und er erst im zweiten Halbjahr Details bekannt geben will, dann ist der Launch in H2 2010.
MfG @
QuelleJF schrieb:I think this is a misunderstanding. I meant that in the 2nd half of the year we would provide more granularity to our partners, not that we would be shipping in the second half of the year.
zur Erinnerung:
QuelleJF schrieb:No, my internal date for Interlagos has not changed at all; internally we have been driving to the same time frame for quite some time. We had been telling the world 2011 for a while, and now that we are within a certain window, we give a half year granularity that is 2nd half.
If that causes people to who assumed first half to think we slipped it, I can't control that. I know that we haven't said Interlagos in first half, previously it has only been "2011".
Kann mir jemand den Unterschied erklären?
Wenn die Dinger in 2011 auf den Markt kommen sollen und er erst im zweiten Halbjahr Details bekannt geben will, dann ist der Launch in H2 2010.
MfG @
rkinet
Grand Admiral Special
Wir haben 2011ff. mit Desktop - Bildschirmen der HDTV-Klasse im Budget-Segment zu rechnen.Naja, zur Leistungseinschätzung wissen wir auch noch nicht alle Details. Und DDR3-1333 brächte doch schon 21 GB/s.
Und heutige Einsteiger GPUs wie HD 54x0 liegen alleine schon zwischen 13-25 GB/s - http://de.wikipedia.org/wiki/ATI-Mobility-Radeon-HD-5000-Serie
64 Bit GDDR5 würde dann um 25 GByte/s aufstocken. Im Budget-Bereich (Triple-Core ? Dual-Core ? ) eben nur per Hauptspeicheranbindung.
rkinet
Grand Admiral Special
Beim LIano war irgendwann mal erstes Silicium fertig und nun wurde präsentiert. Bis Mitte 2010 gibts dann Samples für die OEMs und Großkunden. Q4'2010 Waferstarts und Q1'2011 dann Auslieferung.Wenn die Dinger in 2011 auf den Markt kommen sollen und er erst im zweiten Halbjahr Details bekannt geben will, dann ist der Launch in H2 2010.
Daher - 1 Jahr der Präsentation dazu addieren und man ist auf der realistischen Seite.
Zudem - wenn AMD Jahr xyz sagt ist da auch ein 15. Dezember denkbar ... wie bei der 65nm Story.
Beim Bulldozer kommt dazu dass erst der Opteron alle Validierungen durchlaufen wird bis er und etwas später die Desktop-Variante raus kommt.
Außerdem gibts beim Opteron erst mal die neues Sockets und neue 45nm Produkte dafür. Vor Sommer 2011 ist kaum mit 32nm Zuwachs hier zu rechnen. Also wäre Q4'2011 bis 15.12.2011 recht realistisch für erste Desktop-Bulldozer.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 909
- Antworten
- 78
- Aufrufe
- 14K
- Antworten
- 2
- Aufrufe
- 3K
- Antworten
- 755
- Aufrufe
- 98K
- Antworten
- 8
- Aufrufe
- 2K