App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Bulldozer - AMD Fam 15h - allgemeiner Infothread
- Ersteller Opteron
- Erstellt am
Opteron
Redaktion
☆☆☆☆☆☆
Jo schon krass, v.a. wenn man bedenkt, dass Intel da 2500 CPUs pro 300mm wafer bekommt. Könnte mir wirklich gut vorstellen, dass die ULV Ausbeute etwas schlecht ist, aber egal.zu (*) - http://www.heise.de/newsticker/Atom-CPU-Nachfrage-ueberrollt-Intel--/meldung/107277
Der Intel 'Atom' läuft extrem gut und überfordert bis Q3'08 die Kapazität bei Intel.
Allerdings sind erst H2'2008 die beiden anderen 45nm Fabs voll in Betrieb.
Ansonsten noch zum Alpha EV8: Das schöne daran war ja, dass 2fach SMT bei den vielen Exec Units soviel brachte wie ein echter 2ter Kern. Das ist schon optimal. Im Extremfall hat man super single thread Performance durch die 8fache SSkalarität, und wenn das nichts brachte, dann könnte man die Units mit SMT auslasten ... da sieht man mal, dass da jemand gedacht hatte ^^ SMT bei P4 und jetzt auch bei Nehalem bringt zwar auch was, aber niemals soviel. Das hätte quasi den ähnlichen Effekt wie das "reversed Hyperthreading", das immer mal durch die Schlagzeilen geistert.
@wadenbeisser:
Was meist Du mit Rechenwerk und Kerne ? Execution units ? Die sind integraler Bestandteil eines "Kerns" ... also von daher weiß ich jetzt nicht, was Du wo hinverteilen willst.
ciao
Alex
wadenbeisser
Vice Admiral Special
- Mitglied seit
- 03.12.2007
- Beiträge
- 825
- Renomée
- 2
Mit Rechenwerk meinte ich die Kerne (den Prozessor)....egal ob Virtuell (SMT) oder nicht.
Somit wären unausgelastete Rechenwerke bei einem Programm welches Rechenleistung fordert theoretisch fast unmöglich.....das ist ja auch das Hauptproblem heutiger Multicore Prozessoren.
Das Programm muss speziell darauf ausgelegt sein aber mit meiner Spinnerei würde das OS die lastverteilung übernehmen und die programme bekommen von der Anzahl der kerne des Prozessors nix mit. Auch wäre eine feste Aufteilung der gesammten Rechenleistung für verschiedene Programme denkbar.....ganz optimistisch gesehen könnte man dann sogar noch eine oder mehrere GPUs mit einbinden.
Somit wären unausgelastete Rechenwerke bei einem Programm welches Rechenleistung fordert theoretisch fast unmöglich.....das ist ja auch das Hauptproblem heutiger Multicore Prozessoren.
Das Programm muss speziell darauf ausgelegt sein aber mit meiner Spinnerei würde das OS die lastverteilung übernehmen und die programme bekommen von der Anzahl der kerne des Prozessors nix mit. Auch wäre eine feste Aufteilung der gesammten Rechenleistung für verschiedene Programme denkbar.....ganz optimistisch gesehen könnte man dann sogar noch eine oder mehrere GPUs mit einbinden.
rkinet
Grand Admiral Special
http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3272&p=4Jo schon krass, v.a. wenn man bedenkt, dass Intel da 2500 CPUs pro 300mm wafer bekommt. Könnte mir wirklich gut vorstellen, dass die ULV Ausbeute etwas schlecht ist, aber egal.
Intel hat erst ab Q3'2008 genügend Fertigungskapazität für 45nm. In Q2'2008 sind nur 15-18% un 45nm möglich.
Die Atom-Reihe ist niedrig angesetzt, aber die Erlöse sind bei den größeren Designs höher.
Nachdem Apple jetzt durchgängig den 6M-Penryn einsetzt (und keine 3M-Penryn wie viele andere) ist die Lage in Q2'2008 schon angespannt.
Genau daher wäre so ein Design für typ. Single-/ Dual-Core Geräte mit zeitweise mehr parallelen Threads eine sinnvolle Sache.Ansonsten noch zum Alpha EV8: Das schöne daran war ja, dass 2fach SMT bei den vielen Exec Units soviel brachte wie ein echter 2ter Kern. Das ist schon optimal. Im Extremfall hat man super single thread Performance durch die 8fache SSkalarität, und wenn das nichts brachte, dann könnte man die Units mit SMT auslasten ... da sieht man mal, dass da jemand gedacht hatte ^^ SMT bei P4 und jetzt auch bei Nehalem bringt zwar auch was, aber niemals soviel. Das hätte quasi den ähnlichen Effekt wie das "reversed Hyperthreading", das immer mal durch die Schlagzeilen geistert.
Hohe IPC bei Single-Thread bedeutet im Mobilbereich durchaus dann kürzere Phasen mit max. TDP (bei voll hoch geschalteter Peripherie wie Links/ DRAM-Kontroller), was insgesamt Strom sparen hilft.
Und die Geräte fühlen sich 'schneller an'.
Für Server etc. aber ein nur teilweise erfolgversprechendes Design, aber AMD will ja verstärkt im Mainstream punkten.
Der Erfolg des Intel Atom und früherer low power Designs wie Centrino sind eine gute Referenz für die Wünsche der Käufer. Angesichts des Überhanges an Rechenpower für viele Anwender kann naives Multicore mit rel. hoher TDP keine sinnvolle Produktplanung sein.
Opteron
Redaktion
☆☆☆☆☆☆
Ok, dann noch die Frage was Du mit "Kernen" meinst, doch nicht wieder Rechenwerke (Kerne?).Mit Rechenwerk meinte ich die Kerne (den Prozessor)....egal ob Virtuell (SMT) oder nicht.
Wenn ich das richtig verstehe, dann meinst Du "einfach" nur revered Hyperthreading mittels Software.
Die Betriebsysteme weisen heute schon den Threads die einzelnen CPU-Kerne zu, wenn Du jetzt willst, dass 1 Programm/Thread, gleichzeitg auf mehreren Kernen läuft, dann bräuchte es sowas wie "reversed Hyperthreading". In Software hat sowas aber wohl keinen Zweck, da es zu langsam wäre.
Wenn sich das OS um die einzelnen µOps eines Programms kümmern müßte, wäre das viel zu komplex, meiner Meinung nach.
@rkinet:
Danke für den anandterch Link, dass Intels 45nm Kapazitäten begrenzt sind ist klar, aber gleich soviel ^^ Ich dachte, da wäre inzwischen schon die 2. Fab angelaufen.
Du vergißt bei der TDP, dass man den 2. Kern quasi für umsonst bekommt. So ein Teil wäre natürlich kein Stromsparwunder, aber wenn dann im 2-4 thread Betrieb der 1Kerner so schnell wie ein echter 2Kerner wäre, dann spart das massig Energie/Strom etc. ^^Der Erfolg des Intel Atom und früherer low power Designs wie Centrino sind eine gute Referenz für die Wünsche der Käufer. Angesichts des Überhanges an Rechenpower für viele Anwender kann natives Multicore mit rel. hoher TDP keine sinnvolle Produktplanung sein.
Sagen wir mal so ein Kern würde, sagen wir mal die 1,5fache Leistung eines "normalen" Single-cores verbraten, dann wäre das immer noch besser als die 2fache Leistung eines echten dual cores. Eigentlich ein Patentrezept für *die* desktop CPU. Ich hoffe AMD übernimmt da irgendwas, und wenns nur 6fach Superskalar mit 2fach SMT ist, reicht ja auch schon ^^
Dann noch die 32 8192bit breiten FPU Register des EV8-Tarantula für die K11 SSE Abteilung dazu, dann kann Intel mit dem "putzigen" 256bit AVX einpacken ^^
Aber darüber haben wir schon vor 5 Jahren fabuliert ...
Offiziell hat AMD ja auch noch den Bobcat auf der Liste, also da sollte AMD dann mal keine Rücksicht auf den Stromsparmarkt nehmen müssen.
ciao
Alex
P.S: Netter Tippfehler:
naives Multicore
wadenbeisser
Vice Admiral Special
- Mitglied seit
- 03.12.2007
- Beiträge
- 825
- Renomée
- 2
Die das zu realisieren wäre kann ich auch nicht sagen, da mir hierfür entsprechende Kenntnisse fehlen. Es wäre allerdings ein Weg aus der bisherigen starren Konstruktion. Wenn man den gerüchten zu zeiten der K8L Spekulation glauben mag, dann hatte offenbar auch AMD schonmal darüber nachgedacht und in diese Richtung geforscht. Nannte sich das hier nicht anti-HTT?
dieses von dir benannte "revered Hyperthreading" wäre natürlich auch in einer Hardware/Software Kombination denkbar, da der von mir verfolgte Grundgedanke lediglich darin besteht das die Programme herzlich wenig davon mitbekommen wieviele Kerne der Prozessor nun wirklich besitzt und somit derzeitige diskussionen um Multicore Prozessoren vom Tisch wären. Das Einbinden von grafikkarten zur Berechnung könnte man vielleicht ähnlich handhaben wie das Ansprechen der SSE Einheiten derzeitiger Prozessoren.
Das nötige Entwicklungspotential für eine solche Plattform sehe ich durch den Aufkauf von ATI durchaus als gegeben aber wie es dabei Softwareseitig ausschaut....?
Wie gesagt...vielleicht alles ein wenig zu offtopic meinerseits aber es spiegelt meine Gedankengänge zu derzeitigen Problemen bei der multicore Diskussion und einer effektiven Nutzung der Grakas ausserhalb des 3D Marktes (wie z.B. bei Folding@Home) wieder.
dieses von dir benannte "revered Hyperthreading" wäre natürlich auch in einer Hardware/Software Kombination denkbar, da der von mir verfolgte Grundgedanke lediglich darin besteht das die Programme herzlich wenig davon mitbekommen wieviele Kerne der Prozessor nun wirklich besitzt und somit derzeitige diskussionen um Multicore Prozessoren vom Tisch wären. Das Einbinden von grafikkarten zur Berechnung könnte man vielleicht ähnlich handhaben wie das Ansprechen der SSE Einheiten derzeitiger Prozessoren.
Das nötige Entwicklungspotential für eine solche Plattform sehe ich durch den Aufkauf von ATI durchaus als gegeben aber wie es dabei Softwareseitig ausschaut....?
Wie gesagt...vielleicht alles ein wenig zu offtopic meinerseits aber es spiegelt meine Gedankengänge zu derzeitigen Problemen bei der multicore Diskussion und einer effektiven Nutzung der Grakas ausserhalb des 3D Marktes (wie z.B. bei Folding@Home) wieder.
Opteron
Redaktion
☆☆☆☆☆☆
Jo "anti-HTT" ist nur ein andrer Name für reversed Hyperthreading, das meint das Gleiche ^^Die das zu realisieren wäre kann ich auch nicht sagen, da mir hierfür entsprechende Kenntnisse fehlen. Es wäre allerdings ein Weg aus der bisherigen starren Konstruktion. Wenn man den gerüchten zu zeiten der K8L Spekulation glauben mag, dann hatte offenbar auch AMD schonmal darüber nachgedacht und in diese Richtung geforscht. Nannte sich das hier nicht anti-HTT?
dieses von dir benannte "revered Hyperthreading" wäre natürlich auch in einer Hardware/Software Kombination denkbar, da der von mir verfolgte Grundgedanke lediglich darin besteht das die Programme herzlich wenig davon mitbekommen wieviele Kerne der Prozessor nun wirklich besitzt und somit derzeitige diskussionen um Multicore Prozessoren vom Tisch wären. Das Einbinden von grafikkarten zur Berechnung könnte man vielleicht ähnlich handhaben wie das Ansprechen der SSE Einheiten derzeitiger Prozessoren.
Das nötige Entwicklungspotential für eine solche Plattform sehe ich durch den Aufkauf von ATI durchaus als gegeben aber wie es dabei Softwareseitig ausschaut....?
Wie gesagt...vielleicht alles ein wenig zu offtopic meinerseits aber es spiegelt meine Gedankengänge zu derzeitigen Problemen bei der multicore Diskussion und einer effektiven Nutzung der Grakas ausserhalb des 3D Marktes (wie z.B. bei Folding@Home) wieder.
Der von Dir angesprochene Punkt der integrierten Grafikkarte ist schon interessant, da ist die Frage, ob die Programmierung desselben irgendwie/irgendwann als "SSEx" in den x86 Befehlssatz aufgenommen wird, oder nicht. Wäre dann aber schon ne dicke Erweiterung.
Ansonsten hat Deine Idee wohl etwas von der Transmeta Idee. Da lief ja auch Codemorphing Software auf einer 128bit CPU. Die Software hat die x86 Befehle dabei in interne Datenhäppchen für die properitäre CPU übersetzt. Je nachdem was diese CPU halt zur Verfügung stellte, wurden da die Daten verteilt. Dürfte nicht so schwierig sein, da die Daten dann auf einen Grafikkern zu verteilen, wenn er integriert werden würde. Transmeta hat sich leider aber nicht durchgesetzt, Problem war vielleicht auch, dass die Software ~20MB vom RAM brauchte, was für kleine embedded Geräte zuviel war, für notebooks/desktops war der Chip dafür zu langsam und die ULV Intel Chips verbrauchten dann auch nicht mehr Strom.
Offtopic ist hier nichts, vielleicht baut AMD ja Codemorphing in den K11 ein, nachdem nichts bekannt ist, darf man über alles spekulieren
ciao
Alex
Zuletzt bearbeitet:
wadenbeisser
Vice Admiral Special
- Mitglied seit
- 03.12.2007
- Beiträge
- 825
- Renomée
- 2
Ich bin mir jetzt nicht sicher welcher Prozessor das war aber bei einem kommenden Modell war ja im Blockaufbau auch ein PCIe Controller mit eigearbeitet...vielleicht ein Indiz für eine entsprechende Forschung zur Einbindung der Grafikkarte in die Berechnungen der CPU?
Opteron
Redaktion
☆☆☆☆☆☆
Hmmmm integrierter PCIe ... das wird der SocketG hoffentlich bringen, und darüber hab ich auch schon öfters spekuliert, aber ein Blockschaltbild hab ich damit noch nicht gesehen.Ich bin mir jetzt nicht sicher welcher Prozessor das war aber bei einem kommenden Modell war ja im Blockaufbau auch ein PCIe Controller mit eigearbeitet...vielleicht ein Indiz für eine entsprechende Forschung zur Einbindung der Grafikkarte in die Berechnungen der CPU?
Wobei, ich glaub beim Fusion wars mal mit drauf. Ansonsten hat das im Moment nur Sun.
Es ist dir Frage, wie das integriert werden soll. In der ersten Generation wird das wohl eher ein MCM werden, d.h. man müßte ein Ati Grafik DIE irgendwie mit nem AMD CPU Die verbinden. Also entweder nen Ati Chip mit Hypertransport, oder ne AMD CPU mit PCIe. Letzteres ist wohl sinnvoller, weswegen ich das auch immer gerne propagiere
Frage ist dann aber, wie der Ati Chip an den Hauptspeicherzugriff kommt .. naja abwarten
ciao
Alex
rkinet
Grand Admiral Special
Intel integriert indirekt ja auch direkt PCIe im Havendale - http://sunnytalkstech.blogspot.com/2007/11/complete-nehalem-details-leaked.htmlIch bin mir jetzt nicht sicher welcher Prozessor das war aber bei einem kommenden Modell war ja im Blockaufbau auch ein PCIe Controller mit eigearbeitet...vielleicht ein Indiz für eine entsprechende Forschung zur Einbindung der Grafikkarte in die Berechnungen der CPU?
Wobei die PCIe Schnittstelle locker auch über eine Bridge laufen könnte, besonders wenn HTr verwendet würde.
Bei der GPU wird heute bei ATI 'Ultra Threated' verwendet, bei x86-64 aber separate Cores mit 3-fach superskalar Design. Ok, bei der Grafik wird zwar auch spekulativ gearbeitet, aber nur verworfen, wenn eigentlich verdeckte Bildbereiche betroffen wären.
Das Verteilen von vielen Threads incl.spekualtiven erinnert nun wiederum an den Alpha EV8.
Aber SSE und Stream Processing Units könnte ggf. fusionieren, was hocheffekte SSE-Performance ODER DirectX-Operationen bedeuten würde. Oft kämen die sich nicht in die Quere, wie beim encoding oder Signalverarbeitung / Spracherkennung.
Aber bisher war bei AMD nichts in dieser Richtung erkennbar.
'Swift' wird lediglich eine (Dual ?! ) K10-Variante mit DirectX10 Grafik auf dem 45nm DIE.
Intels Havendale eben die Nehalem-Basisversion mit 2*2 Cores.
Dazu kommt jetzt per Intel 'Atom' eine deutlich schwächere Ergänzung, die aber bei der TDP glänzen kann.
Das ist auf längere Sicht aber Unsin, denn Strombedarf durch unnütze Units ist ein Akzeptanzproblem. Etwas hilft abschalten/ Tiefschlaf der nicht benötigten Komponenten, aber ein wirklich integriertes Design wäre besser für die Zukunft.
hendrikhey
Commodore Special
- Mitglied seit
- 25.09.2002
- Beiträge
- 499
- Renomée
- 1
- Standort
- Wunstorf
- Mein Laptop
- ASUS X50SL
- Prozessor
- Brisbane 4000+, ohne IHS
- Mainboard
- MSI K9N Neo-F V2
- Kühlung
- Arctic Cooling Freezer 64 Pro
- Speicher
- 2x1GB Kingston ValueRAM PC6400, 2x2GB A-DATA PC6400
- Grafikprozessor
- Sapphire Radeon X1950 Pro
- Display
- Fujitsu-Siemens 21"
- HDD
- Seagate 420GB SATAII
- Optisches Laufwerk
- LiteOn DVDRW SOHW32
- Soundkarte
- onboard
- Gehäuse
- ASUS Vento A8
- Netzteil
- 550W LCPower Ultra-Silent 14cm
- Betriebssystem
- Windows Vista Ultimate x64, XP x64
- Webbrowser
- Firefox
- Verschiedenes
- Ich hasse dieses Board. 250MHz max. Ref-Takt! :-(
Anti-HTT würde allerdings teilweise bestimmt auch zu Leistungseinbußen führen.wadenbeisser schrieb:dieses von dir benannte "revered Hyperthreading" wäre natürlich auch in einer Hardware/Software Kombination denkbar, da der von mir verfolgte Grundgedanke lediglich darin besteht das die Programme herzlich wenig davon mitbekommen wieviele Kerne der Prozessor nun wirklich besitzt und somit derzeitige diskussionen um Multicore Prozessoren vom Tisch wären. Das Einbinden von grafikkarten zur Berechnung könnte man vielleicht ähnlich handhaben wie das Ansprechen der SSE Einheiten derzeitiger Prozessoren.
Ein Beispiel aus der Spielewelt:
Du läufst mit Deinem Ego in einem Shooter durch die Gegend und schießt wild in der Gegend rum.
Ein Zweikerner (oder mehr) könnte folgende Aufgaben zeitgleich berechnen, da mehr Threads verarbeitet werden:
Sound (sofern Onboard-Codec), Physik, danach Wind und Gittermodelle.
Dein Zweikerner, der aber nur über einen Thread verfügt, berechnet dann alles nacheinander.
Ich kann mir vorstellen, dass Letzteres langsamer wäre als die erste Rechnung.
Zuletzt bearbeitet:
wadenbeisser
Vice Admiral Special
- Mitglied seit
- 03.12.2007
- Beiträge
- 825
- Renomée
- 2
Hast du dabei auch bedacht das im zweiten Szenario die einzelnen Kerne auch nur die halbe Leistung haben und eine solche festlegung sehr hinderlich ist, wenn einer der Kerne nicht ausgelastet werden kann und somit dessen restliche Rechenleistung brach liegt? Genau dieses Problem haben derzeit die Quadcores mehr als deutlich.
Nicht umsonst sprach ich allgemein von multicore Prozessoren und nicht umsonst sprach ich ebenfalls von der Möglichkeit einer erneuten Aufteilung der Rechenleistung.
@Opteron
Ich denke es war das Schaubild des Fusion Projetzs, welches ich im Hinterkopf hatte.
Das mit dem Zugriff des Grafikchips auf den Hauptspeicher sehe ich im übrigen als garkein Problem an, da ja bereits heutige Chips es bereits beherrschen (Auslagen von Texturen, shared memory Lösungen usw.) und die interne Berechnung innerhalb des sehr viel schnelleren Grafikspeichers der Grafikkarte ablaufen könnte. Bestrebungen die Grafikchips als Rechenkarten zu vermarkten gab es meiner meinung nach sogar schon zu Zeiten der x1800/x1900 und wird eingeschränkt sogar schon bei Folding@Home genutzt.
@rkinet
Wie gesagt...die GPU würde dann in der Form eines neuen Befehlssatzes angesprochen werden. Würde man 2 Technologien bestehend aus dem Fusion Projekt und der Hybrid Crossfire Geschichte mit der Berechnung in der Grafikkarte kombinieren können, dann wäre der Befehlssatz auf der einen Seite ein fester Bestandteil der CPU und wäre per schnellerer Grafikkarte auch noch rechenleistungstechnisch aufrüstbar.
das es mit derzeitigen Grafikkarte nicht allso warscheinlich wäre dürfte klar sei aber entsprechende Anpassungen der Shaderarchitektur wären bei kommenden Modellen durchaus denkbar.
.
EDIT :
.
Bestrebungen zur Einbindung der GPU in die Rechenleistung bestehen offenbar bereits heute:http://www.computerbase.de/news/har.../april/neuer_300-tflop-supercomputer_96_gpus/
Nicht umsonst sprach ich allgemein von multicore Prozessoren und nicht umsonst sprach ich ebenfalls von der Möglichkeit einer erneuten Aufteilung der Rechenleistung.
Auch wäre eine feste Aufteilung der gesammten Rechenleistung für verschiedene Programme denkbar
@Opteron
Ich denke es war das Schaubild des Fusion Projetzs, welches ich im Hinterkopf hatte.
Das mit dem Zugriff des Grafikchips auf den Hauptspeicher sehe ich im übrigen als garkein Problem an, da ja bereits heutige Chips es bereits beherrschen (Auslagen von Texturen, shared memory Lösungen usw.) und die interne Berechnung innerhalb des sehr viel schnelleren Grafikspeichers der Grafikkarte ablaufen könnte. Bestrebungen die Grafikchips als Rechenkarten zu vermarkten gab es meiner meinung nach sogar schon zu Zeiten der x1800/x1900 und wird eingeschränkt sogar schon bei Folding@Home genutzt.
@rkinet
Wie gesagt...die GPU würde dann in der Form eines neuen Befehlssatzes angesprochen werden. Würde man 2 Technologien bestehend aus dem Fusion Projekt und der Hybrid Crossfire Geschichte mit der Berechnung in der Grafikkarte kombinieren können, dann wäre der Befehlssatz auf der einen Seite ein fester Bestandteil der CPU und wäre per schnellerer Grafikkarte auch noch rechenleistungstechnisch aufrüstbar.
das es mit derzeitigen Grafikkarte nicht allso warscheinlich wäre dürfte klar sei aber entsprechende Anpassungen der Shaderarchitektur wären bei kommenden Modellen durchaus denkbar.
.
EDIT :
.
Bestrebungen zur Einbindung der GPU in die Rechenleistung bestehen offenbar bereits heute:http://www.computerbase.de/news/har.../april/neuer_300-tflop-supercomputer_96_gpus/
rkinet
Grand Admiral Special
Beide Welten (CPU und GPU) müssen fusionieren gerade wenn die Fertigung auf dem gleichen DIE erfolgt.@rkinet
Wie gesagt...die GPU würde dann in der Form eines neuen Befehlssatzes angesprochen werden. Würde man 2 Technologien bestehend aus dem Fusion Projekt und der Hybrid Crossfire Geschichte mit der Berechnung in der Grafikkarte kombinieren können, dann wäre der Befehlssatz auf der einen Seite ein fester Bestandteil der CPU und wäre per schnellerer Grafikkarte auch noch rechenleistungstechnisch aufrüstbar.
das es mit derzeitigen Grafikkarte nicht allso warscheinlich wäre dürfte klar sei aber entsprechende Anpassungen der Shaderarchitektur wären bei kommenden Modellen durchaus denkbar.
Wobei ich bei der SSE noch den Bedarf an SMT sehe, da typ. Grafikaufgaben massiv parallel arbeiten aber bei ehere bescheidenen Taktraten.
Die SSE könnte z.B. 1-4 fach (variabel) mit SMT arbeiten und dann z.B. bei 600 MHz IDLE z.B. 64 Shader für DirectX nutzen, bei 1,8 GHz aber 192 und bei 2,4 GHz 256 virtuelle Shaderfunktionalitäten.
Ebenso sind bei einer GPU im Minimum 8 MB local frame buffer nötig, was bei 12 MB als eDRAM also entweder genügend für GPU und CPU ergäbe.
Der local frame buffer wäre auch energiesparender nutzbar als der permanete Zugriff auf das extrene DRAM heutiger onborad-Designs oder gesondereter Grafikkarten.
Es gibt also einiges an Möglichkeiten eine 'Überflieger Mobil CPU <> GPU" und auch eine Mainstream-Desktop CPU zu entwickeln.
Wenn bei ca. 2-4 Cores und perfomanter Floatingpoint die Entwicklung verharrt (allenfalls die Zahl der Floating Point Units sich erhöht) und nur geringere TDP bzw. steigende Taktraten von Bedeutung sind, dann bildet sich schon ein Basisdesign heraus.
Opteron
Redaktion
☆☆☆☆☆☆
Das wars dann erstmal wieder mit den Bulldozer news:
Bis da wieder was durchsickert wirds wohl 2009 ...
ciao
Alex
Q: http://www.theinquirer.net/gb/inquirer/news/2008/05/07/amd-roadmap-restores-bit(...) The two biggest things are they aren't up to snuff core for core, and Bulldozer is looking wounded if not dead. (...)
The most distressing part is Bulldozer. Much was made of it not being on the roadmaps last December, but that was a tempest in a tea kettle. The real problems have come out since then, and the only way to say it is that the architecture is a huge flop.
No, this isn't to say that it won't be fast or meet every spec that it was meant to, simply that it can't be done on a 45nm process. This means that it will be on the 32nm node pushing it out to late late 2010 best case.
Bis da wieder was durchsickert wirds wohl 2009 ...
ciao
Alex
cumec
Admiral Special
- Mitglied seit
- 03.05.2006
- Beiträge
- 1.305
- Renomée
- 19
- Standort
- Schüttorf / Niedersachsen
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Simap, Spin
- Lieblingsprojekt
- Simap
- Meine Systeme
- Phenom X4 @ 3000MHz
- BOINC-Statistiken
- Folding@Home-Statistiken
- Prozessor
- Phenom II X6 1075T @ 3900MHz
- Mainboard
- Gigabyte MA790GP-DS4H
- Kühlung
- Gelid Tranquillo
- Speicher
- 8GB PC 800
- Grafikprozessor
- Saphire HD4850 - 512mb
- Display
- ViewSonic VA2216w / Eizo Flexscan L695
- HDD
- 64GB OCZ Agility 2 / 1TB Samsung F3
- Optisches Laufwerk
- Samsung DVD-ROM 16x
- Soundkarte
- Onboard
- Gehäuse
- Chieftec Bravo BA-01
- Netzteil
- be quiet! Straight Power E5 500W
- Betriebssystem
- Win7 Professional 64bit / Ubuntu 64bit
- Webbrowser
- Fox 4
jo, und hier nochmal der inquirer auf deutsch zu dem thema.
http://www.theinquirer.de/2008/05/08/bringt_die_neue_amdroadmap_verlorenes_vertrauen_zuruck.html
schade, das wars dann fürs erste...
http://www.theinquirer.de/2008/05/08/bringt_die_neue_amdroadmap_verlorenes_vertrauen_zuruck.html
schade, das wars dann fürs erste...
raven-666
Commodore Special
- Mitglied seit
- 19.08.2003
- Beiträge
- 430
- Renomée
- 3
- Prozessor
- c2d e6400@3,2
- Mainboard
- asus
- Kühlung
- lukü - scythe ninja
- Speicher
- 4x1024 geil/gskill
- Grafikprozessor
- connect 3d x800xl
- Display
- samsung 19" tft
- HDD
- hitachi 250GB Sata2, 2x Samsung 160 GB Sata2
- Optisches Laufwerk
- Benq Dvd-Brenner, Plextor CD-RW
- Soundkarte
- on board
- Gehäuse
- Thermaltake Tsunami
- Netzteil
- enermax 430W
- Betriebssystem
- Vista Ultimate 64bit
- Webbrowser
- firefox
und langsam auch mit amd
hot
Admiral Special
- Mitglied seit
- 21.09.2002
- Beiträge
- 1.187
- Renomée
- 15
- Prozessor
- AMD Phenom 9500
- Mainboard
- Asrock AOD790GX/128
- Kühlung
- Scythe Mugen
- Speicher
- 2x Kingston DDR2 1066 CL7 1,9V
- Grafikprozessor
- Leadtek Geforce 260 Extreme+
- Display
- Samsung 2432BW
- HDD
- Samsung HD403LJ, Samung SP1614C
- Optisches Laufwerk
- LG HL55B
- Soundkarte
- Realtek ALC890
- Gehäuse
- Zirco AX
- Netzteil
- Coba Nitrox 600W Rev.2
- Betriebssystem
- Vista x64 HP
- Webbrowser
- Firefox
Sao Paulo = BD?
Opteron
Redaktion
☆☆☆☆☆☆
Nö, wie kommste da drauf ? Das sind nur 6 K10 Kerne im neuen Socket G. In Letzteren wird dann später auch Bulldozer platz nehmen, wenn er irgendwann kommen sollte ...Sao Paulo = BD?
ciao
Alex
hot
Admiral Special
- Mitglied seit
- 21.09.2002
- Beiträge
- 1.187
- Renomée
- 15
- Prozessor
- AMD Phenom 9500
- Mainboard
- Asrock AOD790GX/128
- Kühlung
- Scythe Mugen
- Speicher
- 2x Kingston DDR2 1066 CL7 1,9V
- Grafikprozessor
- Leadtek Geforce 260 Extreme+
- Display
- Samsung 2432BW
- HDD
- Samsung HD403LJ, Samung SP1614C
- Optisches Laufwerk
- LG HL55B
- Soundkarte
- Realtek ALC890
- Gehäuse
- Zirco AX
- Netzteil
- Coba Nitrox 600W Rev.2
- Betriebssystem
- Vista x64 HP
- Webbrowser
- Firefox
Wie kommt man darauf, dass es K10 sein müssen? Gibts dazu genaueres? Bisher kann es doch beides sein. Auf der Roadmap gibts nur Northbridge-Features.
rkinet
Grand Admiral Special
Das kann man so sagen.jo, und hier nochmal der inquirer auf deutsch zu dem thema.
http://www.theinquirer.de/2008/05/08/bringt_die_neue_amdroadmap_verlorenes_vertrauen_zuruck.html
schade, das wars dann fürs erste...
AMD muss zudem per K10 eine neue Serverplattform und dann auch noch (übergangsweise) in 45nm Technik einführen.
Das zieht sich wie ein Kaugummi und die IPC oder TDP hat kaum neue Dimensionen im Visier.
Opteron
Redaktion
☆☆☆☆☆☆
Wenn das Bulldozer wäre, dann würde das gaaaaaaanz groß mit roter Schrift auf grellgelben Grund stehenWie kommt man darauf, dass es K10 sein müssen? Gibts dazu genaueres? Bisher kann es doch beides sein. Auf der Roadmap gibts nur Northbridge-Features.
Du hast recht, 100%ig ausschließen kann mans nicht, aber 99,999999%
ciao
Alex
hot
Admiral Special
- Mitglied seit
- 21.09.2002
- Beiträge
- 1.187
- Renomée
- 15
- Prozessor
- AMD Phenom 9500
- Mainboard
- Asrock AOD790GX/128
- Kühlung
- Scythe Mugen
- Speicher
- 2x Kingston DDR2 1066 CL7 1,9V
- Grafikprozessor
- Leadtek Geforce 260 Extreme+
- Display
- Samsung 2432BW
- HDD
- Samsung HD403LJ, Samung SP1614C
- Optisches Laufwerk
- LG HL55B
- Soundkarte
- Realtek ALC890
- Gehäuse
- Zirco AX
- Netzteil
- Coba Nitrox 600W Rev.2
- Betriebssystem
- Vista x64 HP
- Webbrowser
- Firefox
Nö, nicht zwingend.
Opteron
Redaktion
☆☆☆☆☆☆
Ja klar, träumen kann man ja immer .. von reversed HT, Taktraten jenseits von 3 Ghz, Kernen ohne Ende, SSE5 mit 1024bit Registern oder eben einen 12 Kern Bulldozer 2010 ... das zeichnet den hardcore AMD Fan ausNö, nicht zwingend.
ciao
Alex
rkinet
Grand Admiral Special
also 12* 2,2 GHz = 26,4 GHz ... 3 GHz war gesternJa klar, träumen kann man ja immer .. von reversed HT, Taktraten jenseits von 3 Ghz, Kernen ohne Ende, SSE5 mit 1024bit Registern oder eben einen 12 Kern Bulldozer 2010 ... das zeichnet den hardcore AMD Fan aus
Hier liegt die reale Zukunft von AMD:
- http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1207000861
- http://www.golem.de/0805/59564.html
Da sollten doch 32 Cores bei <10 Watt umgerechnet machbar sein ?
Jetzt noch per Transmeta-Idee 'reversed HT' einführen und SuperPI liegt unter 5s bei 10 Watt TDP.
Da könnte Intel nur noch die weiße Flagge hießen ...
Zuletzt bearbeitet:
hot
Admiral Special
- Mitglied seit
- 21.09.2002
- Beiträge
- 1.187
- Renomée
- 15
- Prozessor
- AMD Phenom 9500
- Mainboard
- Asrock AOD790GX/128
- Kühlung
- Scythe Mugen
- Speicher
- 2x Kingston DDR2 1066 CL7 1,9V
- Grafikprozessor
- Leadtek Geforce 260 Extreme+
- Display
- Samsung 2432BW
- HDD
- Samsung HD403LJ, Samung SP1614C
- Optisches Laufwerk
- LG HL55B
- Soundkarte
- Realtek ALC890
- Gehäuse
- Zirco AX
- Netzteil
- Coba Nitrox 600W Rev.2
- Betriebssystem
- Vista x64 HP
- Webbrowser
- Firefox
Was heißt träumen, ich glaub eher jeder träumt von seinem eigenen Krempel. Und mit "Hardcorefan" hat das mal beileibe nix zu tun.Ja klar, träumen kann man ja immer .. von reversed HT, Taktraten jenseits von 3 Ghz, Kernen ohne Ende, SSE5 mit 1024bit Registern oder eben einen 12 Kern Bulldozer 2010 ... das zeichnet den hardcore AMD Fan aus
ciao
Alex
Nur ist es halt möglich und soo unwahrscheinlich ist es nun auch wieder nicht. AMD gibt nicht umsonst keine CPU-Kerntypen an, sondern zählt nur Features auf, die diese CPUs sowieso haben werden. Ich denke, eine solche Entscheidung, dürfte selbst bei AMD noch nicht feststehen - es kommt halt wohl eher darauf an, wie man mit dem BD voran kommt. Nur sollte man sich von sowas verabschieden, dass der BD ein "Wunderding" ist. AMD hat in den schwierigsten Zeiten das Blaue vom Himmel versprochen um zu überleben und wahnwitzige Fahrpläne vorgegeben. Es hat geklappt, die Analysten habens gefressen.
Nur stellt sich eben bei einem solchen Unternehmen die Frage: Ist er wirtschaftlich überhaupt sinnvoll? Wenn dieser wieder gecancelt wird, bleibts halt bei dem K7 Nachfolger K10. Es ist nunmal eine Tatsache, das viel schlechter geredet wurde beim K10 als es tatsächlich ist. Es gibt eine Userbewegung im Umbruch, die die Stärken des K10 erkannt hat und diese auch nach Außen tragen. Das Hardwareluxx-Forum ist ein gutes Beispiel dafür.
Wenn BD wirklich nicht so pralle ist, kommt er halt nicht, dann bleibts halt bei Altbewährtem, ist bei Intel ja ebenfalls nicht anders. Nur läufts jetzt halt wie immer: Montreal kommt nicht, BD kommt nicht oder später und schon wird wieder Untergangsstimmung verbreitet. Immer heißt es, es kann nicht schlimmer werden, die sind bald pleite, wenn die beim K10 bleiben, sind sie verloren... jaja, ne is klar. Das hat man schon zu K5 Zeiten prognostiziert.
Dabei ist die 6-Kern-Variante wirtschaftlich gesehen ein klasse Schachzug. Er ist recht einfach zu implementieren, das KnowHow ist ja da und problemlos auch für die Fertigung realisierbar. Wahrscheinlich ist man damit kostentechnisch viel besser dran, als mit einem möglichen Montreal, welcher ja eh nur für den Serverbereich bestimmt war. Im Nachhinein ist der Montreal ein derart ehrgeiziges Projekt gewesen, dass einem Zweifel kommen, ob der überhaupt tatsächlich in Planung war. Man kümmert sich nun halt um bessere Fertigung, mehr Takt, Optimierungen usw. Es sollte viel zu schnell vorwärts gehen, wäre man den Weg gegangen, wäre es sicherlich aus gewesen. Bei einem solch riskanten vorgehen - neue CPU-Kerne, neue Infrastrukturen usw. kann man sich ganz schnell so verschätzen, das alles zu spät ist. Ich sehe die neue Roadmap eher als "Gesundungskurs", weil AMD genau das macht, was sie immer erfolgreich gemacht haben: Bewährte Techniken weiterverwenden. Der K10 ist taufrisch und das Design ist immernoch potent.
Zuletzt bearbeitet:
rkinet
Grand Admiral Special
Der 12-fach Core in 45nm ist aber auch halbseiden.AMD hat in den schwierigsten Zeiten das Blaue vom Himmel versprochen um zu überleben und wahnwitzige Fahrpläne vorgegeben. Es hat geklappt, die Analysten habens gefressen.
...
Dabei ist die 6-Kern-Variante wirtschaftlich gesehen ein klasse Schachzug. Er ist recht einfach zu implementieren, das KnowHow ist ja da und problemlos auch für die Fertigung realisierbar.
Das wären umgerechnet 3* 45 Watt als Quad in 45nm was bei AMD und Intel schon grenzwertig wird.
Lt. http://www.tomshardware.com/de/QX9300-Quad-Core-Extreme-Intel,news-240702.html
packt Intel als Superselektion Penryn die 4* 2,53 GHz bei 45 Watt.
Intel stellt aber viel mehr Penryn her als AMD je per Hexacore.
Ebenso wäre ein 65 Watt Hexacore nut <<2,5 GHz vorstellbar, also eher 2,2 bis 2,3 GHz bestenfalls.
Der K10 ist das einzig verfügbare für AMD.Ich sehe die neue Roadmap eher als "Gesundungskurs", weil AMD genau das macht, was sie immer erfolgreich gemacht haben: Bewährte Techniken weiterverwenden. Der K10 ist taufrisch und das Design ist immernoch potent.
Was aber fehlt ist ein nativer Triple-Core mit kompakten L3 (also eDRAM).
AMD wird es vs. Nehalem sehr schwer haben, aber der Penryn wird noch lange direkter Konkurrent im Mainstream sein.
Die hohen IDLE-TDPs der Barcelona-Cores dürften sich bei 45nm reduzieren, aber wird bleiben immer noch oberhalb der K8 / eher 11-13 Watt.
Dies wird sich beim Propus (Quad ohne L3) nicht bessern, aber ein nativer Triple-Core läge wieder deutlich unter 10 Watt. Das ergäbe dann ein rundes Produkt, was 2009/10 noch umsatzträchtig wäre.
Hier sind also Schwächen vorhanden - weder der Barcelona kann Ende 2008 bis Mitte 2009 überzeugen (daher wohl noch den 3,1 GHz K8 G2), noch ist der Propus ohne L3 ein beachtenswertes Produkt. AMD hat es also geschafft den K10 in der miesest möglichen Kombination im wichtigen Mainstream einzuplanen.
Und hier treffen die Designs auf den 3M-Penryn und den 6M-Penryn, wobei sogar der 3M-Penryn in vielen Bereichen davon zieht.
Ähnliche Themen
- Antworten
- 1
- Aufrufe
- 304
- Antworten
- 1
- Aufrufe
- 244
- Antworten
- 1
- Aufrufe
- 512
- Antworten
- 0
- Aufrufe
- 885