AMD kleckert nicht, sondern klotzt :o

S.I.

Moderator
☆☆☆☆☆☆
Teammitglied
Mitglied seit
18.11.2008
Beiträge
11.406
Renomée
724
Standort
8685x <><
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
  • Docking@Home
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2022
6 Kerne Istanbul, 12 Kerne, ja, wurde auch schon spekuliert...
nun mit bis zu 16 Kernen.....
http://www.hardwareluxx.de/index.ph...n/11914-amd-kleckert-nicht-sondern-klotz.html
Im Rahmen der Feierlichkeiten zum sechsjährigen Geburtstag des Opterons kleckerte AMD nicht, sondern klotzte. Nicht nur gab man bekannt, dass der Istanbul seinem Zeitplan voraus sei, sondern zeigte auch erstmals ein lauffähiges Sample des 12-Kern-Prozessors namens Magny-Cours. Letztgenannter soll nach aktuellem Stand im ersten Quartal 2010 auf den Markt kommen. Möglich wird diese quasi exponentielle Zunahme der Kerne durch eine Technik namens Die-Bonding, wobei zwei Istanbul-Kerne auf ein Substrat gebannt werden.
Damit nicht genug, warf AMD zudem noch einen Blick auf die nähere Zukunft und erklärte, dass man 2011 sowohl den Umstieg auf den 32-nm-Prozess sowie die Bulldozer-Architektur wagen wolle. An technischen Neuerungen soll der Architekturwechsel nicht nur eine Art „Hyperthreading“, sondern auch neue SSE-Befehle namens Advanced Vector Extensions bringen. Paten für diese Entwicklung sind zum einen die Maranello-Plattform als auch der Interlagos-Prozessor, der mit 12 bis 16 Kernen ins Rennen gehen soll.
http://www.hardwareluxx.de/images/stories/newsbilder/dwenzel/magnycours_sample2.jpg
AMD scheint also keineswegs zu schlafen oder sich zurückzulehnen, wie es scheint und mancher schon befürchtet hatte :)
magnycours_sample2.jpg
 
Das gehört in Spekulatius. Bis Bulldozer dauert es noch eine ganze Weile.
Bei dem Magny Cours dachte ich bisher, das die einfach ein Istanbul * 2 wäre. Das scheint mir jedoch falsch zu sein, wenn ich die Roadmap anschaue. Demnach wäre das eher ein "Lisbon". Die Frage die sich dann stellt ist, was sich von Istanbul zu Lisbon verändert hat?
btw. auch vom K10 gab es recht früh funktionstüchtige Samples die angeblich sogar ohne größere Probleme bis 3GHz taktbar waren... ;)
 
Wenn ich mir den Artikel von heise durchlese, dann hört sich das alles andere als nach Ausführungen von AMD bezüglich näheren Bulldozer an. Sie schreiben "soweit man weiß", aber was weiß man von einer unveröffentlichten CPU schon groß, deren "Geburt" noch über 1 Jahr auf sich warten lassen wird mit Bestimmtheit? ;) hwluxx hat hier lediglich die Meldung von heise verwurstet (wobei heise in letzter Zeit zu meinem Argwohn auch ganz gerne Gerüchte streuen). Das ist dann wie stille Post. Einer sagt etwas und am Ende kommt was anderes heraus... Das ist das Dumme an Zweit-,Dritt- usw. Lektüre.
 
ne, das dumme an le(c)ktüre ist, dass die Türen heutzutage einfach nicht mehr lecker sind... *lol*
positiv denken!
Immerhin, wenn es morgen Gummistiefel regnet, fällt Intel vielleicht in einen tiefen Dornröschenschlaf (wo kriegt man nur ne böse Fee her, wenn man mal eine braucht!? )
Und verpennt die Neuentwicklungen und Bulldozer walzt die intelchips des jahres dann platt! ;)
Allerdings ist Core-O-Manie auch nicht der Weisheit letzter schluß.
Zusammengeklebte Istanbuls... okay... aber dadurch wird die IPC und TDP noch nicht unbedingt besser...!?
 
ne, das dumme an le(c)ktüre ist, dass die Türen heutzutage einfach nicht mehr lecker sind... *lol*
positiv denken!
Immerhin, wenn es morgen Gummistiefel regnet, fällt Intel vielleicht in einen tiefen Dornröschenschlaf (wo kriegt man nur ne böse Fee her, wenn man mal eine braucht!? )
Und verpennt die Neuentwicklungen und Bulldozer walzt die intelchips des jahres dann platt! ;)
Allerdings ist Core-O-Manie auch nicht der Weisheit letzter schluß.
Zusammengeklebte Istanbuls... okay... aber dadurch wird die IPC und TDP noch nicht unbedingt besser...!?



SOllte Intel in einen Dornröschenschlaf fallen dann kannst dich freuen. Dann wird AMD nämlich bestimmt schnell mit ihrer Version vom P4 aufwarten. :-[
 
Schlafen wird da niemand, so lange wie Intel mal geschlafen hatte, sowas wird nicht wieder passieren.

Paralell zu den vielen Core-CPUs wird es auch langsam mal Zeit das es Anwendungen gibt die das auch brauchen.

Wer sollte sonst nen Octa-Core brauchen ausser ein paar Film und Grafiker?

Ok ich hab damals ( 2001 ) auch gesagt als ich vom Athlon XP 1800 auf den 3200+ umgestiegen bin der reicht 10 Jahre ;).

Es gibt ja aktuell im privaten Desktop-Bereich nichts was einen i7 965 rechtfertigt ausser Enthusiasmus.

Und bis die Spiele mal soweit sind.........
 
Wer sollte sonst nen Octa-Core brauchen ausser ein paar Film und Grafiker?

Ok ich hab damals ( 2001 ) auch gesagt als ich vom Athlon XP 1800 auf den 3200+ umgestiegen bin der reicht 10 Jahre ;).

Und bis die Spiele mal soweit sind.........

Zocker, Medizinrechner, Großrechner,... .
Der Bedarf besteht.

Mir hat der XP nicht lange gereicht. Die zahlreichen Ausfälle waren zudem eine starke Belastung im Service Bereich.

Derzeitige Spiele benutzen die Cores ohne Probleme. Man sollte sich eben, wenn, auch das passende Betriebssystem drauf machen. Wer mit XP noch versucht irgendwas zu reißen ist eh schon zu scheitern verurteilt.
Bsp. Left4Dead, Masseffect, COD4/5, Fear, Farcry ... benutzen alle ohne Probleme mehrere Kerne.
Left4Dead auch sehr effektiv, klar Half-life Engine.
 
Zocker, Medizinrechner, Großrechner,... .
Der Bedarf besteht.

Mir hat der XP nicht lange gereicht. Die zahlreichen Ausfälle waren zudem eine starke Belastung im Service Bereich.

Derzeitige Spiele benutzen die Cores ohne Probleme. Man sollte sich eben, wenn, auch das passende Betriebssystem drauf machen. Wer mit XP noch versucht irgendwas zu reißen ist eh schon zu scheitern verurteilt.
Bsp. Left4Dead, Masseffect, COD4/5, Fear, Farcry ... benutzen alle ohne Probleme mehrere Kerne.
Left4Dead auch sehr effektiv, klar Half-life Engine.


Hi,
nun ich zocke all diese Spiele ausser COD, dazu noch Dead Space, aber auf nem X2 5000+ BE @3200 Mhz.

Beisher hab ich nen 4 Kerner nicht vermisst, aber selbst wenn, so bedeutet das nicht das diese Spiele und zukünftige die 6-8-24 Kerne voll auslasten können.

Bis heute hat noch kein Spiel die maximal kaufbare Performance ausgeretzt.

Warum sollten diese Spiele die noch kommen in wenigen Monaten einen Quantensprung machen und Octacore CPUS als Systemanforderungen haben?

Ich denke da wird viel mit Zahlen geworben die kein Mensch braucht, noch lange nicht!
 
Allerdings ist Core-O-Manie auch nicht der Weisheit letzter schluß.
Zusammengeklebte Istanbuls... okay... aber dadurch wird die IPC und TDP noch nicht unbedingt besser...!?
Wer sollte sonst nen Octa-Core brauchen ausser ein paar Film und Grafiker?
Hallo? Es geht hier um SERVER bzw WORKSTATION CPUs. Da ist jeder Kern zu gebrauchen. IPC zählt dort auch schon lange nicht mehr. Und selbst wenn die TDP lediglich linear skaliert, man kann damit trotzdem effizienter arbeiten. Letztendlich sind nämlich die gesamten Systeme ausschlaggebend. ZB zwei Systeme mit jeweils einem 4-Kern Prozessoren brauchen insgesamt mehr Leistung als ein System mit einem 8-Kern Prozessor.

@topic
An technischen Neuerungen soll der Architekturwechsel nicht nur eine Art „Hyperthreading“, sondern auch neue SSE-Befehle namens Advanced Vector Extensions bringen.
Ist das ein Schreibfehler, lediglich AMDs Bezeichnung für SSE5 oder bringen sie mit Bulldozer tatsächlich schon AVX?
 
@topic

Ist das ein Schreibfehler, lediglich AMDs Bezeichnung für SSE5 oder bringen sie mit Bulldozer tatsächlich schon AVX?

heise schrieb:
Außerdem soll Bulldozer Intels neue Advanced Vector Extension unterstützen (SSE mit 256 Bit Breite), wobei man sich noch mit Intel über das nächste Patentaustauschabkommen einigen muss


Sandy Bridge soll ja auch 2011 rauskommen mit dieser Erweiterung.Also gut möglich das AMD sich schon mit Intel geeinigt hat. Wäre natürlich klasse. Denke 2011 wird ein interessantes Jahr.

mfg
 
Fände ich auch gut, wenn man sich wieder auf einen gemeinsamen Nenner einigen würde. Dieser ganze SSE4a/SSE4.1/SSE4.2 Hick Hack hilft nun wirklich keinem weiter. Eine 256 Bit FP Pipeline ist natürlich auch lecker. DP Gaming kann kommen. :D
 
öhm... hängt das DP-Gaming denn von 256Bit Vektor-extensions ab?
Da muss doch die Graka die hauptarbeit machen, und die wird auch nicht breiter / schneller wenn der Prozessor nun AVX kann...
Abgesehen davon ist die Situation mit SSE heute immerhin schon merklich beser als zu pentium2/3 - Zeiten, als AMD nur 3DNow und intel nur SSE konnten, da gabs gar keinen gemeinsamen nenner...
Daher ist im Moment SSE2/3 als gemeinsame Basis gar nicht mal soooo schlecht...
 
Das aktuelle Produktportofolio (Opteron) hat einen guten Sprung nach vorne, sowie in die richtige Richtung getan.

Bleibt nur zu hoffen, dass die neuen Opterons bez. deren tatsaechliche Verfuegbarkeit den gleichen Sprung nach vorne machen.
Bislang sah es fuer viele an sich interessante Modelle (bes. viele HE-Versionen) ja verdammt mager aus :(
 
öhm... hängt das DP-Gaming denn von 256Bit Vektor-extensions ab?
Direkt natürlich nicht. Man kann zur Not ja immer noch x87 nutzen. :D Spiele arbeiten idR bezüglich räumlichen Ausdehnungen aber mit 3- bzw 4-fach Vektoren. Und da reicht ein SSE Register nun mal nur für SP (32 Bit) aus. Man müsste für DP also immer mit zwei Registern bzw Instruktionen arbeiten. Mit AVX wäre wiederum nur ein Register notwendig. Damit aber nicht genug. Man könnte hier letztendlich auch 2 SP Vektoren in einem Register unterbringen.

Da muss doch die Graka die hauptarbeit machen, und die wird auch nicht breiter / schneller wenn der Prozessor nun AVX kann...
Für die Transformationen ist immer noch der Prozessor zuständig, speziell was Modell, Kamera und Welt betrifft. Die Grafikkarte kommt erst dann zum Tragen, wenn es um die 2D Projektion geht, also die Pixel berechnet werden müssen.
 
Interessant... ich war immer der Meinung dass Transform & Lighting (abgekürzt T&L) schon seit DX7 in HW (graka) beherrscht wird... aber ich hab ehrlich gesagt auch nicht den großen Durchblick im Gaming/Rendering, da ich seit jahren kaum noch zum zocken komme.
Trotzdem interessekt.
Dennoch könnte man AFAIK ja trotzdem schon jetzt DP-Gaming machen, bräuchte halt immer 2 SSE-Register auf einmal. ;)

grüßle
michse
 
Interessant... ich war immer der Meinung dass Transform & Lighting (abgekürzt T&L) schon seit DX7 in HW (graka) beherrscht wird... aber ich hab ehrlich gesagt auch nicht den großen Durchblick im Gaming/Rendering, da ich seit jahren kaum noch zum zocken komme.
Trotzdem interessekt.
Dennoch könnte man AFAIK ja trotzdem schon jetzt DP-Gaming machen, bräuchte halt immer 2 SSE-Register auf einmal. ;)

grüßle
michse
und damit hast du absolut recht. die cpu muss das schon lange nich mehr durchkauen.
 
ich war immer der Meinung dass Transform & Lighting (abgekürzt T&L) schon seit DX7 in HW (graka) beherrscht wird...
Ja. Aber davon habe ich auch nicht gesprochen. Das kommt, wie ich schon sagte, erst bei der 2D Projektion zum tragen, wenn Vertices bzw Pixel berechnet werden müssen.
Ein Modell zu drehen, zu verschieben, die Kamera auszurichten, etc erfolgt immer noch über Vektor- bzw Matrix Transformationen, welche die CPU übernimmt.
 
Zuletzt bearbeitet:
Oh...okay, wusst ich nicht...
Ich dachte matrix-Rechnungen können GPUs viel besser als CPUs
 
Ja. Aber davon habe ich auch nicht gesprochen. Das kommt, wie ich schon sagte, erst bei der 2D Projektion zum tragen, wenn Vertices bzw Pixel berechnet werden müssen.
Ein Modell zu drehen, zu verschieben, die Kamera auszurichten, etc erfolgt immer noch über Vektor- bzw Matrix Transformationen, welche die CPU übernimmt.
Nope. Die 3D-Transformation kann wirklich seit DX7 auf der GPU gemacht werden (inzwischen von den Shader-Einheiten).
Und was Vertex-Daten in doppelter Genauigkeit jetzt groß für Vorteile bringen sollen, muß mir auch erst mal jemand erklären. Riesige Außenareale etwas einfacher zu erstellen?
 
Nope. Die 3D-Transformation kann wirklich seit DX7 auf der GPU gemacht werden (inzwischen von den Shader-Einheiten).
Nochmal, es ging nicht um Vertices. Bitte kein Halbwissen verbreiten. Wer nicht schon mal eine OpenGL oder DirectX Graphics Anwendung programmiert hat, bitte die Füsse still halten.
 
Für die Transformationen ist immer noch der Prozessor zuständig, speziell was Modell, Kamera und Welt betrifft. Die Grafikkarte kommt erst dann zum Tragen, wenn es um die 2D Projektion geht, also die Pixel berechnet werden müssen.
Nochmal, es ging nicht um Vertices. Bitte kein Halbwissen verbreiten. Wer nicht schon mal eine OpenGL oder DirectX Graphics Anwendung programmiert hat, bitte die Füsse still halten.
Aha, also die 3D-Modelle bestehen etwa nicht aus Vertices? Das wäre ja mal wirklich was Neues (zumindest wenn es keine Voxel-Engine ist :]).

Und soll ich jetzt hier wirklich das Direct3D-Manual zitieren um Dir zu zeigen, daß die Transformation von Modell-Koordinaten zu Welt-Koordinaten (verschieben, drehen, skalieren) und die Kameratransformation auch über DirectX-Aufrufe ausgeführt werden? Und wenn DirectX das nicht an die GPU weiter reicht, dann vielleicht nur, weil man irgendein Uralt-Teil hat, was das nicht kann.

Ich kann Dir sogar sagen, daß der in DirectX11 geforderte (und teilweise schon heute auf ATIs vorhandene) Hardware-Tesselator sogar noch vor der Modell -> Welt-Koordinaten Trafo ansetzt. Der arbeitet also mit Vertex-Koordinaten im Modell-Raum.

So, und jetzt belehre mich eines Besseren. Versuche doch mal zu erklären, wie Displacement-Mapping in Hardware funktioniert, wenn doch die CPU die Welt- und Kamera-Trafo macht (die erst später in der Grafikpipeline kommen) ;)
 
Zuletzt bearbeitet:
Und soll ich jetzt hier wirklich das Direct3D-Manual zitieren um Dir zu zeigen, daß die Transformation von Modell-Koordinaten zu Welt-Koordinaten (verschieben, drehen, skalieren) und die Kameratransformation auch über DirectX-Aufrufe ausgeführt werden?
Ja, mach das bitte. Dann wirst du nämlich merken, dass diese Aufrufe der D3DX High Level Bibliothek entspringen, welche letztendlich auf der CPU landen. Das hat mit der GPU noch gar nichts zu tun. Wobei sich das natürlich mit DX11 aufgrund der Compute Shader ändern könnte.

Versuche doch mal zu erklären, wie Displacement-Mapping in Hardware funktioniert, wenn doch die CPU die Welt- und Kamera-Trafo macht (die erst später in der Grafikpipeline kommen) ;)
Was bitteschön hat Displace Mapping oder überhaupt ein Mapping mit dem Thema zu tun? Nochmal, es ging um Welt, Modell und Kamera Transformationen. Mapping hingegen setzt direkt auf dem Polygon an, liegt also eine Ebene darunter.
Vielleicht kommst du ja mit dem Begriff nicht klar. Damit ist Translation, Rotation und Skalierung.gemeint. Es geht hier nicht um die Manipulation von einzelnen Vertices.
Du solltest ausserdem unterscheiden, in welcher Reihenfolge die Pipeline arbeitet und wie sie gefüttert wird.

Ich sehe schon, hier ist wieder jede Menge Halbwissen vorhanden. Und dann noch mit einem solch aggressiven und besserwisserischen Tonfall. :]
 
Zurück
Oben Unten