News Knights Corner - SOC

Onkel_Dithmeyer

Redaktion
☆☆☆☆☆☆
Mitglied seit
22.04.2008
Beiträge
12.949
Renomée
4.036
Standort
Zlavti
  • BOINC Pentathlon 2011
  • BOINC Pentathlon 2012
  • BOINC Pentathlon 2013
  • BOINC Pentathlon 2014
  • BOINC Pentathlon 2015
  • BOINC Pentathlon 2016
  • BOINC Pentathlon 2017
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2019
  • SETI@Home Intel-Race II
  • BOINC Pentathlon 2020
  • THOR Challenge 2020
  • BOINC Pentathlon 2021
  • BOINC Pentathlon 2022
  • BOINC Pentathlon 2023
<div class="newsfloatleft"><img src="http://www.planet3dnow.de/photoplog/images/6838/1_1_intel_rgb_1700_s2.png" border="0" alt="Intel_Logo"></div>Nicht <b>S</b>ystem <b>o</b>n a <b>C</b>hip sondern <b>S</b>upercomputer <b>o</b>n a <b>C</b>hip - so könnte Intel den neuen Prozessor betiteln, denn um nichts weniger handelt es sich bei dem, was Dr. Rajeeb Hazra (Intels General Manager für Technical Computing) in die Linse hält. Errinnert sich noch jemand an <i>Larrabee</i>? Ein ehrgeiziges Projekt, mit dem Intel in den Grafikmarkt gegen AMD und Nvidia in den Ring steigen wollte. Ende 2009 - Anfang 2010 sollte er kommen, basierend auf x86-Kernen statt Shadern. Diese Kerne, Nachfahren des als Pentium-S bekannten P54C, sollten zu Dutzenden die Aufgaben einer GPU übernehmen. Intel maßte sich gar an, das Ende der Rasterisation einzuläuten, eben der Technik, nach der alle Grafikkarten rechnen. Stattdessen wollte man Raytracing marktfähig machen. Ein großer Vorteil sollte zudem sein, dass man <i>Larrabee </i>neben Grafikaufgaben auch mit x86-Programmcode füttern könnte. Von alledem ist heute nichts zu sehen.<p style="clear:left;">

<center><a href="http://www.planet3dnow.de/photoplog/index.php?n=17548"><img src="http://www.planet3dnow.de/photoplog/file.php?n=17548" border="1" alt="Knights Corner"></a></center>

Intel musste schnell einsehen, dass ihr Ansatz nicht konkurrenzfähig war, zu langsam, zu stromhungrig war der Chip. In Folge dessen strich man das Projekt für den Endkundenmarkt und verteilte an einige Forschungseinrichtungen Testgeräte. Damit sollte die Softwareentwicklung vorangetrieben werden, bis <i>Larrabee 2</i> marktreif ist. Intel sprach davon, dass man mindestens einen ausgereiften 32-nm-Prozess benötige, um ein ausgereiftes Produkt liefern zu können.

Knights Corner kommt nun in 22 nm und soll AMD und NVIDIA im Markt für High Performance Computing Anteile abschlagen. Hier werden in letzter Zeit immer öffter auch GPUs eingesetzt. Warum jetzt Supercomputer on a Chip? Knights Corner basiert wie Larrabee auf Pentium-P54C-Kernen - vermutlich 64 an der Zahl - zu Zeiten als dieser Kern noch als CPU käuflich zu erwerben war, führte die Top500-Liste der Supercomputer ein System namens ASCII Red von Intel an. Er erreichte eine Rechenleistung von 1 Teraflops DP (Double Precision), eben diese Marke hat Knights Corner auch erreicht. Selbstredend handelt es sich dabei nicht mehr um den Pentium S von damals, so wurde hier einiges überarbeitet. Der neue alte P54C-Kern im Knights Corner beherscht vierfach SMT, 512 bit breite Register und mit LNI (Larrabee New Instructions) auch FMA3.

1 Teraflop DP ist verglichen mit Larrabee, der die TFlop-Grenze nur mit Single Precision erreichte, ein gewaltiger Sprung. Damit erreicht das Konzept erstmals konkurrenzfähige Werte, denn zu Zeiten von Larrabee versägte AMDs Radeon HD 5870 mit 2,7 Teraflops SP den Intelspross, mit doppelter Genauigkeit hingegen erreicht AMD mit der Radeon 6970 "nur" 676 Gigaflops. Zudem soll Intels Lösung anders als normale GPUs relativ "unempfindlich" von der Blockgröße arbeiten. Je nach dem wie groß diese ausgelegt ist, rechnen die bisherigen GPUs mal schneller, mal langsamer. Nicht so Knights Corner, was Intel auf der Supercomputer-Konferenz bereits demonstrieren konnte. Bis zur Veröffentlichung des Chips im dritten Quartal kommenden Jahres können AMD und NVIDIA mit ihren neuen Architekturen noch nachlegen, dann wird es interessant.

<b>Quellen:</b><ul><li><a href="http://www.heise.de/open/meldung/Supercomputer-2011-CPU-mit-Many-Integrated-Cores-knackt-1-TFlops-1379625.html" target="b">Heise</a></li><li><a href="http://de.wikipedia.org/wiki/AMD-Radeon-HD-6000-Serie" target="b">Wikipedia - Radeon HD 6000</a></li><li><a href="http://de.wikipedia.org/wiki/Larrabee_(GPU)" target="b">Wikipedia - Larrabee</a></li></ul><b>Links zum Thema:</b><ul><li>Informationen beim Hersteller: <a href="http://www.intel.com/content/www/us/en/architecture-and-technology/many-integrated-core/intel-many-integrated-core-architecture.html" target="b">Intel Many Integrated Core Architecture</a></li><li>News: <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1260255735">Larrabee-Aus treibt NVIDIA- und AMD-Aktie</a></li><li>News: <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1260004047">Intel verwirft Pläne für den Larrabee</a></li><li>News: <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1215259287">Intel Larrabee: wird der nächste Planet 3DNow! Aprilscherz wahr?</a></li><li>Im Forum: <a href="http://www.planet3dnow.de/vbulletin/showthread.php?t=343270">Intel Larrabee: Pentium 1 inside </a></li></ul>
 
Ich frage mich, wieso 1 Teraflop bei DP plötzlich konkurrenzfähig ist, wenn die Konkurrenz auf 676 Teraflops kommt?!?

Edit: Ahhh, du meinst Gigaflops. Dann ergibt das natürlich mehr Sinn. :) Allerdings kommt die HD6990 auch über 1 Teraflop.

Dann dürfte es abhängig von den neuen Chips Anfang kommenden Jahres doch interessant werden. :)
 
Zuletzt bearbeitet:
Da steht doch Gigaflops bei der 6970!?

Die 6990 hat zwei Chips, KC nur einen, deswegen hab ich nur mit der 6970 verglichen ;)
 
Gabs auch Angaben zum Verbrauch? ;D Knights Ferry ist ja ein ziemlicher Energiefresser.
Das Die scheint ja für 22nm riesig zu sein. Krass, dass die sowas jetzt schon raushauen können! Falls der Heatspreader irgendwelche Rückschlüsse zulässt, ist das Ding fast 500mm² groß. Schaut man sich Cayman an, der knapp 380mm² in 40nm ist, dann könnten die 28nm GPUs ne ordentliche Schippe bei der Performance pro Watt drauflegen. Bleibt allerdings abzuwarten, wie hoch die Packdichte da ist.
Mal sehen was GCN bei solchen Benchmarks leistet, sollte ja eigentlich die perfekte Spielwiese sein.
 
Zuletzt bearbeitet:
Gabs auch Angaben zum Verbrauch? ;D Knights Ferry ist ja ein ziemlicher Energiefresser.
Das Die scheint ja für 22nm riesig zu sein. Krass, dass die sowas jetzt schon raushauen können! Falls der Heatspreader irgendwelche Rückschlüsse zulässt, ist das Ding fast 500mm² groß. Schaut man sich Cayman an, der knapp 380mm² in 40nm ist, dann könnten die 28nm GPUs ne ordentliche Schippe bei der Performance pro Watt drauflegen. Bleibt allerdings abzuwarten, wie hoch die Packdichte da ist.
Mal sehen was GCN bei solchen Benchmarks leistet, sollte ja eigentlich die perfekte Spielwiese sein.
Jupp, die 28nm Chips sollten das Teil wieder gut im Griff haben.

Wieso Intel das jetzt raushauen will ist auch klar - um ein paar Wochen Vorsprung zu genießen und Schlagzeilen zu ernten. Nachdem das Teil aber erst in Q3 ausgeliefert wird ... wird sich bis dahin wieder fast keiner mehr dafür interessieren.
Hauptvorteil bei Intel ist der Softwarestack. Was die alles an Know-How haben und in letzter Zeit zugekauft haben (RapidMind) ... sind schon gute Tools.
 
Ich sehe momentan eher den Wettlauf zwischen Intel und Nvidia. Wenn ich derzeit sehe, was bei uns an der Uni derzeit in Server mit Nvidia-Beschleunigern inverstiert wird und damit langfristig auch in die CUDA-Infrastruktur....

AMD ist da aufgrund der fehlenden Softwareunterfütterung (noch?) weinender Dritter und muss zusehen, dass man im Softwarebereich schnell Boden gutmacht. Es wäre gut, wenn sie ein Fusion-HPC-Kit entwerfen und das Entwicklern zur Verfügung stellen würden.
Dass nun auch Altera OpenCL unterstützen will, stimmt aber ja schonmal positiv.

Intel hat die Software und die "Serielle Hardware", aber bisher fehlte ihnen die parallele Hardware. Jetzt mit Knights wirds ja da auch langsam besser.
AMD hat sowohl die serielle als auch die parallele Hardware, aber ihnen fehlt die Software. Da wird hoffentlich ordentlich investiert.
Nvidia hat die parallele Hardware und die Software. Sie entwickeln mit Project Denver jetzt die serielle Ergänzung.
Letztlich arbeiten alle in die gleiche Richtung, nämlich effiziente heterogene Systeme aus eigener Hand zu bauen, die eine breite Softwareunterstützung haben und möglichst leicht effizient zu nutzen sind. Der Slogan "The future is fusion" gilt also mehr denn je, aber nicht nur für AMD.
 
Zuletzt bearbeitet:
Das liegt einzig und allein daran, dass nVidia da richtig Kohle und Manpower investiert und die Bildungseinrichtungen fördert. Ähnlich macht es ja auch MS.
AMD hat dafür einfach zu wenig Ressourcen, macht aber z.B. mit den vorbereiteten OpenCl Kursen für komplette Vorlesungen eigentlich auch nen recht guten Job.
 
Ich sehe momentan eher den Wettlauf zwischen Intel und Nvidia. Wenn ich derzeit sehe, was bei uns an der Uni derzeit in Server mit Nvidia-Beschleunigern inverstiert wird und damit langfristig auch in die CUDA-Infrastruktur....

AMD ist da aufgrund der fehlenden Softwareunterfütterung (noch?) weinender Dritter und muss zusehen, dass man im Softwarebereich schnell Boden gutmacht. Es wäre gut, wenn sie ein Fusion-HPC-Kit entwerfen und das Entwicklern zur Verfügung stellen würden.
Dass nun auch Altera OpenCL unterstützen will, stimmt aber ja schonmal positiv.

Intel hat die Software und die "Serielle Hardware", aber bisher fehlte ihnen die parallele Hardware. Jetzt mit Knights wirds ja da auch langsam besser.
AMD hat sowohl die serielle als auch die parallele Hardware, aber ihnen fehlt die Software. Da wird hoffentlich ordentlich investiert.
Nvidia hat die parallele Hardware und die Software. Sie entwickeln mit Project Denver jetzt die serielle Ergänzung.
Letztlich arbeiten alle in die gleiche Richtung, nämlich effiziente heterogene Systeme aus eigener Hand zu bauen, die eine breite Softwareunterstützung haben und möglichst leicht effizient zu nutzen sind. Der Slogan "The future is fusion" gilt also mehr denn je, aber nicht nur für AMD.

Diesen Wettlauf hat AMD bereits auf absehbare Zeit verloren! Mit abshebar meine ich einen Zeitraum von zwei Jahren ab heute.
Auch wenn AMD mit der neuen Chipgeneration eine ähnliche Architektur wie nVidia landen sollte, wird es eine Weile dauern, bis für die entsprechenden Betriebssysteme Treiber und APIs bereitgestellt werden können. Wir setzen derzeit einige nVidia TESLA Karten für Modellierungen und Bildausgleichsrechnungen ein, die neueste Anschaffung war nun eine C2075 von nVidia. Unter diversen LinSuxen kann man mit dem entsprechenden Treiber und den OpenCL Bibliotheken wunderbar arbeiten.Und die für uns so wichtige DP Leistung der nVidia Chips der neuesten Generation ist selbst auf den kastrierten Konsumgraphikkarten enorm.

Ich persönlich hätte auch mit AMD arbeiten können. Allerdings hat das Unternehmen mich einmal verarscht - ein weiteres mal passiert es nicht. Selbst schuld. Vor knapp zwei Jahren habe ich bezüglich GPGPU-Fähigkeiten der HD4800 Serie angefragt. Jaja, sei kein Problem, man arbeite an Lösungen auch für Linux im Bereich OpenCL, hieß es. Auch die Opensourcetreiber seien bald für diverse Plattformen für OpenCL parat. US amerikanische Kollegen schrieben mir auf Anfragen, daß sie das nicht glauben könnten, denn AMD hätte bereits in den USA gewisse Restriktionen bezüglich der Offenlegung von Chipspezifika eingeleitet - Insider kennen diese Geschichte. Nun ja, OpenCL hin oder her, der "Support" seitens AMD ist einfach zum K... oder lächerlich. nVidia überrollt einen schlichtweg, wenn man um wissenschaftliche Unterstützung nachfragt, selbst als einfacher wiss. Mitarbeiter hat man stets kompetente Leute an der Strippe. Und ehrlich gesagt empfinde ich die 2500 Euro für eine Tesla C/M2050/70 gar nicht so teuer. Es ist ein professionelles Produkt mit großem Potential.

Auch wenn AMD eine ähnlich potente Hardware hat, das Unternehmen verschläft wieder einmal die Entwicklung. CHr. Bergström von Pathscale schrieb mir Anfang des Jahres, daß es selbst für die *BSD UNIXe Ambitionen gäbe, die von CAPS entwickelte und von Pathscale eingesetzte HMPP-Technik mit nVidia Hardware nutzbar zu machen. Jetzt lese ich, daß Cray und PGI im Rahmen des OpemMP-Konsortiums mit OpenAAC einen neuen Standrd zu etablieren versuchen, der Hand in Hand mit OpenMP gehen soll. Auch dieser Schritt ist bereits rudimentär lauffähig, allerdings nur auf nVidia Hardware und es wird gesagt, daß die Unterstützung für die Intel MIC schon in den Startlöchern stünde. Ich bin gespannt, ob nicht Intel wieder den grösten Sprung nach vorne macht und die Kernel-Treiber für deren HD-IGP in Sandy- oder Ivy Bridge offen legt und damit ein freies OpenCL API ermöglicht.

Für mich privat ist AMD ebenfalls gestorben. Unter FreeBSD hat es der Entwickler, der die Beitrage zu den Xorg Treibern liefert, nicht geschafft bzw. schaffen können, auch für die angeblich unterstützten HD4830/50/70 Graphikkarten einen stabilen Treiber abzuliefern. Auf großen Schirmen (2560x1600) bleiben Bildreste auf allen Systemen und Sitzungen können ohne Absturz des Treibers nicht beendet werden. Mit nVidias 64bit Treibern kein Problem. Selbst CUDA kann man mit 32bit Umgebung betreiben.
 
@Drohne

Ich kann deinen Frust verstehen ... ABER seit geraumer Zeit investiert AMD auch in Manpower, damit Entwickler auch was von den ATI Fire Produkten etwas haben.

Nicht immer sieht man solche Zusammenarbeit, aber bei Herstellerlösungen (Dell, HP, Fujitsu [...]) tut sich was. Ich sage dieses, weil ich vor kurzem auf Fujitsus Hausmesse in München war und so auch mit Fujitsu- und AMD-Personal in Gespräch kam.

Und man darf ruhig erwähnen, dass die ATI-Fire Produkte im Profisegment circa 18 Prozent vom Marktanteil ergattern konnten - das war vor 2 Jahren noch deutlich unterbelichtet mit der ATI-Stellung im GPU-Markt.

Was ich damit sagen will ... verlieren sieht deutlich anders aus 8)

MFG Bobo(2011)
 
Und man darf ruhig erwähnen, dass die ATI-Fire Produkte im Profisegment circa 18 Prozent vom Marktanteil ergattern konnten - das war vor 2 Jahren noch deutlich unterbelichtet mit der ATI-Stellung im GPU-Markt.

Was ich damit sagen will ... verlieren sieht deutlich anders aus 8)

MFG Bobo(2011)


Von der Technikseite haben die AMD Karten aber gerade im Bereich GPGPU noch einiges aufzuholen. Evergreen ist der erste AMD Chip mit VirtualMemory Implementierung, welche allerdings immer noch nicht perfekt funktioniert, das konnte NV schon mit der GF8 besser. Cayman hat als erster AMD Chip endlich endlich mehrere GPU-Kontexte, wobei die Synchronisation zwischen diesen noch nicht richtig funktioniert. Das konnte NV schon bei der GF2 und hat das Konzept seit dem konsequent ausgebaut.

Beide Hersteller haben noch viel zu lernen, was es heißt mit einem Betriebssystem wirklich zusammen zu arbeiten. Bisher betrachten beide ihre Treiber als kleine Königreiche, in denen sie machen können was/wie sie wollen - gerade in dem Bereich hat Intel einen enormen Erfahrungsvorsprung.
 
Zurück
Oben Unten