App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Warum ist Nvidias Performance/Watt besser ?
- Ersteller Night<eye>
- Erstellt am
Mente
Grand Admiral Special
- Mitglied seit
- 23.05.2009
- Beiträge
- 3.671
- Renomée
- 135
- Aktuelle Projekte
- constalation astroids yoyo
- Lieblingsprojekt
- yoyo doking
- Meine Systeme
- Ryzen 3950x
- BOINC-Statistiken
- Prozessor
- AMD 5800X3D
- Mainboard
- Asus ROG Crosshair VIII Dark Hero
- Kühlung
- Headkiller IV
- Speicher
- 3800CL14 G.Skill Trident Z silber/rot DIMM Kit 32GB, DDR4-3600, CL15-15-15-35 (F4-3600C15D-16GTZ)
- Grafikprozessor
- AMD Radeon RX 6900 XT Ref. @Alphacool
- Display
- MSI Optix MAG27CQ
- SSD
- SN8502TB,MX5001TB,Vector150 480gb,Vector 180 256gb,Sandisk extreme 240gb,RD400 512gb
- HDD
- n/a
- Optisches Laufwerk
- n/a
- Soundkarte
- Soundblaster X4
- Gehäuse
- Phanteks Enthoo Pro 2 Tempered Glass
- Netzteil
- Seasonic Prime GX-850 850W
- Tastatur
- Logitech G19
- Maus
- Logitech G703
- Betriebssystem
- Win 10 pro
- Webbrowser
- IE 11 Mozilla Opera
- Verschiedenes
- Logitech PRO RENNLENKRAD DD
@Night<eye>
em schau mal bei Tom genau hin das ist keine 270X sondern eine non x die sie da testen, somit wären die Ergebnisse realistisch.
lg
em schau mal bei Tom genau hin das ist keine 270X sondern eine non x die sie da testen, somit wären die Ergebnisse realistisch.
lg
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Mit der Fury sollte sich nun auch das Thema erledigt haben, dass Nvidia besser bei Performance/Watt ist.
Fury X: Idle 5W, Gaming 220W
GTX 980 Ti: Idle 10W, Gaming 233W
--- Update ---
Einige Luxmark Werte.
Etwa vergleichbare Leistungsaufnahme der Fury X zur GTX 980 Ti, aber über 80% schneller. Wollen wir jetzt einen Thread aufmachen, warum AMDs Performance pro Watt so viel besser ist?
Fury X: Idle 5W, Gaming 220W
GTX 980 Ti: Idle 10W, Gaming 233W
--- Update ---
Einige Luxmark Werte.
Etwa vergleichbare Leistungsaufnahme der Fury X zur GTX 980 Ti, aber über 80% schneller. Wollen wir jetzt einen Thread aufmachen, warum AMDs Performance pro Watt so viel besser ist?
AMD hat bei der GCN Architektur immer noch nichts verbessern können, klare Absage!
Nvidia konnte beim gleichem Prozess (Kepler>Maxwell) die Effizienz um 50% steigern.
Bei GCN hat sich seit der Ersten Version in der Architektur kaum was getan,
man hat lediglich bei Hawaii das Frontend aufgebohrt, die GPU Shader von Fiji sind nicht schneller als Hawaii geworden.
Nvidia hat die Anzahl der ALUs von 192 auf 128 reduziert !
Wann sehen wir bei AMD ein Cluster mit weniger Shader und mehr Performance?
64 Shader pro CU von Fiji sind nicht schneller als 64 Shader pro CU als Hawaii !
AMD braucht eine besseres Design mit einer CU die 50% mehr Power hat, unabhängig vom Prozess !
Früher hatte AMD deutlich kleinere DIEs und war trotzdem gut.
Heute hat Nvidia bei Effizienz & Design deutlich die Nase vorn!
Nvidia konnte beim gleichem Prozess (Kepler>Maxwell) die Effizienz um 50% steigern.
Bei GCN hat sich seit der Ersten Version in der Architektur kaum was getan,
man hat lediglich bei Hawaii das Frontend aufgebohrt, die GPU Shader von Fiji sind nicht schneller als Hawaii geworden.
Nvidia hat die Anzahl der ALUs von 192 auf 128 reduziert !
Wann sehen wir bei AMD ein Cluster mit weniger Shader und mehr Performance?
64 Shader pro CU von Fiji sind nicht schneller als 64 Shader pro CU als Hawaii !
AMD braucht eine besseres Design mit einer CU die 50% mehr Power hat, unabhängig vom Prozess !
Früher hatte AMD deutlich kleinere DIEs und war trotzdem gut.
Heute hat Nvidia bei Effizienz & Design deutlich die Nase vorn!
Zuletzt bearbeitet:
Solche Vergleiche sind einfach quatsch und das wurde hier alles schon diskutiert.
Dein abschließender Satz ist ein beispielloses Stück argumentationsloser Polemik.
AMD hat schon 64 Shader pro Cluster....Sollen die auf 32 gehen, weil Nvidia von 192 auf 128 ist? Daran sieht man doch, wie unsinnig das als Argument ist.
GCN ist eine langfristige Investition, was dank der Konsolen auch Sinn macht.
AMD hat momentan besseres zu tun, als noch schnell eine neue GPU-Architektur in 28nm auf den Markt zu schmeißen.
Die Entwicklung und der Test von HBM ist z.B. langfristig für uns alle gut, sogar für Nvidia.
Und Fiji zeigt, dass AMD mit GCN auch zu Maxwell konkurrenzfähig ist. Mit der Fury Nano dürfte Nvidia sogar alt aussehen, was die Effizienz angeht (Aber das bleibt Spekulation bis das Ding draußen ist und getestet wurde).
In 14nm gibts dann auch von AMD neue Kern-IP, wobei ich davon ausgehe, dass auch diese essentiell auf GCN aufbauen und die Features übernehmen wird.
Dein abschließender Satz ist ein beispielloses Stück argumentationsloser Polemik.
AMD hat schon 64 Shader pro Cluster....Sollen die auf 32 gehen, weil Nvidia von 192 auf 128 ist? Daran sieht man doch, wie unsinnig das als Argument ist.
GCN ist eine langfristige Investition, was dank der Konsolen auch Sinn macht.
AMD hat momentan besseres zu tun, als noch schnell eine neue GPU-Architektur in 28nm auf den Markt zu schmeißen.
Die Entwicklung und der Test von HBM ist z.B. langfristig für uns alle gut, sogar für Nvidia.
Und Fiji zeigt, dass AMD mit GCN auch zu Maxwell konkurrenzfähig ist. Mit der Fury Nano dürfte Nvidia sogar alt aussehen, was die Effizienz angeht (Aber das bleibt Spekulation bis das Ding draußen ist und getestet wurde).
In 14nm gibts dann auch von AMD neue Kern-IP, wobei ich davon ausgehe, dass auch diese essentiell auf GCN aufbauen und die Features übernehmen wird.
Zuletzt bearbeitet:
bschicht86
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 14.12.2006
- Beiträge
- 4.249
- Renomée
- 228
- BOINC-Statistiken
- Prozessor
- 2950X
- Mainboard
- X399 Taichi
- Kühlung
- Heatkiller IV Pure Chopper
- Speicher
- 64GB 3466 CL16
- Grafikprozessor
- 2x Vega 64 @Heatkiller
- Display
- Asus VG248QE
- SSD
- PM981, SM951, ein paar MX500 (~5,3TB)
- HDD
- -
- Optisches Laufwerk
- 1x BH16NS55 mit UHD-BD-Mod
- Soundkarte
- Audigy X-Fi Titanium Fatal1ty Pro
- Gehäuse
- Chieftec
- Netzteil
- Antec HCP-850 Platinum
- Betriebssystem
- Win7 x64, Win10 x64
- Webbrowser
- Firefox
- Verschiedenes
- LS120 mit umgebastelten USB -> IDE (Format wie die gängigen SATA -> IDE)
AMD hat bei der GCN Architektur immer noch nichts verbessern können, klare Absage!
Nvidia konnte beim gleichem Prozess (Kepler>Maxwell) die Effizienz um 50% steigern.
Irgendwie widerspricht sich das.
nVidia hat eine komplett neue Architektur aufgelegt, während AMD aus der bestehenden beachtliches herausgeholt hat. Das sind immerhin 2 Paar Schuhe. Würde nVidia Kepler als Grundlage genommen haben, sähe die Effizienz wohl auch "kaum" besser als Kepler selbst aus.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Willst du nun damit sagen, dass Nvidia es 4 Jahre lang nicht geschafft hat die "veraltete" GCN-Architektur zu schlagen mit ihrer Architektur? Wenn Kepler->Maxwell 50% Effizienzsteigerung gebracht hat und GCN nun mit Maxwell gleich effizient ist - oder wie von gruffi gezeigt in Luxmark 80% effizienter als Maxwell 2.0!AMD hat bei der GCN Architektur immer noch nichts verbessern können, klare Absage!
Nvidia konnte beim gleichem Prozess (Kepler>Maxwell) die Effizienz um 50% steigern.
Bei GCN hat sich seit der Ersten Version in der Architektur kaum was getan,
man hat lediglich bei Hawaii das Frontend aufgebohrt, die GPU Shader von Fiji sind nicht schneller als Hawaii geworden.
Welcher Käufer hat deiner Meinung nach vor 4 Jahren das bessere Geschäft gemacht?
Wer noch Highend kauft ohne HBM ist selber Schuld und wird sich in 4 Jahren erneut wundern warum Nvidia all 6 Monate Effizienzsprünge macht von 50% und dann trotzdem noch von AMD bei Effizienz im Regen stehen gelassen wird wenn es um richtige Workloads geht, welche die gesamte GPU beanspruchen.
Unbekannter Krieger
Grand Admiral Special
- Mitglied seit
- 04.10.2013
- Beiträge
- 4.455
- Renomée
- 66
- Mein Laptop
- HP 15-bq102ng (sackteuer u. ab Werk instabil)
- Prozessor
- FX-8320E@4,2 GHz & 2,6 GHz Northbridge (jeweils mit UV)
- Mainboard
- Asus M5A99X Evo R2.0 (eher enttäuschend ggü. ASRock E3)
- Kühlung
- Raijintek Nemesis (Lüfter mittig im sowie hinter dem Kühler; erstklassig)
- Speicher
- 4x4 GiB Hynix DDR3-1866 ECC
- Grafikprozessor
- XFX RX 570 8G (P8DFD6)@1180 & 2150 MHz@starkem, fortdauerndem UV | ASRock RX 570 8G@das Gleiche
- Display
- BenQ XL2411T ~ nach 3 RMAs und 6 Monaten wieder brauchbar
- SSD
- Crucial MX100 256 GB (ein Glückskauf) | SanDisk Ultra Plus 256 GB (ein Glückskauf)
- HDD
- WD20EZRZ u. a. (Seagate, Hitachi, WD)
- Optisches Laufwerk
- TSST SH-222AL
- Gehäuse
- Corsair Carbide 300R (ein Fehlkauf)
- Netzteil
- CoolerMaster V450S (ein Glückskauf)
- Betriebssystem
- Win8.x x64, Win7 x64
- Webbrowser
- welche mit minimalem Marktanteil & sinnvollen Konzepten (nicht Chrome-Seuche und Sieche-Fuchs)
- Verschiedenes
- frühere GPUs: , Asus RX 480 O8G@580 O8G, VTX3D 7850 1G
Klar. Unter anderem durch eine aberwitzige Anzahl von Spannungswechseln, die Netzteile und z.T. Mainboards an den Rand ihrer Möglichkeiten bringt, sowie weiteres Reduzieren der DP-Leistung (das hat AMD nun auch getan und schon ist AMDs Effizienz je nach Situation höher oder etwas niedriger).Nvidia konnte beim gleichem Prozess (Kepler>Maxwell) die Effizienz um 50% steigern.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
AMD hat ja die DP Leistung im Vergleich zu Tonga nicht verändert. Immer noch doppelt so hohe Ratio wie Maxwell 2.0. Die Tatsache, dass Nvidia erst mit Pascal wieder GPUs mit zusätzlicher DP-Leistung für das Profisegment bringen wird, lässt Hawaii hier noch lange dominieren mit 1:2 DP Leistung. HBM wird wohl Aufgrund des deutlich höheren RAM Bedarfs erst in der nächsten Ausbaustufe für das Profisegment relevant. Und bis Pascal kommt ist AMD ebenfalls mit einem Shrink am Start - eher sogar noch vor Nvidia wenn man sich die Entwicklung 14nm vs. 16nm anschaut derzeit und AMDs Vorsprung bei Interposer, HBM und der Adaptierung von neuen Fertigungen an die eigene Architektur anschaut. Ich wüsste nicht wann AMD mal 4 Respins gebraucht hätte wie Nvidia beim Maxwell um ein Produkt zu launchen.
Hinzu kommt, dass bisher nichts gutes von den 16nm FF von TSMC zu lesen war im Gegensatz zu den 14nm von Samsung, die schon verfügbare Produkte vorweisen können. Auch wird man sehen müssen wie viel Zeit Nvidia mit der Entwicklung auf HMC vergeudet hatte bevor sie auf HBM geschwenkt sind und ob sie es diesmal hin bekommen Unified Memory zu integrieren.
Sollte Nvidia wirklich bei allen Bereichen aufholen wollen wird das ein enormer Sprung, wie er zuvor noch nicht zu sehen war.
- Deutlich erhöhte DP
- Unified Memory
- Neuer Prozess (einziger bekannter Anwender der 16nm FF bisher)
- Neue Architektur
- VESA Adaptive Sync (ich denke es führt kein Weg drumherum für Nvidia)
- erstmaliges Interposer Design
- HBM
Ob das gut gehen kann wenn so vieles auf einmal balanciert werden muss ist fraglich. Hier wird man etwas wie Maxwell 1.0 erwarten dürfen zu Beginn und die Highend Chips deutlich später.
Hinzu kommt, dass bisher nichts gutes von den 16nm FF von TSMC zu lesen war im Gegensatz zu den 14nm von Samsung, die schon verfügbare Produkte vorweisen können. Auch wird man sehen müssen wie viel Zeit Nvidia mit der Entwicklung auf HMC vergeudet hatte bevor sie auf HBM geschwenkt sind und ob sie es diesmal hin bekommen Unified Memory zu integrieren.
Sollte Nvidia wirklich bei allen Bereichen aufholen wollen wird das ein enormer Sprung, wie er zuvor noch nicht zu sehen war.
- Deutlich erhöhte DP
- Unified Memory
- Neuer Prozess (einziger bekannter Anwender der 16nm FF bisher)
- Neue Architektur
- VESA Adaptive Sync (ich denke es führt kein Weg drumherum für Nvidia)
- erstmaliges Interposer Design
- HBM
Ob das gut gehen kann wenn so vieles auf einmal balanciert werden muss ist fraglich. Hier wird man etwas wie Maxwell 1.0 erwarten dürfen zu Beginn und die Highend Chips deutlich später.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 984
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Gibt es dafür eine Quelle? Ich habe nVidia stets von "stacked DRAM" sprechen gehört. Dass damit HMC gemeint war, könnte von der Presse angedichtet worden sein. Wenn ich dieses Foto einer nVidia Veranstaltung von Anfang 2013 betrachte, sieht dies für mich mehr nach HBM als HMC aus:...wie viel Zeit Nvidia mit der Entwicklung auf HMC vergeudet hatte bevor sie auf HBM geschwenkt sind...
Die Zeichnung vom "stacked DRAM" unterhalb der Überschrift hat man zwar bei Micron gemopst, aber dies muss nichts bedeuten.
LehmannSaW
Vice Admiral Special
- Mitglied seit
- 21.09.2007
- Beiträge
- 597
- Renomée
- 36
- Standort
- poloidal cell 5 im 3. grid block
- Mein Laptop
- HP ENVY x360 15 Dark Ash Silver mit Ryzen 5 2500U
- Prozessor
- AMD Ryzen 7 1800X
- Mainboard
- ASRock X370 Taichi
- Kühlung
- NZXT Kraken X61
- Speicher
- 16GB G.Skill Trident Z DDR4-3200 @ 3200Mhz
- Grafikprozessor
- Sapphire Radeon R9 Nano
- Display
- Acer Predator XR341CK 34-Zoll mit FreeSync
- SSD
- 250GB Samsung SSD 960 EVO M.2 + 256GB Samsung SSD 840 Pro SSD + 525GB Crucial MX300
- HDD
- 4TB Seagate Desktop SSHD
- Optisches Laufwerk
- keines
- Soundkarte
- on-Board
- Gehäuse
- NZXT S340 ELITE weiß
- Netzteil
- be quiet Straight Power 10 CM 800W
- Betriebssystem
- Windows 10 Pro 64
- Webbrowser
- Mozilla Firefox / IE
... Wollen wir jetzt einen Thread aufmachen, warum AMDs Performance pro Watt so viel besser ist?
Ich weiß nicht, das wäre bestimmt auch wieder so ein grenzwertiger Thread, wie dieser hier.
Am Ende hat AMD mit der Fiji den Anschluss im High-End-Gamer-Bereich geschafft und zeigt Effizienzverbesserungen.
Zur gleichen Zeit haben sie mit Interposer und HBM-Speicher neue Technik erforscht und ein GPU-Produkt zur marktreife gebracht.
Jetzt hat AMD die Chance Fehler und/oder Verbesserungen zu finden, denn das Produkt ist in freier Wildbahn und nicht mehr nur unter Labor-Bedingungen. Im Enddefekt testet der User HBM-Grafikkarten auf Herz und Nieren und gibt AMD die Möglichkeit die Technik weiter zu verfeinern.
Ich gehe davon aus, das sich hier noch einiges tun wird. Fiji ist erst der Anfang und nicht das Ende von Interposer-GPUs.
Nur mal ein Denk-Anstoß - wenn man die Speichergeschwindigkeit betrachtet, scheint da mit 500 MHz noch lange nicht das Ende der Fahnenstange erreicht zu sein.
Ich sehe Fiji also nicht als Grund sich auszuruhen, sondern als Start in eine andere Ära des Grafikkarten-Designs.
Es wird noch ganz schön interessant....
Gruß Lehmann
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
2013 ist allerdings ca. 2 Jahre nachdem AMD mit HBM angefangen hat zu entwickeln. Dies hat 2011 angefangen.
Das passt zeitlich zur kompletten Umkrempelung der Roadmap:
http://www.heise.de/newsticker/meld...ebremst-Volta-wohl-noch-vor-2020-2160743.html
Edit: Das obige Foto ist übrigens in dem PDF enthalten und zeigt HMC. Auf Seite 20 zu finden und auf Seite 23 wird es detaillierter als HMC beschrieben.
Das ist auch der Grund warum Volta nach hinten verschoben wurde und nicht weil Nvidia auf HBM2 wartet - sie haben auf das falsche Pferd gesetzt, oder wie soll es erklärbar sein, dass nun ca. 18 Monate keine neue GPU mehr kommt von Nvidia?
Das passt zeitlich zur kompletten Umkrempelung der Roadmap:
http://www.heise.de/newsticker/meld...ebremst-Volta-wohl-noch-vor-2020-2160743.html
Vor dieser Umstellung war Volta mit 3D-Stacking in der Roadmap verzeichnet. Und diese Präsentation aus dieser Zeit spricht ausschließlich über HMC und kein Wort über HBM bei der Volta-basierenden 3D-Stacking Technologie: http://icpp2013.ens-lyon.fr/GPUs-ICPP.pdfDie Entwicklung von Maxwell gleicht dabei einer Leidensgeschichte: Ursprünglich wurde die GPU im Jahr 2010 für 2013 angekündigt. Im Januar 2011 versprach Nvidias General Manager Michael Rayfield, dass Maxwell-Grafikchips sogar integrierte ARM-Rechenkerne mitbringen sollen. Dann kam 2013 der Umschwung: schließlich sollte erst Volta integrierte ARM-Kerne bieten und Maxwell erst 2014 statt 2013 herauskommen, aber mit Unified Virtual Memory und aus der 20-nm-Fertigung. Nun bieten die ersten "Maxwell"-Abkömmlinge nichts von alledem, arbeiten aber immerhin effizienter.
Edit: Das obige Foto ist übrigens in dem PDF enthalten und zeigt HMC. Auf Seite 20 zu finden und auf Seite 23 wird es detaillierter als HMC beschrieben.
Das ist auch der Grund warum Volta nach hinten verschoben wurde und nicht weil Nvidia auf HBM2 wartet - sie haben auf das falsche Pferd gesetzt, oder wie soll es erklärbar sein, dass nun ca. 18 Monate keine neue GPU mehr kommt von Nvidia?
Zuletzt bearbeitet:
Oi!Olli
Grand Admiral Special
- Mitglied seit
- 24.12.2006
- Beiträge
- 16.402
- Renomée
- 775
- Mein Laptop
- HP Elitebook 8760W
- Prozessor
- Ryzen R7 5800X3D
- Mainboard
- Asus B 550 Strix F Wifi
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x 32 GB Kingston FURY DIMM DDR4 3600
- Grafikprozessor
- XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
- Display
- Acer Predator XB253QGP
- SSD
- Samsung 980 Pro 2 TB, Samsung 970 Evo Plus 2 TB
- HDD
- Samsung TB, 2x2 TB 1x3 TB 1x8 TB
- Optisches Laufwerk
- GH-22NS50
- Soundkarte
- Soundblaster Recon 3d
- Gehäuse
- Raijintek Zofos Evo Silent
- Netzteil
- BeQuiet Straight Power 750 Platinum
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Opera 101 (der Browser aktualisiert sich natürlich immer)
- Verschiedenes
- X-Box One Gamepad, MS Sidewinder Joystick
Sorry Tobi, aber dass du von Energieeffezienz redest und das dir dreistellige Beträge auf der Stromrechnung weh tun würden ist doch ein Witz. Und zwar ein schlechter.
Ein auf 4,7 GHZ übertakteter i5, eine übertaktete 980Ti, eine Wasserkühlung, 21 TB an Festplattenspeicher, diverse große Bildschirme und natürlich der Spruch, du kaufst dir Hardware vom Spiegeld. Wenn du dir so eine Hardware vom Spielgeld leisten kannst, dann dürfte dir ein Abschlag von 120 € nicht weh tun.
Und da redest du dann davon, man soll bewusst mit Energie umgehen? Die meisten Leute dürften selbst mit 2x 295ern und einem
9370, auf weniger Energieverbrauch kommen.
Ach und btw, hast du einen Durchlauferhitzer? Den nur durch ein moderneres Model zu ersetzen kann im Jahr mehr sparen, als ein paar Hardwarekomponeten.
@ Cruger Und dein Elefantengedächtnis ist sehr selektiv. Der Pentium 4 (und D) wurde auch deswegen kritisiert, weil er langsamer war und kaum weniger gekostet hat. Und zwar langsamer in allen Bereichen. Ein FX kann beim Preis punkten. Und wenn die Anwendung sich gut parallelisieren lässt, zieht ein FX auch einem teurerem i5 davon.
Aber selbst wenn nicht. Die Aussage wirkt, bei dem was deine Kiste jetzt schon schluckt ziemlich aufgesetzt.
Ein auf 4,7 GHZ übertakteter i5, eine übertaktete 980Ti, eine Wasserkühlung, 21 TB an Festplattenspeicher, diverse große Bildschirme und natürlich der Spruch, du kaufst dir Hardware vom Spiegeld. Wenn du dir so eine Hardware vom Spielgeld leisten kannst, dann dürfte dir ein Abschlag von 120 € nicht weh tun.
Und da redest du dann davon, man soll bewusst mit Energie umgehen? Die meisten Leute dürften selbst mit 2x 295ern und einem
9370, auf weniger Energieverbrauch kommen.
Ach und btw, hast du einen Durchlauferhitzer? Den nur durch ein moderneres Model zu ersetzen kann im Jahr mehr sparen, als ein paar Hardwarekomponeten.
@ Cruger Und dein Elefantengedächtnis ist sehr selektiv. Der Pentium 4 (und D) wurde auch deswegen kritisiert, weil er langsamer war und kaum weniger gekostet hat. Und zwar langsamer in allen Bereichen. Ein FX kann beim Preis punkten. Und wenn die Anwendung sich gut parallelisieren lässt, zieht ein FX auch einem teurerem i5 davon.
Aber selbst wenn nicht. Die Aussage wirkt, bei dem was deine Kiste jetzt schon schluckt ziemlich aufgesetzt.
Zuletzt bearbeitet:
gruffi
Grand Admiral Special
- Mitglied seit
- 08.03.2008
- Beiträge
- 5.393
- Renomée
- 65
- Standort
- vorhanden
- Prozessor
- AMD Ryzen 5 1600
- Mainboard
- MSI B350M PRO-VDH
- Kühlung
- Wraith Spire
- Speicher
- 2x 8 GB DDR4-2400 CL16
- Grafikprozessor
- XFX Radeon R7 260X
- Display
- LG W2361
- SSD
- Crucial CT250BX100SSD1
- HDD
- Toshiba DT01ACA200
- Optisches Laufwerk
- LG Blu-Ray-Brenner BH16NS40
- Soundkarte
- Realtek HD Audio
- Gehäuse
- Sharkoon MA-I1000
- Netzteil
- be quiet! Pure Power 9 350W
- Betriebssystem
- Windows 10 Professional 64-bit
- Webbrowser
- Mozilla Firefox
- Verschiedenes
- https://valid.x86.fr/mb4f0j
Wer behauptet, Nvidia hätte die Nase vorn, muss blind sein. Und zwar auf beiden Augen. Mal davon abgesehen ist und war GCN von Anfang an ein super Wurf. Da musste AMD bisher auch nicht viel an der Basis ändern. In 28nm lohnt sich das jetzt sowieso nicht mehr. Wie isigrim schon sagte, mit 14nm sind sicherlich wieder grössere IP Sprünge zu erwarten. Es war Nvidia, die technologisch weit hinten dran waren mit ihrer veralteten low count / double clock Shader Architektur, die mit Thermi ihren negativen Höhepunkt hatte. Und Effizienzverbesserungen haben sie sich seitdem vor allem auch durch den immer stärkeren Verzicht auf Computing Performance erkauft. Das ist keine grosse Kunst. AMD hat mit Fiji vergleichbare Effizienz bei Spielen und >50% mehr Effizienz bei Computing. Hinzu kommt das modernere Design, was sich vor allem auch bei den neuen APIs bemerkbar macht. Da sollte eigentlich nicht schwer zu erraten sein, welche Architektur insgesamt die Nase bei Effizienz und Design vorne hat. Und wer es immer noch nicht mitbekommen hat, ein kleiner Tipp, es ist nicht Nvidia.
mariahellwig
Grand Admiral Special
Ich sehe Fiji also nicht als Grund sich auszuruhen, sondern als Start in eine andere Ära des Grafikkarten-Designs.
Ich stimme dir voll und ganz zu. Allerdings, wie Lisa Su vor einigen Tagen bekannt gab, steckt AMD zur Zeit einen Großteil der Investionen für Forschung und Entwicklung in die ZEN-Archtektur, so das zu befürchten ist, das war es erst mal für die nächste Zeit.
NOFX
Grand Admiral Special
- Mitglied seit
- 02.09.2002
- Beiträge
- 4.532
- Renomée
- 287
- Standort
- Brühl
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 5 1600 @Stock
- Mainboard
- ASUS B350M-A
- Kühlung
- Boxed-Kühler
- Speicher
- 2x 8 G.Skill RipJaws 4 rot DDR4-2800 DIMM
- Grafikprozessor
- PowerColor Radeon RX 480 Red Dragon 8GB
- Display
- LG 34UM-68 (FreeSync)
- SSD
- PowerColor Radeon RX 480 Red Dragon 8GB
- HDD
- 1x 1,5TB Seagate S-ATA
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- onBoard
- Gehäuse
- Thermaltake Versa H15
- Netzteil
- Cougar SX 460
- Betriebssystem
- Windows 10 Pro x64
- Webbrowser
- Google Chrome
Das Fiji jetzt ausgewöhnlich viel effizienter als Tonga geworden ist, würde ich nicht behaupten. Die Ersparnis ist primär bei HBM und dem dadurch deutlich kleineren und stromsparenderen Interface zu suchen.
In Summe kommt Fiji ähnlich wie Maxwell raus, allerdings dank HBM, sonst wären wohl die 300 W für die Single GPU gefallen.
Bei VLIW5 hat man beim R600 in 80 nm gedacht, dass die Architektur Murks ist, der RV670 und RV770 wurden schon deutlich besser und der RV870 war dann in 40 nm das Ende. Wenn das bei GCN genauso geht, dass man von jedem neuen Fertigungsschritt deutlich profitieren kann, wäre das super. Wir hängen halt seit 3 1/2 Jahren bei 28 nm fest...
In Summe kommt Fiji ähnlich wie Maxwell raus, allerdings dank HBM, sonst wären wohl die 300 W für die Single GPU gefallen.
Bei VLIW5 hat man beim R600 in 80 nm gedacht, dass die Architektur Murks ist, der RV670 und RV770 wurden schon deutlich besser und der RV870 war dann in 40 nm das Ende. Wenn das bei GCN genauso geht, dass man von jedem neuen Fertigungsschritt deutlich profitieren kann, wäre das super. Wir hängen halt seit 3 1/2 Jahren bei 28 nm fest...
mariahellwig
Grand Admiral Special
In Summe kommt Fiji ähnlich wie Maxwell raus, allerdings dank HBM, sonst wären wohl die 300 W für die Single GPU gefallen.
Das kann dem Kunden doch egal sein. AMD wird vermutlich alle Hände voll zu tun gehabt haben mit der Anbindung von HBM.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Und Nvidias Gaming-Effizienz basiert darauf DP Einheiten weg gelassen zu haben und ist dafür 80% ineffizienter beim Computing. Wo ist das relevant? Es ist immer ein abwägen wo die Verbesserungen zu welchem Zeitpunkt gemacht werden und welche anderen Produkte man derzeit im Sortiment hat und in den nächsten Jahren. Wenn Nvidia mit HBM auf den Markt kommt hatte AMD 2 Jahre Zeit an etwas anderem zu arbeiten während dort Probleme mit Interposer und Kühlung gelöst werden - bin ja gespannt was übrig bleibt von "echte GPUs kühlen mit Luft" wenn die Nvidia GPUs mit HBM kommen.
Arctic Island wird auch kein GCN mehr sein soweit bekannt und wird wohl sogar noch vor Pascal oder zeitgleich kommen, schließlich hat die Entwicklung wahrscheinlich sogar vor Fiji begonnen und hängt nicht von dessen Zeitplan ab, da es wohl nicht geplant war so lange auf 28nm zu bleiben und 20nm auszulassen.
Arctic Island wird auch kein GCN mehr sein soweit bekannt und wird wohl sogar noch vor Pascal oder zeitgleich kommen, schließlich hat die Entwicklung wahrscheinlich sogar vor Fiji begonnen und hängt nicht von dessen Zeitplan ab, da es wohl nicht geplant war so lange auf 28nm zu bleiben und 20nm auszulassen.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 984
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Dank der bei HBM und HMC verwendeten Logic Dies bräucht man gpu-seitig "nur" den vergleichsweise simplen PHY auszutauschen. Das dürfte nVidia kaum solange aufgehalten haben. Es wird demnach noch an weiteren Stelle gehakt haben. nVidia hat mit mehr als genug Baustellen auf der Roadmap zu kämpfen. HBM und Interposer sind dabei noch die kleinsten, denn das ist Aufgabe der Zulieferer. Außerdem würde ich HMC nicht als das "falsche Pferd" bezeichnen. HMC hat genau wie HBM seine Vor- und Nachteile. Der gesamte Ansatz verfolgt eine leicht abweichende Ausrichtung, obwohl es natürlich viele Überschneidungen gibt. Ich könnte mir sogar vorstellen, dass HMC künftig für das eine oder andere AMD Produkt von Interesse sein wird.Das ist auch der Grund warum Volta nach hinten verschoben wurde und nicht weil Nvidia auf HBM2 wartet...
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Aber doppelt so viel und damit natürlich auch nicht so effizient wen sie nicht gebraucht werden. Zumindest gibt es brauchbare Profi Karten wie die FirePro W7100 mit Tonga. Mit Maxwell wird es die nie geben.
--- Update ---
Hier etwas Background zu PHYs: https://www.semiwiki.com/forum/cont...phone-media-tablet-ultrabook-lower-power.html
--- Update ---
Volta musste nach hinten verlegt werden und man wird das sicherlich weiter entwickeln. Doch einen Produktlaunch um 2-3 Jahre zu verschieben bringt seine eigenen Probleme mit sich, wie das ja Intel schon bei Larabee erfahren durfte. Ob die Architektur dann noch Konkurrenzfähig ist ist fraglich und muss somit eventuell völlig überarbeitet werden. Mit Sicherheit müssen Features zugefügt werden die zuvor nicht geplant waren, wenn man nicht völlig veraltet da stehen will. Seien das neue VESA-Standards oder andere technische Neuerungen. Es geht nicht darum ob HMC oder HBM besser ist, sondern darum worauf die GPU designend wurde und zu welchem Zeitpunkt dieses Design in den Markt kommen sollte.
--- Update ---
So ein Unsinn. Dafür braucht es einen völlig anderen Speichercontroller. Ebenso wie für DDR2, DDR3, DDR4 oder GDDR5. Das gesamte Speichersubsystem funktioniert völlig anders und ebenso das ansprechen der Rows und Columns in den Speicherbänken. HMC und HBM haben völlig verschiedene Eigenschaften. Die PHYs sind wohl das einzige das nicht ausgetauscht werden muss^^ - die funktionieren sogar bei Gbit-LAN-Anschlüßen, da es nichts anderes als neutrale Kontakte sind die eine bestimmte Signal-Verstärkung benötigen für das Routing.Dank der bei HBM und HMC verwendeten Logic Dies bräucht man gpu-seitig "nur" den vergleichsweise simplen PHY auszutauschen.
Hier etwas Background zu PHYs: https://www.semiwiki.com/forum/cont...phone-media-tablet-ultrabook-lower-power.html
--- Update ---
Warum nicht? Es ist nicht fertig geworden und Pascal muss auf HBM setzen um schwer verspätet überhaupt noch etwas auf den Markt bringen zu können.Außerdem würde ich HMC nicht als das "falsche Pferd" bezeichnen.
Volta musste nach hinten verlegt werden und man wird das sicherlich weiter entwickeln. Doch einen Produktlaunch um 2-3 Jahre zu verschieben bringt seine eigenen Probleme mit sich, wie das ja Intel schon bei Larabee erfahren durfte. Ob die Architektur dann noch Konkurrenzfähig ist ist fraglich und muss somit eventuell völlig überarbeitet werden. Mit Sicherheit müssen Features zugefügt werden die zuvor nicht geplant waren, wenn man nicht völlig veraltet da stehen will. Seien das neue VESA-Standards oder andere technische Neuerungen. Es geht nicht darum ob HMC oder HBM besser ist, sondern darum worauf die GPU designend wurde und zu welchem Zeitpunkt dieses Design in den Markt kommen sollte.
Zuletzt bearbeitet:
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 984
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
1:0 für dich. Trotzdem sollte der Logic Die bei HBM die Entwicklung des IMCs gegenüber GDDR5-RAM vereinfachen. An dieser Stelle frage ich mich, ob nVidia diesen überhaupt selbst entwickelt oder IP Cores von Altera und anderen Anbietern einkauft. Im Grunde wäre dies eine Ressourcenverschwendung; insbesondere da man HSA von AMD nichts entgegen zu setzen hat und so keinen zusätzlichen Nutzen durch eine Eigenentwicklung generieren könnte.So ein Unsinn. Dafür braucht es einen völlig anderen Speichercontroller.
Intel möchte im 3. oder 4. Quartal Produkte mit seinem HMC 2.0 Derivat bringen und gilt gemeinhin als behäbig.Es ist nicht fertig geworden und Pascal muss auf HBM setzen um schwer verspätet...
Zuletzt bearbeitet:
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Nur hat Intel diese HMC 2.0 Derivate exklusiv entwickelt und diese sind nicht zugänglich für andere im HMC-Konsortium wo sie nicht Mitglied sind. Daher ist es schwer zu sagen ob andere da schneller am Markt gewesen wären. Begonnen haben sie 2011 damit und ob dies dieses Jahr kommt steht eher in den Sternen. Welches Produkt meinst du denn das im 3. oder 4. Quartal kommen soll? Knights Landing? Es wird eben Intels MCDRAM und nicht Standard-HMC.
http://www.eetimes.com/author.asp?section_id=36&doc_id=1287236
Hier wird schon nur noch von DDR4 gesprochen und kein Wort mehr über HMC auf dem Knights Landing:
http://www.eweek.com/servers/intels-upcoming-xeon-phi-will-include-384gb-of-ddr4-memory.html
Hier wird scheinbar ein Hybrid Modell beschrieben:
http://www.vrworld.com/2015/03/27/i...-hpc-with-knights-landing-xeon-phi-processor/
http://www.eetimes.com/author.asp?section_id=36&doc_id=1287236
The actual interface with an Intel chip is a closely held interface that Intel is not going to throw open to just anyone and I think that might be part of the holdup. But HMC and ARM is a combination of acronyms that I hear a lot and that just paints Intel into a horrible corner, especially if and when HMC does take off, if Intel is somehow not part of the party. They’re already fighting enough battles right now. I don’t think they want to be handicapped further in servers, so while we haven’t heard a lot about Intel [and HMC], I don’t think there’s any indication that they’re not going to widely support it.
Hier wird schon nur noch von DDR4 gesprochen und kein Wort mehr über HMC auf dem Knights Landing:
http://www.eweek.com/servers/intels-upcoming-xeon-phi-will-include-384gb-of-ddr4-memory.html
Hier wird scheinbar ein Hybrid Modell beschrieben:
http://www.vrworld.com/2015/03/27/i...-hpc-with-knights-landing-xeon-phi-processor/
Also auch nichts anderes als der ESRAM der derzeit für die iGPUs benutzt wird der Iris Pro Serie als LLC.Talking about memory, the chip vendor has announced that Knights Landing would feature eight 2GB stacks of memory, totaling up to 16GB. The chip is manufactured at Micron, and looks to be a variant of the manufacturer’s Hybrid Memory Cube, which involves stacking memory and using an embedded logic chip to deliver higher bandwidth at a lower power. Micron has mentioned that its HMC modules will be able to transfer data 15 times faster than a standard DDR3 module, while utilizing 70% less energy. Along with on-chip memory, Knights Landing will come with six memory channels that can connect a total of 384GB DDR4 memory.
Zuletzt bearbeitet:
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 984
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Ich weiß nicht ob diese Information noch Gültigkeit hat, aber Rajeeb Hazra hat wohl einst auf der ISC 2013 ein programmierbares Speichermanagment für Knights Landing in Aussicht gestellt. Man sollte zwischen verschiedenen Betriebsmodi des Near Memory im laufenden Betrieb wechseln können. Ob diese Vision planmäßig mit Knights Landing verwirklicht wird, kann ich nicht sagen. Seit dem ISC 2013 liest man darüber nichts mehr. Um den Mischbetrieb mit Haswell-EX (bei ausgewählten Xeon Phi mit Ausnahme von TSX) ist es ebenfalls vergleichsweise still geworden.Also auch nichts anderes als der ESRAM der derzeit für die iGPUs benutzt wird der Iris Pro Serie als LLC.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Das wurde auf der ISC 2014 so vorgestellt wie ich es verlinkt habe. Ist also aktueller. Aber die Larabee-Linie hat immer schon mehr versprochen als am Ende raus kam
http://insidehpc.com/2014/06/video-intel-unveils-knights-landing-details-isc14/
Auch von Rajeeb Hazra.
http://insidehpc.com/2014/06/video-intel-unveils-knights-landing-details-isc14/
Auch von Rajeeb Hazra.
Locuza
Commodore Special
- Mitglied seit
- 03.03.2011
- Beiträge
- 351
- Renomée
- 3
http://crazyfunnyimages.com/wp-content/uploads/funny_images/funny-gif-Google-results-vaccines-autism_funny_photo_a4950z.gifMit der Fury sollte sich nun auch das Thema erledigt haben, dass Nvidia besser bei Performance/Watt ist.
Fury X: Idle 5W, Gaming 220W
GTX 980 Ti: Idle 10W, Gaming 233W
Entsprechend wissen wir natürlich, welches Resultat von allen das einzig Legitime sein kann.
http://www.3dcenter.org/artikel/launch-analyse-amd-radeon-r9-fury-x/launch-analyse-amd-radeon-r9-fury-x-seite-2
Dann mach beide Augen auf.Wer behauptet, Nvidia hätte die Nase vorn, muss blind sein. Und zwar auf beiden Augen. Mal davon abgesehen ist und war GCN von Anfang an ein super Wurf. Da musste AMD bisher auch nicht viel an der Basis ändern.
Du meinst man kann es sich nicht leisten, nicht das es sich nicht lohnt.In 28nm lohnt sich das jetzt sowieso nicht mehr.
Was hat Fiji, was sich bei den neuen APIs bemerkbar machen wird?Hinzu kommt das modernere Design, was sich vor allem auch bei den neuen APIs bemerkbar macht. Da sollte eigentlich nicht schwer zu erraten sein, welche Architektur insgesamt die Nase bei Effizienz und Design vorne hat.
Ich nenne schon einmal Binding-Tier 3, um die Arbeit zu erleichtern, noch etwas?
Ähnliche Themen
- Antworten
- 610
- Aufrufe
- 44K
- Antworten
- 2K
- Aufrufe
- 131K
- Antworten
- 680
- Aufrufe
- 86K
- Antworten
- 1
- Aufrufe
- 5K
- Antworten
- 0
- Aufrufe
- 1K