App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD GCN4 (Polaris, Radeon 400/500) & GCN5 (Vega)
- Ersteller BoMbY
- Erstellt am
Man kann ja nur hoffen das es das auch irgendwann für normallos gibt aber größtes Problem dürften die Treiber sein was passiert wenn schneller Speicher auf langsam Trift zeigt uns die gtx 970 ja aber unter VR zum Beispiel könnte man wenn Leistung ungenutzt ist (AC) schon Bilder vorrechnen für den Fall das ich dort hinlaufen/hinschauen sollte Oder nur als Platz spar Option in ein itx matx Systeme wo kein Platz ist für viele m2/u2 Ssds
Ehm, das hat nichts mit schnellem/langsamen Speicher zu tun. So wird dieses System nicht genutzt. Die SSD ist kein Ersatz für RAM. Es geht hier ausschließlich darum, dass wenn bei großen Datenmengen der RAM auf der Grafikkarte nicht ausreicht => schreibt Sie auch heute schon auf die Platte (ich sag mal salopp speichert Zwischenergebnisse). Stand heute ist das mit viel Latenz verbunden - warten bis CPU Ressourcen frei hat um Copy/Read auszuführen usw...
Und das macht diese Technik mit weniger "Latenz" was im gezeigten Szenario zu Faktor 5 schneller sein führt.
Wie Complicated schreibt, könnte diese Technik am ehsten beim internen Streaming der Welt einen Nutzen bringen.
Z.B. Openworldspiele völlig ohne Übergänge die schon vorher komplett auf der SSD liegen...
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.462
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Naja, wenn man das mit Intel's 3D XPoint kombinieren könnte, dann käme man schon nah an RAM-Geschwindigkeiten. Im Endeffekt dürfte das hinterher als ein anderer Memory-Type/Heap (z.B. in Vulkan) in den APIs sichtbar sein, und es läge an den Entwicklern das entsprechend zu nutzen, wenn es Sinn macht.
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.783
- Renomée
- 300
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
Was genau nutzt AMD für Polaris eigentlich, LPE oder LPP? LPE war jedenfalls früher verfügbar und scheint auch die höhere Ausbeute zu haben.
MIWA
Grand Admiral Special
- Mitglied seit
- 27.10.2015
- Beiträge
- 2.203
- Renomée
- 66
- BOINC-Statistiken
- Mein Laptop
- HP Zbook X2 G4
- Prozessor
- 2600X
- Mainboard
- AsRack X470
- Kühlung
- Eule aus Österreich ;)
- Speicher
- EUDIMM 2666mhz Dual Rank X8
- Grafikprozessor
- VII
- Display
- Phillips 55zoll
- SSD
- Intel DC3600P
- Betriebssystem
- Windoof und Linux
- Webbrowser
- Firerfox EDGE
Lpp müsste das sein zumindest haben alle das gesagt
LPE Ist zwar früher da aber auch ein ganzes Stück größer und soll auch noch ander Nachteile haben
LPE Ist zwar früher da aber auch ein ganzes Stück größer und soll auch noch ander Nachteile haben
Woerns
Grand Admiral Special
- Mitglied seit
- 05.02.2003
- Beiträge
- 3.011
- Renomée
- 249
Hab's mir jetzt nicht angeguckt, aber üblicherweise gibt es ein Angebot für den energieeffizienten Mobilbereich und ein anderes Angebot für Performance. Vermutlich ist es der Prozess mit dem P mehr im Namen, das dann für Performance steht: LPP
BTW:
Gegen Jahreswechsel sollen übrigens irgendwelche Designs in einem 28nm fdSOI Prozess starten. Zumindest hat SoiTec angekündigt, dann erste Volumenumsätze für 300mm fdSOI Wafer zu haben, und als Kunden dafür kommen nur STM und Globalfoundries in Frage, wobei erstere m.E. in 300mm keine Volumina abrufen. Damit sich keiner zu früh freut, das wird nicht AMD betreffen.
MfG
BTW:
Gegen Jahreswechsel sollen übrigens irgendwelche Designs in einem 28nm fdSOI Prozess starten. Zumindest hat SoiTec angekündigt, dann erste Volumenumsätze für 300mm fdSOI Wafer zu haben, und als Kunden dafür kommen nur STM und Globalfoundries in Frage, wobei erstere m.E. in 300mm keine Volumina abrufen. Damit sich keiner zu früh freut, das wird nicht AMD betreffen.
MfG
MIWA
Grand Admiral Special
- Mitglied seit
- 27.10.2015
- Beiträge
- 2.203
- Renomée
- 66
- BOINC-Statistiken
- Mein Laptop
- HP Zbook X2 G4
- Prozessor
- 2600X
- Mainboard
- AsRack X470
- Kühlung
- Eule aus Österreich ;)
- Speicher
- EUDIMM 2666mhz Dual Rank X8
- Grafikprozessor
- VII
- Display
- Phillips 55zoll
- SSD
- Intel DC3600P
- Betriebssystem
- Windoof und Linux
- Webbrowser
- Firerfox EDGE
Der LPE ist Sozusagen die Open Beta Fertigung wertend der lpp die eigentlich Fertigung ist kleiner ,besser Effizienz und und und
Nachtrag genauer werte kann ich heut Abend nachreichen möchte ich aber grad nicht über mobile Netz
Nachtrag genauer werte kann ich heut Abend nachreichen möchte ich aber grad nicht über mobile Netz
Zuletzt bearbeitet:
Unbekannter Krieger
Grand Admiral Special
- Mitglied seit
- 04.10.2013
- Beiträge
- 4.543
- Renomée
- 90
- Mein Laptop
- HP 15-bq102ng (sackteuer u. ab Werk instabil)
- Prozessor
- FX-8320E@4,2 GHz & 2,6 GHz Northbridge (jeweils mit UV)
- Mainboard
- Asus M5A99X Evo R2.0 (eher enttäuschend ggü. ASRock E3)
- Kühlung
- Raijintek Nemesis (Lüfter mittig im sowie hinter dem Kühler; erstklassig)
- Speicher
- 4x4 GiB Hynix DDR3-1866 ECC
- Grafikprozessor
- XFX RX 570 8G (P8DFD6)@1180 & 2150 MHz@starkem, fortdauerndem UV | ASRock RX 570 8G@das Gleiche
- Display
- BenQ XL2411T ~ nach 3 RMAs und 6 Monaten wieder brauchbar
- SSD
- Crucial MX100 256 GB (ein Glückskauf) | SanDisk Ultra Plus 256 GB (ein Glückskauf)
- HDD
- WD20EZRZ u. a. (Seagate, Hitachi, WD)
- Optisches Laufwerk
- TSST SH-222AL
- Gehäuse
- Corsair Carbide 300R (ein Fehlkauf)
- Netzteil
- CoolerMaster V450S (ein Glückskauf)
- Betriebssystem
- Win8.x x64, Win7 x64
- Webbrowser
- welche mit minimalem Marktanteil & sinnvollen Konzepten (nicht Chrome-Seuche und Sieche-Fuchs)
- Verschiedenes
- frühere GPUs: , Asus RX 480 O8G@580 O8G, VTX3D 7850 1G
Was genau nutzt AMD für Polaris eigentlich, LPE oder LPP? LPE war jedenfalls früher verfügbar und scheint auch die höhere Ausbeute zu haben.
Für LPE spricht: Man schien sich bei AMD recht sicher zu sein, relativ zeitig Produkte verkaufen zu können, auch in ausreichender Stückzahl. Angeblich war AMD dann vom frühen (Paper-)Launch der 1000er-Reihe überrascht - aber interpretieren und vermuten kann man so Vieles -, was nach der Entscheidung gegen den LPE (gegen "Early") wohl nicht eingetreten wäre. Zweitens, diesmal positiv, wäre da die Chance, dass künftige Radeon-GPUs in LPP gefertigt und damit in Sachen Taktverhalten, Energieeffizienz u.a. besser sein werden.
Für LPP spricht: Es hat ja nun doch eine ganze Weile gedauert allein bis zum Start der Referenzkarte der 480, die breite Verfügbarbeit der Custom-Designs ist noch nicht eingetreten und RX 470 & 460 werden erst noch kommen. Auch Pessimismus & Realismus ggü. der Qualität von Samsungs Konzept für den Fertigungsprozess und der tatsächlichen Herstellung bei GlobalFoundries sind Argumente hierfür.
Dresdenboy
Redaktion
☆☆☆☆☆☆
Da gibt es m.M. nichts zu diskutieren.
"AMD-Grafikchip "Project F" mit 232mm² Chipfläche unter der 14LPP-Fertigung?"
http://www.3dcenter.org/news/amd-gr...-232mm²-chipflaeche-unter-der-14lpp-fertigung
"AMD-Grafikchip "Project F" mit 232mm² Chipfläche unter der 14LPP-Fertigung?"
http://www.3dcenter.org/news/amd-gr...-232mm²-chipflaeche-unter-der-14lpp-fertigung
MIWA
Grand Admiral Special
- Mitglied seit
- 27.10.2015
- Beiträge
- 2.203
- Renomée
- 66
- BOINC-Statistiken
- Mein Laptop
- HP Zbook X2 G4
- Prozessor
- 2600X
- Mainboard
- AsRack X470
- Kühlung
- Eule aus Österreich ;)
- Speicher
- EUDIMM 2666mhz Dual Rank X8
- Grafikprozessor
- VII
- Display
- Phillips 55zoll
- SSD
- Intel DC3600P
- Betriebssystem
- Windoof und Linux
- Webbrowser
- Firerfox EDGE
Jetzt wissen wir warum tsmc AMD noch als Partner bei 16nm stehen hat
https://www.computerbase.de/2016-08/xbox-one-s-microsoft-16-nm-tsmc-gpu/
Sorry das sollte wo ander hin
https://www.computerbase.de/2016-08/xbox-one-s-microsoft-16-nm-tsmc-gpu/
Sorry das sollte wo ander hin
Zuletzt bearbeitet:
Dresdenboy
Redaktion
☆☆☆☆☆☆
Und da stecken vermutlich auch die 16nm "Tiger"-Kerne drin (nicht "Jaguar").Jetzt wissen wir warum tsmc AMD noch als Partner bei 16nm stehen hat
https://www.computerbase.de/2016-08/xbox-one-s-microsoft-16-nm-tsmc-gpu/
Locuza
Commodore Special
- Mitglied seit
- 03.03.2011
- Beiträge
- 351
- Renomée
- 3
Und was wäre abseits vom Namen der Unterschied?Und da stecken vermutlich auch die 16nm "Tiger"-Kerne drin (nicht "Jaguar").
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.462
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Und was wäre abseits vom Namen der Unterschied?
Ein Shrink auf 16nm FinFET.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.238
- Renomée
- 538
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Gehört der "Tiger" auch zur Säbelzahn (Sabertooth) Generation?Und da stecken vermutlich auch die 16nm "Tiger"-Kerne drin (nicht "Jaguar").
Oder ist das eine Eigenständige Generation, mit allen pro und contras?
Huch, warum schaut Raja nach oben?
Alter Sack
Lt. Commander
- Mitglied seit
- 10.03.2013
- Beiträge
- 143
- Renomée
- 0
- Standort
- Dennheritz
- Prozessor
- A10-6700
- Mainboard
- Asrock FM A88X Extreme6+
- Kühlung
- Scythe Ninja II
- Speicher
- 8 GB DDR 3 1600 MHz
- Grafikprozessor
- APU
- Display
- 20" Samsung 1680x1050
- SSD
- Samssung Evo 840 256 GB
- HDD
- 1x 2 TB
- Optisches Laufwerk
- DVD-Brenner
- Soundkarte
- Onboard
- Netzteil
- Be Quiet 400W, 80+ Gold
- Betriebssystem
- Win7 x 64, SP1
- Webbrowser
- Opera, Firefox
- Verschiedenes
- Mein Allround-PC, den ich bei Bedarf , durch eine HD7870 aufwerte.
Mal was O.T.
Wäre es aus Kundensicht nicht sinnvoll, wenn zukünftige Grakas
Nur noch reine 3d-Beschleuniger
wären da sämtliche Grundfunktionen inkl. min. 3d-Fähigkeiten ohnehin auf dem CPU-Package intergriert sind.
So könnte man sich Fläche bei
den GPU sparen. Am besten gleich
noch die DP Sachen mit raus und
auf eine extra Karte für die, die
es brauchen. ...und dann noch
modulare GPUs über Interposer.
Wäre es aus Kundensicht nicht sinnvoll, wenn zukünftige Grakas
Nur noch reine 3d-Beschleuniger
wären da sämtliche Grundfunktionen inkl. min. 3d-Fähigkeiten ohnehin auf dem CPU-Package intergriert sind.
So könnte man sich Fläche bei
den GPU sparen. Am besten gleich
noch die DP Sachen mit raus und
auf eine extra Karte für die, die
es brauchen. ...und dann noch
modulare GPUs über Interposer.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.238
- Renomée
- 538
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Theoretisch wäre das schon möglich, aber technisch wirst da schneller an Grenzen geraten, als einem selbst lieb ist.Mal was O.T.
Wäre es aus Kundensicht nicht sinnvoll, wenn zukünftige Grakas
Nur noch reine 3d-Beschleuniger
wären da sämtliche Grundfunktionen inkl. min. 3d-Fähigkeiten ohnehin auf dem CPU-Package intergriert sind.
So könnte man sich Fläche bei
den GPU sparen. Am besten gleich
noch die DP Sachen mit raus und
auf eine extra Karte für die, die
es brauchen. ...und dann noch
modulare GPUs über Interposer.
Jede weitere Karte hat eine höhere Latenz, da sie weiter weg von der CPU ist.
iGPU zur 2D Darstellung und dGPU als Rechenzentrum wäre besser.
Genau das macht WDDM 2.0 inzwischen, die Systemspeicherverwaltung wird von der GPU übernommen, sofern der Entwickler genug "know how" hat.
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.462
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Eigentlich könnte man ja komplett auf die Spezialfunktionen verzichten und alles mit ganz vielen x86-Kernen machen. Deshalb war Larrabee ja auch ein so großer Erfolg ... *hust*
Wenn wir irgendwann mal bei "Realtime Raytracing Gaming Engines" angekommen sind, dann vielleicht ...
Wenn wir irgendwann mal bei "Realtime Raytracing Gaming Engines" angekommen sind, dann vielleicht ...
Dresdenboy
Redaktion
☆☆☆☆☆☆
Wie BoMbY schon schrieb, ist es im Wesentlichen der Prozess. Ich denke nicht, dass an der Architektur groß etwas verändert wurde, evtl. hat man einen Buffer hier oder da etwas größer ausgelegt.Und was wäre abseits vom Namen der Unterschied?
Aber Shrink trifft es auch nicht ganz, da ganz andere Design Rules u. Standard Cell Libs zum Einsatz kommen. Und eigene Makros werden auch neu entwickelt bzw. angepasst, wie in dem LinkedIn-Screenshot zu sehen:
Wobei ich hier "Tiger" eben nicht für ein Zen-Derivat halte, da es doch genauso eine Raubkatze ist.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.031
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
da aber viele Foren"geier" auf linkedin-Profile glotzen, wird da evtl. absichtlich was falsches geschrieben, zu unserer Verwirrung. Für ihn reicht es ja, wenn die Dinge, an denen er arbeitet, passend beschrieben sind, nur die Codenamen könnte er ja "ganz versehentlich" etwas durcheinandergewürfelt haben.
"Zen" und "SoCs" ist ja auch kein Gegensatz, das ist schon Quatsch, damit wir uns die Köpfe zerbrechen. SoCs sind das ja im Zweifel sowieso alles, eben mit Zen oder mit anderer CPU-Architektur. Gerade jemand wie er würde sowas garantiert nicht durcheinanderwerfen.
Rein logisch würden dann die Angaben Tiger=16nm und Cheetah=14nm passen, ersteres der Chip für Microsoft und das zweite der für Sony. Aber die Katzennamen waren immer für die Kernarchitekturen, nicht die SoCs insgesamt, und die Namen für die Konsolenchips waren sowieso aus ganz anderen Kategorien als die restlichen AMD-Produkte.
Also ich glaub da nicht so ganz viel von.
"Zen" und "SoCs" ist ja auch kein Gegensatz, das ist schon Quatsch, damit wir uns die Köpfe zerbrechen. SoCs sind das ja im Zweifel sowieso alles, eben mit Zen oder mit anderer CPU-Architektur. Gerade jemand wie er würde sowas garantiert nicht durcheinanderwerfen.
Rein logisch würden dann die Angaben Tiger=16nm und Cheetah=14nm passen, ersteres der Chip für Microsoft und das zweite der für Sony. Aber die Katzennamen waren immer für die Kernarchitekturen, nicht die SoCs insgesamt, und die Namen für die Konsolenchips waren sowieso aus ganz anderen Kategorien als die restlichen AMD-Produkte.
Also ich glaub da nicht so ganz viel von.
LehmannSaW
Vice Admiral Special
- Mitglied seit
- 21.09.2007
- Beiträge
- 597
- Renomée
- 36
- Standort
- poloidal cell 5 im 3. grid block
- Mein Laptop
- HP ENVY x360 15 Dark Ash Silver mit Ryzen 5 2500U
- Prozessor
- AMD Ryzen 7 1800X
- Mainboard
- ASRock X370 Taichi
- Kühlung
- NZXT Kraken X61
- Speicher
- 16GB G.Skill Trident Z DDR4-3200 @ 3200Mhz
- Grafikprozessor
- Sapphire Radeon R9 Nano
- Display
- Acer Predator XR341CK 34-Zoll mit FreeSync
- SSD
- 250GB Samsung SSD 960 EVO M.2 + 256GB Samsung SSD 840 Pro SSD + 525GB Crucial MX300
- HDD
- 4TB Seagate Desktop SSHD
- Optisches Laufwerk
- keines
- Soundkarte
- on-Board
- Gehäuse
- NZXT S340 ELITE weiß
- Netzteil
- be quiet Straight Power 10 CM 800W
- Betriebssystem
- Windows 10 Pro 64
- Webbrowser
- Mozilla Firefox / IE
Nun ist ja Baffin als Polaris 11 (RX 460) raus und somit die zweite GPU der Arctic Islands Generation.
Man könnte schlussfolgern, dass AMD es geschafft hat in der Gaming-Effizienz auf Nvidias Grafikkarten mit 28nm TSMC-Prozess aufzuschließen.
Das ist per se nicht schlecht, lässt aber die Frage offen, ob sich eine Neuanschaffung im gleichen Leistungs-, Verbrauchs- & Preissegment lohnt.
Evtl. hätte das Team von vornherein die Entwicklung auf mehr Takt der Compute-Units konzentrieren sollen. Es scheint sich ja in aktuellen Spielen immer noch zu lohnen.
Na mal was Vega da noch was reißt.
Gruß Lehmann
Man könnte schlussfolgern, dass AMD es geschafft hat in der Gaming-Effizienz auf Nvidias Grafikkarten mit 28nm TSMC-Prozess aufzuschließen.
Das ist per se nicht schlecht, lässt aber die Frage offen, ob sich eine Neuanschaffung im gleichen Leistungs-, Verbrauchs- & Preissegment lohnt.
Evtl. hätte das Team von vornherein die Entwicklung auf mehr Takt der Compute-Units konzentrieren sollen. Es scheint sich ja in aktuellen Spielen immer noch zu lohnen.
Na mal was Vega da noch was reißt.
Gruß Lehmann
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Ist doch keine Frage: es lohnt sich nicht.lässt aber die Frage offen, ob sich eine Neuanschaffung im gleichen Leistungs-, Verbrauchs- & Preissegment lohnt.
Aber denk mal an die neu Einsteiger bzw. Aufsteiger. Die wollen nicht unbedingt was gebrauchtes.
Ich bin bisher mit einer Radeon 6850 ausgekommen. Reicht halt nicht für aktuelle Spiele. Wesentlich mehr als 200€ wollte ich auch nicht ausgeben.
360 bot mir nicht genügend Mehrleistung, 370 fehlte mir das Featureset und 380 war mir zu teuer.
Nachdem ich verstärkt mit der 380 geliebäugelt hatte, konnte ich letztens bei dem RX 480 8GB für 239,-€ Versandkostenfrei Angebot nicht wiederstehen.
Bin also leistungsmäßig aufgestiegen. Die 460 hätte sich kaum gelohnt, da kein wesentlich besseres Leistungsverhältnis zur alten 6850.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.031
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
doch, müßte ziemlich genau doppelt so stark sein. Hatte mir noch gemerkt, daß die 7870 doppelt so stark ist wie die 5850, und die 6850 ist ja ein kleines Bißchen unter der 5850, die 460 nun ungefähr gleichauf mit Pitcairn. Bei modernen Spielen sollte die modernere Architektur auch tendenziell noch was dazugewinnen ggü. VLIW5.Die 460 hätte sich kaum gelohnt, da kein wesentlich besseres Leistungsverhältnis zur alten 6850.
Aber schreib mal was zu Deinen subjektiven Erfahrungen mit der 480 (nicht jetzt gleich, sondern wenn Du sie schon ne Weile gehabt hast).
ich denke mir, daß da sicherlich noch was optimiert wird, mit einem Refresh oder zumindest Fertigungsverbesserungen. Der Chip an sich wird ja sicherlich wieder lange im Markt bleiben sollen, und wenn man nächstes Jahr noch eine leistungsgesteigerte Version bringen kann, ist das doch gut, wird man bestimmt versuchen.Evtl. hätte das Team von vornherein die Entwicklung auf mehr Takt der Compute-Units konzentrieren sollen. Es scheint sich ja in aktuellen Spielen immer noch zu lohnen.
hoschi_tux
Grand Admiral Special
- Mitglied seit
- 08.03.2007
- Beiträge
- 4.783
- Renomée
- 300
- Standort
- Ilmenau
- Aktuelle Projekte
- Einstein@Home, Predictor@Home, QMC@Home, Rectilinear Crossing No., Seti@Home, Simap, Spinhenge, POEM
- Lieblingsprojekt
- Seti/Spinhenge
- BOINC-Statistiken
- Prozessor
- AMD Ryzen R9 5900X
- Mainboard
- ASUS TUF B450m Pro-Gaming
- Kühlung
- Noctua NH-U12P
- Speicher
- 2x 16GB Crucial Ballistix Sport LT DDR4-3200, CL16-18-18
- Grafikprozessor
- AMD Radeon RX 6900XT (Ref)
- Display
- LG W2600HP, 26", 1920x1200
- HDD
- Crucial M550 128GB, Crucial M550 512GB, Crucial MX500 2TB, WD7500BPKT
- Soundkarte
- onboard
- Gehäuse
- Cooler Master Silencio 352M
- Netzteil
- Antec TruePower Classic 550W
- Betriebssystem
- Gentoo 64Bit, Win 7 64Bit
- Webbrowser
- Firefox
Ist eigentlich bekannt, ob AMD hier HD Libs nutzt?
amdfanuwe
Grand Admiral Special
- Mitglied seit
- 24.06.2010
- Beiträge
- 2.372
- Renomée
- 34
- Prozessor
- 4200+
- Mainboard
- M3A-H/HDMI
- Kühlung
- ein ziemlich dicker
- Speicher
- 2GB
- Grafikprozessor
- onboard
- Display
- Samsung 20"
- HDD
- WD 1,5TB
- Netzteil
- Extern 100W
- Betriebssystem
- XP, AndLinux
- Webbrowser
- Firefox
- Verschiedenes
- Kaum hörbar
Aber schreib mal was zu Deinen subjektiven Erfahrungen mit der 480 (nicht jetzt gleich, sondern wenn Du sie schon ne Weile gehabt hast).
Habe sie jetzt 2 Wochen.
Erste Erfahrungen:
Alte Karte raus, 480 rein, neuen Treiber installiert, lief. Hatte soweit keine Probleme.
Habe sie im offenem Gehäuse neben dem Schreibtisch. Sie ist immer leise zu höhren, stört mich aber nicht weiter, bin ich von der 6850 gewohnt.
Im gutem geschlossenem Gehäuse dürfte sie kaum hörbar sein bei Desktopbetrieb. Richtig unter Last hatte ich sie noch nicht. Blieb bei Dota, Borderland und Bioschock infinite immer ruhig, im Gegensatz zur 6850 die dann schon aufdrehte.
Bei den ersten Spieleindrücken gab es schreckliches Tearing trotz Ultra einstellungen, ließ sich dann aber durch V-Sync beheben. Kannte ich vorher halt nicht.
Habe auf Kompatibilitätsmodus gestellt, da die Karte aktuell noch unterfordert ist.
Dann ist es auch ein gutes Gefühl, bei den Spielen nicht mehr auf die GPU Anforderungen schauen zu müssen. Bei der 6850 habe ich mich schon nicht mehr an aktuelle Spiele getraut.
Mein Fazit: für 239,-€ war die RX 480 8GB kein Fehlkauf und wird mir die nächsten Jahre reichen.
Es sei denn, VR stellt entsprechende Ansprüche. Aber da muß ich erst mal abwarten, wie sich das alles entwickelt.
Ich hätte auch durchaus das Geld für eine 1080 gehabt. Da ich aber nur HD Zocke und nicht die anspruchsvollsten Scenarien habe, wäre es aktuell entweder eine 4GB 380 geworden oder die 470, wenn sich die Preise erstmal eingependelt haben.
Der Stromverbrauch ist mir auch ziemlich gleich. Was die Karte an Wärme produziert, spare ich bei der Heizung (Nachtspeicher ) Bei unserem tollem Sommer hier, kann ich die Heizung beim Zocken auslassen .
Habe auch noch einen FX-8300 eingebaut, somit dürfte es jetzt trotzdem sparsamer sein, als der Phenom II 955 mit der 6850. Die wandern nun in den Zweitrechner mit altem AM3 Board.
Erste Erfahrungen:
Alte Karte raus, 480 rein, neuen Treiber installiert, lief. Hatte soweit keine Probleme.
Habe sie im offenem Gehäuse neben dem Schreibtisch. Sie ist immer leise zu höhren, stört mich aber nicht weiter, bin ich von der 6850 gewohnt.
Im gutem geschlossenem Gehäuse dürfte sie kaum hörbar sein bei Desktopbetrieb. Richtig unter Last hatte ich sie noch nicht. Blieb bei Dota, Borderland und Bioschock infinite immer ruhig, im Gegensatz zur 6850 die dann schon aufdrehte.
Bei den ersten Spieleindrücken gab es schreckliches Tearing trotz Ultra einstellungen, ließ sich dann aber durch V-Sync beheben. Kannte ich vorher halt nicht.
Habe auf Kompatibilitätsmodus gestellt, da die Karte aktuell noch unterfordert ist.
Dann ist es auch ein gutes Gefühl, bei den Spielen nicht mehr auf die GPU Anforderungen schauen zu müssen. Bei der 6850 habe ich mich schon nicht mehr an aktuelle Spiele getraut.
Mein Fazit: für 239,-€ war die RX 480 8GB kein Fehlkauf und wird mir die nächsten Jahre reichen.
Es sei denn, VR stellt entsprechende Ansprüche. Aber da muß ich erst mal abwarten, wie sich das alles entwickelt.
Ich hätte auch durchaus das Geld für eine 1080 gehabt. Da ich aber nur HD Zocke und nicht die anspruchsvollsten Scenarien habe, wäre es aktuell entweder eine 4GB 380 geworden oder die 470, wenn sich die Preise erstmal eingependelt haben.
Der Stromverbrauch ist mir auch ziemlich gleich. Was die Karte an Wärme produziert, spare ich bei der Heizung (Nachtspeicher ) Bei unserem tollem Sommer hier, kann ich die Heizung beim Zocken auslassen .
Habe auch noch einen FX-8300 eingebaut, somit dürfte es jetzt trotzdem sparsamer sein, als der Phenom II 955 mit der 6850. Die wandern nun in den Zweitrechner mit altem AM3 Board.
Dresdenboy
Redaktion
☆☆☆☆☆☆
Etwas Verschleierung ist immer möglich. Die Gefahr durch LinkedIn-Leaks sollte langsam bekannt sein. Jemand war ja sogar so witzig u. erwähnte lustige Verfahren für ich glaube Branch Prediction in einem neuen Prozessor (mit Pigeonsort..).da aber viele Foren"geier" auf linkedin-Profile glotzen, wird da evtl. absichtlich was falsches geschrieben, zu unserer Verwirrung. Für ihn reicht es ja, wenn die Dinge, an denen er arbeitet, passend beschrieben sind, nur die Codenamen könnte er ja "ganz versehentlich" etwas durcheinandergewürfelt haben.
"Zen" und "SoCs" ist ja auch kein Gegensatz, das ist schon Quatsch, damit wir uns die Köpfe zerbrechen. SoCs sind das ja im Zweifel sowieso alles, eben mit Zen oder mit anderer CPU-Architektur. Gerade jemand wie er würde sowas garantiert nicht durcheinanderwerfen.
Rein logisch würden dann die Angaben Tiger=16nm und Cheetah=14nm passen, ersteres der Chip für Microsoft und das zweite der für Sony. Aber die Katzennamen waren immer für die Kernarchitekturen, nicht die SoCs insgesamt, und die Namen für die Konsolenchips waren sowieso aus ganz anderen Kategorien als die restlichen AMD-Produkte.
Also ich glaub da nicht so ganz viel von.
Vermutlich werden wir die Hintergründe wohl nie genau erfahren, so wie die Bedeutung von R bei den Radeons (Rage).
Mir leider noch nicht, aber evtl. helfen diese Die Shots unten etwas dabei.Ist eigentlich bekannt, ob AMD hier HD Libs nutzt?
Hat sich hier jemand schon diese echten Polaris-Die-Shots hier angesehen? Die sehen ganz anders aus als der hier schon gezeigte synthetische Plot.
https://www.flickr.com/photos/130561288@N04/28203687684/in/album-72157650403404920/
BoMbY
Grand Admiral Special
- Mitglied seit
- 22.11.2001
- Beiträge
- 7.462
- Renomée
- 293
- Standort
- Aachen
- Prozessor
- Ryzen 3700X
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x16 GB, G.Skill F4-3200C14D-32GVK @ 3600 16-16-16-32-48-1T
- Grafikprozessor
- RX 5700 XTX
- Display
- Samsung CHG70, 32", 2560x1440@144Hz, FreeSync2
- SSD
- AORUS NVMe Gen4 SSD 2TB, Samsung 960 EVO 1TB, Samsung 840 EVO 1TB, Samsung 850 EVO 512GB
- Optisches Laufwerk
- Sony BD-5300S-0B (eSATA)
- Gehäuse
- Phanteks Evolv ATX
- Netzteil
- Enermax Platimax D.F. 750W
- Betriebssystem
- Windows 10
- Webbrowser
- Firefox
Etwas Verschleierung ist immer möglich. Die Gefahr durch LinkedIn-Leaks sollte langsam bekannt sein. Jemand war ja sogar so witzig u. erwähnte lustige Verfahren für ich glaube Branch Prediction in einem neuen Prozessor (mit Pigeonsort..).
Pigeonhole sort?
Ähnliche Themen
- Antworten
- 1
- Aufrufe
- 503
- Antworten
- 1
- Aufrufe
- 921
- Antworten
- 0
- Aufrufe
- 808
- Antworten
- 0
- Aufrufe
- 640
- Antworten
- 0
- Aufrufe
- 657