App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
News AMD verwirrt mit Ankündigung von 12 Kernen
- Ersteller Nero24
- Erstellt am
Ritschie
Moderator (DC)
☆☆☆☆☆☆
- Mitglied seit
- 30.12.2010
- Beiträge
- 4.598
- Renomée
- 1.341
- Standort
- /home
- Mitglied der Planet 3DNow! Kavallerie!
- Lieblingsprojekt
- SIMAP; LHC@SixTrack; Einstein@home
- Meine Systeme
- Threadripper 3970X, Threadripper 1950X, Ryzen9 3950X, Ryzen7 1700X, Ryzen3 4300GE
- Mein Laptop
- lenovo ThinkPad E595; AMD Ryzen 5 3500U
- Prozessor
- AMD Threadripper 3970X
- Mainboard
- MSI Creator TRX40
- Kühlung
- Watercool Heatkiller IV, i-PCPS, i-KOM, Watercool HTF4 LT
- Speicher
- 4 x 16 GB G.Skill TridentZ DDR4-3200 CL14
- Grafikprozessor
- AMD Radeon RX 6700 XT
- Display
- 27" Lenovo Legion Y27q-20 WQHD FreeSync
- SSD
- Samsung SSD 970 PRO 512GB, M.2
- Gehäuse
- Cooler Master Cosmos 1000
- Netzteil
- be quiet! DARK POWER PRO P11 550W
- Tastatur
- Ducky Shine 3
- Betriebssystem
- openSUSE Leap
- Webbrowser
- Firefox
Welche 95W FX-8 neben dem 8300 waren denn angekündigt?Und es gibt für AM3+ keinen 8 Kerner in der 95 Watt Klasse, zwar x mal angekündigt, jedoch nie erschienen. Verarsche pur...
Gruß,
Ritschie
Zuletzt bearbeitet:
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
wo sind es denn 12 Compute Units (ein willkürlicher, undefinierter Begriff, der aber suggeriert, daß diese 12 Dinger gleich sind)? Es sind 4 CPU-Kerne (ob das "echte" sind, diskutieren wir hier mal nicht noch mal ) und noch 512 Shader, die ein bißchen willkürlich in 64er-Blöcke zusammengefaßt sind (das ist zwar technisch so und nicht nur reines Marketing, aber man könnte auch z.B. 32 oder 16 Shader zusammenfassen als kleinste Einheit). Man kann auf den CPU-Kernen nicht das rechnen, was die GPU macht, und umgekehrt geht es auch nicht. Also kann man das genauso nicht in einen Topf werfen wie der 4 Kerner mit 3 GHz vermarktet wurde als "= also insgesamt 12 GHz".obwohl es für Leute, die sich ein wenig mit der Materie auskennen, offensichtlich ist, dass es sich dabei um 12 Compute Cores handelt.
Wenn ich mit mit 4 VW Golf mit Höchstgeschwindigkeit 200 km/h natürlich nicht 800 km/h auf der Autobahn fahren kann, dann kann ich auch nicht mit 4 Gölfen und 512 Mofas 1024+20=1044 Leute über die Autobahn befördern, da ich mit den Mofas nicht auf die Autobahn darf.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
@OBrian
openCL ist also willkürlich undefiniert?
Aha, dann mal 8+64 Compute Units (CUs) mit LuxMark v2.0:
GPUs only: http://abload.de/img/luxmarkv2_stock4ghz_gl9ftp.jpg
CPU+GPU+GPU: http://abload.de/img/luxmarkv2_stock4ghzcfi10.jpg
+12.5% Samples/sec bei wie viel % mehr Cus?
openCL ist also willkürlich undefiniert?
Aha, dann mal 8+64 Compute Units (CUs) mit LuxMark v2.0:
GPUs only: http://abload.de/img/luxmarkv2_stock4ghz_gl9ftp.jpg
CPU+GPU+GPU: http://abload.de/img/luxmarkv2_stock4ghzcfi10.jpg
+12.5% Samples/sec bei wie viel % mehr Cus?
G
Gast29012019_2
Guest
Welche 95W FX-8 neben dem 8300 waren denn angekündigt?
GrußRitschie
FX 8120 95 Watt
War gefühlt zu der Zeit kaum lieferbar und nur für OEM was CPU-World dazu ausspuckt.
Es zeigt jedenfalls das im Gegensatz zu Intel gerne an der Taktschraube dreht, aber es nicht schafft eine CPU in der Klasse zu bringen die dann ebenfalls Ihre 3Ghz+ erreicht und das als Massenfertigung. Mit Ausnahme des Servermarkts.
Ritschie
Moderator (DC)
☆☆☆☆☆☆
- Mitglied seit
- 30.12.2010
- Beiträge
- 4.598
- Renomée
- 1.341
- Standort
- /home
- Mitglied der Planet 3DNow! Kavallerie!
- Lieblingsprojekt
- SIMAP; LHC@SixTrack; Einstein@home
- Meine Systeme
- Threadripper 3970X, Threadripper 1950X, Ryzen9 3950X, Ryzen7 1700X, Ryzen3 4300GE
- Mein Laptop
- lenovo ThinkPad E595; AMD Ryzen 5 3500U
- Prozessor
- AMD Threadripper 3970X
- Mainboard
- MSI Creator TRX40
- Kühlung
- Watercool Heatkiller IV, i-PCPS, i-KOM, Watercool HTF4 LT
- Speicher
- 4 x 16 GB G.Skill TridentZ DDR4-3200 CL14
- Grafikprozessor
- AMD Radeon RX 6700 XT
- Display
- 27" Lenovo Legion Y27q-20 WQHD FreeSync
- SSD
- Samsung SSD 970 PRO 512GB, M.2
- Gehäuse
- Cooler Master Cosmos 1000
- Netzteil
- be quiet! DARK POWER PRO P11 550W
- Tastatur
- Ducky Shine 3
- Betriebssystem
- openSUSE Leap
- Webbrowser
- Firefox
Meines Wissens wurden beide CPUs immer nur für OEM angekündigt und da gab/gibt es diese auch. Von daher verstehe ich nicht genau, wo hier die "Verarsche" sein soll
FX 8120 95 Watt
War gefühlt zu der Zeit kaum lieferbar und nur für OEM was CPU-World dazu ausspuckt.
Gruß,
Ritschie
G
Gast29012019_2
Guest
Weil der Endkunde, die Heizplatten angedreht bekommt und der Rest für den OEM und Servermarkt verbleibt, und das ist in meinen Augen Kundenverarschung. Und selbst die angeblich verfügbaren Stromspar-CPUs diverser Shops entwickelten sich später als 125 Watt Varianten, als ich damals einen Quad-Core in der 95 Watt Klasse gesucht hatte.
Fab8
Commander
- Mitglied seit
- 15.07.2012
- Beiträge
- 187
- Renomée
- 2
Weil der Endkunde, die Heizplatten angedreht bekommt und der Rest für den OEM und Servermarkt verbleibt, und das ist in meinen Augen Kundenverarschung. Und selbst die angeblich verfügbaren Stromspar-CPUs diverser Shops entwickelten sich später als 125 Watt Varianten, als ich damals einen Quad-Core in der 95 Watt Klasse gesucht hatte.
Es gab schon oft den Fall das OEMs selektierte CPU-Serien bekommen haben die es sonst nicht am Markt gab. Der Opteron 3365 aus der 3300er Serie ist als Serverchip unterwegs und entsprechend nur dort zu finden. Ich hatte damals auch danach gesucht, wobei es dann ganz schnell klar war das es diese CPU nicht als Einzelstück zu kaufen gibt. Das nun Produkbeschreibungen im Handel nicht immer korrekt sind ist nicht gerade selten.
OBrian
Moderation MBDB, ,
- Mitglied seit
- 16.10.2000
- Beiträge
- 17.032
- Renomée
- 267
- Standort
- NRW
- Prozessor
- Phenom II X4 940 BE, C2-Stepping (undervolted)
- Mainboard
- Gigabyte GA-MA69G-S3H (BIOS F7)
- Kühlung
- Noctua NH-U12F
- Speicher
- 4 GB DDR2-800 ADATA/OCZ
- Grafikprozessor
- Radeon HD 5850
- Display
- NEC MultiSync 24WMGX³
- SSD
- Samsung 840 Evo 256 GB
- HDD
- WD Caviar Green 2 TB (WD20EARX)
- Optisches Laufwerk
- Samsung SH-S183L
- Soundkarte
- Creative X-Fi EM mit YouP-PAX-Treibern, Headset: Sennheiser PC350
- Gehäuse
- Coolermaster Stacker, 120mm-Lüfter ersetzt durch Scythe S-Flex, zusätzliche Staubfilter
- Netzteil
- BeQuiet 500W PCGH-Edition
- Betriebssystem
- Windows 7 x64
- Webbrowser
- Firefox
- Verschiedenes
- Tastatur: Zowie Celeritas Caseking-Mod (weiße Tasten)
@Windhund: Jo, da kommt das mal zufällig gut hin, z.B. weil die Taktfrequenz der GPU und der CPU auch gerade passend sind. CPU und GPU sind einfach zu unterschiedlich, als daß man die über einen Kamm scheren kann.
Also nicht falsch verstehen, ich fänd's gut, wenn AMD seine gute GPU stärker als Ersatz für seine schwache CPU verwenden kann und damit mehr Umsatz generieren kann. Und allgemein wenn mehr Programme in OpenCL geschrieben werden. Aber wenn das Marketing einfach "alles, was da so rumrechnet" in einen Topf wirft, dann ist das irreführend und wird Kunden sich verarscht vorkommen lassen, sobald ihnen ihr Kumpel mit seinem gefährlichen Halbwissen dann zeigt, daß das ja gar kein 12-Kerner ist, wie sie beim Kauf gedacht haben, sondern nur ein 4-Kerner.
Also nicht falsch verstehen, ich fänd's gut, wenn AMD seine gute GPU stärker als Ersatz für seine schwache CPU verwenden kann und damit mehr Umsatz generieren kann. Und allgemein wenn mehr Programme in OpenCL geschrieben werden. Aber wenn das Marketing einfach "alles, was da so rumrechnet" in einen Topf wirft, dann ist das irreführend und wird Kunden sich verarscht vorkommen lassen, sobald ihnen ihr Kumpel mit seinem gefährlichen Halbwissen dann zeigt, daß das ja gar kein 12-Kerner ist, wie sie beim Kauf gedacht haben, sondern nur ein 4-Kerner.
FalconFly
Admiral Special
Erschwerend kommt hinzu, dass viele der Berechnungen gar nicht sinnhaft auf OpenCL umgesetzt werden koennen. Dieser Teil des "LKW" steht daher meistens ungenutzt in der Garage und rendert bestenfalls den Desktop bzw. alle klassischen Grafikaufgaben.
Und falls doch, konkurrieren die GPU und die CPU-Kerne um die fuer GPU-Beduerfnisse mickrige Speicherbandbreite, die bereits fuer die GPU allein vorne und hinten nicht ausreicht (mit dem Problem haben intels shared memory GPUs ebenso zu kaempfen).
Ist mir absolut unverstaendlich, warum AMD seinen APUs nicht von Anfang an dedizierten Speicher mitgegeben hat, das Sideport Memory damals fuer die klassischen OnBoard-GPUs war eigentlich schon die richtige Richtung.
Mit ein paar Jahren Verspaetung scheinen sie es aber bemerkt zu haben, wenn man die Stacked-DRAM News liest - das wird allerdings mit der Umsetzung wohl laenger dauern als so etwas wie einfaches Sideport-RAM.
Und falls doch, konkurrieren die GPU und die CPU-Kerne um die fuer GPU-Beduerfnisse mickrige Speicherbandbreite, die bereits fuer die GPU allein vorne und hinten nicht ausreicht (mit dem Problem haben intels shared memory GPUs ebenso zu kaempfen).
Ist mir absolut unverstaendlich, warum AMD seinen APUs nicht von Anfang an dedizierten Speicher mitgegeben hat, das Sideport Memory damals fuer die klassischen OnBoard-GPUs war eigentlich schon die richtige Richtung.
Mit ein paar Jahren Verspaetung scheinen sie es aber bemerkt zu haben, wenn man die Stacked-DRAM News liest - das wird allerdings mit der Umsetzung wohl laenger dauern als so etwas wie einfaches Sideport-RAM.
Zuletzt bearbeitet:
Sideport Memory hätte genausowenig funktioniert, wie tripple oder quadchannel RAM, da einfach nicht genügend Pins von CPU zum Mainboard zur verfügung stehen. Die einzige Möglichkeit ist RAM in der CPU unterzubringen und da ist die Technik einfach noch nicht so weit gewesen.
Evtl war Kaveri ja schon dafür vorgesehen mit seinem 4 Kanal interface und ca. 30% brachliegender GPU performance, nur die Technik war noch nicht so weit. Hoffen wir, dass es AMD mit carrizo gelingt.
Evtl war Kaveri ja schon dafür vorgesehen mit seinem 4 Kanal interface und ca. 30% brachliegender GPU performance, nur die Technik war noch nicht so weit. Hoffen wir, dass es AMD mit carrizo gelingt.
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.228
- Renomée
- 536
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
Daher ja@Windhund: Jo, da kommt das mal zufällig gut hin, z.B. weil die Taktfrequenz der GPU und der CPU auch gerade passend sind. CPU und GPU sind einfach zu unterschiedlich, als daß man die über einen Kamm scheren kann.
Also nicht falsch verstehen, ich fänd's gut, wenn AMD seine gute GPU stärker als Ersatz für seine schwache CPU verwenden kann und damit mehr Umsatz generieren kann. Und allgemein wenn mehr Programme in OpenCL geschrieben werden. Aber wenn das Marketing einfach "alles, was da so rumrechnet" in einen Topf wirft, dann ist das irreführend und wird Kunden sich verarscht vorkommen lassen, sobald ihnen ihr Kumpel mit seinem gefährlichen Halbwissen dann zeigt, daß das ja gar kein 12-Kerner ist, wie sie beim Kauf gedacht haben, sondern nur ein 4-Kerner.
Soweit ich das verstanden habe werden die Shader zu einer Funktion kombiniert, dadurch hat eine meiner HD 7970 = 32 CUs.
Interessant ist auch, dass vom dynamic (V)RAM gebrauch gemacht wird mit LuxMark v2.
Wenn nun eine dGPU dazu kommt, was würde dagegen sprechen die iGPU CUs zum füttern zu nutzen?
Zuletzt bearbeitet:
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Alle Funktionsgruppen durcheinander zu werfen und zu "Cores" zu erklären ist wirklich irreführend gegenüber dem Verbraucher. Zumal man einige Monate vorher noch viel Wert auf die Unterscheidung zwischen "Module" und "Core" bei der Bulldozer Architektur gelegt hat. Andererseits kann man AMD verstehen. Man muss den Verkauf der (größeren) APUs um jeden Preis ankurbeln. Die Verkaufszahlen bleiben angeblich schon seit einiger Zeit weit hinter den Erwartungen zurück. Zu langsam, zu stromhungrig und zu teuer lauten nur einige der teils unberechtigten Vorwürfe. So langsam schwimmen AMD die Felle davon. Sie müssen retten, was noch zu retten ist. Und wenn man dann beim Marketing etwas über das Ziel hinausschießt, ist das einfach den Umständen geschuldet. Im Grunde kommt es eh nicht auf die Anzahl der "Cores" an. Es zählt nur die Leistung, die freigesetzt wird. Von mir aus könnte AMD jede Shader Unit im iGPU Teil einzeln zählen. Letztendlich basiert die Kaufentscheidung der meisten Käufer auf Benchmarks und dort lässt sich nicht derart tricksen.
Zuletzt bearbeitet:
LoRDxRaVeN
Grand Admiral Special
- Mitglied seit
- 20.01.2009
- Beiträge
- 4.169
- Renomée
- 64
- Standort
- Oberösterreich - Studium in Wien
- Mein Laptop
- Lenovo Thinkpad Edge 11
- Prozessor
- Phenom II X4 955 C3
- Mainboard
- Gigabyte GA-MA790X-DS4
- Kühlung
- Xigmatek Thor's Hammer + Enermax Twister Lüfter
- Speicher
- 4 x 1GB DDR2-800 Samsung
- Grafikprozessor
- Sapphire HD4870 512MB mit Referenzkühler
- Display
- 22'' Samung SyncMaster 2233BW 1680x1050
- HDD
- Hitachi Deskstar 250GB, Western Digital Caviar Green EADS 1TB
- Optisches Laufwerk
- Plextor PX-130A, Plextor Px-716SA
- Soundkarte
- onboard
- Gehäuse
- Aspire
- Netzteil
- Enermax PRO82+ II 425W ATX 2.3
- Betriebssystem
- Windows 7 Professional Studentenversion
- Webbrowser
- Firefox siebenunddreißigsttausend
- Schau Dir das System auf sysprofile.de an
wo sind es denn 12 Compute Units (ein willkürlicher, undefinierter Begriff, der aber suggeriert, daß diese 12 Dinger gleich sind)? Es sind 4 CPU-Kerne (ob das "echte" sind, diskutieren wir hier mal nicht noch mal ) und noch 512 Shader, die ein bißchen willkürlich in 64er-Blöcke zusammengefaßt sind
Wieso soll das undefiniert sein? Selbst wenn es nur von AMD so definiert wurde (mit den 64er Blöcken) und keinen weiteren technischen Hintergrund hätte, wäre es immer noch eine Definition.
Versteh(t) mich nicht falsch, ich finde diese simple Zusammenfassung bzw. Addition auch nicht richtig, aber, wie schon zweimal geschrieben, sollte es für einen Hardware-Redakteur eindeutig sein, was mit diesen 12 "Cores" gemeint ist. Nur darum ging es mir, nicht ob diese Bezeichnung nun gut oder schlecht ist.
LG
PS: Bzgl. der leidigen "echte Kerne" Thematik plädiere ich zur Verwendung des Begriffs "klassische Kerne", welcher mMn viel weniger unsinnig ist.
---------- Beitrag hinzugefügt um 16:53 ---------- Vorheriger Beitrag um 16:48 ----------
Ist mir absolut unverstaendlich, warum AMD seinen APUs nicht von Anfang an dedizierten Speicher mitgegeben hat, das Sideport Memory damals fuer die klassischen OnBoard-GPUs war eigentlich schon die richtige Richtung.
Solche Aussagen halte ich schon immer für sehr überheblich. Es kann doch nicht allen erstes jemand glauben, dass AMD keine Art schnellen Zwischenspeicher verbaut hätte (wie auch immer diese aussehen müsste, um hUMA etc. nicht ad absurdum zu führen), wenn dieser technisch und wirtschaftlich sinnvoll umsetzbar gewesen wäre. Natürlich ist es ihnen bewusst, dass die Bandbreite in vielen Fällen der Flaschenhals ist, aber in der Hinsicht gab es wohl einfach keine vertretbare Lösung.
Scour
Grand Admiral Special
- Mitglied seit
- 17.03.2002
- Beiträge
- 4.827
- Renomée
- 66
- Standort
- Unterfranken
- Mein Laptop
- Fujitsu A3510
- Prozessor
- Intel i5-6600K
- Mainboard
- Asrock Z270 Pro4
- Kühlung
- be quiet! Pure Rock Slim
- Speicher
- 2x4GB G.Skill Aegis DDR4-2400 DIMM CL15
- Grafikprozessor
- Asus GTX 460 OC
- Display
- Acer LED S1 S221HQLbid
- SSD
- Teamgroup L3 Evo 960GB,Kingston HyperX Savage 480GB, Mushkin Reactor 1TB, Plextor M5S, Crucial M4
- HDD
- WD20PURZ, Toshiba V300, Hitachi 7K2000 usw.
- Optisches Laufwerk
- LG GH24NSD6, Pioneer BDR-209EBK
- Soundkarte
- Onboard
- Gehäuse
- Zalmann MS800
- Netzteil
- Seasonic G450
- Betriebssystem
- WinXP Pro, W7 HP 64 Bit, W8.1 64 Bit, W10-64Bit
- Webbrowser
- Firefox
- Verschiedenes
- So, sollte für eine Weile reichen :)
Die Verkaufszahlen bleiben angeblich schon seit einiger Zeit weit hinter den Erwartungen zurück. Zu langsam, zu stromhungrig und zu teuer lauten nur einige der teils unberechtigten Vorwürfe. So langsam schwimmen AMD die Felle davon. Sie müssen retten, was noch zu retten ist.
Aber sie sind auch nicht ganz unberechtigt.
Ich finde die Teile schon zu teuer, die schwache CPU-Leistung kann nicht durch die GPU-Leistung egalisiert werden. Es sei denn es gibt wirklich ein Anwender der ein optimales Anwendungsprofil bietet. Man kann im Falle einer APU nicht einfach den CPU oder GPU-Part auswechseln, sondern es geht nur beides zusammen
AMD hat eben den Endkundenfokus vor langer Zeit verloren, da sie auch im OEM-Markt nie so richtig stark waren rächt sich das; nicht irgendwann, sondern schon seit Jahren
So ist es und der der leistet auch noch ungleich mehr, sitzt in einer moderneren Plattform (mit nativen PCIe 3.0 und USB3), verfügt über eine geringere Leistungsaufnahme und viel bessere SW-Unterstützung (Intel Compilter und Libs). Gerade letzteres verzerrt zwar oft in Benchmarks das Bild noch weiter zugunsten Intels, aber AMD hat es eben immer versäumt da gegen zu halten und das rächt sich eben irgendwann.Für 200€ kriegt man aber auch einen Xeon E3-1231 v3, der eine adäquate Alternative zum i7 ist.
Aber 512 Mofas fahren doch zusammen 12800km/h, damit fahren die Marketingleute dann nicht auf der Autobahn, weil sie die Mofas da gar nicht ausfahren können 8)dann kann ich auch nicht mit 4 Gölfen und 512 Mofas 1024+20=1044 Leute über die Autobahn befördern, da ich mit den Mofas nicht auf die Autobahn darf.
Dann mach doch das Gegenteil von OC, denn kannst Du ja eine weitaus geringere Leistungsaufnahme erreichen, wenn Du den Takt und die Spannung senkst.Weil der Endkunde, die Heizplatten angedreht bekommt und der Rest für den OEM und Servermarkt verbleibt, und das ist in meinen Augen Kundenverarschung.
Das nennt sich Cache und gibt es schon lange, macht nur die Chips groß und damit teuer. Daher versucht man ja auch das Gegenteil von dem zu tun, was man bei den GPUs gemacht hat: Beides auf getrennten Dies unterzubringen.Die einzige Möglichkeit ist RAM in der CPU unterzubringen und da ist die Technik einfach noch nicht so weit gewesen.
Das sind sie auch, wenn man die CPU Leistung vergleicht. Die ganze APU Idee war ja, dass die GPU aufgrund der Integration selbst kleine parallelisierbare Aufgaben effizienter übernehmen kann, weil die Daten nicht erst in deren Speicher kopiert werden müssen. Da man andererseits viel leichter mehr GPU Kerne als CPU Kerne bauen kann und auch beim Takt keine großen Sprünge mehr zu erwarten sind, wollen man so dem Dilema entkommen, dass es viel aufwendiger ist die Parallelität mit noch mit CPU Kernen zu erreichen. Die Idee ist ja auch gut, nur fehlt es an der softwareseitigen Unterstützung, mit der die Sache steht oder fällt. Da SW immer um Jahre bis Jahrzehnte hinter der HW Entwicklung zurückhängt, wird es auch noch eine lange Durststrecke für AMD, zumal die Vernachlässigung der Effizienz und Leistung der CPU Kerne AMD weit ins Abseits befördert hat, damit auch weit ab vom dem Interesse der SW-Hersteller.Man muss den Verkauf der (größeren) APUs um jeden Preis ankurbeln. Die Verkaufszahlen bleiben angeblich schon seit einiger Zeit weit hinter den Erwartungen zurück. Zu langsam
Bei der eigentlichen APU Idee passt es ja irgendwie auch, nur gibt es eben keine/kaum SW, mit der man sowas auch effizient nutzen kann. Die bestehenden Programme basieren meist auf reiner CPU Berechnung und geben allenfalls große Aufgaben an eine GPU ab, aber gegen große GPUs kommen die integriert nicht ab, dafür fehlt es an Platz auf dem Chip, TDP und der Speicheranbindung. Bei den kleine Aufgaben bekommen sie Druck durch die SIMD Befehlssatzerweiterung die in den x86 immer stärker Einzug halten und da AMD mit seinem Marktanteil nur noch ein Nischenprodukt ist, dürfte klar sein, welche Technik die SW Hersteller zuerst untersützen werden.So langsam schwimmen AMD die Felle davon. Sie müssen retten, was noch zu retten ist. Und wenn man dann beim Marketing etwas über das Ziel hinausschießt, ist das einfach den Umständen geschuldet.
Aber ganz im Gegenteil, gerade da wird erst richtig getrickst!Letztendlich basiert die Kaufentscheidung der meisten Käufer auf Benchmarks und dort lässt sich nicht derart tricksen.
G
Gast29012019_2
Guest
@Holt, wollte kein OC +/- betreiben !
Habe allerdings den Turbo-Modus deaktiviert, traut man dem Asrock Tool ohne Takt und Spannungserhöhung würde ich jetzt in der 95 Watt Klasse liegen. Wenn die Server-CPUs nicht so teuer wären, hätte ich mir schon längst den Opteron 3300 auf meinem Board gesetzt, aber gut anderes Thema.
Habe allerdings den Turbo-Modus deaktiviert, traut man dem Asrock Tool ohne Takt und Spannungserhöhung würde ich jetzt in der 95 Watt Klasse liegen. Wenn die Server-CPUs nicht so teuer wären, hätte ich mir schon längst den Opteron 3300 auf meinem Board gesetzt, aber gut anderes Thema.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Kommt ganz auf die Praxisnähe des gewählten Benchmarks an, würde ich sagen.Aber ganz im Gegenteil, gerade da wird erst richtig getrickst!
Man kann schließlich auch mit Real Life Software (TrueCrypt, 7-Zip, ect.) benchen.
Jetzt scheint er ja zu kommen, bei AMD dauert es eben immer etwas länger, gerade wenn es keine APU ist:Und es gibt für AM3+ keinen 8 Kerner in der 95 Watt Klasse, zwar x mal angekündigt, jedoch nie erschienen. Verarsche pur...
Ähnliche Themen
- Antworten
- 22
- Aufrufe
- 9K
- Antworten
- 0
- Aufrufe
- 71K