App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Kolumne Neuausrichtung bei AMD: Gut oder schlecht? Diskussion im P3D-Team
- Ersteller Nero24
- Erstellt am
tomturbo
Technische Administration, Dinosaurier
- Mitglied seit
- 30.11.2005
- Beiträge
- 9.450
- Renomée
- 664
- Standort
- Österreich
- Aktuelle Projekte
- Universe@HOME, Asteroids@HOME
- Lieblingsprojekt
- SETI@HOME
- Meine Systeme
- Xeon E3-1245V6; Raspberry Pi 4; Ryzen 1700X; EPIC 7351
- BOINC-Statistiken
- Mein Laptop
- Microsoft Surface Pro 4
- Prozessor
- R7 5800X
- Mainboard
- Asus ROG STRIX B550-A GAMING
- Kühlung
- Alpenfön Ben Nevis Rev B
- Speicher
- 2x32GB Mushkin, D464GB 3200-22 Essentials
- Grafikprozessor
- Sapphire Radeon RX 460 2GB
- Display
- BenQ PD3220U, 31.5" 4K
- SSD
- 1x HP SSD EX950 1TB, 1x SAMSUNG SSD 830 Series 256 GB, 1x Crucial_CT256MX100SSD1
- HDD
- Toshiba X300 5TB
- Optisches Laufwerk
- Samsung Brenner
- Soundkarte
- onboard
- Gehäuse
- Fractal Design Define R4
- Netzteil
- XFX 550W
- Tastatur
- Trust ASTA mechanical
- Maus
- irgend eine silent Maus
- Betriebssystem
- Arch Linux, Windows VM
- Webbrowser
- Firefox + Chromium + Konqueror
- Internetanbindung
-
▼300
▲50
Tja das ist ja eben das Problem bei den Blauen egal was man nimmt irgend etwas ist immer beschnitten. Ob Cpu ob Chipsatz irgendwas ist immer faul.
Aber lasst es ruhig gut sein ich muss nicht überzeugt werden, denn ich persönlich bin vollkommen zufrieden mit meinem System.
Am meisten spare ich ein indem ich nichts kaufe. Das ist wohl eine der vernünftigsten Entscheidungen die man treffen kann.
Auch wenn mich Dinge wie 8 gleichzeitige Threads reizen würden brauche ich sie nicht.
Auf das nächste was ich mich freue ist ein Popcorn A-400.
lg
__tom
Aber lasst es ruhig gut sein ich muss nicht überzeugt werden, denn ich persönlich bin vollkommen zufrieden mit meinem System.
Am meisten spare ich ein indem ich nichts kaufe. Das ist wohl eine der vernünftigsten Entscheidungen die man treffen kann.
Auch wenn mich Dinge wie 8 gleichzeitige Threads reizen würden brauche ich sie nicht.
Auf das nächste was ich mich freue ist ein Popcorn A-400.
lg
__tom
JETZT hat AMD die Chance nicht permanent gegen einen GOLIATH (INTEL) kämpfen zu müssen. Im ARM Markt gibt es noch keinen GOLIATH, sondern bisher nur DAVIDs.
Dass AMD solange gegen Intel bestanden hat ist ein absolutes Wunder, alle anderen x86 Davids sind vom Goliath vernichtet worden: Winchip, Cyrix, IBM, TI, Transmeta etc... erinnert sich noch jemand an diese?
Dass AMD solange gegen Intel bestanden hat ist ein absolutes Wunder, alle anderen x86 Davids sind vom Goliath vernichtet worden: Winchip, Cyrix, IBM, TI, Transmeta etc... erinnert sich noch jemand an diese?
Berniyh
Grand Admiral Special
- Mitglied seit
- 29.11.2005
- Beiträge
- 5.216
- Renomée
- 223
Sieht so aus, also wollte AMD das Geschäft mit Serverprozessoren komplett aufgeben?http://www.heise.de/newsticker/meldung/AMD-entlaesst-Open-Source-Entwickler-1744670.html
Im Zuge der aktuellen Entlassungen hat AMD sein Operating System Research Center (OSRC) in Dresden geschlossen, wie heise open auf der LinuxCon Europe in Barcelona erfahren hat. Die dort beschäftigten Linux-Entwickler, die unter anderem an der Unterstützung von AMD-Prozessoren im Linux-Kernel und in Xen gearbeitet haben, wurden freigestellt.
Und an Android o.ä. Geräten (oft ja Linux/Open Source als Unterbau) scheint man auch kein Interesse zu haben...
Wie soll denn das gut gehen?
Scour
Grand Admiral Special
- Mitglied seit
- 17.03.2002
- Beiträge
- 4.990
- Renomée
- 94
- Standort
- Unterfranken
- Mein Laptop
- Fujitsu A3510
- Prozessor
- Intel i5-13500 / AMD Ryzen 5 8600G
- Mainboard
- Asrock Z690 Pro RS / Asus TUF B650-E WiFi
- Kühlung
- LC Power LC-CC 120 / Thermalright Assasin King 120 SE White ARGB
- Speicher
- 2x 16GB G:Skill Aegis DDR4-3200 / 2x 16GB G.Skill Flare DDR5-6000
- Grafikprozessor
- iGPU / iGPU
- Display
- Benq BL258 IT/AOC Gaming 24G2U5
- SSD
- Adata S70 2TB, Kingston NV1 2TB, Crucial MX500 2TB, Sandisk Ultra 3D 2TB usw.
- HDD
- WD Ultrastar HC320 8TB, Seagate Exos 8TB, Toshiba HDWE140 X300 usw.
- Optisches Laufwerk
- LG GH24NSD6, Pioneer BDR-209EBK
- Soundkarte
- Onboard
- Gehäuse
- MS-Tech CA-0210 / ARLT A3608
- Netzteil
- Corsair CX550F / be quiet Pure Power 500W
- Tastatur
- Irgendwas von Cherry / Hama KC-200
- Maus
- Logitech M100 / Cherry MC 1000
- Betriebssystem
- W10-64Bit
- Webbrowser
- Firefox
- Verschiedenes
- So, sollte für eine Weile reichen :)
Ich schrieb ja schon das AMD sich größte Mühe gibt alles falsch zu machen.
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.854
- Renomée
- 509
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
Intel = Schneller, weniger Verbrauch (somit leichter zu kühlen), insgesamt bessere Plattform mit nativem USB3.0, PCIe 3.0; für mich noch besonders wichtig, problemloses SATA-Hotpluggin
Ich sehe mich da deutlich objektiver als du es bist, du bringst nämlich keine stichhaltigen Argumente für deine Behauptungen sondern rein subjektive Ansichten
AMDs FX haben keine Grafik, das Argument ist somit hinfällig. Wenn dir eine "kastrierte Grafik" zu wenig ist, ist auch ein Trinity zu wenig.
Und Preis-/Leistung ist bei einigen Intel derzeit super, auf jeden Fall besser als bei AMD sobald man den Verbrauch einrechnet.
Jaja, ich weiß, der zählt nicht, nur der Anschaffungspreis, aber was solls
Was du hier schreibst gehört auch in die Kategorie "subjektive Ansichten", einschließlich PCIe 3.0, besonders aber das immer gern genommene "den Verbrauch einrechnen". Das hatten wir doch schon ein paar Mal?! Sobald man das richtig stellt, herrscht erstmal Funkstille, keine Antwort mehr. Tage später wird der "exorbitant hohe Stromverbrauch" wieder herbeigezaubert, wie ein Karnickel aus dem Zylinder, und das Spiel geht wieder von vorne los.
.
EDIT :
.
...Im Zuge der aktuellen Entlassungen hat AMD sein Operating System Research Center (OSRC) in Dresden geschlossen...
DAS wäre für mich ein Grund, AMD den Rücken zu kehren. Wenn die Linux-Unterstützung auf ein Level von "läuft gerade noch so eben" zurückfällt, kann ich die CPUs nicht mehr gebrauchen. Und das jetzt, wo Trinity richtig gut geworden ist, echt zum Kotzen
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.124
- Renomée
- 986
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X (100-100000071)
- Mainboard
- ASUS ProArt B550-Creator
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB (11324-01-20G)
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64) Xfce
- Verschiedenes
- ASUS TPM-SPI (Nuvoton NPCT750A)
Scott Adam hat einen Comicstrip veröffentlicht, der mich sehr an AMD erinnert:
Quelle: http://dilbert.com/2012-11-06/
Quelle: http://dilbert.com/2012-11-06/
Scour
Grand Admiral Special
- Mitglied seit
- 17.03.2002
- Beiträge
- 4.990
- Renomée
- 94
- Standort
- Unterfranken
- Mein Laptop
- Fujitsu A3510
- Prozessor
- Intel i5-13500 / AMD Ryzen 5 8600G
- Mainboard
- Asrock Z690 Pro RS / Asus TUF B650-E WiFi
- Kühlung
- LC Power LC-CC 120 / Thermalright Assasin King 120 SE White ARGB
- Speicher
- 2x 16GB G:Skill Aegis DDR4-3200 / 2x 16GB G.Skill Flare DDR5-6000
- Grafikprozessor
- iGPU / iGPU
- Display
- Benq BL258 IT/AOC Gaming 24G2U5
- SSD
- Adata S70 2TB, Kingston NV1 2TB, Crucial MX500 2TB, Sandisk Ultra 3D 2TB usw.
- HDD
- WD Ultrastar HC320 8TB, Seagate Exos 8TB, Toshiba HDWE140 X300 usw.
- Optisches Laufwerk
- LG GH24NSD6, Pioneer BDR-209EBK
- Soundkarte
- Onboard
- Gehäuse
- MS-Tech CA-0210 / ARLT A3608
- Netzteil
- Corsair CX550F / be quiet Pure Power 500W
- Tastatur
- Irgendwas von Cherry / Hama KC-200
- Maus
- Logitech M100 / Cherry MC 1000
- Betriebssystem
- W10-64Bit
- Webbrowser
- Firefox
- Verschiedenes
- So, sollte für eine Weile reichen :)
Was du hier schreibst gehört auch in die Kategorie "subjektive Ansichten", einschließlich PCIe 3.0, besonders aber das immer gern genommene "den Verbrauch einrechnen". *
Wenn man immer den Kaufpreis von AMD als Argument nimmt kommt eben der Konter mit dem Verbrauch 8) . Mag sein das es denjenigen egal ist bei denen Mutti die Stromrechnung bezahlt, aber manche bezahlen es mit dem eigenen Geld
Du tust gerade so als gäbe es jeden Tag neue Argumente für AMD, aber die Argumente dagegen werden ungültig
AMD hat sich eben entschlossen uns nicht mehr zu beachten.
Ich nehme das gerne zurück wenn der Steamroller einschlägt, aber AMDs Neuausrichtung läßt wenig Hoffnung aufkommen
WindHund
Grand Admiral Special
- Mitglied seit
- 30.01.2008
- Beiträge
- 12.240
- Renomée
- 538
- Standort
- Im wilden Süden (0711)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- NumberFields@home
- Lieblingsprojekt
- none, try all
- Meine Systeme
- RYZEN R9 3900XT @ ASRock Taichi X570 & ASUS RX Vega64
- BOINC-Statistiken
- Prozessor
- AMD Ryzen 9 5950X
- Mainboard
- ASRock 570X Taichi P5.05 Certified
- Kühlung
- AlphaCool Eisblock XPX, 366x40mm Radiator 6l Brutto m³
- Speicher
- 2x 16 GiB DDR4-3600 CL26 Kingston (Dual Rank, unbuffered ECC)
- Grafikprozessor
- 1x ASRock Radeon RX 6950XT Formula OC 16GByte GDDR6 VRAM
- Display
- SAMSUNG Neo QLED QN92BA 43" up to 4K@144Hz FreeSync PP HDR10+
- SSD
- WD_Black SN850 PCI-Express 4.0 NVME
- HDD
- 3 Stück
- Optisches Laufwerk
- 1x HL-DT-ST BD-RE BH10LS30 SATA2
- Soundkarte
- HD Audio (onboard)
- Gehäuse
- SF-2000 Big Tower
- Netzteil
- Corsair RM1000X (80+ Gold)
- Tastatur
- Habe ich
- Maus
- Han I
- Betriebssystem
- Windows 10 x64 Professional (up to date!)
- Webbrowser
- @Chrome.Google & Edge Chrome
@Scour
Es gibt auch AM3+ Boards mit IGP: http://geizhals.de/?cat=mbam3p&xf=5...00~597_Radeon+HD+3000~597_GeForce+7025#xf_top
Es gibt auch AM3+ Boards mit IGP: http://geizhals.de/?cat=mbam3p&xf=5...00~597_Radeon+HD+3000~597_GeForce+7025#xf_top
tomturbo
Technische Administration, Dinosaurier
- Mitglied seit
- 30.11.2005
- Beiträge
- 9.450
- Renomée
- 664
- Standort
- Österreich
- Aktuelle Projekte
- Universe@HOME, Asteroids@HOME
- Lieblingsprojekt
- SETI@HOME
- Meine Systeme
- Xeon E3-1245V6; Raspberry Pi 4; Ryzen 1700X; EPIC 7351
- BOINC-Statistiken
- Mein Laptop
- Microsoft Surface Pro 4
- Prozessor
- R7 5800X
- Mainboard
- Asus ROG STRIX B550-A GAMING
- Kühlung
- Alpenfön Ben Nevis Rev B
- Speicher
- 2x32GB Mushkin, D464GB 3200-22 Essentials
- Grafikprozessor
- Sapphire Radeon RX 460 2GB
- Display
- BenQ PD3220U, 31.5" 4K
- SSD
- 1x HP SSD EX950 1TB, 1x SAMSUNG SSD 830 Series 256 GB, 1x Crucial_CT256MX100SSD1
- HDD
- Toshiba X300 5TB
- Optisches Laufwerk
- Samsung Brenner
- Soundkarte
- onboard
- Gehäuse
- Fractal Design Define R4
- Netzteil
- XFX 550W
- Tastatur
- Trust ASTA mechanical
- Maus
- irgend eine silent Maus
- Betriebssystem
- Arch Linux, Windows VM
- Webbrowser
- Firefox + Chromium + Konqueror
- Internetanbindung
-
▼300
▲50
Scour,
ich hoffe Du hast keine größeren Zahlungen als den Verbrauch von den phösen AMD CPUs.
Ich habe wesentlich größere Posten wie Steuern und Abgaben wo ich durchschnittlich schon fast ein halbes Jahr für den Staat arbeite.
Meiner Brieftasche wären halber Spritpreis oder günstigere Lebensmittel auch wesentlich zuträglicher.
Womit wir wieder bei der 5% zu 95% Diskussion wären und den vollkommen verschrobenen Ansichten diesbezüglich.
Schon ausgerechnet wieviel Prozent der Stromrechnung auf die AMD CPU abfällt?
lg
__tom
ich hoffe Du hast keine größeren Zahlungen als den Verbrauch von den phösen AMD CPUs.
Ich habe wesentlich größere Posten wie Steuern und Abgaben wo ich durchschnittlich schon fast ein halbes Jahr für den Staat arbeite.
Meiner Brieftasche wären halber Spritpreis oder günstigere Lebensmittel auch wesentlich zuträglicher.
Womit wir wieder bei der 5% zu 95% Diskussion wären und den vollkommen verschrobenen Ansichten diesbezüglich.
Schon ausgerechnet wieviel Prozent der Stromrechnung auf die AMD CPU abfällt?
lg
__tom
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.854
- Renomée
- 509
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
Wenn man immer den Kaufpreis von AMD als Argument nimmt kommt eben der Konter mit dem Verbrauch 8) . Mag sein das es denjenigen egal ist bei denen Mutti die Stromrechnung bezahlt, aber manche bezahlen es mit dem eigenen Geld
Du tust gerade so als gäbe es jeden Tag neue Argumente für AMD, aber die Argumente dagegen werden ungültig
Der Stromverbrauch meiner Familie wird nicht von meiner Mutter bezahlt, keine Sorge. Ich habe auch nicht gesagt, dass Stromverbrauch prinzipiell egal wäre.
Beim günstigen Kaufpreis sparst Du bares Geld, das leuchtet ein, oder?
Dann gibt es das scheinbare Gegenargument, dass du das gesparte Geld über die Stromrechnung (mehr als) wieder los wirst. Das würde aber voraussetzen, dass deine CPU viel Strom verbrauchen würde. Und, oh schreck, das tut sie gar nicht. Zwar kann man in bunten Balkendiagrammen vieler Reviews lesen, dass es theoretisch möglich wäre, wenn denn bei CPU und GPU Volllast anliegen WÜRDE, dass dann auch der Verbrauch hoch WÄRE. Aber nochmal: In der Praxis tritt diese Situation einfach nicht ein. Und wenn, dann vielleicht für 10 Minuten alle zwei Wochen. Miss doch mal mit einem vernünftigen Messgerät nach (habe ich hier angeschlossen). Und dann rechne mal konkret vor, was das von deinem sauer verdienten Geld kostet!
Warum messen dann die Redaktionen den Verbrauch bei Volllast? Kannst sie gerne fragen! Weil es immerhin theoretisch interessant ist (da stimme ich zu), weil es sich so schön einfach messen lässt (prima Grund ), weil sie nicht wissen, wie sie den realen Verbrauch messen sollen. Die c't sagt einfach, dass der reale Verbrauch nah am Idle-Verbrauch liegt. Nur kapieren die Leser das nicht (wobei Journalisten, die von vielen Lesern missverstanden werden, in der Pflicht sind, ihre Messungen vernünftig zu erklären).
Und ja, wenn jetzt einer den ganzen Tag (warum auch immer) BOINC rechnen möchte, soll er Intel kaufen, nichts dagegen.
Das wurde schon öfter (nicht nur von mir) ausgeführt, und meine Beobachtung ist, dass die Adressaten einfach abtauchen, statt auf Argumente einzugehen. Dafür kommt das Thema Tage später wieder auf den Tisch.
Zuletzt bearbeitet:
Scour
Grand Admiral Special
- Mitglied seit
- 17.03.2002
- Beiträge
- 4.990
- Renomée
- 94
- Standort
- Unterfranken
- Mein Laptop
- Fujitsu A3510
- Prozessor
- Intel i5-13500 / AMD Ryzen 5 8600G
- Mainboard
- Asrock Z690 Pro RS / Asus TUF B650-E WiFi
- Kühlung
- LC Power LC-CC 120 / Thermalright Assasin King 120 SE White ARGB
- Speicher
- 2x 16GB G:Skill Aegis DDR4-3200 / 2x 16GB G.Skill Flare DDR5-6000
- Grafikprozessor
- iGPU / iGPU
- Display
- Benq BL258 IT/AOC Gaming 24G2U5
- SSD
- Adata S70 2TB, Kingston NV1 2TB, Crucial MX500 2TB, Sandisk Ultra 3D 2TB usw.
- HDD
- WD Ultrastar HC320 8TB, Seagate Exos 8TB, Toshiba HDWE140 X300 usw.
- Optisches Laufwerk
- LG GH24NSD6, Pioneer BDR-209EBK
- Soundkarte
- Onboard
- Gehäuse
- MS-Tech CA-0210 / ARLT A3608
- Netzteil
- Corsair CX550F / be quiet Pure Power 500W
- Tastatur
- Irgendwas von Cherry / Hama KC-200
- Maus
- Logitech M100 / Cherry MC 1000
- Betriebssystem
- W10-64Bit
- Webbrowser
- Firefox
- Verschiedenes
- So, sollte für eine Weile reichen :)
Genauso wie du auf Argumente eingehst ?
Ich sehe halt immer das Gesamtergebnis
Und ich finde die AMDs auch nicht so billig, ein 8150 liegt bei 160€, dafür gibts auch schon einen 3450
Ich sehe halt immer das Gesamtergebnis
Und ich finde die AMDs auch nicht so billig, ein 8150 liegt bei 160€, dafür gibts auch schon einen 3450
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.854
- Renomée
- 509
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
Genauso wie du auf Argumente eingehst ?
Wenn ich auf PCIe 3.0 eingehen würde, müsste ich dich wieder enttäuschen (schau dir mal an, wie viel % Leistung du bei PCIe 2.0 x8 statt x16 tatsächlich verlierst, du wirst dich wundern).
Was ist denn nun mit dem Stromverbrauch? Können wir den jetzt abhaken?
Scour
Grand Admiral Special
- Mitglied seit
- 17.03.2002
- Beiträge
- 4.990
- Renomée
- 94
- Standort
- Unterfranken
- Mein Laptop
- Fujitsu A3510
- Prozessor
- Intel i5-13500 / AMD Ryzen 5 8600G
- Mainboard
- Asrock Z690 Pro RS / Asus TUF B650-E WiFi
- Kühlung
- LC Power LC-CC 120 / Thermalright Assasin King 120 SE White ARGB
- Speicher
- 2x 16GB G:Skill Aegis DDR4-3200 / 2x 16GB G.Skill Flare DDR5-6000
- Grafikprozessor
- iGPU / iGPU
- Display
- Benq BL258 IT/AOC Gaming 24G2U5
- SSD
- Adata S70 2TB, Kingston NV1 2TB, Crucial MX500 2TB, Sandisk Ultra 3D 2TB usw.
- HDD
- WD Ultrastar HC320 8TB, Seagate Exos 8TB, Toshiba HDWE140 X300 usw.
- Optisches Laufwerk
- LG GH24NSD6, Pioneer BDR-209EBK
- Soundkarte
- Onboard
- Gehäuse
- MS-Tech CA-0210 / ARLT A3608
- Netzteil
- Corsair CX550F / be quiet Pure Power 500W
- Tastatur
- Irgendwas von Cherry / Hama KC-200
- Maus
- Logitech M100 / Cherry MC 1000
- Betriebssystem
- W10-64Bit
- Webbrowser
- Firefox
- Verschiedenes
- So, sollte für eine Weile reichen :)
OK, für diesen Fred schon
Da muß ich dich enttäuschen, ich weiß genug über Bandbreiten und deren Auswirkungen
Und nochmal die Frage: Warum denkt jeder bei PCIe 3.0 nur an Grafikkarten? Die nahezu verdoppelte Bandbreite gegenüber 2.0 sorgt dafür das man mit wenigen Lanes nette Zusatzchips anbinden kann.
Ich hab mir ein Z77-Board gekauft damit ich genügend Lanes für Zusatzkarten zur Verfügung habe. Wenn es mal SATA-Controller und USB3.0-Karten mit PCIe 3.0 gibt kann man endlich die Bandbreite mehrerer Geräte mit nur einer Lane nutzen.
Wer erinnert sich nicht an diese nette Beschreibung bei Geizhals?
"Achtung! Die volle Geschwindigkeit wird nicht erreicht auf Mainboards mit Intel H55/H57/P55/Q57/X58 Chipsets."
Damals war ich froh ein AM2+ Board zu haben, PCIe 2.0
Da muß ich dich enttäuschen, ich weiß genug über Bandbreiten und deren Auswirkungen
Und nochmal die Frage: Warum denkt jeder bei PCIe 3.0 nur an Grafikkarten? Die nahezu verdoppelte Bandbreite gegenüber 2.0 sorgt dafür das man mit wenigen Lanes nette Zusatzchips anbinden kann.
Ich hab mir ein Z77-Board gekauft damit ich genügend Lanes für Zusatzkarten zur Verfügung habe. Wenn es mal SATA-Controller und USB3.0-Karten mit PCIe 3.0 gibt kann man endlich die Bandbreite mehrerer Geräte mit nur einer Lane nutzen.
Wer erinnert sich nicht an diese nette Beschreibung bei Geizhals?
"Achtung! Die volle Geschwindigkeit wird nicht erreicht auf Mainboards mit Intel H55/H57/P55/Q57/X58 Chipsets."
Damals war ich froh ein AM2+ Board zu haben, PCIe 2.0
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.854
- Renomée
- 509
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
Der Stromverbrauch erfordert eine aufwendigere Kühlung. Der Intel-Boxed kühlt überdies durchweg sehr leise, der AMD Boxed (95W wie 125W) wird richtig laut.
Ich kaufe i. d. R. einen ordentlichen CPU-Kühler, bei Intel würde ich kein billigeres Modell als bei AMD nehmen. Einen AMD boxed habe ich auf einem K10 3-Kerner mit 95 W TDP im Einsatz, der ist sehr leise (wie gesagt, Volllast ist extrem selten).
Scour
Grand Admiral Special
- Mitglied seit
- 17.03.2002
- Beiträge
- 4.990
- Renomée
- 94
- Standort
- Unterfranken
- Mein Laptop
- Fujitsu A3510
- Prozessor
- Intel i5-13500 / AMD Ryzen 5 8600G
- Mainboard
- Asrock Z690 Pro RS / Asus TUF B650-E WiFi
- Kühlung
- LC Power LC-CC 120 / Thermalright Assasin King 120 SE White ARGB
- Speicher
- 2x 16GB G:Skill Aegis DDR4-3200 / 2x 16GB G.Skill Flare DDR5-6000
- Grafikprozessor
- iGPU / iGPU
- Display
- Benq BL258 IT/AOC Gaming 24G2U5
- SSD
- Adata S70 2TB, Kingston NV1 2TB, Crucial MX500 2TB, Sandisk Ultra 3D 2TB usw.
- HDD
- WD Ultrastar HC320 8TB, Seagate Exos 8TB, Toshiba HDWE140 X300 usw.
- Optisches Laufwerk
- LG GH24NSD6, Pioneer BDR-209EBK
- Soundkarte
- Onboard
- Gehäuse
- MS-Tech CA-0210 / ARLT A3608
- Netzteil
- Corsair CX550F / be quiet Pure Power 500W
- Tastatur
- Irgendwas von Cherry / Hama KC-200
- Maus
- Logitech M100 / Cherry MC 1000
- Betriebssystem
- W10-64Bit
- Webbrowser
- Firefox
- Verschiedenes
- So, sollte für eine Weile reichen :)
Ist aber wieder ein Kostenfaktor
Dazu habe ich eigentlich keine gute Erfahrung mit Boxed von einem X3. Selbst mit im Bios stark runtergereglten Lüfter ist es kein Leisetreter
Dazu habe ich eigentlich keine gute Erfahrung mit Boxed von einem X3. Selbst mit im Bios stark runtergereglten Lüfter ist es kein Leisetreter
derDruide
Grand Admiral Special
- Mitglied seit
- 09.08.2004
- Beiträge
- 2.854
- Renomée
- 509
- Prozessor
- AMD Ryzen 3900X
- Mainboard
- Asus Strix B450-F Gaming
- Kühlung
- Noctua NH-C14
- Speicher
- 32 GB DDR4-3200 CL14 FlareX
- Grafikprozessor
- Radeon RX 590
- Display
- 31.5" Eizo FlexScan EV3285
- SSD
- Corsair MP510 2 TB, Samsung 970 Evo 512 GB
- HDD
- Seagate Ironwulf 6 TB
- Optisches Laufwerk
- Plextor PX-880SA
- Soundkarte
- Creative SoundblasterX AE-7
- Gehäuse
- Antec P280
- Netzteil
- be quiet! Straight Power E9 400W
- Maus
- Logitech Trackman Marble (Trackball)
- Betriebssystem
- openSUSE 15.2
- Webbrowser
- Firefox
- Internetanbindung
- ▼50 MBit ▲10 MBit
OK, für diesen Fred schon
Da muß ich dich enttäuschen, ich weiß genug über Bandbreiten und deren Auswirkungen
Und nochmal die Frage: Warum denkt jeder bei PCIe 3.0 nur an Grafikkarten? Die nahezu verdoppelte Bandbreite gegenüber 2.0 sorgt dafür das man mit wenigen Lanes nette Zusatzchips anbinden kann.
Ich hab mir ein Z77-Board gekauft damit ich genügend Lanes für Zusatzkarten zur Verfügung habe. Wenn es mal SATA-Controller und USB3.0-Karten mit PCIe 3.0 gibt kann man endlich die Bandbreite mehrerer Geräte mit nur einer Lane nutzen.
Wer erinnert sich nicht an diese nette Beschreibung bei Geizhals?
"Achtung! Die volle Geschwindigkeit wird nicht erreicht auf Mainboards mit Intel H55/H57/P55/Q57/X58 Chipsets."
Damals war ich froh ein AM2+ Board zu haben, PCIe 2.0
Aber was machst du damit? Ich komme mir ja schon wie eine Luxus-Göre vor, wenn ich das beste Mainboard nehme (ATX natürlich), obwohl micro-ATX eigentlich gereicht hätte. Unter den PCIe-Karten sind keine für zusätzliche Schnittstellen.
Wie viele Zusatz-Karten hast du in deinem PC?
Scour
Grand Admiral Special
- Mitglied seit
- 17.03.2002
- Beiträge
- 4.990
- Renomée
- 94
- Standort
- Unterfranken
- Mein Laptop
- Fujitsu A3510
- Prozessor
- Intel i5-13500 / AMD Ryzen 5 8600G
- Mainboard
- Asrock Z690 Pro RS / Asus TUF B650-E WiFi
- Kühlung
- LC Power LC-CC 120 / Thermalright Assasin King 120 SE White ARGB
- Speicher
- 2x 16GB G:Skill Aegis DDR4-3200 / 2x 16GB G.Skill Flare DDR5-6000
- Grafikprozessor
- iGPU / iGPU
- Display
- Benq BL258 IT/AOC Gaming 24G2U5
- SSD
- Adata S70 2TB, Kingston NV1 2TB, Crucial MX500 2TB, Sandisk Ultra 3D 2TB usw.
- HDD
- WD Ultrastar HC320 8TB, Seagate Exos 8TB, Toshiba HDWE140 X300 usw.
- Optisches Laufwerk
- LG GH24NSD6, Pioneer BDR-209EBK
- Soundkarte
- Onboard
- Gehäuse
- MS-Tech CA-0210 / ARLT A3608
- Netzteil
- Corsair CX550F / be quiet Pure Power 500W
- Tastatur
- Irgendwas von Cherry / Hama KC-200
- Maus
- Logitech M100 / Cherry MC 1000
- Betriebssystem
- W10-64Bit
- Webbrowser
- Firefox
- Verschiedenes
- So, sollte für eine Weile reichen :)
4 Stück
2x USB3.0
2x SATA
+ Grafikkarte natürlich
2x USB3.0
2x SATA
+ Grafikkarte natürlich
eratte
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2001
- Beiträge
- 22.866
- Renomée
- 3.197
- Standort
- Rheinberg / NRW
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- YoYo, Collatz
- Lieblingsprojekt
- YoYo
- Meine Systeme
- Wegen der aktuellen Lage alles aus.
- BOINC-Statistiken
- Mein Laptop
- Lenovo ThinkPad E15 Gen4 Intel / HP PAVILION 14-dk0002ng
- Prozessor
- Ryzen R9 7950X
- Mainboard
- ASUS ROG Crosshair X670E Hero
- Kühlung
- Noctua NH-D15
- Speicher
- 2 x 32 GB G.Skill Trident Z DDR5 6000 CL30-40-40-96
- Grafikprozessor
- Sapphire Radeon RX7900XTX Gaming OC Nitro+
- Display
- 2 x ASUS XG27AQ (2560x1440@144 Hz)
- SSD
- Samsung 980 Pro 1 TB & Lexar NM790 4 TB
- Optisches Laufwerk
- USB Blu-Ray Brenner
- Soundkarte
- Onboard
- Gehäuse
- NEXT H7 Flow Schwarz
- Netzteil
- Corsair HX1000 (80+ Platinum)
- Tastatur
- ASUS ROG Strix Scope RX TKL Wireless / 2. Rechner&Server Cherry G80-3000N RGB TKL
- Maus
- ROG Gladius III Wireless / 2. Rechner&Server Sharkoon Light2 180
- Betriebssystem
- Windows 11 Pro 64
- Webbrowser
- Firefox
- Verschiedenes
- 4 x BQ Light Wings 14. 1 x NF-A14 Noctua Lüfter. Corsair HS80 Headset .
- Internetanbindung
- ▼VDSL 100 ▲VDSL 100
"Achtung! Die volle Geschwindigkeit wird nicht erreicht auf Mainboards mit Intel H55/H57/P55/Q57/X58 Chipsets."
Wo bei das nicht stimmt wenn man die USB 3.0 PCIe 1x Karte bei einem X58 in den 2. PEG 16 Slot steckt. Das sind "vollwertige" PCI 2.0 Lanes keine verkrüpelten mit halber Bandbreite wie die der Southbridge.
Man hat hier auch keinen Nachteil wie beim P55 das dann der 1. PEG Slot auf 8x geht.
Sorry für offtopic.
Die Entlassung der Open-Source-Entwickler halte ich für wenig vorausschauend aber hier geht es wohl um sparen um Teufel komm raus.
Berniyh
Grand Admiral Special
- Mitglied seit
- 29.11.2005
- Beiträge
- 5.216
- Renomée
- 223
Wenn es soweit schon gekommen ist, dann geht es wohl eigentlich nur noch darum was auf dem Grabstein steht...aber hier geht es wohl um sparen um Teufel komm raus.
Zwen
Grand Admiral Special
- Mitglied seit
- 06.01.2002
- Beiträge
- 7.122
- Renomée
- 24
- Prozessor
- eine elektronische Schaltung, die Befehle ausführt
- Mainboard
- die zentrale Platine eines Computers
- Kühlung
- damit wird thermische Energie entzogen
- Speicher
- speichert auszuführenden Programme oder Programmteile
- Grafikprozessor
- wandelt Daten um, dass der Monitor sie als Bild wiedergeben kann
- Display
- Ausgabegerät zur Darstellung von visueller Information
- HDD
- Speichermedium, gewährleistet nichtflüchtige Speicherung
- Optisches Laufwerk
- ermöglicht den Zugriff auf optische Datenträger
- Soundkarte
- verarbeitet analoge und digitale Audiosignale
- Gehäuse
- eine feste Hülle die den Inhalt schützend umgibt
- Netzteil
- Baugruppe zur Energieversorgung
- Betriebssystem
- Sammlung von Computerprogrammen
- Webbrowser
- Software zur Darstellung von Webseiten
- Verschiedenes
- was nicht in das Kategorienschema passt
Als erstes stellt sich mir die Frage: Ändern wollen oder ändern müssen? Ist wahrscheinlich Ansichtssache.
Man kann es als strategische Maßnahme definieren, ja. Ich sehe es als eine Art letzte Maßnahme.
Entgegen einer anderen Meinung, lotet man für den Mainstream schon länger Alternativen aus.
IBM arbeitet seit 2008 bis heute (noch enger) mit ARM und Cadence (www.cadence.com) zusammen, aktuell:
"Agreement established to provide comprehensive design platform down to 14nm targeting low-power, high-performance for advanced consumer electronics"
Es gibt genau ein Thema, was seit Jahren aktuell und weiterhin beständig ist und konsequent verfolgt wird:
Mehr Rechenleistung, bei weniger Energiebedarf. "GreenIT" ist eines der besten Aushängeschilder eines Unternehmens.
Wer diesen Schritt verschläft oder nicht wahrhaben möchte, wird am Ende das Nachsehe haben...
Ich gebe ARM+AMD eine sehr gut Chance – Hier sehr attraktive Produkte für den Markt bereitstellen zu können.
Was AMD daraus macht oder machen kann, ist eine andere Frage, hier Kapazitäten hinzuführen halte ich für nicht falsch.
AMD hat einen aus meiner Sicht nicht zu vernachlässigenden Vorteil und das ist ATI KnowHow.
Da Branchenriesen wie Apple (jetzt wieder) und IBM starkes Interesse an ARM habe, sage ich das hier AMD nicht viel falsch machen kann.
Das Microsoft bereits ARM-Lizensen gekauft hat dürfte klar sein, im Mai - hat NVIDIA ("Project Denver") auch Lizenzen erworben.
Zudem sieht es für ARM sehr gut aus, MIPS wird verkauft, da wird sicherlich Technologie eingekauft werden.
Und wenn Apple - Bob für 2 Jahre aus dem Ruhestand zurückgeholt um Alternativen zu prüfen, hat das gute Gründe.
Das AMD back ins Servergeschäft MUSS (am besten mit ARM), sage ich seit Monaten, ich finde das Vorhaben gut.
Der AM3+ gehört schnellstmöglich eingestampft. Hauptaugenmerk sollte bei den APUs liegen, next gen BD bitte auf FM-Sockel.
Die zwei Sockel´-Strategie verärgert die OEMs und den Retail-Kunden und macht, für mein Befinden so wie das jetzt läuft, auch wenig Sinn.
Spekulation:
Wenn Intel, Apple als Exklusiv-Kunde verlieren sollte, bedeutet das - 10% , 15% in sales.
Das ist alleine nicht viel... ausreichend genug, trifft AMD+ARM allerdings ins schwarze, macht sich -10% (Beispiel) marketshare im Ernteprise bemerkbar.
Ist IBM, NVIDIA, Samsung usw. mit ARM (oder eigenständig) generell weiter erfolgreich, verliert man (Intel) zusätzlich und nicht nur im EP Kundschaft.
Man kann es als strategische Maßnahme definieren, ja. Ich sehe es als eine Art letzte Maßnahme.
Entgegen einer anderen Meinung, lotet man für den Mainstream schon länger Alternativen aus.
IBM arbeitet seit 2008 bis heute (noch enger) mit ARM und Cadence (www.cadence.com) zusammen, aktuell:
"Agreement established to provide comprehensive design platform down to 14nm targeting low-power, high-performance for advanced consumer electronics"
Es gibt genau ein Thema, was seit Jahren aktuell und weiterhin beständig ist und konsequent verfolgt wird:
Mehr Rechenleistung, bei weniger Energiebedarf. "GreenIT" ist eines der besten Aushängeschilder eines Unternehmens.
Wer diesen Schritt verschläft oder nicht wahrhaben möchte, wird am Ende das Nachsehe haben...
Ich gebe ARM+AMD eine sehr gut Chance – Hier sehr attraktive Produkte für den Markt bereitstellen zu können.
Was AMD daraus macht oder machen kann, ist eine andere Frage, hier Kapazitäten hinzuführen halte ich für nicht falsch.
AMD hat einen aus meiner Sicht nicht zu vernachlässigenden Vorteil und das ist ATI KnowHow.
Da Branchenriesen wie Apple (jetzt wieder) und IBM starkes Interesse an ARM habe, sage ich das hier AMD nicht viel falsch machen kann.
Das Microsoft bereits ARM-Lizensen gekauft hat dürfte klar sein, im Mai - hat NVIDIA ("Project Denver") auch Lizenzen erworben.
Zudem sieht es für ARM sehr gut aus, MIPS wird verkauft, da wird sicherlich Technologie eingekauft werden.
Und wenn Apple - Bob für 2 Jahre aus dem Ruhestand zurückgeholt um Alternativen zu prüfen, hat das gute Gründe.
Das AMD back ins Servergeschäft MUSS (am besten mit ARM), sage ich seit Monaten, ich finde das Vorhaben gut.
Der AM3+ gehört schnellstmöglich eingestampft. Hauptaugenmerk sollte bei den APUs liegen, next gen BD bitte auf FM-Sockel.
Die zwei Sockel´-Strategie verärgert die OEMs und den Retail-Kunden und macht, für mein Befinden so wie das jetzt läuft, auch wenig Sinn.
Spekulation:
Wenn Intel, Apple als Exklusiv-Kunde verlieren sollte, bedeutet das - 10% , 15% in sales.
Das ist alleine nicht viel... ausreichend genug, trifft AMD+ARM allerdings ins schwarze, macht sich -10% (Beispiel) marketshare im Ernteprise bemerkbar.
Ist IBM, NVIDIA, Samsung usw. mit ARM (oder eigenständig) generell weiter erfolgreich, verliert man (Intel) zusätzlich und nicht nur im EP Kundschaft.
Zuletzt bearbeitet:
Die Patente von Mips sind an die Holding von Intel, Ibm und Arm gegangen. Falls Arm davon etwas nutzen wollte, wären erstmal Lizensgebühren fällig. Der Rest ging an Imag.Tech.. Da kann ich jetzt keinen Nutzen für AMD draus ersehen.
Ich vermute auch mal, das niemand auf AMD ARM Server wartet, dazu gibt es schon viel zu viel Konkurrenz mit erheblich mehr Erfahrung. Immer mehr stoßen hinzu. Dell u. HP hatten auch schon fertig.
Es ist auch eine Frage für wen man das Server Zeugs überhaupt herstellt. Kann man die Sachen, neben Dell, verkaufen oder droht Dell dann AMD mit Einkaufskürzungen?
Die AMD Rolle sieht immer noch sehr passiv aus. Man bauts, lagerts ein u. kürzt die Belegschaft, scheinbar ohne jegl. Konzept. Dabei wachsen bei den ODMs im Osten, welche mittlerweile Tochtergesellschaften gegründet haben, die Zuwächse im Servergeschäft zweistellig.
Nvidia benötigt lediglich Threaderzeuger für Ihre Teslas, da paßten speziell angepaßte Opterons sehr gut ins Konzept.
Trinity Käufer könnte man einen GPGPU Packer als download beilegen, die AM3+ CPU mit generell freiem Multi ausliefern.
Ist jetzt die Frage ob man weiter Pressepredigten, mit Motivationscharacter im Stile eines absteigenden Bundesligaclubs, in der Hoffnung das die Zuseher motiviert wurden u. das Wirtschaftswunder über Nacht eintritt, verbreitet oder ob man Märkte aktiv beeinflussen möchte.
Ansonsten dürfte es finanziell eng für 2013 werden o. die Mitarbeiterzahl hat sich dann halbiert.
Ich vermute auch mal, das niemand auf AMD ARM Server wartet, dazu gibt es schon viel zu viel Konkurrenz mit erheblich mehr Erfahrung. Immer mehr stoßen hinzu. Dell u. HP hatten auch schon fertig.
Es ist auch eine Frage für wen man das Server Zeugs überhaupt herstellt. Kann man die Sachen, neben Dell, verkaufen oder droht Dell dann AMD mit Einkaufskürzungen?
Die AMD Rolle sieht immer noch sehr passiv aus. Man bauts, lagerts ein u. kürzt die Belegschaft, scheinbar ohne jegl. Konzept. Dabei wachsen bei den ODMs im Osten, welche mittlerweile Tochtergesellschaften gegründet haben, die Zuwächse im Servergeschäft zweistellig.
Nvidia benötigt lediglich Threaderzeuger für Ihre Teslas, da paßten speziell angepaßte Opterons sehr gut ins Konzept.
Trinity Käufer könnte man einen GPGPU Packer als download beilegen, die AM3+ CPU mit generell freiem Multi ausliefern.
Ist jetzt die Frage ob man weiter Pressepredigten, mit Motivationscharacter im Stile eines absteigenden Bundesligaclubs, in der Hoffnung das die Zuseher motiviert wurden u. das Wirtschaftswunder über Nacht eintritt, verbreitet oder ob man Märkte aktiv beeinflussen möchte.
Ansonsten dürfte es finanziell eng für 2013 werden o. die Mitarbeiterzahl hat sich dann halbiert.
Berniyh
Grand Admiral Special
- Mitglied seit
- 29.11.2005
- Beiträge
- 5.216
- Renomée
- 223
Also mittlerweile bin ich von AMD schon ziemlich enttäuscht, die Schritte, die man nun ergriffen hat sind wohl die Schritte über die Kante zum Abgrund.
Ich finde das sehr schade, denn seit über 10 Jahren habe ich eigentlich nur noch AMD CPUs verbaut, die letzte von Intel war ein Pentium II.
Aber das war es dann jetzt wohl, die aktuelle CPU wird wohl die letzte von AMD sein. Zum Glück dürfte die aber noch ein paar Jährchen reichen.
Ich finde das sehr schade, denn seit über 10 Jahren habe ich eigentlich nur noch AMD CPUs verbaut, die letzte von Intel war ein Pentium II.
Aber das war es dann jetzt wohl, die aktuelle CPU wird wohl die letzte von AMD sein. Zum Glück dürfte die aber noch ein paar Jährchen reichen.
sompe
Grand Admiral Special
- Mitglied seit
- 09.02.2009
- Beiträge
- 14.860
- Renomée
- 2.171
- Mein Laptop
- Dell G5 15 SE 5505 Eclipse Black
- Prozessor
- AMD Ryzen 9 3950X
- Mainboard
- MSI MPG X570 GAMING PRO CARBON WIFI
- Kühlung
- Wasserkühlung
- Speicher
- 4x 16 GB G.Skill Trident Z RGB, DDR4-3200, CL14
- Grafikprozessor
- AMD Radeon RX 6900 XT
- Display
- 1x 32" LG 32UD89-W + 1x 24" Dell Ultrasharp 2405FPW
- SSD
- Samsung SSD 980 PRO 1TB, Crucial MX500 500GB, Intel 600p 512GB, Intel 600p 1TB
- HDD
- Western Digital WD Red 2 & 3TB
- Optisches Laufwerk
- LG GGC-H20L
- Soundkarte
- onboard
- Gehäuse
- Thermaltake Armor
- Netzteil
- be quiet! Dark Power Pro 11 1000W
- Betriebssystem
- Windows 10 Professional, Windows 7 Professional 64 Bit, Ubuntu 20.04 LTS
- Webbrowser
- Firefox
Selbst als primärer Spieler kann ich mir hier interessante alternativen vorstellen.Ich gebe ARM+AMD eine sehr gut Chance – Hier sehr attraktive Produkte für den Markt bereitstellen zu können.
Was AMD daraus macht oder machen kann, ist eine andere Frage, hier Kapazitäten hinzuführen halte ich für nicht falsch.
AMD hat einen aus meiner Sicht nicht zu vernachlässigenden Vorteil und das ist ATI KnowHow.
Wie wäre es beispielsweise mit einer Integration einer entsprechend leistungsstarken ARM CPU auf der Grafikkarte, wobei hier das Mainboard nur noch der Träger des Chipsatzes zum Anschlußt der sonstigen Geräte und Steckkarten wäre? Selbst wenn dies das Ende des traditionellen Renderns wäre. Wäre eine entsprechende Karte nicht potet genug fürs Ray Tracing?
Im x86er Bereich sehe ich aufgrund Intels Marktdominanz und deren gesteigertes Entwicklungstempo nicht all so viele Chancen und die die man bisher hatte wurden nahezu konsequent vom Markt ignoriert.
Was liegt da näher als sich neuen Märkten zu zu wenden?
Ähnliche Themen
- Antworten
- 13
- Aufrufe
- 2K
- Antworten
- 21
- Aufrufe
- 5K
- Antworten
- 39
- Aufrufe
- 10K
- Antworten
- 27
- Aufrufe
- 5K