App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD verpatzt es!
- Ersteller Argos
- Erstellt am
rkinet
Grand Admiral Special
http://www.computerbase.de/news/hardware/prozessoren/amd/2007/dezember/amd_phenom_9550_9650_quartal/
Kein BIOS-Update, da ...
Kein Scherz - bei dem Börsenliebling AMD ist eben ein wichtiger Mann in Urlaub, da muss die Welt eben auf ein neues BIOS warten
Man kann nur hoffen, dass jener nicht im Urlaub ernsthaft erkrankt, sonst kostet das weiter zweistellige Millionenbeträge.
Was Computerbase da beschreibt ist das Innenleben einer Chaos-Firma.
Wobei wir miese technische Dokumentation ja schon seit Jahren kennen.
Und - Phenom 9550 und 9650
Es ist nur ein kleiner - klitzekleiner Fehler aber trotzdem werden die Phenome 9500 und 9600 durch neue Modelle mit anderer Bezeichnung ersetzt.
Kein BIOS-Update, da ...
Derzeit sind nicht einmal die technischen Dokumente auf dem aktuellen Stand, die das Erratum beinhalten, da die entsprechende Person „on vacation“ (im Urlaub) sei.
Kein Scherz - bei dem Börsenliebling AMD ist eben ein wichtiger Mann in Urlaub, da muss die Welt eben auf ein neues BIOS warten
Man kann nur hoffen, dass jener nicht im Urlaub ernsthaft erkrankt, sonst kostet das weiter zweistellige Millionenbeträge.
Was Computerbase da beschreibt ist das Innenleben einer Chaos-Firma.
Wobei wir miese technische Dokumentation ja schon seit Jahren kennen.
Und - Phenom 9550 und 9650
Es ist nur ein kleiner - klitzekleiner Fehler aber trotzdem werden die Phenome 9500 und 9600 durch neue Modelle mit anderer Bezeichnung ersetzt.
dekaisi
Grand Admiral Special
- Mitglied seit
- 06.11.2006
- Beiträge
- 3.929
- Renomée
- 25
- Standort
- B
- Mein Laptop
- Lenovo Y50-70,32GB Ram, Samsung 830Pro 256GB, Panel Upgrade,...
- Prozessor
- AMD Ryzen 3950X
- Mainboard
- ROG Strix X570-E
- Kühlung
- Corsair H115i Platinium
- Speicher
- 4x G.Skill F4-3600C15-8GTZ (B-Die)
- Grafikprozessor
- MSI Trio X 3090
- Display
- Predator X27, Asus MQ270Q
- SSD
- sehr viele :D
- HDD
- viele viele und extra Platz :D
- Optisches Laufwerk
- LG Bluray BH10LS30
- Soundkarte
- Soundblaster X7, Steinberg UR-22C
- Gehäuse
- Corsair Vengeance v70 +Dämmung
- Netzteil
- Enermax Platimax D.F. 600W
- Tastatur
- Corsair RGB Platinum K95
- Maus
- Asus ROG Pugio
- Betriebssystem
- Win10 Prof Workstation
Also 140 Euro ab AMD-Malaysia und 20% Händler und 19% MwSt. macht 200 Euro
Mit 105 Euro ab AMD-Malaysia dann 150 Euro (Triple-Core)
AMD verkauft je Quartal ca. 15 Mill. CPUs und erlöst ca. $900 Mill. oder 625 Mill. Euro - macht $60 oder 42 Euro je CPU im Durchschnitt.
da diese nicht von Malaysia kommen können erklärt sich aber von selbst.
Ich verweise nurmal auch den CPU Stempel.
"Diffused in Germany"
Wenn könnte evtl was von Chartered kommen, Frage wäre was da dann drauf steht.
Zuletzt bearbeitet:
Bobo_Oberon
Grand Admiral Special
- Mitglied seit
- 18.01.2007
- Beiträge
- 5.045
- Renomée
- 190
Eine Chipendverpackung hat AMD meines Wissens nach nicht in Dresden.da diese nicht von Malaysia kommen können erklärt sich aber von selbst.
Ich verweise nurmal auch den CPU Stempel.
"Diffused in Germany"
Wenn könnte evtl was von Chartered kommen, Frage wäre was da dann drauf steht.
Was neu in Dresden ist, dass ist eine Teilfertigung für das C4-Verfahren (auch als Flip-Chip"-Endverpackung bekannt). Dort werden die Löt-Bumps auf dem Die untergebracht mehr nicht.
In Malaysia und China werden nach wie vor die Chips auf dem Chipträger endverpackt. Ich frage mich aber in der Tat auch, was "diffused" in diesem Zusammenhang bedeutet. Wäre da dankbar für einen Hinweis.
MFG Bobo(2007)
piwo
Lt. Commander
- Mitglied seit
- 24.02.2007
- Beiträge
- 130
- Renomée
- 0
Ich persönlich halte an meiner Theorie fest.
Es war nie die absicht seitens AMD das der Phenom das "non plus Ultra" wird, "er soll mithalten nicht überragen".
Wie ich zu der Theorie komme lässt leicht sagen.
- AMD ändert die K8 Architektur ab was grundsätzlich schonmal zweifel offen lässt, die da wären:
1. Wie soll eine knapp 5 Jahre alte Architektur die man Poliert mit einer völlig neuen mithalten?
2. Braucht ein unternehmen solange um einene auf das Maximum ausgereizte Architektur nochmals zu verbessern?
3. Klar ist das der A64 ein meilenstein war, die Latenzzeiten waren nahe dem Theoretischen Maximum die HT technologie einmalig und der eingebaute Speicherkontroller sagenhaft.
Immer neue Steppings die noch das letze an vorhandener Leistung ausreitzen.
Aber irgendwann ist das maximum erreicht.
- Wieso braucht AMD solange für eine verbesserung des Coredesigns ohne das Paralell ein noch viel größeres Projekt läuft?
- Der launch wurde immer wieder aufgeschoben da meiner Theorie zufolge zuwenig leute an der verbesserung arbeiteten.
- Bugs werden erst "zuspät" entdeckt und langsam beseitigt, wie kann ein solches unternehmen einen Prozessor auf den Markt bringen bei dem wenn alle Cores ausgelastet sind freezet? Im Normalfall werden hunderte test´s durchgeführt um jede schwäche aufzudecken und alle warscheinlichkeiten auszuschließen, so nicht beim Phenom was wieder zu meiner theorie passen würde "Nebenprodukt"
- AMD gibt wenig support an Mainboardhersteller auserdem sind wenige Boards beim Launch Phenom fähig.
Auserdem wird der Bug seitens AMD´s nicht genug supportet "Das das B2-Stepping von AMDs aktuelle Phenom-Prozessoren einen Fehler im so genannten Translation-Lookaside-Buffer (TLB) des L3-Cache hat, ist ja mittlerweile bekannt. Zwar soll sich dieser nach Aussage von AMD durch ein BIOS-Update umschiffen lassen, jedoch hat bisher noch kein Hersteller geschafft ein solches bereitzustellen, was jedoch derzeit der schlechten Unterstützung durch AMD selbst zugeschoben wird."
Kurtz und knapp:
- Wieso braucht AMD solange für eine solch "Miserable verbesserung"?
- Wieso gibt AMD unzurechenden Support?
- Wieso werden solche gravierenden fehler zuspät entdeckt?
Was sich geändert hat zum K8 ist meines wissens der L3 cache über den alle kerne kommunizieren und ein par kleinigkeiten, also Theoretisch wurde die Crossbar durch einen L3 ersetzt und 2 Cores hinzugefügt.
Abschließend möchte ich sagen, wenn AMD wollte das alles glatt läuft wären sie anderst an die sache herangegangen. Meiner meinung nach soll der Phenom die lücke zwischen dem K8 und der von grund auf neu gestalteten Architektur (die ich das nächste halbe Jahr erwarte) schließen.
Gruß,
Piwo
PS: Die vielen Rechtschreibfehler stammen vom LRS nicht von mir
Es war nie die absicht seitens AMD das der Phenom das "non plus Ultra" wird, "er soll mithalten nicht überragen".
Wie ich zu der Theorie komme lässt leicht sagen.
- AMD ändert die K8 Architektur ab was grundsätzlich schonmal zweifel offen lässt, die da wären:
1. Wie soll eine knapp 5 Jahre alte Architektur die man Poliert mit einer völlig neuen mithalten?
2. Braucht ein unternehmen solange um einene auf das Maximum ausgereizte Architektur nochmals zu verbessern?
3. Klar ist das der A64 ein meilenstein war, die Latenzzeiten waren nahe dem Theoretischen Maximum die HT technologie einmalig und der eingebaute Speicherkontroller sagenhaft.
Immer neue Steppings die noch das letze an vorhandener Leistung ausreitzen.
Aber irgendwann ist das maximum erreicht.
- Wieso braucht AMD solange für eine verbesserung des Coredesigns ohne das Paralell ein noch viel größeres Projekt läuft?
- Der launch wurde immer wieder aufgeschoben da meiner Theorie zufolge zuwenig leute an der verbesserung arbeiteten.
- Bugs werden erst "zuspät" entdeckt und langsam beseitigt, wie kann ein solches unternehmen einen Prozessor auf den Markt bringen bei dem wenn alle Cores ausgelastet sind freezet? Im Normalfall werden hunderte test´s durchgeführt um jede schwäche aufzudecken und alle warscheinlichkeiten auszuschließen, so nicht beim Phenom was wieder zu meiner theorie passen würde "Nebenprodukt"
- AMD gibt wenig support an Mainboardhersteller auserdem sind wenige Boards beim Launch Phenom fähig.
Auserdem wird der Bug seitens AMD´s nicht genug supportet "Das das B2-Stepping von AMDs aktuelle Phenom-Prozessoren einen Fehler im so genannten Translation-Lookaside-Buffer (TLB) des L3-Cache hat, ist ja mittlerweile bekannt. Zwar soll sich dieser nach Aussage von AMD durch ein BIOS-Update umschiffen lassen, jedoch hat bisher noch kein Hersteller geschafft ein solches bereitzustellen, was jedoch derzeit der schlechten Unterstützung durch AMD selbst zugeschoben wird."
Kurtz und knapp:
- Wieso braucht AMD solange für eine solch "Miserable verbesserung"?
- Wieso gibt AMD unzurechenden Support?
- Wieso werden solche gravierenden fehler zuspät entdeckt?
Was sich geändert hat zum K8 ist meines wissens der L3 cache über den alle kerne kommunizieren und ein par kleinigkeiten, also Theoretisch wurde die Crossbar durch einen L3 ersetzt und 2 Cores hinzugefügt.
Abschließend möchte ich sagen, wenn AMD wollte das alles glatt läuft wären sie anderst an die sache herangegangen. Meiner meinung nach soll der Phenom die lücke zwischen dem K8 und der von grund auf neu gestalteten Architektur (die ich das nächste halbe Jahr erwarte) schließen.
Gruß,
Piwo
PS: Die vielen Rechtschreibfehler stammen vom LRS nicht von mir
Zuletzt bearbeitet:
piwo
Lt. Commander
- Mitglied seit
- 24.02.2007
- Beiträge
- 130
- Renomée
- 0
Welchen sinn soll das verflogen?Mal eine bloede Frage: Kann man einen 4core so schalten, dass immer nur 2 Kerne im Wechsel aktiv sind, uebertaktet laufen, und die restliche 2 Kerne kuehlen sich ab?
Gruss
Dev Art
Damit sich die anderen beiden aufheizen?
Ne mal im ernst, die kerne sind auf einer silizium fläche wenn sich einer durch auslastung ehitzt werden die anderen mit erwärmt da die fläche so gering ist das es meist nur wenige grad unterschied zu einem ausgalsteten und einem ungenutzten core sind
rkinet
Grand Admiral Special
AMD schafft es ja nicht einmal eine technisch fehlerfreie Preisliste ins Internet zustellen.Kurtz und knapp:
- Wieso braucht AMD solange für eine solch "Miserable verbesserung"?
- Wieso gibt AMD unzurechenden Support?
- Wieso werden solche gravierenden fehler zuspät entdeckt?
Da stehen immer noch angebliche 65nm K8 Single-Core mit 1M L2-Cache statt tatsächlich 90nm Produkte - http://www.amd.com/us-en/Processors...0_118_609,00.html?redir=CPT301?redir=SPDR0010
Die schleppende sonstige Docu ist schon lange bekannt und AMD hat nie was dagegeben unternommen.
AMD hat aber still und heimlich die K10 Entwicklung nach Indien verlagert, wo man hochwertig, aber auch langsam arbeitet. Und der L3-TLB-Fehler ist ein versteckter Fehler, der erst bei späteren Test auffiel. Kann passieren, aber AMD hat keine Zwischenschritte wie Dual-Core mit L3 gemacht, wo es früher aufgefallen wäre.
Auch wird AMD nicht an Wunder-CPUs arbeiten. Der K10 ist draußen und sein Nachfolger wird sich weit in 2009 hinein ziehen und soll auch lt. AMD kaum Verbesserungen bringen.Aber universeller für Opteron bis Sempron verwendbar sein.
Ursache für all die Probleme sind wahrscheinlich die Unternehmensparolen aus 2004 ff., welche den Desktop-Markt als nachrangig für AMD einstufte. Angesichts des späteren Kaufes von ATI / Chipsätzen / GPUs eine krasse Fehljustierung der Unternehmensziele, was aber da schon schädlich genug war.
Wohl das Hauptproblem war und ist, dass AMD nicht mit seinen Kunden und den Medien spricht. Intel & Apple machen das ganz anders - und werden mit Kohle überschüttet.
Selbst gute Ansätze wie die 45 Watt K8 werden lieblos auf den Markt geworfen statt die Vorzüge publikumswirksam zu präsentieren.
Vielleicht hilft der andauernder Sturzflug des AMD-Aktienkurses, dass zumindest das Management bald ausgetauscht wird. Ein AMD-Lenker, der mit seinen Kunden auch mal redet - das sind locker $100-$250 Mill. mehr Erlöse je Quartal.
NeuerBenutzer
Fleet Captain Special
- Mitglied seit
- 09.12.2005
- Beiträge
- 324
- Renomée
- 6
- Standort
- Saarland
- Prozessor
- Intel Pentium 4 3000 MHz
- Mainboard
- ABIT IC7-G
- Kühlung
- Intel Boxed
- Speicher
- 2 x 512 MB PC3200 MDT
- Grafikprozessor
- ATI Radeon 9200 (Sapphire)
- Display
- Samsung SyncMaster 957p
- HDD
- Seagate 120 GB
- Optisches Laufwerk
- CD-ROM
- Soundkarte
- OnBoard
- Gehäuse
- Chenbro Big-Tower
- Netzteil
- NoName 350W
- Betriebssystem
- Microsoft Windows 2000 Professional
- Webbrowser
- SeaMonkey 1.1.11
Wohl das Hauptproblem war und ist, dass AMD nicht mit seinen Kunden und den Medien spricht. Intel & Apple machen das ganz anders - und werden mit Kohle überschüttet.
Selbst gute Ansätze wie die 45 Watt K8 werden lieblos auf den Markt geworfen statt die Vorzüge publikumswirksam zu präsentieren.
AMD sollte sich halt spezialisieren auf den Firmenkundenbereich. Z. B. warum überlässt man den Sektor Thin Clients VIA mit ihren CPUs? Warum propagiert AMD keinen Athlon X2 mit AMD Chipsatz für Business-PCs? (Firmen wollen günstig Office-Software-taugliche PCs und keine Gamer-Boliden für LAN-Partys.) Warum überlässt man selbst beim Sockel F den Chipsatz-Markt für Server dem Graka-Rivalen Nvidia?
Die Firma VIA hat sich vor Jahren aus dem Wettkampf verabschiedet und ist z. B. Lieferant fast aller Thin Client Hersteller und hat die EPIA - Welle losgetreten. Und die existieren immer noch, obwohl sie nicht gegen AMD und schon garnicht gegen Intel anstinken können.
rkinet
Grand Admiral Special
http://www.heise.de/newsticker/meldung/14635Haelst Du den Hans Deppe fuer geeignet? Mal ganz unverbluemt direkt gefragt.
Der ist mittlerweile 61 o. 62 Jahre alt.
Das ist zwar heute kein Alter mehr, aber angesichts der gigantischen Probleme bei AMD aber nicht gerade optimal.
Wie wäre es smit ihm: http://www.heise.de/newsticker/meldung/68655
Dirk Meyer - 45 Jahre, ein Ex-CPU Entwickler.
Der gilt auch schon aus anderen Quellen als Ruiz-Nachfolger.
Zumindest hat er den Schwung und auch die Fähigkeit auf die Menscheh nzuzugehen und AMD offener zu machen.
Außerdem kennt er die Tücken einer CPU-Entwicklung und könnte frühzeitiger eingreifen.
http://de.wikipedia.org/wiki/Hector_Ruiz
Hector Ruiz wird demnächst 62 Jahre alt und seine technische Ära liegt schon lange zurück.
AMD hat sogar eine Embedded Gruppe. Zuletzt kam mal der K8 Sempron 2100 mit 1 GHz - wohl nur mit direkten Beziehungen zu H.Ruiz erhältlich.AMD sollte sich halt spezialisieren auf den Firmenkundenbereich. Z. B. warum überlässt man den Sektor Thin Clients VIA mit ihren CPUs? Warum propagiert AMD keinen Athlon X2 mit AMD Chipsatz für Business-PCs? (Firmen wollen günstig Office-Software-taugliche PCs und keine Gamer-Boliden für LAN-Partys.) Warum überlässt man selbst beim Sockel F den Chipsatz-Markt für Server dem Graka-Rivalen Nvidia?
Es gab einmal den 17W Geode NX 1750 auf So.A Basis. Wenige Boards hatten ein geeignetes BIOS und die CPU war gering verfügbar.
Bei der 45 Watt Linie fehlt eine passende Definition für den Strombedarf.
Der So. AM2 ist mit 95A schon überdimensioniert und verlangt locker 120 Watt allen auf der 12V Schiene, obwohl eine 45 Watt CPU nur 50-55 Watt benötigt.
Bei AM2+ und AM3 sind es 110A zzgl 20A für die Northbridge oder ca. 150 Watt.
Hier fehlt eine moderater ausgelegte Socket-Variante, die dann kompakte, leise und sparsame PCs / Thin Clients ermöglichen würde.
Man könnte locker mit einem 175-200W Netzteil einen Office-PC betreiben, wenn man vernünftige Limits setzt (wie max. 65W CPU, max. 25 W zusätzliche Grafikkarte)
Es gäbe viele Ansätze für AMD. Aber noch immer sind die Desktop-Rechner nur No.3 in der AMD-Priorität incl. Office-PCs.
Angesichts der anderen Problem wandern nur die 'Abfälle' der Opteron-Entwicklung dortthin - bis AMD pleite oder H.Ruiz pensioniert ist.
Zuletzt bearbeitet:
piwo
Lt. Commander
- Mitglied seit
- 24.02.2007
- Beiträge
- 130
- Renomée
- 0
Das Problem wird sein das AMD nicht das nötige Know-How hat um alles zu machen.AMD sollte sich halt spezialisieren auf den Firmenkundenbereich. Z. B. warum überlässt man den Sektor Thin Clients VIA mit ihren CPUs? Warum propagiert AMD keinen Athlon X2 mit AMD Chipsatz für Business-PCs? (Firmen wollen günstig Office-Software-taugliche PCs und keine Gamer-Boliden für LAN-Partys.) Warum überlässt man selbst beim Sockel F den Chipsatz-Markt für Server dem Graka-Rivalen Nvidia?
Die Firma VIA hat sich vor Jahren aus dem Wettkampf verabschiedet und ist z. B. Lieferant fast aller Thin Client Hersteller und hat die EPIA - Welle losgetreten. Und die existieren immer noch, obwohl sie nicht gegen AMD und schon garnicht gegen Intel anstinken können.
Sie sind frisch in den Chipsatzmarkt eingestiegen Nvidia hat dort natürlich überhand.
Nvidia macht chips für intel und AMD also auch lonenswerter. Es wird nie einen C2Q geben der auf nem 690G Läuft und umgekert. Alles was AMD nicht gewachsen ist muss die Firma abtreten das bringt natürlich verluste da man selbst nichts mehr einholt auf der Chipsatz ebene.
Wieso AMD ATI gekauft hat kann ich/man nicht richtig nachvolziehen.
An einem Zeitpunkt der umstellung (DX9- DX10) neue Chipgenerationen (R600) usw.
ATI mag für office rechner genügen mehr aber nicht.
Bei ATI benötigt man ne CF mastercard nen board für CF (gibt nich sehr viele) und ne normale Karte.
Bei Nvidia einfach 2 gleiche karten bei denen SLI auf der verpackung steht in eines der in megen vorhandenen SLI boards, fertig!
Erschwerend kommt hinzu das die 8800er serie allesamt die HD 3800er schlagen und Nvidia hat noch nichtmal DX10.1 wenn die ersten von Nvidia kommen kann AMD wieder nachlegen um im unteren Higend bis Lowend mithalten zu können.
Das problem in Grafikmarkt ist das man entwerder game´t oder nicht Sprich für office brauch ich keine "middelend" da reicht nen ATI Rage 128 aber will ich zocken brauch ich ne gute Sprich 8800Ultra.
Gelegenheitszocker in dem sinn gibt es nicht mehr viele die paar die sage bischen GTA da kauf ich mit ne HD 2600 das reicht die sind selten.
Sprich ganz oder garnicht.
Zuletzt bearbeitet:
U
User002
Guest
Es wird nie einen C2Q geben der auf nem 690G Läuft und umgekert. .......
Und was ist das? Sogar mit Penryn-Support
Bei ATI benötigt man ne CF mastercard nen board für CF (gibt nich sehr viele) und ne normale Karte.
Bei Nvidia einfach 2 gleiche karten bei denen SLI auf der verpackung steht in eines der in megen vorhandenen SLI boards, fertig!
Erschwerend kommt hinzu das die 8800er serie allesamt die HD 3800er schlagen und Nvidia hat noch nichtmal DX10.1 wenn die ersten von Nvidia kommen kann AMD wieder nachlegen um im unteren Higend bis Lowend mithalten zu können.
Das problem in Grafikmarkt ist das man entwerder game´t oder nicht Sprich für office brauch ich keine "middelend" da reicht nen ATI Rage 128 aber will ich zocken brauch ich ne gute Sprich 8800Ultra.
Gelegenheitszocker in dem sinn gibt es nicht mehr viele die paar die sage bischen GTA da kauf ich mit ne HD 2600 das reicht die sind selten.
Komisch, hier steht was ganz anderes
Ati 3870 Crossfire-Test
http://www.technic3d.com/article-593,1-sapphire-hd3870-crossfire-amd-wieder-an-der-spitze.htm
Meine Meinung...erst mal abwarten bis sich das ganze ein bisschen eingespielt hat. Auf Game-Benchmarks würde ich nicht viel geben, da werden wohl noch einige Treiber und Bios-Updates kommen, also noch nicht optimiert das ganze...Der K10 und die 3850/3870 sind grundsätzlich mal besser als alles was AMD/ATI davor hatte...
Grüße!
Zuletzt bearbeitet:
Oi!Olli
Grand Admiral Special
- Mitglied seit
- 24.12.2006
- Beiträge
- 16.417
- Renomée
- 785
- Mein Laptop
- HP Elitebook 8760W
- Prozessor
- Ryzen R7 5800X3D
- Mainboard
- Asus B 550 Strix F Wifi
- Kühlung
- Noctua NH-U12A
- Speicher
- 2x 32 GB Kingston FURY DIMM DDR4 3600
- Grafikprozessor
- XFX Speedster MERC 310 Radeon RX 7900 XT Black Edition
- Display
- Acer Predator XB253QGP
- SSD
- Samsung 980 Pro 2 TB, Samsung 970 Evo Plus 2 TB
- HDD
- Samsung TB, 2x2 TB 1x3 TB 1x8 TB
- Optisches Laufwerk
- GH-22NS50
- Soundkarte
- Soundblaster Recon 3d
- Gehäuse
- Raijintek Zofos Evo Silent
- Netzteil
- BeQuiet Straight Power 750 Platinum
- Betriebssystem
- Windows 10 Pro
- Webbrowser
- Opera 101 (der Browser aktualisiert sich natürlich immer)
- Verschiedenes
- X-Box One Gamepad, MS Sidewinder Joystick
Das Problem wird sein das AMD nicht das nötige Know-How hat um alles zu machen.
Sie sind frisch in den Chipsatzmarkt eingestiegen Nvidia hat dort natürlich überhand.
Nvidia macht chips für intel und AMD also auch lonenswerter. Es wird nie einen C2Q geben der auf nem 690G Läuft und umgekert. Alles was AMD nicht gewachsen ist muss die Firma abtreten das bringt natürlich verluste da man selbst nichts mehr einholt auf der Chipsatz ebene.
AMD bringt seit Jahren Chips raus nur eher für Serverboards und nicht für Privatkunden das ist also schonmal nicht ganz richtig.
Opteron
Redaktion
☆☆☆☆☆☆
Eher gesagt ... AMD brachte vor Jahren Chips im Serverbereich raus ... seit der 8000er Serie kam da nix mehr, AMD wollte nie in den Markt, sonder hat das nur aus der Not heraus gemacht, da viele aus Angst vor Intel, keinen Chipsatz entwerfen wollten.AMD bringt seit Jahren Chips raus nur eher für Serverboards und nicht für Privatkunden das ist also schonmal nicht ganz richtig.
Mittlerweile schauts besser aus -> keine (orginal) AMD Chipsätze mehr.
Die jetzigen AMD Chipsätze sind ja eigentlich ATi Chipsätze. Meiner Meinung nach das Besten was AMD jemals hatte ... nur blöd, dass jetzt die CPU nicht mehr so doll ist ..
Es ist wirklich zum Haareraufen ... jahrelang das lamentieren "Der K8 ist toll, aber die VIA; nvidia, SiS, xy Chipsätze sind sch.. lecht, instabil, wir trauen dem nicht, etc. pp" und jetzt sowas...
Als AMD Fan ist man sowas Ähnliches wie der Fußballfan einer Fahrstuhlmannschaft ... Aufstieg-Abstieg-Missmanagment-Trainerwechsel ...
ciao
Alex
P.S: Die Uli Chipsätze waren auch nicht schlecht, nur fehlte damals noch die Sli/CF Fähigkeit für den high-end Markt.
Emploi
Grand Admiral Special
- Mitglied seit
- 20.10.2005
- Beiträge
- 10.679
- Renomée
- 963
- Standort
- Elbflorenz
- Aktuelle Projekte
- WCG
- Lieblingsprojekt
- LatticeProject, Virtual Prairie (ViP), World Community Grid
- Meine Systeme
- Ein Haswell, Cloudnet GO RK3188, CX-919
- BOINC-Statistiken
- Mein Desktopsystem
- Tanz der Bonbonfee
- Mein Laptop
- HP Envy x360 Ryzen 5 2500u Vega 8
- Prozessor
- AMD Ryzen 7 5950X
- Mainboard
- MSI MAG B550 TOMAHAWK
- Kühlung
- Raijintek Orcus Core 360
- Speicher
- 2x32GB Thermaltake R009R432GX2-3600C18A
- Grafikprozessor
- AMD Radeon RX 6900 XT Biggest Navi21 XTX
- Display
- AORUS FV43U + Viewsonic VP2365WB
- SSD
- Kingston FYR 4TB, HP SSD EX950 2TB (HP 8088), Samsung 840 EVO 1TB
- HDD
- 2015 abgeschafft
- Optisches Laufwerk
- 2005 abgeschafft
- Soundkarte
- RealTek ALC1200
- Gehäuse
- Sharkoon REV200
- Netzteil
- Corsair AX760i Platinum
- Tastatur
- Logitech K120
- Maus
- Speedlink TARIOS / DECUS
- Betriebssystem
- Win10 Pro AMD64
- Webbrowser
- Diverse
- Verschiedenes
- TIE Studio TUR88 Supernova, X-Board V2 (nur Headshots)
- Internetanbindung
-
▼1154 Mb/s
▲54 Mb/s
Ich würde eher die VIA die Rollstuhlmannschaft zuschieben. AMD ist vielleicht 2. Liga, aber immer noch nicht abgeschrieben.
Auch mit ULi konnte man 2xPCIe fähige Boards bieten. Nur war das weder von nvidia noch von ATI gewünscht, man wollte ja seinen einen Chipsatz verkaufen, vor allem nvidia... Obwohl es da ein Board gab auf dem SLi (mit ULi) liefe, allerdings nur kurz, bis egonvidia per neuem Treiber dem Treiben einen Riegel vorschob.
Auch mit ULi konnte man 2xPCIe fähige Boards bieten. Nur war das weder von nvidia noch von ATI gewünscht, man wollte ja seinen einen Chipsatz verkaufen, vor allem nvidia... Obwohl es da ein Board gab auf dem SLi (mit ULi) liefe, allerdings nur kurz, bis egonvidia per neuem Treiber dem Treiben einen Riegel vorschob.
wadenbeisser
Vice Admiral Special
- Mitglied seit
- 03.12.2007
- Beiträge
- 825
- Renomée
- 2
Meine Güte, denken hier wirklich so viele nur in Spielerdimensionen??
1. Jedes wirklich SMP taugliche Programm profitiert von mehr Prozessorkernen, da das programm die Arbeit auf die einzelnen kerne verteilen kann.
2. Jeder der viel mit Multitasking arbeitet profitiert von mehr Prozessorkernen, da einfach mehr Programme parallel arbeiten können.
3. Wenn spiele nicht die Arbeit an sich, sondern nur einzelne Aufgaben auf einzelne Kerne legen (z.B. Kern 1 rendert, Kern 2 macht Physikberechnung, Kern 3 Datenaufbereitung, kern 4 Audioausgabe, verarbeitung der Ein.- und Ausgabegeräte usw.), dann wird der Prozessor auch nie gleichmäßig ausgelastet werden und somit begrenzt der Kern der am meisten ackert das mehr an Performance.
Wieviel Sinn ein Prozessor mit soundso viel Kernen macht hängt also vor allem vom anwenderverhalte und der eingesetzten Software ab.
Genau hier sehe ich den Vorteil von AMDs Quadcore Konzept, bei dem sich die einzelnen Kerne auch unterschiedlich takten lassen. Die Taktung wird einfach an das Arbeitsaufkommen angepasst und somit die optimale Leistung bei einer entsprechende Stromaufnahme erreicht. Nun fehlt nur noch eine entsprechende softwareseitige Umsetzung dafür.
Für mich liegt der größte vorteil der K10 Architektur weniger in der rechenleistung der einzelnen Kerne als vielmehr in der Infrastruktur an sich (Crossbar, HT-Link, integrierter Speichercontroller, unabhängige Taktung und Stromversorgung der einzelnen Kerne, Kompatibilität zur bestehenden Hardware usw.) und da sind sie Intel derzeit meilenweit vorraus. Was im Gegenzug aber leider vernachlässigt wurde ist die Arbeit am Rechenwerk an sich.
1. Jedes wirklich SMP taugliche Programm profitiert von mehr Prozessorkernen, da das programm die Arbeit auf die einzelnen kerne verteilen kann.
2. Jeder der viel mit Multitasking arbeitet profitiert von mehr Prozessorkernen, da einfach mehr Programme parallel arbeiten können.
3. Wenn spiele nicht die Arbeit an sich, sondern nur einzelne Aufgaben auf einzelne Kerne legen (z.B. Kern 1 rendert, Kern 2 macht Physikberechnung, Kern 3 Datenaufbereitung, kern 4 Audioausgabe, verarbeitung der Ein.- und Ausgabegeräte usw.), dann wird der Prozessor auch nie gleichmäßig ausgelastet werden und somit begrenzt der Kern der am meisten ackert das mehr an Performance.
Wieviel Sinn ein Prozessor mit soundso viel Kernen macht hängt also vor allem vom anwenderverhalte und der eingesetzten Software ab.
Genau hier sehe ich den Vorteil von AMDs Quadcore Konzept, bei dem sich die einzelnen Kerne auch unterschiedlich takten lassen. Die Taktung wird einfach an das Arbeitsaufkommen angepasst und somit die optimale Leistung bei einer entsprechende Stromaufnahme erreicht. Nun fehlt nur noch eine entsprechende softwareseitige Umsetzung dafür.
Für mich liegt der größte vorteil der K10 Architektur weniger in der rechenleistung der einzelnen Kerne als vielmehr in der Infrastruktur an sich (Crossbar, HT-Link, integrierter Speichercontroller, unabhängige Taktung und Stromversorgung der einzelnen Kerne, Kompatibilität zur bestehenden Hardware usw.) und da sind sie Intel derzeit meilenweit vorraus. Was im Gegenzug aber leider vernachlässigt wurde ist die Arbeit am Rechenwerk an sich.
dekaisi
Grand Admiral Special
- Mitglied seit
- 06.11.2006
- Beiträge
- 3.929
- Renomée
- 25
- Standort
- B
- Mein Laptop
- Lenovo Y50-70,32GB Ram, Samsung 830Pro 256GB, Panel Upgrade,...
- Prozessor
- AMD Ryzen 3950X
- Mainboard
- ROG Strix X570-E
- Kühlung
- Corsair H115i Platinium
- Speicher
- 4x G.Skill F4-3600C15-8GTZ (B-Die)
- Grafikprozessor
- MSI Trio X 3090
- Display
- Predator X27, Asus MQ270Q
- SSD
- sehr viele :D
- HDD
- viele viele und extra Platz :D
- Optisches Laufwerk
- LG Bluray BH10LS30
- Soundkarte
- Soundblaster X7, Steinberg UR-22C
- Gehäuse
- Corsair Vengeance v70 +Dämmung
- Netzteil
- Enermax Platimax D.F. 600W
- Tastatur
- Corsair RGB Platinum K95
- Maus
- Asus ROG Pugio
- Betriebssystem
- Win10 Prof Workstation
Wieso AMD ATI gekauft hat kann ich/man nicht richtig nachvolziehen.
An einem Zeitpunkt der umstellung (DX9- DX10) neue Chipgenerationen (R600) usw.
ATI mag für office rechner genügen mehr aber nicht.
Bei ATI benötigt man ne CF mastercard nen board für CF (gibt nich sehr viele) und ne normale Karte.
.
du solltest dein Wissen noch etwas erweitern und dann postenl.
Für dich scheint AMD/ATI nur Grakas und CPUs herzustellen.
Dies ist nicht der Fall. Und man sage nur Stichwort "AMD Live"
Das Problem wird sein das AMD nicht das nötige Know-How hat um alles zu machen.
Sie sind frisch in den Chipsatzmarkt eingestiegen Nvidia hat dort natürlich überhand.
AMD hat einige Inovationen vorzuweisen.
Sie haben meist als einer der ersten neue Prozesse in ihre Produktion aufgenommen.
Das sie mit ihrer evtl kleinen FAB und wenig Budged nicht alles schaffen können ist eine andere Sache.
Das für ein doch reletiv kleines Unternehmen in dem Sektment ist schon beachtlich.
Man stelle sich aber mal die PCs ohne AMD vor? Wie teuer wären dann Intel Chips? Was hätte man jetzt für Produkte, siehe wo keine Konkurenz da auch keine Entwicklung. ....
Zuletzt bearbeitet:
I
ITpassion-de
Guest
Man stelle sich aber mal die PCs ohne AMD vor? Wie teuer wären dann Intel Chips? Was hätte man jetzt für Produkte, siehe wo keine Konkurenz da auch keine Entwicklung. ....
Dieses Argument hasse ich am meisten .
Als ob es erst günstige PCs gibt, seit AMD eigene CPUs herstellt. Es gab noch viele andere billig-CPU-Anbieter in den 90er Jahren und es sind immer wieder welche verschwunden und neu aufgetaucht. Dementsprechend kann ich die Sorge um die ach so hohen Preise nicht teilen.
Nightshift
Grand Admiral Special
- Mitglied seit
- 19.08.2002
- Beiträge
- 4.447
- Renomée
- 81
- Standort
- Tief im Weeeeeesss-teheheheeen ;-)
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- SIMAP, Docking, POEM
- Lieblingsprojekt
- SIMAP
- Meine Systeme
- Ci7-3770K@3,8 GHz, C2Q 9550@3,4 GHz, AthlonII 620 X4 (+ 2x Ci3-2100, 2x C2D 8400, 9x A4-3420, E-450)
- BOINC-Statistiken
- Prozessor
- Ryzen 7 3700X @stock
- Mainboard
- Gigabyte X570 Aorus Elite
- Kühlung
- Noctua NH-D15 chromax.black
- Speicher
- 2x 16 GB Corsair Vengeance LPX (schwarz) PC4-25600U (DDR4-3200) CL16-18-18-36 @stock
- Grafikprozessor
- Powercolor RX 5700 Red Dragon @stock
- Display
- Eizo FlexScan EV2750
- SSD
- Corsair MP600 1TB M.2 NVMe | Kingston A2000 NVMe PCIe SSD 1TB | Samsung 850 EVO 500 GB
- Optisches Laufwerk
- LG BH16NS55| NEC AD-7203S
- Soundkarte
- onboard :-P der Hardwaregott habe meine Creative Audgiy 2ZS selig
- Gehäuse
- Nanoxia Deep Silence 5, schallgedämmt
- Netzteil
- be quiet! Straight Power E11 650W
- Tastatur
- Razer Ornata Chroma
- Maus
- Logitech Lift for Business
- Betriebssystem
- Win 10 Pro 64bit
- Webbrowser
- Firefox
- Verschiedenes
- rockstable & silent
- Schau Dir das System auf sysprofile.de an
Meine Güte, denken hier wirklich so viele nur in Spielerdimensionen??
Na, weil nun mal der größte Teil der User die hohe Performance ihres Prozessors für nichts anderes braucht?
Für die normalen Anwendungen reicht ein Dualcore nun mal wirklich aus.
Und die Highperformanceanwendungen die es gibt werden im Vergleich zu den Spielen viel seltener verwendet, das interessiert nur hier einen prozentual hohen Anteil.
@ ITpassion-de:
Kann ich verstehen, was die Innovation angeht stimmt das Argument jedoch.
Ohne den K8 wäre Intel bei weitem nicht so unter Druck gewesen was den Pentium 4 angeht und zum Handeln gewzungen gewesen.
Genauso nun die umgekehrte Situation, der Conroe von Intel zwingt AMD zu mehr Innovation und neuem Design.
Gäbe es nur ein Unternehmen, egal ob nun Intel oder AMD, so wäre der Innovationsdruck bei weitem nicht in diesem Ausmaße vorhanden.
Ich denke das ist die Stelle an der wir am meisten profitieren.
Zuletzt bearbeitet:
rkinet
Grand Admiral Special
Es gab auch mal eine Konkurrenz zu Microsoft.Dieses Argument hasse ich am meisten .
Als ob es erst günstige PCs gibt, seit AMD eigene CPUs herstellt. Es gab noch viele andere billig-CPU-Anbieter in den 90er Jahren und es sind immer wieder welche verschwunden und neu aufgetaucht. Dementsprechend kann ich die Sorge um die ach so hohen Preise nicht teilen.
Oder heute per Linux, das 'geringfügig' preiswerter als Windows ist
Oder Office-Pakete.
Gäbe es eine fairen Wettbewerb bei Office-Paketen wären wir vielleicht bei 20-50 Euro je kompletten Paket.
Ohne AMD hätte Intel einerseits noch +15% des Umsatzes am Weltmarkt, der weitgehend als Gewinn wirken würde.
Intel würde dann die Performance seine Standard-CPUs einschränken und deutlich höhere Preise bei Top-Produkten nehmen.
Sicherlich würde Intel auch den Takt der CPUs wirkungsvoll verriegeln, also OC ade.
All diese Maßnahmen würden weniger Leitung für das gleiche Geld und viel höhere Kosten für Power-User ergeben.
Intel liefert die guten CPUs ja nicht aus kundenfreundlichkeit zu attraktiven Preisen aus, sondern wiel AMD sonst Marktanteile weg nimmt.
Langfristig würden die Innovationen erlahmen, er teure Fab-Bau zeitlich verzögert werden und fast Schrott ausgeliefert werden - vgl. MS Vista.
I
ITpassion-de
Guest
Es gab auch mal eine Konkurrenz zu Microsoft.
Gibt es in vielen Teilbereichen immernoch, z.B. Webbrowser, Officeanwendungen, Serverbetriebsysteme, etc...
Oder heute per Linux, das 'geringfügig' preiswerter als Windows ist
Im Serverbereich wird von der 'CT einmal jährlich ein Kostenvergleich zwischen MS Server und Linux Server angestellt und das Resumé der letzten Jahre war jeweils das die Gesamtkosten identisch sind. Nur die Proportionen sind unterschiedlich. Bei MS war die Anschaffung teurer und die Wartung günstiger, bei Linux umgekehrt.
Oder Office-Pakete.
Gäbe es eine fairen Wettbewerb bei Office-Paketen wären wir vielleicht bei 20-50 Euro je kompletten Paket.
Es gibt Gratis Officelösungen für alle Plattformen, dennoch kaufen (oder stehlen) die Leute lieber ein MS Office für Kaufpreise zwischen 150,- und 800,- Euro.
Im übrigen hat alleine ein MS Word zu Zeiten als Wordperfect noch stark war rund 800,- DM gekostet.
Ohne AMD hätte Intel einerseits noch +15% des Umsatzes am Weltmarkt, der weitgehend als Gewinn wirken würde.
Intel würde dann die Performance seine Standard-CPUs einschränken und deutlich höhere Preise bei Top-Produkten nehmen.
Sicherlich würde Intel auch den Takt der CPUs wirkungsvoll verriegeln, also OC ade.
All diese Maßnahmen würden weniger Leitung für das gleiche Geld und viel höhere Kosten für Power-User ergeben.
Intel liefert die guten CPUs ja nicht aus kundenfreundlichkeit zu attraktiven Preisen aus, sondern wiel AMD sonst Marktanteile weg nimmt.
Ich weiß nicht wie du auf diese abstruse Vorstellung kommst. Es gab Zeiten mit und ohne Konkurenz. Und zu beiden Zeiten günstige und teure CPUs. Ebenso gab es viel Fortschritt im Bereich der Prozessoren auch als Intel mehr oder weniger der einzige x86 Hersteller war.
Langfristig würden die Innovationen erlahmen, er teure Fab-Bau zeitlich verzögert werden und fast Schrott ausgeliefert werden - vgl. MS Vista.
Deine Thesen werden von der realen Geschichte in keinster Weise bestättigt. Im übrigen weiß ich nicht was du an Vista auszusetzen hast. Es wurde 60.000.000 mal verkauft und die meisten werden wohl damit problemlos arbeiten können.
Zuletzt bearbeitet:
MusicIsMyLife
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.02.2002
- Beiträge
- 15.582
- Renomée
- 2.577
- Standort
- in der Nähe von Cottbus
- Lieblingsprojekt
- Asteroids@Home
- Meine Systeme
- Alltags-PC, Test-PC (wechselnde Hardware)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Alltags-PC
- Mein Laptop
- HP DV7-2225sg
- Prozessor
- AMD Ryzen 9 7950X
- Mainboard
- ASRock B650M PG Riptide
- Kühlung
- Watercool Heatkiller IV Pro Copper
- Speicher
- 2x 32 GB G.Skill TridentZ 5 TGB (F5-6000J3040G32X2-TZ5RS)
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- ASUS ROG PG42UQ (3840x2160), Philips BDM4065UC (3840x2160), Samsung C27HG70 (2560x1440)
- SSD
- Micron 9300 Pro 7,68 TB (U.2), Samsung 850 Evo 4 TB (SATA)
- HDD
- keine, SSD only...
- Optisches Laufwerk
- LG CH08LS10 Blu-ray Disc-Player
- Soundkarte
- Creative SoundBlasterX AE-5 Plus
- Gehäuse
- Dimastech BenchTable EasyXL (vorübergehend)
- Netzteil
- Corsair RM850i
- Tastatur
- ASUS ROG Strix Flare
- Maus
- Steelseries Sensei 310
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼250 MBit ▲45 MBit
Im übrigen weiß ich nicht was du an Vista auszusetzen hast. Es wurde 60.000.000 mal verkauft und die meisten werden wohl damit problemlos arbeiten können.
Von den Verkaufszahlen von Windows Vista auf die Qualität des Betriebssystems zu schlussfolgern halte ich für sehr gewagt.
I
ITpassion-de
Guest
Von den Verkaufszahlen von Windows Vista auf die Qualität des Betriebssystems zu schlussfolgern halte ich für sehr gewagt.
Schau dir die Qualität von WIndows me und die dazugehörigen Verkaufzahlen an, das spricht Bände.
Aber nichts desto trotz. Ich benutze Vista x64 seit dem 19.01.07 habe es noch nie neu installiert, habe zwischenzeitlich x Hardwareumabuten gemacht (4x Boardtausch, $x CPU Tasuch, etc..) überhaupt kein Problem udn die Performance leidet auch nicht darunter. Im übrigen ist mein Rechner immer an und hat x Aufgaben, unter anderem Spielen, Fernwartung, Hardcoremultitasking, etc... .
MusicIsMyLife
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.02.2002
- Beiträge
- 15.582
- Renomée
- 2.577
- Standort
- in der Nähe von Cottbus
- Lieblingsprojekt
- Asteroids@Home
- Meine Systeme
- Alltags-PC, Test-PC (wechselnde Hardware)
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Desktopsystem
- Alltags-PC
- Mein Laptop
- HP DV7-2225sg
- Prozessor
- AMD Ryzen 9 7950X
- Mainboard
- ASRock B650M PG Riptide
- Kühlung
- Watercool Heatkiller IV Pro Copper
- Speicher
- 2x 32 GB G.Skill TridentZ 5 TGB (F5-6000J3040G32X2-TZ5RS)
- Grafikprozessor
- AMD Radeon RX 6900XT
- Display
- ASUS ROG PG42UQ (3840x2160), Philips BDM4065UC (3840x2160), Samsung C27HG70 (2560x1440)
- SSD
- Micron 9300 Pro 7,68 TB (U.2), Samsung 850 Evo 4 TB (SATA)
- HDD
- keine, SSD only...
- Optisches Laufwerk
- LG CH08LS10 Blu-ray Disc-Player
- Soundkarte
- Creative SoundBlasterX AE-5 Plus
- Gehäuse
- Dimastech BenchTable EasyXL (vorübergehend)
- Netzteil
- Corsair RM850i
- Tastatur
- ASUS ROG Strix Flare
- Maus
- Steelseries Sensei 310
- Betriebssystem
- Windows 10 Professional
- Webbrowser
- Firefox
- Schau Dir das System auf sysprofile.de an
- Internetanbindung
- ▼250 MBit ▲45 MBit
Aber nichts desto trotz. Ich benutze Vista x64 seit dem 19.01.07 habe es noch nie neu installiert, habe zwischenzeitlich x Hardwareumabuten gemacht (4x Boardtausch, $x CPU Tasuch, etc..) überhaupt kein Problem udn die Performance leidet auch nicht darunter. Im übrigen ist mein Rechner immer an und hat x Aufgaben, unter anderem Spielen, Fernwartung, Hardcoremultitasking, etc... .
Das stellt ja auch keiner in Frage. Aber schau dir doch mal dein System an. Und schau dir doch im Gegensatz dazu mal die ganzen Komplettsysteme und Laptops an, die mit Vista verkauft werden. 1GB Ram, Intel Celeron (der alte, nicht der neue!) und meist eine sehr schwache Grafiklösung. So sieht der Alltag doch leider noch immer aus.
Auf solchen Maschinen, auf denen übrigens XP hervorragend läuft, wird Windows Vista zum Krampf. Nur: Kauf doch mal solch ein Gerät mit XP. Leider ist die Auswahl erschreckend gering.
Was ich damit sagen will: Gerade in der Anfangszeit von Vista wurden viele Lizenzen notgedrungen gekauft, weil es kaum Angebote von XP-PCs gab. Somit sind viele Vista-Lizenzen über den Ladentisch gegangen, die zwar in die Microsoft-Statistik mit reinzählen, dennoch aber "ungewollt" gekauft wurden.
wadenbeisser
Vice Admiral Special
- Mitglied seit
- 03.12.2007
- Beiträge
- 825
- Renomée
- 2
Na, weil nun mal der größte Teil der User die hohe Performance ihres Prozessors für nichts anderes braucht?
Für die normalen Anwendungen reicht ein Dualcore nun mal wirklich aus.
Und die Highperformanceanwendungen die es gibt werden im Vergleich zu den Spielen viel seltener verwendet, das interessiert nur hier einen prozentual hohen Anteil.
Ich antworte mal mit 2 Zitaten aus genau diesem Beitrag von mir.
3. Wenn spiele nicht die Arbeit an sich, sondern nur einzelne Aufgaben auf einzelne Kerne legen (z.B. Kern 1 rendert, Kern 2 macht Physikberechnung, Kern 3 Datenaufbereitung, kern 4 Audioausgabe, verarbeitung der Ein.- und Ausgabegeräte usw.), dann wird der Prozessor auch nie gleichmäßig ausgelastet werden und somit begrenzt der Kern der am meisten ackert das mehr an Performance.
Wieviel Sinn ein Prozessor mit soundso viel Kernen macht hängt also vor allem vom anwenderverhalte und der eingesetzten Software ab.
Da derzeit so gut wie garkein Spiel von einem Quadcore ernsthaft profitiert ist gerade ein TrippleCore für Spieler am interessantesten. 2 Kerne für die rechenintensiven Sachen wie die Grafikberechnung und die Spielphysik und ein Kern für die restlichen Aufgaben. Die Prozessoren mit 4 und mehr kernen sind derzeit im grunde genommen nur für Workstations interessant, bei denen die anfallende Arbeit auch halbwegs gleichmäßig auf die Kerne verteilt wird.
.
EDIT :
.
Falsch...ohne AMD hätte Intel nur deren Marktanteile.....da sich der Umsatz an den Verkaufspreisen orientiert ist dieser nicht absehbar und der Gewinn steigt wohl aufgrund fehlender Innovationen (kein Konkurrenzdruck = weniger Kosten für Forschung und Entwicklung) noch stärker und die Produkte wären wohl bei weitem nicht so leistungsfähig wie heute.Ohne AMD hätte Intel einerseits noch +15% des Umsatzes am Weltmarkt, der weitgehend als Gewinn wirken würde.
Sehen kann man diese Auswirkungen ja aufgrund der mangelnden Konkurrenz im oberen Leistungsspektrum bereits heute.
.
EDIT :
.
Schau dir die Qualität von WIndows me und die dazugehörigen Verkaufzahlen an, das spricht Bände.
Aber nichts desto trotz. Ich benutze Vista x64 seit dem 19.01.07 habe es noch nie neu installiert, habe zwischenzeitlich x Hardwareumabuten gemacht (4x Boardtausch, $x CPU Tasuch, etc..) überhaupt kein Problem udn die Performance leidet auch nicht darunter. Im übrigen ist mein Rechner immer an und hat x Aufgaben, unter anderem Spielen, Fernwartung, Hardcoremultitasking, etc... .
Das meiste davon konnte man bereits mit Windows 9x machen......der problematische Mainboardtausch (Inaccessible Boot device) kam erst mit dem Treibermodell des NT Kernels auf. bestenfalls würde ich diesen Vorteil als Bugfix bezeichnen..
Ähnliche Themen
- Gesperrt
- Antworten
- 4
- Aufrufe
- 512
- Antworten
- 9
- Aufrufe
- 989