App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Shrek muss künftig ohne AMD-Power auskommen
- Ersteller Nero24
- Erstellt am
Die Einführung der Opteron-Plattform 2003 hat AMD viele Türen geöffnet. Aufgrund der Bauweise mit integrierten Memory-Controllern und drei HyperTransport-Links für den direkten Zusammenschluss von bis zu acht Prozessoren auf einem Mainboard, ist diese Plattform prädestiniert für den Multi-CPU Einsatz. So dauerte es auch nicht lange, bis AMD einige der bedeutendsten Animationsschmieden Hollywoods für sich gewinnen konnte, darunter z.B. <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1124981456">Lucasfilm</a> und <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1113935577">DreamWorks</A>, die für ihre Spezialeffekte und Animationsfilme enorme Rechenleistung benötigen.
Die Kooperation, ein 3-Jahresvertrag, sah nicht nur die Lieferung von mehr als 1000 leistungsstarken Workstations und Servern aus dem Hause Hewlett-Packard vor, AMD hätte auch die Möglichkeit gehabt Shrek & Co. für seine Werbekampagnen zu nutzen. Ferner ist die Wahl der hauseigenen Prozessoren für die Produktion derartiger Blockbuster natürlich grundsätzlich als Image-Plus und als Referenz zu werten.
Insofern musste AMD nun einen herben Rückschlag einstecken, denn wie gestern bekannt geworden ist, wird DreamWorks den 3-Jahresvertrag nicht verlängern. Stattdessen werden die Filmemacher künftig auf Lösungen aus dem Hause Intel setzen. Dabei sollen vorwiegend die kommenden Intel <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1212666530">Nehalem</a>- und <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1215259287">Larrabee</a>-Chips ausschlaggebend gewesen sein für den Wechsel. Über die finanzielle Seite des Deals ist bisher nichts bekannt.
Danke jessebee für den Hinweis.
<b>Links zum Thema:</b><ul><li><a href="http://www.theinquirer.net/gb/inquirer/news/2008/07/08/dreamworks-shifts-amd-intel" target="_blank">Dreamworks shifts from AMD to Intel</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1113935577">AMD goes to Hollywood</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1124981456">Lucasfilm setzt auf den AMD Opteron</a></li></ul>
Die Kooperation, ein 3-Jahresvertrag, sah nicht nur die Lieferung von mehr als 1000 leistungsstarken Workstations und Servern aus dem Hause Hewlett-Packard vor, AMD hätte auch die Möglichkeit gehabt Shrek & Co. für seine Werbekampagnen zu nutzen. Ferner ist die Wahl der hauseigenen Prozessoren für die Produktion derartiger Blockbuster natürlich grundsätzlich als Image-Plus und als Referenz zu werten.
Insofern musste AMD nun einen herben Rückschlag einstecken, denn wie gestern bekannt geworden ist, wird DreamWorks den 3-Jahresvertrag nicht verlängern. Stattdessen werden die Filmemacher künftig auf Lösungen aus dem Hause Intel setzen. Dabei sollen vorwiegend die kommenden Intel <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1212666530">Nehalem</a>- und <a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1215259287">Larrabee</a>-Chips ausschlaggebend gewesen sein für den Wechsel. Über die finanzielle Seite des Deals ist bisher nichts bekannt.
Danke jessebee für den Hinweis.
<b>Links zum Thema:</b><ul><li><a href="http://www.theinquirer.net/gb/inquirer/news/2008/07/08/dreamworks-shifts-amd-intel" target="_blank">Dreamworks shifts from AMD to Intel</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1113935577">AMD goes to Hollywood</a></li><li><a href="http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=1&id=1124981456">Lucasfilm setzt auf den AMD Opteron</a></li></ul>
AMD hätte auch die Möglichkeit gehabt Shrek & Co. für seine Werbekampagnen zu nutzen
Die ideale Werbefigur: lustig, bekannt, grün aber ist ja nicht so, dass man das nutzen müsste
DonGeilo
Grand Admiral Special
- Mitglied seit
- 01.09.2005
- Beiträge
- 2.073
- Renomée
- 8
- Standort
- Hamburg
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- ABC@Home
- Lieblingsprojekt
- ABC@Home
- Folding@Home-Statistiken
Ohh man, das wird Hard. Der Nehalem wird wohl der Hammer.
Zuletzt bearbeitet:
DoC_HoLLiDaY
Grand Admiral Special
- Mitglied seit
- 11.12.2005
- Beiträge
- 2.211
- Renomée
- 82
- Standort
- Neuburg a. d. Donau
- Prozessor
- AMD Ryzen 5 3600
- Mainboard
- MSI B450M PRO-VDH MAX
- Kühlung
- AMD Wraith Prism
- Speicher
- 48GB Patriot DDR4 3200MHz VIPER4
- Grafikprozessor
- 8GB ASROCK RX 5700XT Challenger
- SSD
- 500GB Samsung SSD 850 EVO
- HDD
- 512GB Intel 660p M.2 PCIe 3.0 x4 NVME
- Netzteil
- 500W be quiet! Pure Power 11
Hier gibts auch schon einige Reaktionen:
http://www.planet3dnow.de/vbulletin/showthread.php?t=343487
http://www.planet3dnow.de/vbulletin/showthread.php?t=343487
Die ideale Werbefigur: lustig, bekannt, grün aber ist ja nicht so, dass man das nutzen müsste
FullACK!
=NP=Igor
Lt. Commander
- Mitglied seit
- 06.01.2003
- Beiträge
- 121
- Renomée
- 0
- Standort
- Essen
- Mein Laptop
- Samsung R70 Devin
- Prozessor
- AMD Phenom 9850 BE
- Mainboard
- Asus M3A32-MVP Deluxe
- Kühlung
- Zern PQ Plus (Wasserkühler)
- Speicher
- 4x 1 GB Corsair PC6400C4
- Grafikprozessor
- Radeon 3870
- Display
- 19" Benq FP93GX
- HDD
- 1x 36 GB WD Raptor, 1x 320GB WD Caviar
- Optisches Laufwerk
- 16x NEC DVD Brenner
- Soundkarte
- Soundblaster X-Fi Platinum
- Gehäuse
- Chieftec CS601 (oldschool Gehäuse von Anfang 2000 ^^)
- Netzteil
- Enermax Noisetaker 485W
- Betriebssystem
- Vista64
- Webbrowser
- Firefox
Oh man....wenn AMD all die Figuren für Werbung benutzen durfte warum haben die das dann bloß nicht gemacht ?!
Damit hätte man auch mal die treudoofen Intelkunden zu AMD ziehen können.....ne schöne Magazinwerbung mit Shrek dabei in der Computerbild und zack.....viele Leute finden Shrek toll und kaufen deshalb AMD....aber nein, die Marketingabteilung hat besseres zu tun xD
Damit hätte man auch mal die treudoofen Intelkunden zu AMD ziehen können.....ne schöne Magazinwerbung mit Shrek dabei in der Computerbild und zack.....viele Leute finden Shrek toll und kaufen deshalb AMD....aber nein, die Marketingabteilung hat besseres zu tun xD
WolfenStein
Captain Special
- Mitglied seit
- 30.10.2003
- Beiträge
- 230
- Renomée
- 1
Also wird Shrek im nächsten Film blau sein. *scherz*
Ja, die lassen ihn soviele Intels schlucken, bis er fast erstickt und blau anläuft!
Eigentlich schade, dass der Vertrag nicht verlängert wurde. Aber nachdem was von Nehalem erwartet wird, und da AMD selbst zugibt wohl nur geringe IPC Steigerungen in den nächsten 2 Jahren zu bekommen, ist das auch nicht wirklich verwunderlich!
Eigentlich schade, dass der Vertrag nicht verlängert wurde. Aber nachdem was von Nehalem erwartet wird, und da AMD selbst zugibt wohl nur geringe IPC Steigerungen in den nächsten 2 Jahren zu bekommen, ist das auch nicht wirklich verwunderlich!
DonGeilo
Grand Admiral Special
- Mitglied seit
- 01.09.2005
- Beiträge
- 2.073
- Renomée
- 8
- Standort
- Hamburg
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- ABC@Home
- Lieblingsprojekt
- ABC@Home
- Folding@Home-Statistiken
Hmm blöd, die GPGPU Lösungen sind wohl noch nicht einsetzbar, klar dass AMD dann uninteressant wird
Stimmt, der die das Laraabee soll ja 2 TFlops haben, da wäre man jetzt schon mit nur 2 4850.
rkinet
Grand Admiral Special
Eher ist der K10 ein Heuler - vollgestopft mit kaum genutzten Features und lahmer als ein 90nm K8.Ohh man, das wird Hard. Der Nehalem wird wohl der Hammer.
Eine normale Entwicklung, also 15-25% mehr Taktpotential je Shrink (IBM packt dies bei gleicher Fertigungstechnik) hätte bei 65nm die 3,5 GHz max und bei 45nm 4-4,5 GHz bedeuten müssen.
Durch gravierende Designfehler im K10 wird dies aber von AMD bei weitem nicht erreicht.
Der Nehalem erscheint als Überflieger weil Intel quasi den K8 als Refernz nahm und das Potential von AMD per Shrinks hochrechnete. Jetzt stellt sich aber heraus, dass Intel trotz normaler Performancesteigerung nur noch desolate K10 als Konkurrenz hat.
Aber AMD - die können nicht einmal mehr eine fehlerfreie Preisliste in Netz stellen: http://www.amd.com/us-en/Processors/ProductInformation/0,,30_118_609,00.html?redir=CPPR01
(s. 2* X2 6000+, Cacheangaben / Dreher beim 5200+)
AMD benötigt neunen Schwung durch neues Management, sonst geht es immer weiter bergab.
SPINA
Grand Admiral Special
- Mitglied seit
- 07.12.2003
- Beiträge
- 18.122
- Renomée
- 985
- Mein Laptop
- Lenovo IdeaPad Gaming 3 (15ARH05-82EY003NGE)
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- ASUS PRIME X370-PRO
- Kühlung
- AMD Wraith Prism
- Speicher
- 2x Micron 32GB PC4-25600E (MTA18ASF4G72AZ-3G2R)
- Grafikprozessor
- Sapphire Pulse Radeon RX 7600 8GB
- Display
- LG Electronics 27UD58P-B
- SSD
- Samsung 980 PRO (MZ-V8P1T0CW)
- HDD
- 2x Samsung 870 QVO (MZ-77Q2T0BW)
- Optisches Laufwerk
- HL Data Storage BH16NS55
- Gehäuse
- Lian Li PC-7NB
- Netzteil
- Seasonic PRIME Gold 650W
- Betriebssystem
- Debian 12.x (x86-64)
- Verschiedenes
- ASUS TPM-M R2.0
Das ist nun wirklich Unsinn. Der Phenom X4 ist vielleicht nicht so schnell wie erwartet, aber bei gleichem Takt im Schnitt 10% schneller als ein Athlon 64 X2.*Eher ist der K10 ein Heuler - vollgestopft mit kaum genutzten Features und lahmer als ein 90nm K8.
* single-threaded Performance, multi-threaded baut er den Vorsprung natürlich nochmals deutlich aus
spaceman2702
Commander
Wieso nur wirbt AMD mit den super Daten Ihrer Grafikkarten? Ist es denn nicht möglich solche Berechnungen darüber laufen zu lassen. Für das rendern ist die ATI Hardware doch wie geschaffen.
Dazu nen soliden Quadcore auf 45 nm und alles wäre gut. Aber warscheinlich trägt die Kosten für das Paket eh Intel und wenn dem so ist kann man AMD verstehen wenn sie sich da raus halten. So ein Paket kostet mal locker den Gewinn eines Monats für AMD. das Geld braucht man dann doch besser um die IPC der Prozessoren zu verbessern.
@Spina
10% mehr Leistung/Takt bring nur nichts wenn der Takt 20% niedriger ausfällt. Das Design ist ein Flop von der Leistung wie auch vom Verbrauch.
Dazu nen soliden Quadcore auf 45 nm und alles wäre gut. Aber warscheinlich trägt die Kosten für das Paket eh Intel und wenn dem so ist kann man AMD verstehen wenn sie sich da raus halten. So ein Paket kostet mal locker den Gewinn eines Monats für AMD. das Geld braucht man dann doch besser um die IPC der Prozessoren zu verbessern.
@Spina
10% mehr Leistung/Takt bring nur nichts wenn der Takt 20% niedriger ausfällt. Das Design ist ein Flop von der Leistung wie auch vom Verbrauch.
Zuletzt bearbeitet:
Spinoza
Captain Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 205
- Renomée
- 1
- Prozessor
- AMD Ryzen 1700
- Mainboard
- Asus Strix B350
- Kühlung
- Noctua NH-D15
- Speicher
- 16 GB Corsair Vengeance 3000 MHz
- Grafikprozessor
- MSI 980 GTX
- Display
- 2x Eizo CX270
- SSD
- Samsung 960 EVO + 2x 500 GB Samsung 850 Evo
- HDD
- 2 x 6 TB WD RED
- Betriebssystem
- Win10 64Bit
- Verschiedenes
- Hauptsystem
Wieso nur wirbt AMD mit den super Daten Ihrer Grafikkarten? Ist es denn nicht möglich solche Berechnungen darüber laufen zu lassen. Für das rendern ist die ATI Hardware doch wie geschaffen..
für das rendern von einzelbildern mittels 3d software, wie für kinofilme, sind grafikkarten nicht besonders geeignet. proprietäre programiersprachen.. viel aufwändiges getrickse um die shadereinheite für die berechnungen benutzen zu können.
kaum eine renderengine (mental ray, brazil, renderman etc. ) erhält erwähnenswerte unterstützung von heutigen grafikkarten beim berechnen des finalen bildes.
es gibt einige ansätze aber die gehen meist dahin den modellierungprozesse zu verbessern (realtime shader für die vorschau etc.)
larrabee spielt da auf einem ganz anderen feld.
es sind x86 fähige cores die mit heutigen mitteln einfach zu programmieren sind.
wesentlich einfacher und flexibler programmierbar als grakas.
die anpassung an vorhandene renderer dürfte sehr viel leichter sein.
Zuletzt bearbeitet:
Woodstock
Grand Admiral Special
- Mitglied seit
- 04.05.2002
- Beiträge
- 9.819
- Renomée
- 252
- Standort
- Somewhere in Oberfranken
- Mein Laptop
- Lenovo T460
- Prozessor
- I7-5960x
- Mainboard
- Gigabyte GA X99 UD4
- Kühlung
- Arctic Liquid Freezer II 280
- Speicher
- 8x 8GB Corsair Venegance DDR4 2666
- Grafikprozessor
- Sapphire Nitro+ RX 480 8G D5 OC, 8GB GDDR5 (11260-01-20G)
- Display
- 2x LG 24EB23 24" 16:10 TFT/ Sony SDM-HS94 19" 5:4 TFT
- SSD
- Samsung 970 EVO Plus 250GB NVME für OS, Samsung 860 QVO 1TB für Bilder und MP3
- HDD
- 2x 3TB Seagate, 1x 2TB WD
- Optisches Laufwerk
- Asus BR Brenner, Pioneer BR Brenner
- Soundkarte
- Onoard
- Gehäuse
- Nanoxia Deep Silence 6 Anthrazit
- Netzteil
- be quiet! System Power 9 CM 600W
- Tastatur
- Zu alt
- Maus
- Auch zu alt
- Betriebssystem
- Windows 10 64
- Webbrowser
- Firefox / Chrome / IE
Die ideale Werbefigur: lustig, bekannt, grün aber ist ja nicht so, dass man das nutzen müsste
Na ja. Immerhin hat AMD doch die beste Marketing Abteilung überhaupt
Da ist man doch nicht auf einen großen grünen weltbekannten Ogger oder dauerquasselnden Esel angewiesen der den Namen AMD zu größerer Bekanntheit verhelfen könnte.
Opteron
Redaktion
☆☆☆☆☆☆
Siehe oben, die Softwareunterstützung ist noch mehr als mau. Wenns ginge würde das AMD natürlich bewerben, so doof ist deren Marketing auch wieder nicht.Wieso nur wirbt AMD mit den super Daten Ihrer Grafikkarten? Ist es denn nicht möglich solche Berechnungen darüber laufen zu lassen. Für das rendern ist die ATI Hardware doch wie geschaffen.
Das beste das es meiner Meinung z.Zt. gibt ist RapidMind:
http://www.ddj.com/architect/199501192
http://www.rapidmind.com/
Aber dafür muss man die Software aber auch umschreiben, bei Larrabee braucht man nur nen aktuellen Code durch nen AVX 2.0 Compiler schicken und fertig, wobei man wohl trotzdem ne Menge Handarbeit (Assembler) machen wird.
ciao
Alex
dekaisi
Grand Admiral Special
- Mitglied seit
- 06.11.2006
- Beiträge
- 3.929
- Renomée
- 25
- Standort
- B
- Mein Laptop
- Lenovo Y50-70,32GB Ram, Samsung 830Pro 256GB, Panel Upgrade,...
- Prozessor
- AMD Ryzen 3950X
- Mainboard
- ROG Strix X570-E
- Kühlung
- Corsair H115i Platinium
- Speicher
- 4x G.Skill F4-3600C15-8GTZ (B-Die)
- Grafikprozessor
- MSI Trio X 3090
- Display
- Predator X27, Asus MQ270Q
- SSD
- sehr viele :D
- HDD
- viele viele und extra Platz :D
- Optisches Laufwerk
- LG Bluray BH10LS30
- Soundkarte
- Soundblaster X7, Steinberg UR-22C
- Gehäuse
- Corsair Vengeance v70 +Dämmung
- Netzteil
- Enermax Platimax D.F. 600W
- Tastatur
- Corsair RGB Platinum K95
- Maus
- Asus ROG Pugio
- Betriebssystem
- Win10 Prof Workstation
Das ist nun wirklich Unsinn. Der Phenom X4 ist vielleicht nicht so schnell wie erwartet, aber bei gleichem Takt im Schnitt 10% schneller als ein Athlon 64 X2.*
* single-threaded Performance, multi-threaded baut er den Vorsprung natürlich nochmals deutlich aus
Jopp. Das sich immer noch solche Gerüchte halten. Phenom ist deutlich schneller zu einem X2. Single Thread nur leicht, sobald aber 4Kerne zusammen Arbeiten ist ein deutlicher Spruch. Und die Software ist da und funktioniert, schon alleine da der Phenom, wenns möglich ist, es selbständig verteilt.
Wenn die Filme nun mit Nehalem statt evtl 45nm Barcelona gemacht werden, dann wirds wohl zu verzögerung kommen .
Und zu 1500Servern gibts bestimmt 100Techniker mit dazu das es überhaupt läuft .
Wenn sie die Filmbude mal nicht vertan hat, da Intels Nehalem ja est in den Kinderschuhen steckt und mit Sicherheit mit Fehler antritt.
lord_fritte
Vice Admiral Special
Ich glaube der Nehalem wird AMD endgültig den Todesstoß geben.
Meiner Meinung war der letzte Vorteil von AMD der Speichercontroler und der ist nun mit dem Nehalem auch verpufft.
Also Goodbye AMD.
Meiner Meinung war der letzte Vorteil von AMD der Speichercontroler und der ist nun mit dem Nehalem auch verpufft.
Also Goodbye AMD.
Spinoza
Captain Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 205
- Renomée
- 1
- Prozessor
- AMD Ryzen 1700
- Mainboard
- Asus Strix B350
- Kühlung
- Noctua NH-D15
- Speicher
- 16 GB Corsair Vengeance 3000 MHz
- Grafikprozessor
- MSI 980 GTX
- Display
- 2x Eizo CX270
- SSD
- Samsung 960 EVO + 2x 500 GB Samsung 850 Evo
- HDD
- 2 x 6 TB WD RED
- Betriebssystem
- Win10 64Bit
- Verschiedenes
- Hauptsystem
Und zu 1500Servern gibts bestimmt 100Techniker mit dazu das es überhaupt läuft .
Wenn sie die Filmbude mal nicht vertan hat, da Intels Nehalem ja est in den Kinderschuhen steckt und mit Sicherheit mit Fehler antritt.
hüstel.. nach der letzten verbuggten AMD pleite sind das starke worte.
nehalem zeigt jetzt schon ordentlich potenzial.
50% mehrleistung bei einigen anwendungen (bei gleichem takt gegenüber einem aktuellen intel) .... und das in real life .... nicht auf präsentationsfolien wie bei den phenoms.
nee ich sehe nicht das AMD in diesem bereich etwas erwiedern kann.
rkinet
Grand Admiral Special
Genau - schon der IDLE-Verbrauch von knapp 20 Watt beim X4 vs. 5-8 Watt beim K8 X2 (90 u. 65nm) spricht Bände.@Spina
10% mehr Leistung/Takt bring nur nichts wenn der Takt 20% niedriger ausfällt. Das (K10) Design ist ein Flop von der Leistung wie auch vom Verbrauch.
Die Optimierungen bei Interger und SSE können auch kein Taktpotential gekostet haben, ebenso nicht das Redesign am L2 oder die breitere Anbindung der internen Busse.
Auch die Virtualisierung war ja schon beim 90nm K8 hochwertig integriert.
Der Verdacht fällt auf die Änderungen im Rahmen mit der L3-Einführung und zusätzlicher Features bei der Virtualisierung. Auch der TLB-Bug liegt ja in diesem Umfeld.
Da wurde offensichtlich jahrelang gemurkst und die entstandene Gülle als Erfolg ans AMD- Management gemeldet.
Wobei jenes viel drastischere Eingriffe im Design definierte, als es Intel für seine Produkte tat. Das ist aber immer ein gewaltiges Risiko für endlose Verzögerungen und Bugs.
Ich glaube der Nehalem wird AMD endgültig den Todesstoß geben.
Meiner Meinung war der letzte Vorteil von AMD der Speichercontroler und der ist nun mit dem Nehalem auch verpufft.
Also Goodbye AMD.
Dazu fällt mir irgendwie nur der doofe Spruch: totgesagte leben länger ein!
Das gab es alles schonmal, dass AMD totgesagt wurde. Und nachdem sich die aktuelle Graka-Serie wohl äußerst gut verkauft, sollte selbst ein weiteres Einbrechen der Prozessorverkäufe noch kompensiert werden können.
Und wer weiß vielleicht schlägt AMD am Ende doch nochmal zurück. Mit Swift wird man zum Beispiel wahrscheinlich eher am Markt sein als Intel mit einem Konkurrenzprodukt... natürlich nur, wenn man nicht wie beim Phenom, die Roadmap einhält.
Spinoza
Captain Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 205
- Renomée
- 1
- Prozessor
- AMD Ryzen 1700
- Mainboard
- Asus Strix B350
- Kühlung
- Noctua NH-D15
- Speicher
- 16 GB Corsair Vengeance 3000 MHz
- Grafikprozessor
- MSI 980 GTX
- Display
- 2x Eizo CX270
- SSD
- Samsung 960 EVO + 2x 500 GB Samsung 850 Evo
- HDD
- 2 x 6 TB WD RED
- Betriebssystem
- Win10 64Bit
- Verschiedenes
- Hauptsystem
Das gab es alles schonmal, dass AMD totgesagt wurde. Und nachdem sich die aktuelle Graka-Serie wohl äußerst gut verkauft, sollte selbst ein weiteres Einbrechen der Prozessorverkäufe noch kompensiert werden können.
die frage die sich da stellt ist, wieviel gewinn macht AMD an einer einzelnen graka?
die neuen modell sind ja wirklich überraschend günstig für die leistung.
kenne genug firmen die haben super umsätze und mussten letztes jahr trotzdem insolvenz anmelden....
Ich kann mir nicht vorstellen, dass AMD in der jetzigen Situation, da sie die letzten Quartale alle deutliche Verluste gemacht haben, die Grafikchips zu knapp kalkuliert. Die werden daran schon noch ganz ordentlich verdienen.
Wie groß die Marge aber nun wirklich ist? Das vermag wohl nur AMD zu sagen!
Wie groß die Marge aber nun wirklich ist? Das vermag wohl nur AMD zu sagen!
DonGeilo
Grand Admiral Special
- Mitglied seit
- 01.09.2005
- Beiträge
- 2.073
- Renomée
- 8
- Standort
- Hamburg
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- ABC@Home
- Lieblingsprojekt
- ABC@Home
- Folding@Home-Statistiken
Wie sehen den die Aktuellen Verkaufszahlen aus ? Das prob. am Phenom ist ja auch das er so groß ist (DIE Fläche) ich denke das bleibt nicht viel übrig.
Zur Taktsteigerung usw. der 90nm Prozess ist bei AMD auf Performance und Takt ausgelegt, und der 65nm auch Stromsparen, es wurde ja auch der L2 dauerhaft halbiert, um ihn so günstig wie möglich gegen einen C2D auf den Markt zuwerfen.
Zur Taktsteigerung usw. der 90nm Prozess ist bei AMD auf Performance und Takt ausgelegt, und der 65nm auch Stromsparen, es wurde ja auch der L2 dauerhaft halbiert, um ihn so günstig wie möglich gegen einen C2D auf den Markt zuwerfen.
lord_fritte
Vice Admiral Special
Wobei ich noch sagen muss dass ich KEIN Fanboy bin, ich habe beide AMD und Intel
Und bin eigentlich mit beiden zufrieden.
Und bin eigentlich mit beiden zufrieden.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 569
- Antworten
- 13
- Aufrufe
- 2K
- Antworten
- 0
- Aufrufe
- 1K
- Antworten
- 0
- Aufrufe
- 1K