Kommende Mobil-CPUs ab 2010

Hab im Otto Shop einen Prozessor mit neuer Nomenklatur entdeckt.
Falls der Link nicht klappt, er ist im G627-202G16Mi von emachines.

Schon mal gehört von einer TF-Reihe?
Thx@Jackomo@WO
MfG
 
Hab im Otto Shop einen Prozessor mit neuer Nomenklatur entdeckt.
Falls der Link nicht klappt, er ist im G627-202G16Mi von emachines.

Schon mal gehört von einer TF-Reihe?
Thx@Jackomo@WO
MfG

Den TF20 gibt es wie den TK42 schon ziemlich lange, nur wurde er von kaum jemandem verbaut.

Das von Dir genannte Notebook von emachines mit dem TF20 gibt es auch schon rund ein halbes Jahr, siehe hier: http://geizhals.at/deutschland/a454697.html

Inzwischen gibt es das Gerät auch mit dem L310 (2x 1,2Ghz): http://geizhals.at/deutschland/a496670.html
 
Danke für den Hinweis.
Bei AMD finde ich einen TF-20 nicht auf der Homepage. Mich würde interessieren, was das für ein Derivat ist, z.B. in welcher Leistungsklasse (W) er ist.

Meinst Du der Athlon TF-20 ist der "AMD Athlon™ Neo Processor for Ultrathin Notebooks" MV-40?
Klick.
Das ist der einzige, den ich mit 1.6GHz und 512kB L2 finde.

MfG
 
Zuletzt bearbeitet:
Danke für den Hinweis.
Bei AMD finde ich einen TF-20 nicht auf der Homepage. Mich würde interessieren, was das für ein Derivat ist, z.B. in welcher Leistungsklasse (W) er ist.

Meinst Du der Athlon TF-20 ist der "AMD Athlon™ Neo Processor for Ultrathin Notebooks" MV-40?
Klick.
Das ist der einzige, den ich mit 1.6GHz und 512kB L2 finde.

MfG

Der fand sich früher auch hier: http://products.amd.com/de-de/NotebookCPUResult.aspx
Soweit ich mich erinnern kann, hatte der TF20 eine TDP=20W. Der MV40 ist jetzt aber besser, sodass dieser den wohl ersetzt hat...

Über den TF20 hatte ich im W:O mal ein Posting gehabt, aber ich kann es nicht mehr finden...die Suchfunktion scheint nicht so recht zu funzen. Vielleicht findest Du es ja?

Aber dort findet sich auch der "L310", wie ihn emachines/Acer verbaut, auch nicht, sondern nur die besseren L325 und L625.
 
Der x86 wird es zunehmend schwerer haben. Intel hat die Zeichen der Zeit zu früh gedeutet und ist deshalb mit dem ersten Itanium kläglich gescheitert, aber dass der ganze x86-Befehlssatz ein dicker werdender Klotz am Bein ist, wird immer deutlicher. Der Atom ist nicht einfach "schlechter" als z.B. ARM-Prozessoren, er schleppt eben nur eine Menge Altlasten mit - x86 stammt immerhin aus dem Jahre 1978, im bereits zitierten "Computerzeitalter" sind diese 32 Jahre eine Ewigkeit. Nur irgendwie hat bis jetzt keine andere Architektur geschafft, sich wirklich für die breite Masse an Geräten durchzusetzen. Wie dort Marktmacht, Einflussnahme und andere Einflüsse mit reinspielen, können wir nur vermuten. Fakt ist jedoch, dass gerade in der Großindustrie viele Leute entwickeln, die zu alt und nicht willens sind, etwas neues für die Embedded Systeme zu verwenden, so konnte ich letztes Jahr bei einem Betriebspraktikum in einem gerade neu gebauten Unterwerk einen kompletten Rechner in der Tür eines Schaltschrankes bewundern, der nur für rudimentäre Steuerung zuständig war und dank WINDOWS 95!!! noch auf einer (neuen) Celeron-Gurke mit geringster Austattung lief. Irgendein embedded Linux auf einem ARM-Prozessor hätte gleiche Dienste bei geringeren Geräte-Kosten geliefert. Aber da muss man sich eben erstmal einarbeiten und wenn man seit 15 Jahren das gleiche OS einbaut, dann ist das wohl nicht so leicht.

@Turbomodus im Laptop:

Normalerweise benötigt man auch nicht die Leistung der heutzutage verbauten Dualcores mit >2Ghz - dafür gibt es Stromsparmodus, Sleep-Funktionen und all solche Dinge, die es auch weiterhin geben wird. Aber wenn man sich dann doch mal (ob am Netz oder auf Akku ist ja egal) entschließt, eine performancehungrige Anwendung zu starten, die mit oder ohne Turbo einfach das Maximum von der Hardware fordert, dann ist man doch froh, einfach noch einmal einige Prozent mehr durch den Turbomodus zu haben.

-> Ich halte Turbo auch im Notebook für absolut sinnvoll. Wer möchte, nimmt dann eben die 18 Watt TDP CPUs von Intel und lässt den Prozessor am besten noch auf Spartakt laufen - dann sollte auch ein kleiner Akku ein paar Stunden halten.

Einverstanden?
 
Der x86 wird es zunehmend schwerer haben.

Der Atom ist nicht einfach "schlechter" als z.B. ARM-Prozessoren, er schleppt eben nur eine Menge Altlasten mit - x86 stammt immerhin aus dem Jahre 1978, im bereits zitierten "Computerzeitalter" sind diese 32 Jahre eine Ewigkeit.

Nur irgendwie hat bis jetzt keine andere Architektur geschafft, sich wirklich für die breite Masse an Geräten durchzusetzen.
http://www.heise.de/open/meldung/Intel-zeigt-x86-Smartphone-899552.html

In 32nm und kleiner dürfte x86-64 selbst für Smartphones interessant werden.

Das alte Gerücht zu mieser x86 Performance ist eher Windows-bedingt.
So hat der 64 Bit Modus bei x86-64 einige effektive Befehlsarten zu beiten. Trotzdem ist der 'miese' x86 32 Bit Code nicht langsamer. Liegt einfach daran dass Compiler schematisiert x86-Code erzeugen und der CPU-Decoder den eigentlich schlechten x86 Code so reoptimieren kann.

Wenn Intel nun für Smartphone bei Compiler Prioritäten für Codesequenzen setzt die besonders gut bei Decoder umsetzbar sind verschwindet der Vorteil jeder anderen theoretischen Architektur.
Mehr wie -10% zeigen moderne x86-64 CPUs nirgends bei Vergleichbenchmarks. da diese CPUs abre großen Stückzahlen gefertigt werdensind leicht Selektionen machbar die höher takten und weniger Leistung verbraten als jede fiktive Ideal-CPU in Kleinserie.

Selbst die Chinesen haben Projekte zu Alternativ-CPUs aufgegeben.

Und ARM ist auch ein solides Einfachdesign das aber hocheffektive Teiloptimierungen insich trägt. Im Ergebnis besser als jeder 'Ideal-CPU' ohne dieses Optimierungs-Features.

Die Meßlatte wird per x86-64 und auch per ARM sehr hoch gesetzt. Ich wüßte nicht das selbst Unis irgendwas je vorgestellt hätte was obige Designs übertreffen könnte.
In beiden Designs dürften zehntausende an Ingenieur-Mannjahren zum Feintunig drin stecken. Ich tippe mal ein ultimatives Design zzgl. $5 Milliarden für Ingenieurarbeit wäre schon nötig um etwas besser als die heutige Produkte zu werden. Und zzgl. Milliarden an Marketingkosten um den Ersatz zu erreichen.
 
Und trotzdem schleppt ein x86-Core alleine für den befehlsdecoder einen ernstzunehmenden Anteil an Transistoren-Ballast mit sich...
Wenn man den stattdessen einsparen könnte wäre bestimmt noch einiges mehr an Performance drin... eine gute ALU wird ja nicht schlechter ob ich ihr die Befehle direkt füttere oder sie durch einen multimillionen-Transistoren schweren Decoder schicke....
Es geht also nicht um Performance sondern um Komplexität.
Die chinesen sind übrigens ein gutes Beispiel, welche demnächst einen Supercomputer auf Basis der MIPS-basierenden Loongson - Prozessoren bauen.

Der einfache Grund für die x86-Dominanz ist die Vergangenheit.
Der Erfolg des IBM-PC, die tatsache dass dieser von einem x86er befeuert wurde und dass die kompatibilität sich im Wesentlichen in alle späteren Generationen fortgepflanzt hat und daher eine irre große Softwarebasis existiert. Man kann schlichtweg davon ausgehen, wenn irgendwo Software angeboten wird, dann mit 98%iger sicherheit zumindest auch in x86. Derartiges kann man von keiner anderen Architektur sagen.
Trotzdem wäre es vermessen so zu tun als wäre x86 der effizienteste WEg eien CPU zu bauen... und wären die zehntausende Mannjahre an ingineursarbeit in ARM, MIPS, oder sowas wie Transmetas Efficeon geflossen sein, lägen manche Dinge ggf. ganz anders.
Aber whatever... x86 hängt uns nunmal an der backe... ;)
 
Der einfache Grund für die x86-Dominanz ist die Vergangenheit.
...
Trotzdem wäre es vermessen so zu tun als wäre x86 der effizienteste WEg eien CPU zu bauen... und wären die zehntausende Mannjahre an ingineursarbeit in ARM, MIPS, oder sowas wie Transmetas Efficeon geflossen sein, lägen manche Dinge ggf. ganz anders.
Aber whatever... x86 hängt uns nunmal an der backe...
Es gab ja viele Ansätze in der Vergangenheit.

Aber die Leistungsexplosion der Hardware hat jene Alternativen an die Leistungsgrenze gedrängt. Selbst die gute alte 68000er (erster Mac, Atari ST) mit seinem schönen Befehlssatz wurde immer weiter 'verbessert' bis er per PowerPC und x86-86 doch abgelöst wurde.

Nur x86-64 bliebt stetig am Ball. Immer wenn Ingenieure das Gefühl und Budget haben 'was grundsätzlich Neues erfinden zu dürfen' wirds kritisch.
Tatsächlich bringt Evolution deutlich mehr. Und bei ARM hat man sogar erkannt dass 32 Bit nötig aber ein 16 Bit Submode vielfach effektiver arbeitet.
 
Hab ich ja auch nicht behauptet...man muss bei aller Evolution nur aufpassen dass man nicht irgendwann mehr rudimentären Ballast mit sich herumschleppt als für die weitere Entwicklung gut ist.
Es gab Alternativen... aber wie viele davon liefen mit dem "Massensystem" aus Redmond?
Es gab viele technische Ansätze, zu Zeiten lange vor 64bit (also auch vor x86-64, damals war es nur x86)
Und manches System war alles andere als schlecht...
Aber im Ernst, glaubt hier irgendwer wirklich dass alleine technische Überlegenheit über Sieg und Niederlage auf dem Markt entscheidet? Oo
 
Aber im Ernst, glaubt hier irgendwer wirklich dass alleine technische Überlegenheit über Sieg und Niederlage auf dem Markt entscheidet? Oo
Es war einmal die vermögende Firma Microsoft und fast totalen Monopol.
Und eine Firma Apple die kurz vor Insolvenz stand und zunächst nur durch Kapitalbeteiligung von Microsoft gnädig gerettet wurde.
Der Rest ist Geschiche 'Apple reloaded'.

Was sonst noch ablief kann an den netten $1,25 Milliarden Bußgeld von Intel an AMD ablesen. Aber daraus zu schließen dass geniale CPU-Konzepten von bösen x86 Agenten sabotiert wurden die Wunder-CPU 007 so verschwand ist realitätsfremd.
Und Microsoft wurde hart von Business-Kunden geschlagen als Win Vista nicht kompatibel genug zu Altsoftware sich zeigte - gut so.

Es bringt eben nichts wenn die Wunder-CPU 007 die Rechtschreibkorrektur von OpenOffice um 10% schneller durchläuft als das Fossil x86-86.
Oder ein Game auf 22'' Schirm um 2-3% mehr fps bringen könnte. 8)

Dass Intel Atom Monopol hat ist der Unfähigkeit von AMD mit zu schulden die Transmeta Technik nicht nutzten. Eien Dual-Core Transmeta Crusoe CPU in 45nm zzgl. einer ATI DirectX 10 GPU der Einfachklasse ... der Atom wäre von alleine zerbombt.
 
Es lässt sich schon eine Analogie von x86 und Ottomotor finden... Beide mögen nicht die ideale Technologie sein, aber Marktdurchdringung und Evolutionsstand sind einfach unschlagbar. Ob nun Wankelmotor oder ARM - beides steckt vergleichsweise in den Kinderschuhen und wird kaum die Chance bekommen, x86 und Ottomotor abzulösen.

Dass AMD den Atom-Trend verpasst hat und nun mit dem lächerlichen K8-X2-65nm-Neo versucht, doch noch einen Krümel vom Kuchen abzubekommen, ist schon ein sehr eindrucksvoller Beweis, wie schwerfällig AMD durch die geringen Geldmittel bereits geworden ist. Durch moderne Technologie und eine Art "Atom-Klon" kombiniert mit einem besseren Chipsatz hätte AMD wirklich einen großen Anteil am Netbook-Markt abhaben können.
 
ARM und Kinderschuhe ? Das Zeug gibts seit knapp 30 Jahren und Handy & Co bekommst Du nicht ohne (von ein paar MIPS abgesehen) aus.

Wenn was in den Kinderschuhen steckt, dann x86 im Handy Bereich :)

ARM sehe ich mittelfristig als einzige ernsten Herausforderer, der x86 gefährlich werden könnte(*). Klassische Desktop PCs werden immer seltener werden und die mobile Geräte eine noch stärkere Verbreitung finden. Nachdem Green Computing hip ist, ist es da nur eine Frage der Zeit bis ARM "Netops" auf den Markt kommen, die unter google OS oder normalen Linux laufen, für ne Office Kiste reichts locker.

Ausserdem ist das ARM Geschäftsmodell sehr flexibel, jede Firma kann an dem Chip herumfeilen, wie man möchte.

ciao

Alex

(*)Vielleicht noch die Drachen MIPS CPUs aus China, aber die haben ja ne halbe x86 Emulation an Bord .. langweilig ;-)
 
Zuletzt bearbeitet:
Dass AMD den Atom-Trend verpasst hat und nun mit dem lächerlichen K8-X2-65nm-Neo versucht, doch noch einen Krümel vom Kuchen abzubekommen, ist schon ein sehr eindrucksvoller Beweis, wie schwerfällig AMD durch die geringen Geldmittel bereits geworden ist.
'Geldmittel' ist positiv formuliert ... AMD hat seit dem Kauf von AMD ungeheure Miliiardenwerte einfach verheizt.
Das war ein psychologischer Tiefschlag der schlimmsten Art für AMD.

Wenn man jene Abermilliarden vs. Entwicklungskosten 'Transmeta Crusoe' bzw. Aufwand zur Fusion mit ATI betrachten wird die Sache lächerlich.
Aber es gab ja auch bei AMD den Wahn Intel überflügeln zu können ... auch ohne SMT inside.
So ne mikrige 'Transmeta Crusoe' hat da das AMD Management nicht im geringsten interessiert. Die schwebten in ganz anderen Spähren ... außer bei jedem Quartalszahlenbericht.

Ich auch heute wäre ein Dual-Core Crusoe bzgl. low power Mobilanwendungen effektiver als jener neue Bobcat. Naja, irgendwann gibts vielleicht einen 'ARM-Crusoe' der dann Windows Programme mit abarbeitet.

Heute weis keiner wie sich die Märkte Notebook, Netbooks und Smartphone miteinander und gegeneinander entwickeln werden. Und AMD liefert nur für klassischen Notebooks und für die 11'3 - 13'' etwas einigermaßen Passendes. Aber Technologieführer sind hier Andere und AMD bekommt nur Brotkrümel von jenen Märkten ab.
 
Transmeta ist für mich wie "Newton". Tolle Dinge die zu früh am Markt waren. Klar heute ist das ein Knaller, aber damals hat doch fast jeder ein Stirnrunzeln dafür gehabt, als positive Reaktion.
Ich kenne auch noch Menschen die MS Aktien niemals kaufen wollten weil sie OS2/Warp kannten usw.

Ein Produkt muss zum Markt passen mehr nicht, Atom ist eigentlich nichts tolles aber billig (und das reicht völlig;-). Klar hat AMD da was verpasst,aber mit Fokus auf Server wenig Ressourcen usw finde ich kann man hinterher immer meckern(ich aber AMD`s Entscheidungen nachvollziehen).

Ich vermute wie Opteron das ARM wenn überhaupt eine Chance hat, aber dann auch wegen Google und Linux. Google hat die Möglichkeiten viele Dinge die an Linux die breite Masse stören, schön zu verpacken und Linux spricht auch die Freaks an(die schnell Alternativen zu Google suchen). Aber ich hab schon mindestens 3Mal geglaubt das Linux MS Marktanteile abnimmt und passiert ist nie was,bei Netbooks hatte ich den Glauben auch mal usw.
Ich guck mir das ganze an, Chips Cola und fertig ist die Party ;-)
 
Ein Produkt muss zum Markt passen mehr nicht, Atom ist eigentlich nichts tolles aber billig (und das reicht völlig;-). Klar hat AMD da was verpasst,aber mit Fokus auf Server wenig Ressourcen usw finde ich kann man hinterher immer meckern(ich aber AMD`s Entscheidungen nachvollziehen).
Intel hat AMD simpel per SMT raus gekickt aus der Boomphase der K8 Ära.

Das war aber absehbar besonders da auch der Technologiepartner damals schon auf 2-fach SMT und aktuell auf 4-fach SMT setzte. Auch SUN war massiv dabei.
Obwohl AMD ewig den Servermarkt als hochwichtig präsentierte kaufte sie trotzdem für Unsummen dann ATI. Und das war für Server nun wirklich völlig überflüssig.
So langsam habe ich den Verdacht dass man AMD viel wußte dass man im Servermarkt nicht kommen kann mit den eigenen Designansätzen.

Rückblickend wird eine Konzeptlosigkeit bei AMD erkennbar wo offizielle Schwerpunkte und Aktionen nicht paßten. So AMD lange vor dem ATI-Kauf den Desktop-Markt als reinen Mitläufermarkt progagiert wobei Server und Mobilchips wichtiger sein sollten. Aber ATI war nur interessant für den Desktopmarkt !

Und heute hat AMD sein wichtigstes Standbein beim Desktop und dort im Segment low Budget. Das könnte in Richtung Thin Client sich noch weiter entwickeln.

Bei Mobilchips leidet AMD ebenso unter dem fehlenden SMT. Die vier Cores eines LIano ziehen nun mal deutlich mehr Leistung als 2*2 eines Clarkdale. Und die Notebook-Kundschaft besteht weltweit nicht aus vielen 17''-18'' Freaks die auch mal 3-5kg wuchten wollen.
Einzige Hoffnung für AMD ist Intel die bei Sandy Bridge per 4 Cores in 32nm auch 2011 mit der TDP zu kämpfen haben werden. Was aber nicht ausschließt dass Intel dann native Cores und SMT so gezielt einsetzt dass die TDP möglichst tief bleibt.

Dinge wie SMT oder low power per Transmeta-Konzept sind so nahe liegend (gewesen) das deren Nichtumsetzung rätselhaft bleibt.
 
... ich hab schon mindestens 3Mal geglaubt das Linux MS Marktanteile abnimmt und passiert ist nie was,bei Netbooks hatte ich den Glauben auch mal usw.
Ich guck mir das ganze an, Chips Cola und fertig ist die Party ;-)
Wollen wir einen Club aufmachen?

Ich glaubte auch einstmals daran, dass überlegene Technik sich seinen Weg schon von selbst bahnen wird ...

Die Realität ist doch ein wenig komplexer, weil wir Zukunftsoptimisten immer wieder die Gefühle hinter scheinbar* rationalen Kaufentscheidungen nicht beachten und die Macht von Global aufgestellten IT-Riesen.

MFG Bobo(2010)


* = scheinbar ist nicht das Synonym für anscheinend. Es ist das Gegenteil von anscheinend.
-> scheinbar* rationalen Kaufentscheidungen = Irrationale Kaufentscheidungen
 
15 Stunden ist jetzt nicht meh so besonderes. Schon das Asus Eee 1005PE (~300€) läuft gut 13 Stunden im Idle und ca. 10 Stunden beim Surfen mit mittlerer Helligkeit nach einem Test von Notebookcheck - und das kann man schon eine Weile kaufen. Die neue Intel-Plattform trägt aber sicher ihr übliches dazu bei, ja.


@Bobo_Oberon: Das Problem ist viel eher, dass die Kunden weit mehr als die Technik beurteilen. Design, Softwarekompatiblität, Marketing, all das spielt eine große Rolle, und das vergisst man zu leicht wenn man nur nach der Technik "rational" beurteilt. ;)
 
http://www.computerbase.de/news/har...ruar/aldi-notebook_nvidia_optimus_18_februar/

Die Kombination low power und zusätzlich gute 3D Performance bei Bedarf gibts nächste Woche per i3 und nvidia.
Lt. http://www.computerbild.de/artikel/cb-Test-Notebooks-Medion-Akoya-P6622-MD98250-5064706.html reicht der Akku netto für ca. 4h Betriebszeit.

Für Nividia ein geschickter Schachzug bei der neuen Plattform Umsatz mit zu erzielen.
Da müssen die GPUs von AMD/ATI nun sehr niedrige TDPs bei geringer Beanspruchung aufweisen um weiterhin auf Intel-Plattformen Ounkte sammeln zu können.
 
Warum?

AMD hat bereits PowerXpress seit geraumer Zeit (im übrigen für beide Plattformen also auch Intel). Wo liegen also die großen Vorteile von Optimus? Ich kann sie nicht erkennen. Klar Optimus ist eine sinnvolle und konsequente Weiterentwicklung, aber ist es das Killerfeature? Ist es wirklich sinnvoll ständig auf die Nvidia GPU umzuschalten? War da nicht was? Hatte Nvidia nicht erst vor ein paar Monaten seinen Kunden falsche Nutzung der eigenen Produkte vorgeworfen, als diese auf Grund der häufigen thermischen Zyklen in Notebooks den Geist aufgegeben haben? Jetzt sollen also völlig automatisch noch mehr hinzukommen.

HD Videos können auch von der Intel IGP beschleunigt werden.
Flash kann bereits von der Intel IGP beschleunigt werden.

Macht es da wirklich Sinn auf die diskrete Nvidia GPU umzuschalten und so die Akkulaufzeit zu verkürzen, mehr Abwärme und damit lautere Lüftergeräusche zu erzeugen? Wo liegt da der Mehrwert? Reicht da eine eventuell minimal bessere Bildqualität als Argument? Also mir wäre da die längere Akkulaufzeit bei leisem Betrieb wichtiger, wenn ich unterwegs bin.

CUDA können AMD und Intel nicht bieten, aber wo sind die must have Anwendungen für den durchschnittlichen Konsumer?

Einzig wirklich Sinnvolle Anwendung wo sich das Umschalten lohnt, sind die 3D Spiele. Wenn ich Zocken will, schalte ich bei mir das Energieschema um. Ist es da wirklich so ein großer Aufwand auch mit zwei Klicks die GPU zu wechseln?


Mir ist es jedenfalls lieber, wenn ich die Kontrolle über mein System behalte.


MfG @
 
Zuletzt bearbeitet:
Macht es da wirklich Sinn auf die diskrete Nvidia GPU umzuschalten und so die Akkulaufzeit zu verkürzen, mehr Abwärme und damit lautere Lüftergeräusche zu erzeugen? Wo liegt da der Mehrwert? Reicht da eine eventuell minimal bessere Bildqualität als Argument? Also mir wäre da die längere Akkulaufzeit bei leisem Betrieb wichtiger, wenn ich unterwegs bin.
Für Intel, Nvidia und die OEMs rechnet sich das schon.

Heute muß der Kunde zwischen low power per IGP und mehr Performance schon beim Kauf entscheiden. Die 3D Ansprüche sind heute so hoch selbst in einer $100 Preisklasse dass low power nur teils erreichbar ist.

Und für den Kunden sind $100 Mehrpreis bei einem $700++ Notebook nicht kritisch zu bezeichnen.

Ich tippe mal die Idee wird nvidia viele Verkäufe bringen.
 
Das ist ganz leicht, AMD nennt sein PowerExpress einfach in Bumblebee um und dann ist die Sache geritzt (ich hatte zunächst an "Megatron" gedacht, aber der Name suggeriert einfach zu stark ein Scheitern ;) ). Einfach ein paar manuelle Optionen rausnehmen und dafür irgendwelche DirectX-Calls zum Aktivieren nutzen, dann passt das schon. Dank Microsoft sind ja mit Windows 7 viele Probleme bei der Nutzung verschiedener Karten sowieso erledigt, man braucht hauptsächlich was fürs Marketing um das den Kunden auch zu zeigen.
 
Das ist ganz leicht, AMD nennt sein PowerExpress einfach in Bumblebee um und dann ist die Sache geritzt
...
Dank Microsoft sind ja mit Windows 7 viele Probleme bei der Nutzung verschiedener Karten sowieso erledigt, man braucht hauptsächlich was fürs Marketing um das den Kunden auch zu zeigen.
http://www.digitimes.com/news/a20100212PD214.html

Nvidia has projected that more than 50 Optimus-enabled notebooks will be available in mid-2010 with Asustek Computer expected to launch a series of notebook models, including UL50Vf, N61Jv, N71Jv, N82Jv and U30Jc, supporting the technology shortly.
...
Optimus technology supports Windows 7, Intel Core i3, i5 and i7 (Arrandale), Atom N450 and N470, and Core 2 Duo (Penryn) processors, and Nvidia's GeForce 200M and 300M-series GPUs and its Ion 2 platform.

Und das ist ja nur einer der OEMs am Weltmarkt.
Woebi die obige Liste keine AMD-Plattformen aufzeigt.

Die Technik findet also großes Interesse - siehe auch http://www.hkepc.com/4607

Intel bietet nun mal beim Clarkdale / Pineview IPG im 45nm Fertigung - bisher deutlich nur deutlich gröber gefertigt bei den Northbridge-IPGs von Intel.
Die haben also Vorteile bei der TDP durch die Fertigung und iher begrenzte Anzahl an Transitoren. Durchaus möglich dass die IPG-Selektionen für Mobildesigns besonders niedrige spezifische TDBs aufweisen.

Das wird 2010 schwer für AMD/ATI werden bei mobilen Intel-Plattformen noch eigene GPUs zu verkaufen. Und jener Markt liegt bei 90% Anteil ...
 
http://translate.google.de/translate?js=y&prev=_t&hl=de&ie=UTF-8&layout=1&eotf=1&u=http%3A%2F%2Fwww.bodnara.co.kr%2Fbbs%2Farticle.html%3Fimode%3Dview%26D%3D7%26cate%3D19%26d_category%3D10%26num%3D75082&sl=ko&tl=en
Heißt H1'10 und Adhead of Schedule dass die Nile 45nm Ultrathin Notebooks früher kommen als erwartet?
DX11 in den Ultrathin Plattformen klingt auf jeden Fall schon mal gut ^^
edit: oder ist damit die XGP Port möglichkeit gemeint? denk mal ist wahrscheinlicher und auch gut so! Find ich so eigentlich besser als Nvidia Optimus...weiß jemand ob man wenn man eine externe Grafikkarte anschließt neustarten muss?
 
Zuletzt bearbeitet:
...weiß jemand ob man wenn man eine externe Grafikkarte anschließt neustarten muss?

Nein, jedenfalls nicht, wenn das Betriebssystem das Hotplugging von Grafikeinheiten erlaubt. Mit Windows 7 oder einer aktuellen Linuxversion sollte das ganze keine Probleme darstellen.
 
Zurück
Oben Unten