Artikel Neuer Artikel: Bobcat, das Bulldözerchen

Von Weglassen war keine Rede. Das Design wirkt auf mich nur nicht sehr effizient, wenn man in Relation die geringe Bandbreite heranzieht.
Mit dem Ethernetanschluss würde die Bandbreite dann besser werden ? *noahnung*
Irgendwie steh ich wohl gerade auf den Schlauch, was Du sagen willst ^^
 
Hätten der Chip eDRAM integriert, wüssten wir sicher schon davon. Dasselbe gilt für die weiter oben erwähnte AES Einheit.

Wozu wenn man das gleich da haben kann wo man es braucht, z.b als Hardware in einer Festplatte, die man heute schon kaufen kann. 8)
 
Mit dem Ethernetanschluss würde die Bandbreite dann besser werden ? *noahnung*
Irgendwie steh ich wohl gerade auf den Schlauch, was Du sagen willst ^^
Er meint, die GPU sei zu groß, die verfügbare Bandbreite des System-RAMs reiche nur für eine kleinere GPU. So würde ich das aber auch nicht sehen. Die Radeons sind sowieso bereits ziemlich effizient und sparsam in der Nutzung der RAM-Bandbreite, und es soll die Latenz verringert worden sein, was ja auch immer die effektiv nutzbare Bandbreite verbessert (wie wir schon damals bei K7 zu K8 gesehen haben). Und wenn grafikfremde Berechnungen angestellt werden mit komplexen Shaderprogrammen, dann sind ein paar mehr Shader wohl sinnvoll, auch ohne mehr RAM-Bandbreite.

Die meiste Fläche im GPU-Bereich geht auch sicher nicht nur für die Shader drauf, auch z.B. der UVD ist relativ groß. Die Shaderanzahl z.B. zu halbieren würde die GPU sicher nicht sehr stark in der Fläche verringern.

Ein integrierter Ethernetcontroller wäre sicher nett, allerdings werden Ontario-Systeme in den meisten Fällen hochmobil sein, d.h. Netbooks, Tablets usw., und da macht ein WLAN mehr Sinn, ein Ethernetkabel werden wohl die wenigsten Nutzer anschließen. AMD hat sich sicher bewußt auf die Dinge beschränkt, die wirklich auch von den meisten Leuten genutzt und benötigt werden, eine übermäßig komplexe eierlegende Wollmilchsau würde den Stromverbrauch und die Diefläche zu groß werden lassen.

Es kann auch einfach sein, daß AMD noch zu große technische Probleme mit integrierten Ethernetcontrollern hat, immerhin haben sie bisher nie einen gebaut, bis zur neuen SB850, aber der wird auch von keinem einzigen Boardhersteller genutzt, möglicherweise weil er nicht oder nur unbefriedigend funktioniert.
 
... Es kann auch einfach sein, daß AMD noch zu große technische Probleme mit integrierten Ethernetcontrollern hat, immerhin haben sie bisher nie einen gebaut, bis zur neuen SB850, aber der wird auch von keinem einzigen Boardhersteller genutzt, möglicherweise weil er nicht oder nur unbefriedigend funktioniert.
Oder kein Mainboard-Hersteller keinen Bock hat die notwendige teure Broadcom PHY dazu zu kaufen.

Und Broadcom kann ziemlich sicher derartige Ethernetcontroller bauen, sonst hätte AMD das ja nicht den MAC-Controller lizenziert und implementiert: "Warum keiner den Netzwerk-Controller der AMD SB850 nutzt". ;)

MFG Bobo(2010)
 
Neu ist das Problem nicht, um die Kosten für einen CSA angebundenen Intel Lan Chip zu sparen, haben viele Hersteller auf Realtek PCI etc gesetzt, beim damaligen I-875P Chipsatz.

AMD könnte dies ja ändern, und sich einen anderen Hersteller suchen z.b Atheros, Marvell, Realtek um Kosten zu sparen oder selbst ein Lan-Chip entwickeln und den nutzen. Irgendwie hat da jeder Hersteller was eigenes bloß AMD nicht. Oder einfach weglassen, wozu Geld an Marvell abdrücken wenn das Feature eh keiner nutzt. Aber man kann davon ausgehen das AMD nicht auf den Kopf gefallen ist, und bei dem 9xx Chipsatz incl. neuer SB der Teil geändert wird oder komplett verschwindet, letztlich kann ja egal sein welcher Lan-Chip sich auf dem Board befindet, solange er per PCIe angebunden ist.
 
Zuletzt bearbeitet:
Oder kein Mainboard-Hersteller keinen Bock hat die notwendige teure Broadcom PHY dazu zu kaufen.
Wobei sich die Frage stellt, warum es überhaupt kein Hersteller tut. Nicht einer. Beim Intel PCH55 oder ICH10R kommt es durchaus vereinzelt vor.

Und ich bezweifle jetzt, dass die Broadcom PHY wesentlich teurer ist als eine Intel. Da müsste sie doch wenigstens bei den Flaggschiffen zu finden sein.
 
Das wissen nur die Mobo Hersteller selbst, wenn im Bereich bis 200 Euro für ein "Premium" Board geht, und dann das Geld für son popeligen PHY nicht reicht. Simpel und einfach wäre auch das man ein bestimmtes Boardlayout verwendet, was nicht vorsieht das der Lan On-Board genutzt wird.
 
Oder kein Mainboard-Hersteller keinen Bock hat die notwendige teure Broadcom PHY dazu zu kaufen.

Jo genau, die Story ... da fällt mir dann wieder das K.O. Kriterium gegen onboard Ethernet ein: Für die MAC braucht man auch nen schnellen Anschluss, irgendwas ähnliches wie PCIe.

Aber dann kann man halt gleich einen echten PCIe anflanschen und es den OEMs überlassen, ob sie nen Realtek Ethernet, WLAN oder sonstwas dranbauen. Ein extra Kontroller würde da sicher nur stören, DIE Fläche & Strom verbrachen, und dann doch nicht genutzt werden ^^

Also sagen wirs mal so: Ich vermisse da nichts ...

Zur SB850: Wie schauts da bei den Serverbrettern aus, gibts vielleicht wenigstens da mal jemanden ders nützt (auch wenn die SB850 da anders heißt ^^) ?

ciao

Alex
 
... Zur SB850: Wie schauts da bei den Serverbrettern aus, gibts vielleicht wenigstens da mal jemanden ders nützt (auch wenn die SB850 da anders heißt ^^) ?
TYAN S8005 (S8005WAGM2NR ) AMD SR5670 + AMD SP5100 (Southbridge) nutzt NICHT die Broadcom-Lösung (PDF).

TYAN S8212 (S8212GM3NR) AMD SR5690 + AMD SP5100 (Southbridge) nutzt NICHT die Broadcom-Lösung (PDF).

TYAN S8208 (S8208GM2NR [BTO]) AMD SR5650 + AMD SP5100 (Southbridge) nutzt NICHT die Broadcom-Lösung (PDF).

Ich habe bei Tyan und Supermicro nicht genauer gesucht ... aber wenns schon da nicht genutzt wird ... und da sind sogar Intels Netzwerkchips drauf.

MFG Bobo(2010)
 
Da fällt mir gerade wieder ein war die SP5100 vielleicht noch die SB750 .. bin mir gerade nicht sicher. Zumindest die mittlerweile alten Socket-F Istanbul Bretter waren zu früh für die SB850 fertig, wenn dann müßte man wohl bei den nagelneuen G34/C32 Teilen schauen.

Edit:
Hab ich mal bei Tyan gemacht, alles nachwievor nur mit SP5100 .. und demzufolge Intel LAN Chips :(

Da muss man wohl noch weiter warten.

ciao

Alex
 
Wenigstens haben meine nVidia GeForce 8300 mGPU (ASUS M3N78 PRO) und nForce 750a SLI (ASUS M3N72-D) Boards alle RTL8211C PHYs.

Etwas ärgerlich ist es schon, wenn der Chipsatz bei AMD so etwas anbietet und es dann brachliegt. Schon allein wenn man an die Treiber denkt.
 
Wieso wird beim Auto-Layout Platz verschwendet? Als Ahnungsloser würde ich bei computergenerierten Designs eher an chaotische Strukturen ohne logischen Zusammenhang denken, die kein Mensch durchblickt aber doch in Summe weniger Platz verbrauchen. Hätte eher beim "menschlichen" Design auf Platzverschwendung auf Grund besserer "Durchschaubarkeit" (Einteilung in logische, rechteckige Bereiche) getippt.


jo hab ich mir auch gedacht kann mich mal bitte einer aufklären der ahnung hat?*noahnung*
 
Zitat von The G
Wieso wird beim Auto-Layout Platz verschwendet? Als Ahnungsloser würde ich bei computergenerierten Designs eher an chaotische Strukturen ohne logischen Zusammenhang denken, die kein Mensch durchblickt aber doch in Summe weniger Platz verbrauchen. Hätte eher beim "menschlichen" Design auf Platzverschwendung auf Grund besserer "Durchschaubarkeit" (Einteilung in logische, rechteckige Bereiche) getippt.
jo hab ich mir auch gedacht kann mich mal bitte einer aufklären der ahnung hat?*noahnung*

Schaut mal auf die Transistorenzahl, da sind wir im 3stelligen Millionenbereich.

Wenn ein Softwareprogramm das besser als ein Mensch hinbekäme, dann würden wir schon längt von künstlicher Intelligenz beherrscht werden ;-)

Kurz: Da sind verdammt viel Kompromisse, mit noch mehr Seiteneffekten nötig, die Mensch immer noch besser hinbekommt als Maschine.
 
kann keine SB 850 sein, da die 5100er kein SATA 3 hat

attachment.php


file.php
 
Das der Servermarkt da quasi sich noch in der Steinzeit befindet, ist ja nicht neu. Bis da mal was neues kommt, bzw. mal Altlasten abgeschafft werden vergeht eine sehr lange Zeit. Aber ich denke in 2011 kann man auch da dann mit SATA-3 und USB 3.0 rechnen, vorher vermutlich nicht. Aber man kann ebend nicht alles erwarten, in meinen Augen ist die Serverschiene nunmal eine Schnecke was die Integration von neuen Features und weglassen von Altlasten angeht. Auf der anderen Seite gehts mir beim Desktop zu schnell, die Zeiten wo man neue Hardware braucht verkürzen sich laufend.
 
Zuletzt bearbeitet:
Die TDP Angaben des Atom bezieht sich wohl auf die Desktopvarianten. Ein aktueller Atom N550 wie er in Notebooks verbaut wird hat eine TDP von 8,5W (2 Cores 1,5Ghz) Die Singlecorevariante liegt bei 5,5W. Ich glaube eher das sich Bobcat damit messen lassen muß. In Netbooks werden die stromfressenden Atom D Varianten nicht verbaut.

Ich glaube der eigentliche Gegner könnte eher Core 2 Duo SU7300 und Konsorten heißen. Passt von der Leistung und der TDP viel eher zum Bobcat.



Ich werd gleich mal aufbrechen und mir Bobcat in Aktion auf der IFA anschauen. ;D
 
Zuletzt bearbeitet:
kann keine SB 850 sein, da die 5100er kein SATA 3 hat
Jo, danke. Die Postings von Opteron berichtet ja schon darüber. Der Zeitpunkt des Starts der Serverchipsätze hatte mich da etwas zögern lassen - fragt sich nun in wie weit Tyan, Supermicro und Konsorten auf die 850 Southbridge schon gewechselt sind.

MFG Bobo(2010)
 
Wieso wird beim Auto-Layout Platz verschwendet? Als Ahnungsloser würde ich bei computergenerierten Designs eher an chaotische Strukturen ohne logischen Zusammenhang denken, die kein Mensch durchblickt aber doch in Summe weniger Platz verbrauchen. Hätte eher beim "menschlichen" Design auf Platzverschwendung auf Grund besserer "Durchschaubarkeit" (Einteilung in logische, rechteckige Bereiche) getippt.

Das liegt daran, dass ein Mensch generell intelligent agieren kann. Der Computer folgt beim Design nur vorgegebenen Regeln, die in bestimmten Situationen auch suboptimal sein können (was ein Mensch aber erkennen könnte).
 
[P3D] Crazy_Chris;4286617 schrieb:
Die TDP Angaben des Atom bezieht sich wohl auf die Desktopvarianten. Ein aktueller Atom N550 wie er in Notebooks verbaut wird hat eine TDP von 8,5W (2 Cores 1,5Ghz) Die Singlecorevariante liegt bei 5,5W ...
Im Artikel ist sogar ein Direktlink zu Intels Pineview enthalten :P

MFG Bobo(2010)
 
Im Artikel ist sogar ein Direktlink zu Intels Pineview enthalten

Jo, aber er hat recht, das N550 Teil ist neu, Intel news vom 23.8:
http://newsroom.intel.com/community...oks-hit-shelves-today?cid=rss-90004-c1-258388

Featureübersicht:
http://ark.intel.com/Product.aspx?id=50154&code=Intel%C2%AE+Atom%E2%84%A2+Processor+N550+%281M+Cache%2c+1.50+GHz%29

Aber das ändert nichts an der Aussage, nachdem Ontario mit 9W ja jetzt auch dual core ist.
Der N550 taktet nur mit 1,5GHz, das ist nicht die Welt und Intel will $86 dafür, sollte mit Ontario ebenfalls zu schaffen sein. Selbst wenns nur ~1,2 GHz für Ontario werden würde, sollte der IPC Vorteil immer noch zu spüren sein. Dabei ist die GPU wieder mal gar nicht erst erwähnt ;-)

ciao

Alex
 
Wie groß ist eigentlich ein ARM Cortex A8 und A9 - Core im Vergleich zu ATOM bzw. Bobcat.
Bzw. wie groß ist auch der Performance & Stromverbrauchs-Unterschied??
 
Wie groß ist eigentlich ein ARM Cortex A8 und A9 - Core im Vergleich zu ATOM bzw. Bobcat.
Bzw. wie groß ist auch der Performance & Stromverbrauchs-Unterschied??
Google mal unter Apple A4+Die. Oder alternativ Texas Instruments OMAP44x+SoC+Die Womöglich wird dann was brauchbares bei rauskommen.

Bei GlobalFoundries und/oder ARM direkt wird sicher auch was dabei sein.

Nachtrag:
... eine beiden Kerne (A9 MPCore) verheizen dabei 1,9 Watt und belegen 6,7 Quadratmillimeter Chipfläche. Das andere kommt mit 4,9 mm² und 0,5 Watt aus ...
"ARM Cortex-A9: Entweder schnell oder sparsam".

... Cortex-A5 nur ein Zehntel der Chipfläche von Intels Atom belegt. Außerdem käme er mit einem Zehntel der elektrischen Leistung aus ...
"ARM: Nachwuchs für die die Cortex-A-Familie".

MFG Bobo(2010)
 
Zuletzt bearbeitet:
Schaut mal auf die Transistorenzahl, da sind wir im 3stelligen Millionenbereich.
Wenn ein Softwareprogramm das besser als ein Mensch hinbekäme, dann würden wir schon längt von künstlicher Intelligenz beherrscht werden ;-)
Gerade bei solch hohen Summen würde ich keinem Menschen zutrauen das besser zu können als ein Computer. Aber das der Knackpunkt darin liegt passende Regeln für die Software zu definieren die alle Bedingungen und Seiteneffekte optimal abbilden, damit kann ich leben :)
 
Gerade bei solch hohen Summen würde ich keinem Menschen zutrauen das besser zu können als ein Computer. Aber das der Knackpunkt darin liegt passende Regeln für die Software zu definieren die alle Bedingungen und Seiteneffekte optimal abbilden, damit kann ich leben :)
Das gehts schon per Divide und Conquer. Hab wegen des Artikels irgendwo gelesen, dass z.B: auch die Atom Mannschaft in unterschiedliche Teams unterteilt war, die sich jeweils die einzelnen Kompononeten vornahmen, FPU, IMC, BusUnit, etc.pp.
Und das allein schon beim Atom .. *lol*
Da ist klar, welchen Kaliber Bulldozer oder Sandy Bridge haben ;-)
 
Im Artikel ist sogar ein Direktlink zu Intels Pineview enthalten :P

MFG Bobo(2010)

Hatte ich gesehen. Nur ignoriert der Artikel den N550 der ja ein besseres Leistung pro Watt Verhältnis hat. Das Bobcat wohl um einiges schneller und vor allem eine brauchbare Grafik hat sollte klar sein aber sparsamer als ein moderner Atom wird er sicher nicht. Kann sogar passieren das er später gegen ein 32nm Atom antreten muss der sicher nicht nur mit 1,66Ghz läuft. Ich glaub nicht das Intel sich nicht darauf vorbereitet. Immerhin ist es sicher ein sehr lukrativer Markt wenn man sich die Preise und DIE Größen anschaut.

PS: IFA war nen totaler Reinfall was AMD betrifft. Überall nur Vision und der Stand bestand nur aus 10-15 Notebooks. (wie an jeden 2. Stand wurde natürlich Dirt 2 gespielt :P) Der ganze Stand war in "ATi-Rot" und wenn AMD nicht dagestanden hätte so hätte das keiner geglaubt.
Aber wenigstens konnte man Haribo Frösche powered by AMD abstauben. ;D8)
 
Zuletzt bearbeitet:
Zurück
Oben Unten