App installieren
How to install the app on iOS
Follow along with the video below to see how to install our site as a web app on your home screen.
Anmerkung: This feature may not be available in some browsers.
Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
Du solltest ein Upgrade durchführen oder ein alternativer Browser verwenden.
AMD Kabini APU / Jaguar CPU + Graphics Core Next GPU, 2-4 Kerne, 28nm TSMC, 2013
- Ersteller Duplex
- Erstellt am
mocad_tom
Admiral Special
- Mitglied seit
- 17.06.2004
- Beiträge
- 1.234
- Renomée
- 52
http://www.engadget.com/2012/12/16/security-exploit-opens-samsung-exynos-devices-to-attack/#comments
>It isn't the only avenue for attack on an Android handset,
>but it is an exceedingly easy attack.
>So far, Alephzain has confirmed that the Galaxy S II, III, Note II and the
>Meizu MX are at risk, but notes that the exploit might work on any device
>running a Exynos 4210 or 4412 processor.
Könnt ihr euch noch daran erinnern, dass sich mal ein Sicherheitsfuzi darüber mukiert hat, dass ein Hyperthreading-Thread einen anderen Hyperthreading-Thread durch ausmessen der Cache-Latency (unter Umständen) aushorchen kann. Durch langes beobachten kann man RSA-Schlüssel erraten. Das ganze war eine sehr theoretische Lücke.
http://www.heise.de/security/meldung/Schneller-RSA-Schluesselklau-durch-Sprungvorhersage-120846.html
Die Android-Lücken sind real. Diese damalige Lücke wurde nie wirklich genutzt.
Ich freu mich schon auf die ersten ARM-Server - dann müssen wir uns noch mehr vor der chinesischen Industriespionage fürchten.
>It isn't the only avenue for attack on an Android handset,
>but it is an exceedingly easy attack.
>So far, Alephzain has confirmed that the Galaxy S II, III, Note II and the
>Meizu MX are at risk, but notes that the exploit might work on any device
>running a Exynos 4210 or 4412 processor.
Könnt ihr euch noch daran erinnern, dass sich mal ein Sicherheitsfuzi darüber mukiert hat, dass ein Hyperthreading-Thread einen anderen Hyperthreading-Thread durch ausmessen der Cache-Latency (unter Umständen) aushorchen kann. Durch langes beobachten kann man RSA-Schlüssel erraten. Das ganze war eine sehr theoretische Lücke.
http://www.heise.de/security/meldung/Schneller-RSA-Schluesselklau-durch-Sprungvorhersage-120846.html
Die Android-Lücken sind real. Diese damalige Lücke wurde nie wirklich genutzt.
Ich freu mich schon auf die ersten ARM-Server - dann müssen wir uns noch mehr vor der chinesischen Industriespionage fürchten.
also ich gehe zwar von einer leistungssteigerung beim Kabini aus, aber dass er den A6 ersetzten soll ist bissel mehr als ich erwaten würde
QuelleKabini: A6/A4/E2/E1 (BGA only. So, AMD is going to make more then 90% of their notebook APUs without a socket. High hopes for Jaguar?)
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
also ich gehe zwar von einer leistungssteigerung beim Kabini aus, aber dass er den A6 ersetzten soll ist bissel mehr als ich erwaten würde
Quelle
Die Sache dürfte einfach die sein, dass das Trintiy-Die für die zu billigen A4/A6 zu teuer war. Ich hoffe, dass Richland endlich einigermaßen akzeptable Yields liefert, sodass nur noch sehr wenige der Dice um ein Modul gekappt werden müssen, sodass es dann die 1Modul-Variante in hoffenltich geringen Stückzahlen gibt, lediglich zur Reste-Verwertung.
Die Massen-APU müsste Jaguar werden, weil AMD nur damit Geld verdienen dürfte. Und wenn AMD das klug macht, dann wird es eine Jaguar-Quad-Variante mit Dual-Channel-Ram und einem zu Richland kompatiblen Pinout geben, damit in ein und dem selben Design Jaguar- und Richland-APUs verbaut werden können. Die billigen Varianten erhalten dann Jaguar-APUs und die teueren Notebook-Varianten eine Richland-APU. Das spart Kosten auf der Seite der Design-Entwicklung und ermöglicht AMD, den Großteil der APUs in Form der billigen Jaguar-Dice auszuliefern. Dann sehe ich die Chance, dass AMD wieder Land sehen kann. Richland ist zu teuer für die billigen Designs. Aber das Ganze klappt nur, wenn Jaguar gut genug wird, dass eine Quadcore-25W-Jaguar-APU auch leistungsfähig genug für den Mainstream wird.
AMD muss für die OEMs wieder interessante Produkt-Linien anbieten. Und das bedarf, dass das Ganze fexibler wird. Einer FX-Plattform ist eine Nischenplattform, die null Attraktivität hat und damit kein OEM noch interessiert. Nur eine vernünftige Kombi der Jaguar- und Richland-Produkte, die flexbile Desings ermöglichen, erscheinen mir attraktiv genug. Wenn AMD das cool genug macht, wird man allen APUs kompatible Pinouts verpassen, sodass für die billig-Lösungen einfach Teile deaktiviert sind.
Zuletzt bearbeitet:
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
Die hoch getakteten Speichermodule verbrauchen aber viel Energie und dürften höhere Ansprüche an das Mainboard-Design stellen. Andererseits wäre es klug, beide Varianten verfügbar zu machen: kleinere Board-Designs mit nur Single-Channel-Ram und die Möglichkeit, Dual-Channel zu nutzen, was die Boards, die auch Richland ermöglichen, sowieso haben würden.
Flexibilität ist Trumpf; das muss AMD endlich nutzen, um die OEM mit variablen Designs gewinnen zu können. Die bisherige Abgrenzungspolitik, dass bestimmte CPUs/APUs nur für vorgegebene Produkte genutzt werden dürfen, kann sich AMD nicht mehr leisten. Von daher macht es womöglich Sinn, wenn AMD die "Vision"-Kennung und damit verbundene Zwänge weg lässt. Können womöglich die Vision-Sticker dennoch weiter verwendet werden, wenn die Designs andere - von den APUs unabhängige - Kriterien erfüllen, die aber nicht mehr zwingend gefordert werden?
Flexibilität ist Trumpf; das muss AMD endlich nutzen, um die OEM mit variablen Designs gewinnen zu können. Die bisherige Abgrenzungspolitik, dass bestimmte CPUs/APUs nur für vorgegebene Produkte genutzt werden dürfen, kann sich AMD nicht mehr leisten. Von daher macht es womöglich Sinn, wenn AMD die "Vision"-Kennung und damit verbundene Zwänge weg lässt. Können womöglich die Vision-Sticker dennoch weiter verwendet werden, wenn die Designs andere - von den APUs unabhängige - Kriterien erfüllen, die aber nicht mehr zwingend gefordert werden?
Zuletzt bearbeitet:
Opteron
Redaktion
☆☆☆☆☆☆
"Viel Energie" ist für ein A6-Modell nebensächlich. Du darfst ja außerdem nicht vergessen, dass man ein Modul einspart. Kommt dann auf die verbauten Chips drauf an, wieviel Strom man da verbraucht, aber recht viel mehr wirds nicht sein.
Dual Channel hat halt den Nachteil, dass es relativ viel DIE-Fläche frißt. Der 2. Kanal muss angebunden werden, dafür bräuchte es viel BGA-Kontakte, und entsprechend Kontakte auf dem DIE.
Dual Channel wäre nett, ja, aber Kabinis Hauptmarkt ist klein und billig, dafür ist dann kein Platz. Fürs A6 Segment reichts dann halt nicht zu 100%, aber besser als ein runtergetakteter Bulldozer ists allemal, billiger sicherlich auch. Ist halt quasi Resteverwertung, nur andersherum.
Dual Channel hat halt den Nachteil, dass es relativ viel DIE-Fläche frißt. Der 2. Kanal muss angebunden werden, dafür bräuchte es viel BGA-Kontakte, und entsprechend Kontakte auf dem DIE.
Dual Channel wäre nett, ja, aber Kabinis Hauptmarkt ist klein und billig, dafür ist dann kein Platz. Fürs A6 Segment reichts dann halt nicht zu 100%, aber besser als ein runtergetakteter Bulldozer ists allemal, billiger sicherlich auch. Ist halt quasi Resteverwertung, nur andersherum.
BavarianRealist
Grand Admiral Special
- Mitglied seit
- 06.02.2010
- Beiträge
- 3.358
- Renomée
- 80
"Viel Energie" ist für ein A6-Modell nebensächlich...
... Fürs A6 Segment reichts dann halt nicht zu 100%, aber besser als ein runtergetakteter Bulldozer ists allemal, billiger sicherlich auch. Ist halt quasi Resteverwertung, nur andersherum.
Energieverbrauch ist für Notebooks - vor allem die neuen Thin-and-Light - schon von Bedeutung. Dass der zusätzliche Ram-Channel Diesize kostet ist natürlich ein Tradeoff. Wenn es aber die Leistung eines Quadcore-Kabini steigern kann, dann halte ich es für sinnvoll, wenn man dann zudem unvergleichlich teurere Richlands substituieren kann. Ich kann es allerdings nicht einschätzen, was ein solcher Dualchannel-Ram wirklich bringen würde, doch denke ich, dass es die Leistung einer APU ziemlich beeinflussen kann.
Zuletzt frage ich mich, ob AMD diesmal womöglich doch zwei "echte" Kabini-Varianten bringen könnte: eine Quadcore-APU (ohne Southbridge) mit Dual-Ram und eine kleine Dualcore-Variante (SoC mit integrierter Southbridge) mit auch nur einem Ram-Channel, die zudem von Anfang an auf Lowpower getrimmt ist (für Tablet). Dieser Gedanke kam mir auch als ich die Message auf fudzille las, wo es nun heißt, dass Kabini ein "Yangtze FCH chipset" brauchen würde. Das könnte dann auch gleichzeitig erklären, weshalb die Tablet-Version von Kabini (mir fällt gerade dessen Code-Name nicht ein...) noch etwas länger für die Fertigstellung braucht. Gleichzeitig sehe ich das als einen Hinweis dafür, dass die Quadcore-Kabinis doch vom Pjnout mit Richland kompatibel werden könnte, denn die brauchen auch eine extra Southbridge. Somit wäre es Verschwendung, diese in Kabini zu bauen. Zudem würde das Design von Kabini erst mal simpler ohne Southbridge. Spart man die weg, könnte AMD damit auch das Kabini-Design früher fertig bekommen.
Complicated
Grand Admiral Special
- Mitglied seit
- 08.10.2010
- Beiträge
- 4.949
- Renomée
- 441
- Mein Laptop
- Lenovo T15, Lenovo S540
- Prozessor
- AMD Ryzen 7 3700X
- Mainboard
- MSI X570-A PRO
- Kühlung
- Scythe Kama Angle - passiv
- Speicher
- 32 GB (4x 8 GB) G.Skill TridentZ Neo DDR4-3600 CL16-19-19-39
- Grafikprozessor
- Sapphire Radeon RX 5700 Pulse 8GB PCIe 4.0
- Display
- 27", Lenovo, 2560x1440
- SSD
- 1 TB Gigabyte AORUS M.2 PCIe 4.0 x4 NVMe 1.3
- HDD
- 2 TB WD Caviar Green EADS, NAS QNAP
- Optisches Laufwerk
- Samsung SH-223L
- Gehäuse
- Lian Li PC-B25BF
- Netzteil
- Corsair RM550X ATX Modular (80+Gold) 550 Watt
- Betriebssystem
- Win 10 Pro.
Entweder Leistung oder eben Thin&Light. Die Ultrabook Klassen sind weit weg von der Leistung die einen Dual Channel zwingend nötig machen würde.Energieverbrauch ist für Notebooks - vor allem die neuen Thin-and-Light - schon von Bedeutung. Dass der zusätzliche Ram-Channel Diesize kostet ist natürlich ein Tradeoff. Wenn es aber die Leistung eines Quadcore-Kabini steigern kann, dann halte ich es für sinnvoll, wenn man dann zudem unvergleichlich teurere Richlands substituieren kann. Ich kann es allerdings nicht einschätzen, was ein solcher Dualchannel-Ram wirklich bringen würde, doch denke ich, dass es die Leistung einer APU ziemlich beeinflussen kann.
Ge0rgy
Grand Admiral Special
- Mitglied seit
- 14.07.2006
- Beiträge
- 4.322
- Renomée
- 82
- Mein Laptop
- Lenovo Thinkpad X60s
- Prozessor
- Phenom II 955 BE
- Mainboard
- DFI LanParty DK 790FXB-M3H5
- Kühlung
- Noctua NH-U12P
- Speicher
- 4GB OCZ Platinum DDR1600 7-7-7 @ 1333 6-6-6
- Grafikprozessor
- Radeon 4850 1GB
- HDD
- Western Digital Caviar Black 1TB
- Netzteil
- Enermax Modu 525W
- Betriebssystem
- Linux, Vista x64
- Webbrowser
- Firefox 3.5
Nebenbei ist der Stromverbrauch bei LV-Modulen etc. auch nicht so überragend.
Dualchannel ist auch nicht umsonst, denn es müssen die Leitungen dennoch unter Strom gesetzt werden, doppelt soviele untergebracht, auf dem Board geroutet usw. Also auch eine Kostenfrage.
Mal eine andere Frage, bei Grafikkarten kann man ja mittlerweile auch den Speicher runtertakten, wie schauts denn da bei Hauptspeicher aus? - man könnte j an die P-States auch verminderte Speichertaktungen koppeln oder das DDR-Verfahren im Stromsparmodus aufbrechen und nur nich an einer Taktflanke Daten übertragen statt an zweien.
Hier gäbe es ja unter Umständen auch Potenzial für verbesserungen und gerade hier könnte das "Stromproblem" bei DDR2133 dann nicht mehr so wild sein, wenn der nur im Vollast-Betrieb überhaupt so schnell liefe und ansonsten auf die Hälfte gedrosselt würde o.ä.
Effektiv ist es wiedermal nur ein Tradeoff zwischen Aufwand und Nutzen.
Wenn DDR im Schnitt 15% mehr Performance bringt, dafür aber Kosten & Stromverbrauch um 30% erhöht oder sowas, ist es unterm Strich ein Verlust. Dann doch lieber einen großen, zwischne CPU und GPU-Teil gesharten Cache on-Die.... wir werden sehen.
Dualchannel ist auch nicht umsonst, denn es müssen die Leitungen dennoch unter Strom gesetzt werden, doppelt soviele untergebracht, auf dem Board geroutet usw. Also auch eine Kostenfrage.
Mal eine andere Frage, bei Grafikkarten kann man ja mittlerweile auch den Speicher runtertakten, wie schauts denn da bei Hauptspeicher aus? - man könnte j an die P-States auch verminderte Speichertaktungen koppeln oder das DDR-Verfahren im Stromsparmodus aufbrechen und nur nich an einer Taktflanke Daten übertragen statt an zweien.
Hier gäbe es ja unter Umständen auch Potenzial für verbesserungen und gerade hier könnte das "Stromproblem" bei DDR2133 dann nicht mehr so wild sein, wenn der nur im Vollast-Betrieb überhaupt so schnell liefe und ansonsten auf die Hälfte gedrosselt würde o.ä.
Effektiv ist es wiedermal nur ein Tradeoff zwischen Aufwand und Nutzen.
Wenn DDR im Schnitt 15% mehr Performance bringt, dafür aber Kosten & Stromverbrauch um 30% erhöht oder sowas, ist es unterm Strich ein Verlust. Dann doch lieber einen großen, zwischne CPU und GPU-Teil gesharten Cache on-Die.... wir werden sehen.
Lynxeye
Admiral Special
- Mitglied seit
- 26.10.2007
- Beiträge
- 1.107
- Renomée
- 60
- Standort
- Sachsen
- Mein Laptop
- Lifebook T1010
- Prozessor
- AMD FX 8150
- Mainboard
- Gigabyte GA-970A-UD3
- Kühlung
- Zalman Reserator 1 Plus
- Speicher
- 4x8GB DDR3-1600 G.Skill Ripjaws
- Grafikprozessor
- ASUS ENGTX 260
- Display
- 19" AOC LM928 (1280x1024), V7 21" (1680x1050)
- HDD
- Crucial M4 128GB, 500GB WD Caviar 24/7 Edition
- Optisches Laufwerk
- DVD Multibrenner LG GSA-4167B
- Soundkarte
- Creative Audigy 2 ZS
- Gehäuse
- Amacrox Spidertower
- Netzteil
- Enermax Liberty 500W
- Betriebssystem
- Fedora 17
- Webbrowser
- Firefox
- Verschiedenes
- komplett Silent durch passive Wasserkühlug
Mal eine andere Frage, bei Grafikkarten kann man ja mittlerweile auch den Speicher runtertakten, wie schauts denn da bei Hauptspeicher aus? - man könnte j an die P-States auch verminderte Speichertaktungen koppeln oder das DDR-Verfahren im Stromsparmodus aufbrechen und nur nich an einer Taktflanke Daten übertragen statt an zweien.
Hier gäbe es ja unter Umständen auch Potenzial für verbesserungen und gerade hier könnte das "Stromproblem" bei DDR2133 dann nicht mehr so wild sein, wenn der nur im Vollast-Betrieb überhaupt so schnell liefe und ansonsten auf die Hälfte gedrosselt würde o.ä.
Möglich ist das ganze auf jeden Fall. Ist halt nur mehr Aufwand im Memorycontroller. Ich habe hier ein Tegra2 Dev-Board auf dem mit normalem DDR2 Speicher gearbeitet wird und bei dem kann ich im laufenden Betrieb problemlos die Taktrate des Speichers anpassen. Laut Doku kann das der Tegra3 genauso mit DDR3 Speicher.
Die einzige Schwierigkeit ist, dass der Memorycontroller verschiedene Timings (und dazu gehören weit mehr als die gebräuchlichen Latencytimings) unterstützen muss. Beim Tegra wird dazu vor dem Taktwechsel das neue Timingset in Schattenregister des MC geladen und dann bei Anpassung der Taktfrequenz übernommen.
Opteron
Redaktion
☆☆☆☆☆☆
Hier hat angeblich einer ein Dev-Board:
http://forums.anandtech.com/showpost.php?p=34431602&postcount=107
http://forums.anandtech.com/showpost.php?p=34431602&postcount=107
Klingt auch schon mal gut.Kabini is a SoC. I have a devplatform and it's a one chip solution. I can't tell the specification, but the performance/watt is shocking. The iGPU is amazingly fast.
Opteron
Redaktion
☆☆☆☆☆☆
Vergess nicht die Relation zum Verbrauch und zu bisherigen Tablets. Wenn der Type ein Dev-Board hat, entwickelt er wahrscheinlich irgendwas mit low power. Dass Kabini mit ARM/Atom-Winzlösungen den Boden wischen würde und Entwickler, die bisher nur Mali&Co-Grafik gewöhnt waren, das als "amazing" bezeichnen würde, würde mich nicht wundern.128 SPs sind also amazingly fast Was folgern wir daraus? Nicht ernst zu nehmen der Typ.
Onkel_Dithmeyer
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.04.2008
- Beiträge
- 12.947
- Renomée
- 4.022
- Standort
- Zlavti
- Aktuelle Projekte
- Universe@home
- Lieblingsprojekt
- Universe@home
- Meine Systeme
- cd0726792825f6f563c8fc4afd8a10b9
- BOINC-Statistiken
- Prozessor
- Ryzen 9 3900X @4000 MHz//1,15V
- Mainboard
- MSI X370 XPOWER GAMING TITANIUM
- Kühlung
- Custom Wasserkühlung vom So. G34
- Speicher
- 4x8 GB @ 3000 MHz
- Grafikprozessor
- Radeon R9 Nano
- Display
- HP ZR30W & HP LP3065
- SSD
- 2 TB ADATA
- Optisches Laufwerk
- LG
- Soundkarte
- Im Headset
- Gehäuse
- Xigmatek
- Netzteil
- BeQuiet Dark Pro 9
- Tastatur
- GSkill KM570
- Maus
- GSkill MX780
- Betriebssystem
- Ubuntu 20.04
- Webbrowser
- Firefox Version 94715469
- Internetanbindung
- ▼100 Mbit ▲5 Mbit
Ich bin ja mal gespannt, aber vier Kerne brauch ich im LP-Bereich nicht
ELKINATOR
Gesperrt
schön für dich wenn du es nicht brauchst.
warum sollten andere darauf verzichten wenn es technisch möglich ist?
warum sollten andere darauf verzichten wenn es technisch möglich ist?
Onkel_Dithmeyer
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.04.2008
- Beiträge
- 12.947
- Renomée
- 4.022
- Standort
- Zlavti
- Aktuelle Projekte
- Universe@home
- Lieblingsprojekt
- Universe@home
- Meine Systeme
- cd0726792825f6f563c8fc4afd8a10b9
- BOINC-Statistiken
- Prozessor
- Ryzen 9 3900X @4000 MHz//1,15V
- Mainboard
- MSI X370 XPOWER GAMING TITANIUM
- Kühlung
- Custom Wasserkühlung vom So. G34
- Speicher
- 4x8 GB @ 3000 MHz
- Grafikprozessor
- Radeon R9 Nano
- Display
- HP ZR30W & HP LP3065
- SSD
- 2 TB ADATA
- Optisches Laufwerk
- LG
- Soundkarte
- Im Headset
- Gehäuse
- Xigmatek
- Netzteil
- BeQuiet Dark Pro 9
- Tastatur
- GSkill KM570
- Maus
- GSkill MX780
- Betriebssystem
- Ubuntu 20.04
- Webbrowser
- Firefox Version 94715469
- Internetanbindung
- ▼100 Mbit ▲5 Mbit
Hab ich nicht gesagt, ich formuliere mal um:
Ich hoffe das Design ist auch mit zwei Kernen konkurrenzfähig. Brazos war mir persönlich zu schwach und wenn die Mehrleistung pro Kern nur unerheblich steigt fände ich das schade.
besser?
Ich hoffe das Design ist auch mit zwei Kernen konkurrenzfähig. Brazos war mir persönlich zu schwach und wenn die Mehrleistung pro Kern nur unerheblich steigt fände ich das schade.
besser?
ELKINATOR
Gesperrt
brazos war aber aber immerhin das beste am markt, ein atom schaut gegen den ja alt aus.
Onkel_Dithmeyer
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 22.04.2008
- Beiträge
- 12.947
- Renomée
- 4.022
- Standort
- Zlavti
- Aktuelle Projekte
- Universe@home
- Lieblingsprojekt
- Universe@home
- Meine Systeme
- cd0726792825f6f563c8fc4afd8a10b9
- BOINC-Statistiken
- Prozessor
- Ryzen 9 3900X @4000 MHz//1,15V
- Mainboard
- MSI X370 XPOWER GAMING TITANIUM
- Kühlung
- Custom Wasserkühlung vom So. G34
- Speicher
- 4x8 GB @ 3000 MHz
- Grafikprozessor
- Radeon R9 Nano
- Display
- HP ZR30W & HP LP3065
- SSD
- 2 TB ADATA
- Optisches Laufwerk
- LG
- Soundkarte
- Im Headset
- Gehäuse
- Xigmatek
- Netzteil
- BeQuiet Dark Pro 9
- Tastatur
- GSkill KM570
- Maus
- GSkill MX780
- Betriebssystem
- Ubuntu 20.04
- Webbrowser
- Firefox Version 94715469
- Internetanbindung
- ▼100 Mbit ▲5 Mbit
Das Beste am Markt kann man so nicht sagen. AMDs Neo II war auch was feines. Klar Grafik klar schwächer, aber mit DualChannel und mehr CPU-Leistung mit nur etwas höherem Verbrauch im idle.
ELKINATOR
Gesperrt
schwächere grafik ist untertrieben, der neo hat keine gpu integriert.
wenn man den chipsatz mit gpu dazu rechnet ist der verbrauch mehr als nur "etwas" höher, besonders im idle.
wenn man den chipsatz mit gpu dazu rechnet ist der verbrauch mehr als nur "etwas" höher, besonders im idle.
bbott
Grand Admiral Special
- Mitglied seit
- 11.11.2001
- Beiträge
- 4.363
- Renomée
- 60
- Mein Laptop
- HP Compaq 8510p
- Prozessor
- AMD FX-8370
- Mainboard
- Asus M5A99X
- Kühlung
- Corsair H60
- Speicher
- 16GB DDR3-1866 Crucial
- Grafikprozessor
- Sapphire HD5770
- Display
- 4k 27" DELL
- SSD
- Samsung Evo 850
- HDD
- 2x Seagate 7200.12
- Optisches Laufwerk
- Pioneer, Plextor
- Soundkarte
- Creative X-Fi Xtreme Music
- Gehäuse
- Silverstone TJ-02S
- Netzteil
- Enermax 450W
- Betriebssystem
- Windows 7
Brazos war mir persönlich zu schwach und wenn die Mehrleistung pro Kern nur unerheblich steigt fände ich das schade.
besser?
- Brazos IPC ~K8
- max 1,65Ghz
Bekannt zu Kabini ist bisher:
- IPC +15% ~K10
- +10% mehr Takt
- SSE4.x, AVX,...
- AES
Aus den 1,65Ghz * 1,1 würden rund ~ 1,8Ghz werden.
Die Performance auf etwa K10 mit 1,8Ghz (FPU darunter, alle SSE4.x, AVX, AES deutlich darüber) in kombiniert mit GNC 128 Shadern unter 25W!
Single Channel spielt kaum eine Rolle, da ein 3Ghz K10 bei DC von DDRII 1066Mhz Ram nicht (<2%) profitiert hat.
Da er DDRIII 1600 (oder noch mehr?) unterstützt aber nur mit 1,8 Ghz taktet hat er faktisch Bandbreite im Überfluss. Es bleibt definitiv auch noch genügend für die Grafikkarte übrig. Das hin und her kopieren entfällt ebenfalls.
Crashtest
Redaktion
☆☆☆☆☆☆
- Mitglied seit
- 11.11.2008
- Beiträge
- 9.285
- Renomée
- 1.415
- Standort
- Leipzig
- Mitglied der Planet 3DNow! Kavallerie!
- Aktuelle Projekte
- Collatz, yoyo, radac
- Lieblingsprojekt
- yoyo
- Meine Systeme
- Ryzen: 2x1600, 5x1700, 1x2700,1x3600, 1x5600X; EPYC 7V12 und Kleinzeuch
- BOINC-Statistiken
- Folding@Home-Statistiken
- Mein Laptop
- Lenovo IdeaPad 5 14ALC05
- Prozessor
- Ryzen 7950X / Ryzen 4750G
- Mainboard
- ASRock B650M PGRT / X570D4U
- Kühlung
- be quiet! Dark Rock Pro4 / Pure Rock Slim 2
- Speicher
- 64GB DDR5-5600 G Skill F5-5600J3036D16G / 32 GB DDR4-3200 ECC
- Grafikprozessor
- Raphael IGP / ASpeed AST-2500
- Display
- 27" Samsung LF27T450F
- SSD
- KINGSTON SNVS2000G
- HDD
- - / 8x Seagate IronWolf Pro 20TB
- Optisches Laufwerk
- 1x B.Ray - LG BD-RE BH16NS55
- Soundkarte
- onboard HD?
- Gehäuse
- zu kleines für die GPU
- Netzteil
- be quiet! Pure Power 11 400W / dito
- Tastatur
- CHERRY SECURE BOARD 1.0
- Maus
- Logitech RX250
- Betriebssystem
- Windows 10 19045.4355 / Server 20348.2402
- Webbrowser
- Edge 124.0.2478.51
- Verschiedenes
- U320 SCSI-Controller !!!!
- Internetanbindung
- ▼1000 MBit ▲82 MBit
also der Quad Takt soll(t)e bis 2,2 GHz gehen (25W) - Brazos Dual kann bei 18W max auf 1,9GHz takten ...
RAM: DDR3-1866 (1,5V) oder max DDR3-1600 (1,35V / 1,25V)
die GPU-Performance (DC) soll an der Untergrenze vom Llano liegen
AMD hat im Dezember weitere DevBoards verteilt - müss ma die Leaks abwarten.
Start laut Gerüchteküche Ende April bis Anfang Mai nach Demonstration(en) bei der CES
RAM: DDR3-1866 (1,5V) oder max DDR3-1600 (1,35V / 1,25V)
die GPU-Performance (DC) soll an der Untergrenze vom Llano liegen
AMD hat im Dezember weitere DevBoards verteilt - müss ma die Leaks abwarten.
Start laut Gerüchteküche Ende April bis Anfang Mai nach Demonstration(en) bei der CES
Markus Everson
Grand Admiral Special
128 SPs im singlechannel sind also amazingly fast Was folgern wir daraus? Nicht ernst zu nehmen der Typ.
Das ist vermutlich ein Ami. Die sind schon amazingly shocked wenn sie morgens den Schalter betätigen und das Licht angeht.
mariahellwig
Grand Admiral Special
Wenn die Daten stimmen ist Trinity im Mobilbereich komplett überflüssig.
Das würde die Zurückhaltung der Hersteller erklären.
Das würde die Zurückhaltung der Hersteller erklären.
Ähnliche Themen
- Antworten
- 0
- Aufrufe
- 974
- Antworten
- 0
- Aufrufe
- 2K
- Antworten
- 49
- Aufrufe
- 12K
- Antworten
- 413
- Aufrufe
- 82K
- Antworten
- 26
- Aufrufe
- 7K