Zitat
Original geschrieben von pommesmatte
Der Gedanke ist IMHO aber sehr gut. 4 langsame stromsparende Kerne für Idle 2D und 4 fette stromhungrige Kerne fürs Zocken und was weiß ich.
Wäre auch in der Notebook Welt durchaus einen Gedanken wert, nen Atom-Quad und nen i5-Quad auf einem DIE...
Aber die schrägen Entwicklungen kommen in letzter Zeit ja fast nur noch aus dem Tablet- oder Handysektor.
Es gibt ja ein Video, in dem das gut erklärt und gezeigt wird.
Hier: http://www.heise.de/video/arti…xynos-5-Octa-1811915.html
Relevant ist der linke Rand des Displays!
Da sieht man aber auch, dass die großen Kerne im Standardbetrieb (Surfen, Maps, Video gucken) nur selten aktiv sind. Sicherlich rocken die bei Aktivität viel, aber letztlich ist das doch in dieser vorgelegten Art und Weise Marketing. Zeug, was (fast) nie genutzt wird, außer beim Zocken. Denn wenn es genutzt wird, steigt der Strombedarf nach anderen Quellen stärker, als der Leistungsgewinn ausfällt. Das als "Mikroruckeln" bezeichnete Gefühl bei einem Android-System mit IHV-launcher wird dadurch nicht verschwinden. Aber in Benchmarks sieht es natürlich prächtig aus.
Um es vielleicht zu präzisieren. Ich bin auf jeden Fall für Fortschritt und für mehr Leistung. Aber es muss entweder akute Probleme lösen (sehe ich nicht, Stichwort "Mikroruckler") oder neue Perspektiven eröffnen (das werden wir vielleich in Zukunft noch sehen). Vielleicht zeigt sich das Potential diese Konfiguration irgendwann nochmal. Momentan sehe ich es aber als reines Marketing. Ich sehe schlicht keinen Vorteil gegenüber den "alten" Architekturen, bei denen die verschiedenen Cores in einem Multicore dynamisch getaktet und abgeschaltet, innerhalb eines Cores asyncron getaktet und selbst innerhalb eines Cores nach Bedarf dynamisch im laufenden Betrieb teilweise deaktiviert werden konnten. A15-Kerne sollen angeblich (!) bei dieser internen dynamischen "Granularität" Probleme haben. Insofern macht big.LITTLE auf mich als totalen Laien den Eindruck einer "drangepappten" Hilfskonstruktion, damit die Entwicklungsgelder nicht komplett in den Ausguss wandern. Und das Marketing macht dann den Rest.
Die kommenden Kraits werden vielleicht zeigen, was big.LITTLE wirklich wert ist. Nvidia hat ja im Tegra einen ähnlichen Ansatz (dort heißt es "companion core"), hat aber ebenfalls ein dickes Stromverbrauchsproblem.
Auch bei PC-Grafikkarten gab es von der Idee her ähnliche Techniken (im idle übernimmt der Mainboard-GrafikChip die Grafik, nur bei Games springt die separate Grafikkarte an).
[Edit:] AMD und MS basteln an offenbar ähnlichen Problemen / Lösungen.... Die werden schon Wissen, was sie tun. Asymmetrische Chipintegration... Die Zukunft wird es zeigen.