Hybride Prozessoren mit P- und E-Kernen | Bit-Rauschen 2025/25
Shownotes
Seit einigen Jahren gibt es auch für Notebooks und Desktop-PCs Prozessoren mit verschiedenen Typen von CPU-Kernen: P- und E-Kerne. P steht dabei für Performance, E für Effizienz. Aber so einfach ist es natürlich nicht.
Das Konzept der hybriden Prozessoren kam im Massenmarkt zuerst bei Smartphone-Chips mit ARM-Kernen zum Einsatz. Dort startete es unter dem Namen big.LITTLE. Häufig kombinierten die Chiphersteller dabei wenige P-Kerne mit hoher Taktfrequenz, großen Caches und Out-of-Order-Architektur mit mehreren Effizienzkernen. Letztere hatten beispielsweise In-Order-Mikroarchitektur, takteten niedriger und hatten viel weniger Cache. Das genügt für viele Hintergrundaufgaben.
Heutzutage gibt es ganz unterschiedliche Konzepte, etwa mehrere unterschiedliche E-Kerne, von denen manche beim Multithreading kräftig anschieben. Und einige Smartphone-Chips verzichten auf E-Kerne, sondern setzen auf unterschiedlich ausgelegte P-Kerne. Und ein ganz exotisches Konzept sind Intels Supercores, die aus mehreren E-Kernen dynamisch einen P-Kern machen.
Die c’t-Redakteure Christian Hirsch und Christof Windeck diskutieren über die vielen unterschiedlichen Konzepte in Folge 2025/25 von "Bit-Rauschen, der Prozessor-Podcast von c’t".
Alle Podcast-Folgen sowie auch alle c’t-Kolumnen "Bit-Rauschen" finden Sie unter ct.de/bit-rauschen
Noch mehr Lust auf Podcasts? Hier finden Sie noch viele weitere aus dem Heise-Universum: Hören Sie von uns – unsere Podcasts
Transkript anzeigen
00:00:00: Herzlich willkommen zu Bittrauschen der Prozessor Podcast von CT.
00:00:06: In dieser Folge sprechen wir über Prozessoren, und zwar solche, die verschiedene CPU-Kerne enthalten.
00:00:13: Früher waren die alle gleich.
00:00:15: Heute sind es oft Kombinationen aus Performance- und Effizienzkernen, also P- und E-Kern oder P- und E-Course.
00:00:25: Aber es gibt auch P plus E plus LPE oder etwa P und P und P. oder Chips mit nur E-Kern, was sehr verwirrend ist.
00:00:33: Und bisweil klären wir das jetzt gleich in unserem Podcast.
00:00:37: Bis dann.
00:00:53: Hallo.
00:00:54: Mein Name ist Christoph Windeck und heute spreche ich mit meinem CT-Kollegen Christian Hirsch.
00:01:00: der schon sehr, sehr viele Prozessoren mit noch viel mehr Kern getestet hat.
00:01:04: Hallo, Christian.
00:01:05: Hallo, Christoph.
00:01:06: Schön, dass ich wieder dabei sein darf.
00:01:08: Ja, du bist der Experte für die P&E-Kerne, zumindest was die X-Achzig-Prozessoren betrifft, weil das ja nun seit einiger Zeit, seit einigen Jahren, wieviel ungefähr, fünf Jahre, kann man sagen, ne?
00:01:22: Ja, ziemlich fünf Jahre, vier, fünf Jahre.
00:01:27: eben auch bei den angefangen mit intel zunächst sogar bei desktop pc prozessoren ist wobei man vielleicht sagen könnte ja wieso eigentlich bei desktop prozessoren mit effizienz und so weiter.
00:01:42: also genau ich würde sagen wir steigen einfach mal ein kern.
00:01:47: das steht eigentlich für performance und e für effizienz.
00:01:51: Aber so simpel ist es natürlich wie immer nicht, denn mittlerweile gibt es nicht nur bunte Mischungen, sondern die E-Kerne schieben zum Teil auch kräftig an, obwohl man denken würde, die sind gar nicht so wichtig.
00:02:02: Vielleicht fangen wir einfach mal damit an, was macht denn ein typischer P-Core?
00:02:07: Also die P-Kerne, per Promenskerne, das sind quasi die Weiterentwicklung der klassischen.
00:02:14: Wie man es früher gab es ja nur einer Sorte, das ist so die Weiterentwicklung.
00:02:18: Und da ist natürlich die ganz klassischen Werkweite, maximale Performance, also hoher Takt, große Caches, ein Turbo, der auch teilweise bis sechs Gigahertz geht.
00:02:28: Und natürlich dann im Kern selber auch breite Rechenwerke, dass eben viele Befehle parallel verarbeitet werden können.
00:02:36: Das betrifft vor allem die Kleidkommalleistung.
00:02:39: Und es sind deshalb auch ein Out of Order Design, das ist jetzt so seit... Ich glaube, ich dreißig Jahre jetzt Gang und Gebe, was eben die Leistungsteiger oder spekulative Ausführungen und haben natürlich dann aber auch, es gibt ja nichts umsonst, Kraftkampf und Kraftstoff, das braucht dann eben auch viel elektrische Leistung.
00:02:57: Die schlucken also eine ganze Menge Strom.
00:03:00: Den Strom, den sie schlucken, der hängt aber ja von der Taktfrequenz ab.
00:03:05: und die Taktfrequenz, die sie erreichen, die hängt von der Kernspannung ab.
00:03:10: Das wissen wir ja nun seit ein paar Jahren, eben diese Strom-Sparfunktion gibt es ja.
00:03:15: Auch als es nur x-axis Prozessoren von AMD und Intel immer nur mit derselben Kernsorte gehabt, konnte man die ja sparsamer takten bei niedrigerem Takt.
00:03:26: Das müsste doch eigentlich mit dem P-Kern auch gehen.
00:03:30: Das Problem ist, ja, sie sind dann sparsamer, aber sie sind ja dann nicht effizient unbedingt.
00:03:38: weil diese Pekerne, die belegen ja auch viel Platz auf dem Halbleiter, weil eben diese, die hatte ich ja schon aufgezählt, die cash ist groß sind, da viele Recheneinheiten drin sind und das ist, da gibt es auch noch ein paar andere Unterschiede, aber das ist so der Hauptunterschied, dass sie eben sehr viel Fläche belegen, bei Intel habe ich das mal rausgesucht, das sind ungefähr dreieinhalb E-Kern, das sind ungefähr die Fläche von einem Pekern.
00:04:09: Es gibt bei diesen E-Kern noch ein paar andere Anpassungen, dass die in diesem Taktbereich, der dann in der Regel niedriger ist, effizienter arbeiten als ein P-Kern.
00:04:18: Wenn man jetzt ein P-Kern runter takten würde, wäre der E-Kern trotzdem viel mehr weniger Strom verbrauchen.
00:04:24: Okay, das heißt, wenn ich den P-Kern runter takte, leistet er ja absolut gesehen weniger und ist dann bezogen auf die Leistung, kann ein E-Kern vielleicht wiederum sparsamer sein.
00:04:35: Aber das sind ja sehr viele protakte Zusammenhänge.
00:04:41: Fangen wir mal der Reihe nach an.
00:04:42: Ich würde sagen, welche Tricks gibt es denn, damit ein Kern auf dem selben Chip mit derselben Fertigungstechnik sparsamer wird, als der, der jetzt vielleicht daneben sitzt?
00:04:53: Also diese E-Kerne sind ja wie angesprochen schon kleiner, haben also weniger Transistor.
00:04:58: Man kann das ja irgendwann ganz klar sagen, die Fläche korreliert im Prinzip mit der Transistorzahl.
00:05:05: Je weniger natürlich da drin sind, umso weniger Verluste haben die auch.
00:05:08: Das ist ja auch ganz einfach herleidbar.
00:05:11: Und dann gibt es natürlich auch noch ein paar andere Tricks, die diese ganzen Chip-Designer natürlich anwenden, dass sie eben andere Transistor-Typen verwenden, die eben zum Beispiel dickere Isolationsmaterial dann haben und dadurch weniger Verluste.
00:05:26: Aber das hat natürlich, es gibt ja immer wieder gesagt, nichts umsonst, dadurch takten sie eben auch nicht so hoch.
00:05:30: Deshalb sind diese E-Kanne immer auf dem viel niedrigeren maximal Takt beschränkt.
00:05:35: Das ist einfach dann der Nachteil, den man dann einnehmen muss.
00:05:42: Und dadurch haben die eben diese P-Kanne, die E-Kanne eine ganz andere Kennlinie.
00:05:47: Das hat man ja so oft im Halbleiter bei Prozessoren, dass es Kennlinien gibt und die arbeiten eben an einem ganz anderen Punkt, sind eben auf hohe Effizienz getrimmt und dadurch resultiert eben die Nachteile, dass sie eben auch nicht so hoch takten können.
00:06:02: Aber ja.
00:06:03: Das ist halt der Hauptunterschied.
00:06:06: Dann gibt es natürlich auch noch nicht nur bei der elektrischen Eigenschaften-Unterschiede, sondern eben auch im Design und Aufbau.
00:06:16: Da gibt es halt eben noch den Groß, als man den Riesenunterschied Inorder und Out-of-Order, das ist halt, kann man ja vielleicht mal an der Stelle kurz erklären, Inorder ist halt eben, dass die Befehle so wie sie quasi vom Betriebssystem oder von den Anwendungen angeliefert werden, in genau dieser Reihenfolge abgearbeitet werden.
00:06:33: Das ist aber eben nicht immer optimal, weil es gibt eben Berechnungen, die schon durchgeführt werden können und dann in den nächsten Schritt dann quasi noch ein anderes Ergebnis benötigen.
00:06:45: und die kann man aber vorziehen.
00:06:48: Oder anders aufteilen einfach und das ist das sogenannte Out-of-Order-Prinzip.
00:06:52: Das gibt es glaube ich.
00:06:52: seitdem ist das Pentium Pro.
00:06:55: Ist das glaube ich bei Intel zumindest eingeführt worden.
00:06:57: Also Mitte der neunziger Jahre kann man einfach mal so Pimal Daumen sagen.
00:07:02: Das ist aber nur bei sehr schwachen E-Kern wird das verwendet.
00:07:05: Da können wir aber später noch genauer drauf eingehen, wo das ist.
00:07:08: Sie haben natürlich ganz klar, das ist glaube ich noch das Hauptmerkmal, viel weniger Rechenwerke.
00:07:13: Das betrifft vor allem die... sehr leistungsstarken Kleidkommeneinheiten, die da sind nur sehr wenige drin, in den Effizienzkern und sie haben auch ein einfaches Frontend.
00:07:24: Also die Dekorde-Einheiten, das sind halt viel weniger als das zum Beispiel bei den leistungsfähigen P-Kernsinn.
00:07:30: Das sind so die Hauptunterschiede.
00:07:33: Also du meinst die Also die In-Order-Technik kann sozusagen sparsamer arbeiten als die Out-of-Order-Technik.
00:07:38: Ja, weil es natürlich, weil man sich natürlich gewisse Sachen wie den Reorder-Buffer, wie ich es dann haben will, schon sagt, wo die Befehle umsortiert werden, die müssen natürlich da quasi zwischengespeichert werden, damit dann der Prozessor sagen kann, okay, die ziehe ich vor und die halte ich mir noch quasi warm.
00:07:52: Das nimmt natürlich auch alles immer Platz weg auf dem Chip und alles, was Platz wegnimmt, sind ja elektrische Komponenten, die brauchen auf alle einfach Strom.
00:07:59: Das ist einfach weniger dran, braucht doch weniger.
00:08:03: Aber es gibt kein einheitliches Kochrezept für P&E-Kerner.
00:08:07: Also die sind auch trotzdem alle wiederum individuell unterschiedlich.
00:08:12: Genau.
00:08:12: Und entwickeln sich auch beide voneinander immer weiter, je nach Hersteller.
00:08:17: Richtig, das ist, da gibt es ja auch ganz unterschiedliche Strategien, da können wir auch später noch im Detail dann drauf eingehen.
00:08:23: Das ist ja auch immer die Frage, wie definiert man Performance und Effizienzkern.
00:08:28: Also es gibt ja auch eben Designs, wo der ganze Prozessor einfach für ein, sage ich mal, ein sehr sparsames, für mich das Embedded oder so ausgelegt ist.
00:08:37: Das sind dann vielleicht die P-Kerne so, so leistungsstark wie in anderen Prozessen und die E-Kerne.
00:08:42: Also das hängt immer ein bisschen vom Anwendungsfall drauf ab.
00:08:46: Also es gibt keine Markenrechte, also jeder kann den P-Kern nennen, wie er möchte, mit dem einen sein P, dem anderen sein E. Genau,
00:08:53: es gibt ja auch Super-Performance-Kernen oder Low-Power-E-Kernen, also da gibt es noch mal Untervarianten, aber das können wir alles noch aufdrüsseln.
00:09:01: Da
00:09:01: kommt meine Hand auch drauf.
00:09:02: Ich würde jetzt erstmal sagen, kann man für einen bestehenden Prozessor irgendwie einschätzen, wie viel langsamer ein E-Kern ist im Vergleich zu einem P-Kern?
00:09:11: Gibt es da Faustregeln?
00:09:13: Ja, also es gibt... Da gibt es natürlich immer Ausnahmen, aber in der Regel, was ich so gefunden habe, ich habe da echt nochmal ein bisschen nachgeguckt, ist man meistens so bei fünfzig bis sechzig Prozent der Leistung von Pekern hat ein E-Kern, also meistens die Hälfte manchmal ein bisschen drüber, aber das ist so ein, sag ich mal, guter Pi mal Laumenwert.
00:09:32: Da gibt es natürlich auch von den Taktfrequenzen ab, also das jetzt auf das Reine, auf den Reinen.
00:09:37: Halbleiter-Design beschränkt, aber dann gibt es ja immer noch verschiedene Modelle.
00:09:40: Da gibt es ja eben leistungsstarke Modelle wie ein Core i-Nine oder so oder eben beim Core i-Fünf, der taktet ja insgesamt langsamer und dadurch kannst du auch noch ein paar Prozent Unterschied geben, aber das ist so vielmal da oben der Wert.
00:09:53: Aber viel wichtiger ist ja, dass es immer aus Anwender sich ein bisschen schwer zu verstehen, da guckt man ja immer so auf die Leistung.
00:10:01: Aber für die Halbleiterhersteller, also die Prozessorherstellung speziellen, geht es eigentlich eher um die Kosten.
00:10:07: Und der Trick, warum werden denn überhaupt diese E-Kerne verwendet heutzutage, ist, dass man pro Fläche viel mehr Multiswetting-Performance daraus kriegt.
00:10:17: Ich hatte ja schon mal gesagt, dass diese bei Intel jetzt als Beispiel die dreieinhalb E-Kern ungefähr die Fläche eines P-Kerns belegen.
00:10:27: Im Multiswetting sind diese dreieinhalb E-Kerne aber ungefähr dreißig Prozent schneller als ein P-Kern.
00:10:35: Wenn sie alle zusammenarbeiten.
00:10:36: Wenn sie alle zusammenrechnen.
00:10:37: Das kann.
00:10:38: man kann nicht die Single Sled Leistung da einfach hochskalieren, weil es gibt ja ein Power Limit für den ganzen Prozessor.
00:10:44: Aber wenn man das quasi unter Vorlast brauchen die quasi sind die dreißig Prozent schneller, die dreieinhalb Kerne als einen Pekern.
00:10:54: Aber haben halt eben entsprechend, also pro Fläche kriege ich mehr Multi Sled Leistung raus.
00:11:00: Dazu muss aber Multi-Threading-Code auch laufen.
00:11:03: Also ich nutze mir nur was, wenn ich eine Anwendung habe, die das auch davon wirklich profitiert.
00:11:08: Genau.
00:11:09: Und da gibt es ja auch wieder Grenzen.
00:11:10: Also ich kann ja nicht hundert Kerner einbauen, weil kaum eine Software wirklich hundert Kerner auf Malen nutzt, sondern ich muss ja immer irgendwelche Kompromisse da finden, oder?
00:11:20: Das hängt ja wie gesagt vom Einsatz-Track ab.
00:11:22: Wir sind jetzt hier bei Desktop und Mobile oder Smartphone-Prozessoren.
00:11:24: Die kann man da auch noch ein bisschen mit reinzielen.
00:11:26: Da gibt es ja im Prinzip immer die zwei Extremfälle.
00:11:30: Einmal ich habe jetzt eine Excel-Zelle und will da eins plus eins addieren.
00:11:35: Das ist natürlich nicht multiswettingfähig.
00:11:37: Das ist einfach eine Rechenoperation und die kann nur auf einem kann laufen.
00:11:42: Der andere Extremfall, ich habe jetzt irgendwie einen Rendering, also sowas wie Blender oder Reray oder eben der Cinebench oder ich kompiliere Software.
00:11:52: Da laufen halt viele Operationen parallel.
00:11:56: Und da ist natürlich immer mehr Kern umso besser.
00:11:59: Und beim Desktop, typischen Desktop-Anwendung, ist man halt immer irgendwo in der Misch-Kalgulation.
00:12:04: Es gibt halt eben zum Beispiel beim Websurf, da ist eben Das singlethrät eben noch sehr wichtig für die Hauptarbeit.
00:12:12: Aber ich will ja auch mal irgendwie ein Video kodieren oder so.
00:12:15: Und deshalb hat man eben die starken P-Kanne gar nicht mehr so viel.
00:12:19: Das sind meistens ja nur so sechs bis acht bei Hybrid Designs.
00:12:23: Das ist eben für die Schwubzizität, wie wir auch immer gerne sagen.
00:12:26: Und wenn dann eben man irgendwie länger ein Video kodieren lässt oder so, dann hat man eben noch acht oder sechzehn kleine E-Kanne noch dazu.
00:12:36: Kann man also sagen, dass Intel extra viele Ekerne einbaut, um die Multi-Threading-Performance hochzuziehen.
00:12:43: Genau, das kann man so sagen, bei Intel ist eben der Ansatz, zumindest im Desktop, ganz klar auf Performance.
00:12:49: Wir wollen halt eine endliche Chipfläche einfach nur haben, weil das kostet einfach Geld in der Herstellung und da ist es eben schlauer zu sagen.
00:12:58: Ein statt zum Beispiel, ich denke mir jetzt mal was aus, ein hypothetischer, sechzehn Kern P Prozessor wäre da nicht so schnell wie eben der aktuelle acht plus sechzehn Kern, also acht P und sechzehn E Kern in der Multisort Leistung.
00:13:11: Kannst du sagen, was es so an Extremen gibt?
00:13:15: In welchen Bezug meinst du jetzt?
00:13:16: oder
00:13:17: was was?
00:13:18: es gibt doch auch seons mit e-kern die irgendwie über hundert kerne haben.
00:13:22: genau das ist das ist dann der der.
00:13:24: der andere extrem fall.
00:13:26: ich habe jetzt bei bei servan kommt es ja das gibt der verschiedene server prozessoren es gibt halt die wo es halt auch wirklich rechenleistung ran ankommt irgendwie floating point leistung da will man natürlich nur p-kerne haben.
00:13:37: das ist ja auch so das sind die die ein seons und auch die die epics wobei es da ja auch zwei verschiedene sorten gibt.
00:13:43: du komm aber später noch hinzu.
00:13:44: Und das andere sind zum Beispiel so Web oder Cloud Server, wo zum Beispiel ganz viele Instanzen, also wenn jetzt viele Leute gleichzeitig auf eine Webseite zugreifen, und da brauchen die einzelnen, kann der gar nicht so leistungsfähig sein, weil das ist ja meistens nur Integer Code, der da läuft.
00:13:58: Und da kriegt man dann, dass es eher gut so viele Kanten wie möglich zu haben, um eben für jeden Sweat dann auch einen eigenen Kern zu haben.
00:14:05: Und die haben ja dann teilweise über zwei Hundert Kender drauf.
00:14:08: Jetzt haben wir darüber... gesprochen, dass Intel die E-Kerne durchaus als Leistungsträger sieht.
00:14:15: Also das Wort Effizienzkerne ist da sozusagen gar nicht so sehr auf die Leistungen, auf die Leistungsaufnahme bezogen, sondern auf die Effizienz pro Fläche.
00:14:28: Die sind vor allem für Multi-Falling gut und schieben da auch kräftig mit an.
00:14:31: Ich glaube, irgendjemand hat mal gesagt, in einem Forum hätte er gelesen, dass das Gamer, die so über Taktor die Cinebenchkerne genannt haben, weil die Cinebench über besonders viele Punkte bringen.
00:14:44: Es gibt aber auch Designs mit sehr schwachen E-Kern, die also wirklich mehr auf Stromsparen ausgelegt sind und nicht so mit anschieben.
00:14:51: Kannst du da auch ein paar Beispiele nennen?
00:14:53: Das ist vor allem bei Smartphones natürlich der Fall, da ist ja das Ziel, weil man eben keine Steckdose hat, wo der Strom herkommt, sondern da muss das halt alles der Akku liefern und der soll ja möglichst lange halten, dass man Aufgaben so langs wie irgendwie geht auf diesen E-Kern laufen lässt, die halt sehr sparsam sind und diese P-Kerne eben nur kurz möglichst kurz hochfeuert oder überhaupt startet, wenn eben das Not, wenn ich zum Beispiel, wenn man jetzt Bei einer typischen Beispiel bei einer Webseite halt die Webseite aufruft, dass halt das Rendering möglich schnell passiert.
00:15:28: Aber danach, wenn dann irgendwie dann eine Animation läuft, das kann dann, wie gesagt, wieder auf den langsamer E-Kern laufen.
00:15:32: Das nutzt auch Apple, also wobei die E-Kerne bei Apple zwischen auch gut stark sind.
00:15:38: Die haben auch ungefähr so so fünfzig, sechzig Prozent der Performance der P-Kerner, die ja bei Apple besonders stark sind.
00:15:45: Aber dort sehe ich das auch, weil ich.
00:15:47: Dann habe ich auch privat MacBook Air und da sehe ich das ja auch, dass die P-Kanne halt wirklich selten hochgefeuert werden.
00:15:54: Das hat viele Anwendungen selbst, wo man meint, okay, da müssten jetzt die Performance-Kanne-Statten passiert gar nicht, sondern man sieht ganz klar, nö, dass da reichen die sechs Effizienzkanne aus und die vier P-Kanne, ja, das kommt dann mal wirklich, wenn man irgendwie mein Video startet, aber wenn das dann abspielt, dann ist da nur so ein, zwei E-Kanne beschäftigt.
00:16:14: Ja gut, bei Videos ist ja auch so, da greifen ja dann noch andere Beschleuniger rein.
00:16:18: Also die Hardware-Decoder in denen, die ja typischerweise eher in der GPU sitzen.
00:16:24: Darüber reden wir ja heute nicht, sondern es geht ja wirklich nur um CPU-Kerne.
00:16:28: Jetzt haben wir Intel-Event, AMD-Event.
00:16:32: Die Technik kommt ja aus den Smartphones, also Apple-Event, schuldigung eben nicht AMD.
00:16:38: Die Technik kommt ja eigentlich aus den Smartphones, ist glaube ich schon Zehn Jahre alt, Big Little hieß das damals, das war damals neu von ARM, also in standardisierter Form, ich glaube es gab sogar Leute, die hatten das schon genutzt, also Designer, aber auf jeden Fall seither gibt es das von ARM, da gibt es auch verschiedene Kerntypen.
00:16:59: Wie macht es AMD?
00:17:01: AMD hat ein bisschen anderen Ansatz, so einen ähnlichen auch wie jetzt Qualcomm verwendet, können wir vielleicht auch noch darauf eingehen später, aber bei AMD ist so... Im Unterschied zum Beispiel zu den meisten armen Smartphone-Prozession und Intel haben die nicht zwei verschiedene Architekturen, die kann er, sondern bei AMD hat er das Zen-Design, was sie jetzt seit acht Jahren verwenden und aktuell ist ja Zen-Fünf.
00:17:23: Und seit der Zen-IV Generation, also den Vorgang, gibt es sogenannte Kompaktkerne.
00:17:28: Also Zen-IV-C, Zen-V-C.
00:17:31: Und das ist relativ schlau, was sie da gemacht haben.
00:17:35: Weil das natürlich Entwicklungsressourcen spart, um nicht ein komplettes neues Kerndesign zu entwickeln.
00:17:39: Sie haben einfach, also vom Aufbau in sind die absolut identisch.
00:17:43: Allerdings verwenden die andere Libraries, weil sie ja wissen, dass sie die Kerne gar nicht so hoch takten wollen.
00:17:51: Verwenden sie eben andere Transistortüben.
00:17:53: Können dadurch die Kerne viel kompakter bauen.
00:17:55: Die haben ungefähr eine Fläche von, also spart ungefähr, thirty bis fünfundvierzig Prozent habe ich rausgelesen.
00:18:02: Und haben natürlich auch ein bisschen weniger Level-Zwei-Cache, also auch bei den Caches specken sie ein bisschen ab.
00:18:06: Das hat aber den großen Vorteil, dass für das Betriebssystem da nicht, also das ist einfacher für Scheduling, weil die das gleiche Featureset haben, die gleichen Funktionen und eben einfach nur langsamer Tacken jetzt aus Betriebssystemen sicht.
00:18:22: Und davon gibt es natürlich auch Wie ich es schon angedeut hatte, eben auch Epic Server Prozessoren, die eben nur diese Kompaktkanne verwenden, eben genau wieder für solche Cloud-Server-Anwendungen.
00:18:35: Und natürlich die anderen Epics, die haben natürlich nur PCAN, also da gibt es kein Hybrid-Design in den Servern, weil das ja nicht notwendig ist.
00:18:42: für solche Zwecke, aber für den Desktop.
00:18:45: Also AMD verwendet im Desktop keine Hybrid-Prozessoren, aber im Mobile zum Beispiel.
00:18:49: Da gibt es halt die Ryzen AI-Hundert, die aktuellen da, die haben meistens so ein bis drei quasi große Kerne und dann eben drei, fünf, sieben Kompakte.
00:19:03: Die Ryzen Achttausend Geht.
00:19:06: Das sind ja die sozusagen aus Mobilprozessoren gemachten Desktopprozessoren.
00:19:10: Da gibt es aber einige, die auch kompakten Kern haben.
00:19:13: Das
00:19:13: du recht, das sind ja aber okay.
00:19:15: Also wir denken ja immer in den Chips und mit Kodenamen.
00:19:18: Wir sind ja nicht so, weil diese Produktzähnahmen sind ja manchmal missverständlich und so.
00:19:24: Da hast du recht, die quasi die Desktop-Varianten dieser monolithischen Mobilchips, das sind ja keine Chipplets, die mit diesen Hybridkern, die kommen, da gibt es auch welche im Desktop.
00:19:34: Da hast du recht.
00:19:35: Okay, aber ich fand das sehr erstaunlich, wie das AMD gemacht hat.
00:19:39: Du hast vorhin den Begriff Library verwendet.
00:19:42: Für die Chip-Designer, du meinst sozusagen die Bibliotheken der eigentlichen Auftragsfertiger, der Chip-Fertiger, wie im Fall von AMD, ja, TSMC, die sozusagen in diesen Bibliotheken hinterlegen, wie ein Transistor am Ende physisch aussieht.
00:19:56: Das war dein, also die Nutzen an sozusagen... eine andere Design Bibliothek für die Transistoren, für die kompakteren Kerne, die dann eben nicht auf die super hohen Taktfrequenz.
00:20:08: Deswegen gibt es ja auch...
00:20:13: Man ist bei den Pekern so bei fünf bis sechs Gigahertz und die E-Kerne sind dann meistens so mit einer drei Komma, also drei Komma fünf oder drei Komma sieben Gigahertz.
00:20:24: Da gibt es ja auch bei den, ist ja vielleicht also an Randnotiz auch, dass es ja bei diesen Fertigungstechniken dann auch noch Varianten gibt.
00:20:32: Da war jetzt, glaube ich, die Diskussion, dass Apple irgendwie mit diesem den MIV noch in N-IIIe und den M-V jetzt in N-IIIp fertigen lässt.
00:20:41: Vielleicht habe ich es auch nicht genau richtig gesagt, aber jedenfalls diese Prozesse sind ja auch nochmal verwirrend vielfältig, was man da machen kann und in manche Hersteller erlauben es eben verschiedene leichte Abweichung, sozusagen auf dieselbe Maske zu bringen.
00:20:58: Aber das muss ja alles irgendwie in diese hellen komplizierten Designsysteme passen.
00:21:03: Das ist, glaube ich, für normalsterbliche nicht mehr richtig vorstellbar.
00:21:05: Jedenfalls hast du es ja schon zweimal erwähnt.
00:21:08: Man kann Transistoren mit unterschiedlichen Eigenschaften designen und die einen können halt super hoch takten und die anderen sind dafür bei moderaten Frequenzen effizienter oder sparsamer sogar.
00:21:20: Und dadurch wird der ganze Kern effizienter für bestimmte Aufgaben.
00:21:25: Jetzt gibt es aber auch unterschiedliche E-Kerner auf derselben CPU.
00:21:32: Wir haben es eingangs kurz erwähnt.
00:21:34: Es gibt noch Low Power Effizienzkerne, LPE.
00:21:38: Wozu braucht man die denn nun?
00:21:40: Ob man die braucht, ist die Frage.
00:21:42: Aber es hat natürlich Vorteile.
00:21:44: Zum Beispiel, das kommt ein bisschen auf die Bauweise an, zum Beispiel bei den Intel Prozessoren.
00:21:49: Das ist, glaube ich, bei Aero Lake so, genau, die Aero Lake Mobile Prozessoren.
00:21:55: Die haben noch eine dritte Sorte, die Low Power E-Kirne.
00:21:59: Und da kommt es auf die Position im Prozessor selbst an und da muss man ein bisschen ausholen.
00:22:03: Also bei Aero Lake gibt es halt die, das, ich weiß nicht, wie ich es in die Insel offiziell habe, das CPU-Qo-Teil, wo also nur die CPU-Kirne, also die P- und E-Kirne drauf sitzen.
00:22:13: Und dann gibt es das sogenannte SOC-Teil, das ist halt so, sag ich mal, Das Herz des Prozesses, wo alle anderen dranhängen, wo auch der Speicherkontroller drin ist.
00:22:23: Und da sind nochmal zwei kleine Low Power Effizienzkerne drin und das hat den großen Vorteil, wenn jetzt zum Beispiel einfach der Rechner, sag ich mal, im Leerlauf einfach läuft und im Hintergrund Mails gecheckt werden, da muss jetzt nicht unbedingt das ganze CPU-Qurteil mit Strom versorgt werden.
00:22:41: Erst mal hochfahren, das frisst ja alles Strom, sondern... Da reicht es einfach in der Regel aus, dass diese zwei kleinen, schnarchlangsamen Kern, ich glaube, ich weiß gar nicht, wie wenig Takti haben.
00:22:50: Ich glaube, das ist deutlich unter zwei Gigahertz.
00:22:53: Das reicht dann aus, um das zu erledigen.
00:22:56: Und dadurch kann man natürlich massiv Strom sparen.
00:22:59: Indem man ganz große Teile des Prozessors sozusagen schlafen legt oder ganze, ganze Chipplets quasi.
00:23:05: Ganze
00:23:05: Chipplets, genau.
00:23:06: Ja, okay.
00:23:09: Das hat aber bisher nur Intel in der Form in X-Axis realisiert.
00:23:13: Bei X-Ax-Ax sicher.
00:23:15: Okay.
00:23:17: Fällt ja auf, dass eben die Akkulaufzeiten im Leerlauf noch nicht so die AMD Spezialität sind.
00:23:25: Also die Ryzen Mobile können ja bei der Performance sehr gut mithalten.
00:23:30: Auch bei der Effizienzunterlast.
00:23:32: Aber die reine Leerlauf-Akkulaufzeit, da scheint Intel immer noch... mit einigen Designs deutlichen Vorteil zu haben allerdings noch übertrumpft natürlich von den Arm Designs zurzeit.
00:23:47: was heißt natürlich also Intel behauptet ja immer es liegt nicht an xx nach sich.
00:23:54: aber gut und das sagt ja auch Jim Keller also der der der cpu guru sagt eigentlich hat es mit der cpu mikroarchitektur nichts zu tun.
00:24:03: das ist wie das ding ausgelegt ist aber wir warten immer noch auf den beweis dass es Das ist auch mit x-xen-achtzig geht.
00:24:11: jedenfalls scheint das mit den lpe kern durchaus gewissen beitrag zu leisten.
00:24:18: Aber jetzt gibt es was total verwirrendes.
00:24:20: jetzt haben wir gelernt.
00:24:22: also es gibt p-cores und kompakte p-cores und e-cores und lpe-cores um zu sparen.
00:24:28: und wenn man jetzt so guckt da gibt es zum beispiel von mediatech den Dimensity nine tausend vierhundert das ist ein smartphone prozessor der aber nur Dicke Kerne hat sozusagen und auch Qualcomm mit dem Snapdragon X für die Windows Elf Notebooks, die alle möglichen Nachteile haben.
00:24:47: Also ärgert man sich ein bisschen, dass da die sind so verdengelt.
00:24:52: und da ist mit Linux ist es schwierig und ganz wenige Apps gehen auch noch nicht so richtig.
00:24:56: Aber was die Dinger auf jeden Fall können, ist unendlich lange mit dem Akku zu laufen.
00:25:01: Und die haben auch keine separierten Ekerne.
00:25:05: Das finde ich persönlich tatsächlich total verwirrend, weil diese Technik ja aus der Armecke kommt.
00:25:09: Dann hat sie X-Ach.
00:25:10: Sie hat sich sozusagen nachgebaut, also Intel jedenfalls.
00:25:14: Und jetzt greift Arm an und nutzt nur P-Cores und hat trotzdem eine längere Akkulaufzeit.
00:25:20: Das finde ich extrem verwirrend.
00:25:22: Kannst du uns das erklären?
00:25:24: Das ist so ähnlich wie bei AMD.
00:25:27: Da gibt es ja verschiedene Cluster, also diese Kerne sind nicht alle gemeinsam untergebracht, sondern das ist ein bisschen so ähnlich wie, obwohl das ist eigentlich bei allen modernen Prozessern so, dass die oft in Gruppen angebracht sind, also dass die bei AMD das zunahnte CCX-CPU-Core-Komplex, wo acht Kerne sich quasi einen L-III-Block teilen.
00:25:51: Und bei Italy ist ja auch so, da gibt es ja die P-Kerne, die quasi an dem Ringbus hängt.
00:25:57: Und dann hängt an dem Ringbus eben auch Viererklaster von den Effizienzkernen.
00:26:01: Also die sind gar nicht unabhängig voneinander.
00:26:03: Und so ähnlich ist es eben bei Kalkonvys auch.
00:26:06: Die haben ja auch Klaster von, glaube ich, Vierer auch Viererblöcken.
00:26:11: Und da gibt es einen Block, der eben schwächer ist als die anderen beiden.
00:26:17: Also kompakter.
00:26:19: Und die nicht so hoch, also in alle Fälle.
00:26:21: Obwohl es dieselbe, also es ist ein bisschen wie eben AMD, die Kompaktkerne, die sind dann so gebaut, dass sie eben, das sind sozusagen Peakhors im E-Gewand.
00:26:29: Kann man das so sagen?
00:26:30: Ja, also, die sind einfach auf ein anderes Takt-Level ausgelegt.
00:26:35: Kann man so sagen.
00:26:35: Aber sie sind ansonsten identisch.
00:26:38: Funktioniert hier erstaunlich gut.
00:26:40: Ja, neben Barmen gibt es die da, die haben halt, können sich halt beim Frontend im Prozess relativ viel sparen, was eben... Zipfläche und damit auch wieder Leistungsaufnahme bedeutet.
00:26:51: Und man muss natürlich auch immer sagen, es ist natürlich immer eine Abwägung.
00:26:54: Also man kann das ja gar nicht pauschal sagen, welches Konzept jetzt am Ende besser oder schlechter ist, weil man muss ja auch sehen, um nochmal auf den Desktop zurückzugehen.
00:27:04: Da ist der Ryzen neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun, neun.
00:27:17: Also es erstaunlich, wie dicht die dann doch beieinander liegen, obwohl sie so einen fundamental unterschiedlichen Aufbau haben.
00:27:23: Und auch deshalb kann man da immer schwer sagen, ist das nun das Apple-Design besser?
00:27:29: Also mit Design meine ich jetzt nicht die Kerne, sondern eben, ob man jetzt ein Hybrid oder quasi einen, oder so einen Kompakt, nicht Kompakt-Kerndesign oder eben nur quasi Pekerne, die vielleicht nicht ganz so groß sind, aber eben so einen guten Kompromiss bilden.
00:27:44: Da muss man einfach sagen, am Ende zieht was hinten rauskommt.
00:27:47: Und da ist halt auch einiges im Fluss.
00:27:51: Und das ist halt immer aber auch die Frage, wenn ich eben ein Skandesign mache, was unterschiedlich ist, das kostet Geld in der Entwicklung.
00:27:58: Und da muss halt eben auch dann die Software drauf abgestimmt sein.
00:28:04: Gutes Stichwort.
00:28:05: Woher weiß denn die Software auf welchem Kern sie am besten laufen soll?
00:28:09: Also die Software in sich weiß es eigentlich gar nicht, sondern wenn dann weiß es der Schedule und Betriebssystem, weil für Software kriegt ja nur quasi so eine virtuelle Rückmeldung, was es gibt, die eigentlich Software in der Regel.
00:28:20: Natürlich kann man auch Software programmieren, dass sie selber auf Kernel direkt auswählt, aber das ist eigentlich nicht der Standardfall, sondern Standardfall ist das Betriebssystem, kümmert sich darum, weil das ja natürlich auch die ganzen anderen Prozesse kennt, die da noch laufen.
00:28:35: Das muss natürlich darauf angepasst sein.
00:28:36: bei Hybrid Designs.
00:28:38: Bei Smartphones ist das jetzt weniger ein Problem, weil ja da, das ist eine geschlossene Plattform und der Gerätehersteller des Smartphones ja genau weiß welchen Chipper einlötet und natürlich dann auch die Software oder das Betriebssystem entsprechend anpassen kann oder sollte auch.
00:28:53: Bei Windows oder bei x-axis ist das ja alles sehr flexibel.
00:28:57: Da kann man ja selber das Betriebssystem auswählen.
00:29:01: Und man kann ja auch recht selber zusammenbauen, ist also quasi selber der PC-Hersteller.
00:29:06: Und da waren ein bisschen mehr Aufwand notwendig, als nämlich Intel- Twenty-Einen-Zwanzig, die Core i-Twelve-Tausend-Order-Leg auf dem Markt gebracht haben.
00:29:13: Das waren nämlich die ersten mit P&E-Kurs im Desktop.
00:29:16: Es gab vorher schon mal Lakefield als so Versuchsballon, den lassen wir mal kurz unter den Tisch fallen.
00:29:23: Aber das war der erste große Massenproduktion, erfolgreiche, sag ich mal, Hybridprozesse von Intel.
00:29:29: Und da muss natürlich der Taskbjulli genau wissen, was ist ein P-Kern, was ist ein E-Kern und welche Anwendung packe ich wohin.
00:29:37: Man kann natürlich darauf auch ein Betriebssystem laufen lassen, was das nicht unterstützt, zum Beispiel Windows X, aber wir haben da ja auch Tests damals durchgeführt, wenn das halt, das kann halt eben in einigen Fällen dazu führen, dass dann eine Anwendung, die eigentlich auch die P-Kern damit nutzen soll, nur auf den E-Kern läuft.
00:29:54: Beim Rendering hatten wir das gesehen, da hatte das Das Windows gedacht, das ist jetzt so eine Hintergrund langen, lauernde Anwendung, das pack ich mal nur auf die E-Kanne.
00:30:04: Und das war dann halt sehr langsam.
00:30:06: Bei Windows Elf, also besser gesagt bei der Hardware gab es da auch Anpassung von Intel, weil Windows sich da wohl nicht so einfach getan hat.
00:30:14: Die haben dann einen sogenannten Strat Director eingebaut.
00:30:18: Da gibt es aber auch, viele Leute haben ja die falsche Vorstellung, dass der Thread Director irgendwas entscheidet.
00:30:23: Das tut er gar nicht.
00:30:24: Eigentlich ist es bloß ein Messinstrument, was halt bei allen Kernen guckt, oder insgesamt guckt beim Prozessor, was kommt denn eigentlich für Befehle hier rein?
00:30:33: Bei den jeweiligen Threads.
00:30:34: Wenn da zum Beispiel jetzt AVX Befehle kommen, also eben sehr anspruchsvolle quasi Floating Point Berechnung, das ist ja das, wo die P-Kerne so stark sind, dann werden die in die höchste Kategorie einsortiert.
00:30:47: Und da gibt es dann, glaube ich, vier verschiedene Klassen.
00:30:49: Und wenn jetzt zum Beispiel irgendwie so eine Schleife ist, die einfach repeat until irgendwie Ergebnis kommt, das ist ja aller niedrigste Priorität.
00:30:58: Das kriegt dann halt die niedrigste Stufe.
00:31:00: Und diese Rückmeldung, welcher Thread in welche Klasse einsortiert wird, das gibt der Prozessorquart, der Thread Director, an das Betriebssystem.
00:31:08: Dazu muss das Betriebssystem das aber auch natürlich auslesen können.
00:31:11: Und dann sage ich, sagt der Schedule, okay, hier habe ich noch Kapazitäten auf den Pkn frei, da kann ich diese Anwendung für AVX hinpacken und da diesen Hintergrund, das packe ich auf die E-Kan.
00:31:22: Okay, das heißt also mit Windows Elf und auch Linux gibt es eigentlich keine Probleme mehr mit ... Ja, es gibt immer
00:31:28: noch einen Promille-Anteil von Software, die halt sehr alt ist, die halt damals, wo der Software-Adwickler gedacht hat, das muss so dahin sein, da gibt es natürlich ... Also im professionellen Bereich gibt es Anwendung, die zum Beispiel so Software, die halt hochoptimierte AVX Berechnung hat, wo halt zum Beispiel kein Hyperswetting genutzt wird, selbst wenn es vorhanden ist auf den Prozessoren, weil das eben im Endeffekt dann langsamer ist, sondern die wollen den Kern exklusiv haben.
00:32:03: Und da legt man natürlich dann auch sehr genau fest, nutze nur Kern zero, zwei, vier und so weiter und nicht eins, drei, fünf und so weiter, wenn das Hyper-Setting ist.
00:32:12: Und das kann dann eben zu Problemen führen, weil diese Software eben nicht weiß, dass eben Kern eins und Kern sieben sehr unterschiedlich sind.
00:32:21: Du hast es vorhin schon mal ganz bisschen am Rande erwähnt.
00:32:26: Beacherset, das heißt, müssen alle Kerne in einem Prozessor eigentlich genau denselben Befehlsumfang haben.
00:32:35: Kann man das sagen?
00:32:36: Theoretisch nicht.
00:32:37: Also wenn das Betriebssystem natürlich genau darauf vorbereitet ist, dann geht das.
00:32:41: Das ist ja, wenn man das jetzt mal ein bisschen auf die Metaebene geht, ist ja ein Co-Prozesse auch nichts anderes.
00:32:47: Also ein NPU oder eine GPU hat ja ein ganz anderes Featureset als die CPU-Kerne.
00:32:52: Und wenn man weiß, welche Anwendung man wohin packt oder welche Berechnung, dann kann man so heterogene Prozessoren bauen.
00:33:00: Natürlich, um es mal wieder in die Praxis zu führen, ist das natürlich sehr komplex und man will ja möglichst einen klar definiertes Featureset haben, auch für die Compiler und für die Software, damit die genau wissen, ich lass das jetzt kombilieren und dann läuft es auch überall.
00:33:14: Und deshalb versucht man das einheitlich zu machen.
00:33:18: Da ist eben Intel auch bei Alderleg damals so ein bisschen drüber gestolpert.
00:33:22: Und zwar haben die P-Kerne ja schon seit der zehnten und elften Core Generationen AVX-Fünfhundert zwölf bekommen.
00:33:29: Das ist eigentlich eher für Server-Prozessoren entscheidend, weil das für sehr hochoptimierte Berechnungen notwendig ist.
00:33:37: Im Desktop kommt das gar nicht so oft vor.
00:33:41: Und die E-Kerne, weil die ja möglichst klein und kompakt sein sollen und diese fünfhundertzwölf-Bitbreiten, Gleitkommeneinheiten, sehr, sehr viel Chipfläche fressen und auch die ganzen Busse in der CPU natürlich fünfhundertzwölf-Bit breit sein müssen, haben die das nicht bekommen.
00:33:58: Da gab es dann eben das Problem, dass die P-Kanne-Fivehundert-Zwölf eigentlich können und die E-Kanne-Nord-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert-Zwundert.
00:34:27: Und inzwischen bei den aktuellen Generationen ist das einfach im Prozessor schon von Abwerk quasi deaktiviert, das AVX-Volta-Zwölf, also man kann das auch nicht mehr mit irgendwie ehkeine Abschalten nutzen.
00:34:39: Ja, und in der weiteren Entwicklung, man will ja doch irgendwann vielleicht doch mal auch komplexere Berechnungen machen, da gibt es jetzt zum Beispiel diese Matrix-Rechenwerke, die jetzt ganz in sind durch diese KI.
00:34:55: Das ist das große Hype-Thema momentan ist und die sollen ja dann auch in die Prozession kommen.
00:35:02: Also beim Server gibt es das ja teilweise schon, das AMX von Intel.
00:35:10: Für die Desktop-Chips soll das dann in die nächsten Generationen kommen, in einer anderen Variante.
00:35:17: Das frisst natürlich auch Platz, das Zeug.
00:35:19: Da muss man auch wieder überlegen, was packt man wie viel rein.
00:35:23: Bei Apple nutzt das schon, da hab ich schon raus gewonnen, die nutzen die sogenannten Scalable Matrix Extension, SME, die aber eben auch die Vektorsachen können.
00:35:32: Das wird wahrscheinlich beim Desktop dann ähnlich angelegt werden, dass man dann eben auch Teil einiger Einheiten dann quasi parallel für beides nutzen kann.
00:35:41: Und ja, das ist so, was so ansteht für die Zukunft.
00:35:47: Also da müsste dann sozusagen eine komplexere Steuerung dann möglich sein, wenn also zum Beispiel, wenn diese Dinger, diese Matrix-Erweiterung relativ viel Platz brauchen, dann ist das ja wahrscheinlich was, was eher nur die Peep-Kerne bekommen.
00:36:01: Und da müsste der das Betriebssystem eben sozusagen je nach Code entscheiden können, du läufst jetzt da und du läufst da, was im Moment.
00:36:08: Sozusagen eher, sagen sie, die Kerne haben zwar eine unterschiedliche Mikroestätik bei Intel, aber doch denselben Befehlsumfang im Moment.
00:36:16: Aber was könnte sich verändern?
00:36:18: Ich gehe nicht davon aus, wie es sich verändern wird.
00:36:21: Das würde die Softwarekomplexität erhöhen.
00:36:23: Das habe ich auch noch mal nachgeschaut.
00:36:25: Zum Beispiel gibt es auch noch dieses AVX-Zähn, das schon länger geplant ist.
00:36:30: Und das wurde ja vor einem halben Jahr geändert.
00:36:32: Das war ja für die Zehn-Punk-Zwei-Version.
00:36:34: Ist ja auch egal welches Detail.
00:36:36: Das war ja geplant, dass das ... oder ... werden gestrichen.
00:36:43: Also die Prozesse müssen dann auch ... Befehle verarbeiten können.
00:36:48: Jetzt kommt das aber.
00:36:50: Natürlich ist es so.
00:36:51: Das müssen die ja nicht in einem Taktzyklus unbedingt können.
00:36:54: Zum Beispiel bei Senvier hatte AMD es ja so, das konnte AVX-Fünfhundert zwölf.
00:36:59: Allerdings waren die Einheiten nur zweieinhalbzigfünfzig bittig.
00:37:01: Deshalb haben die quasi zwei Zyklen gebraucht.
00:37:04: Und das wäre eine Möglichkeit, dass man die P-Könner dann das, die das in einem Zyklus können.
00:37:08: Und die E-Könner dann eben zwei Zyklen einfach nur benötigen, dadurch einfach deutlich langsamer sind.
00:37:13: Das kann man sich vorstellen, dass das tut.
00:37:16: Jetzt würde ich gerne noch auf was kommen, was ein bisschen Aufmerksamkeit erregt hat vor einigen Wochen.
00:37:21: Das waren die Supercores.
00:37:27: Sobald ich weiß, war das ein älteres Patent von Intel, aber erzähl du mal, also warum geht's da?
00:37:32: Mehrere Kerne zusammen oder sowas?
00:37:33: Ja,
00:37:33: also sowas Gerüchte, der schon, glaube ich, das habe ich schon vor zwanzig Jahren gelesen.
00:37:38: Da war es AMD mal zugeschrieben worden mit Reverse-Hyper-Threading und was weiß ich?
00:37:42: Und jetzt die Superkost von Intel, also die Idee ist natürlich, weiß natürlich sehr, sehr teuer und aufwendig ist, eben zwei verschiedene Kanndesigns zu entwickeln, also P und E-Kanne.
00:37:54: Und dann auch immer ab zu überlegen, welches Produkt wie viel P und E kann er pack ich denn jeweils nun rein?
00:38:00: Das macht ja auch auf die Anzahl der Modelle, die ich rausbringen kann, hat das ja auch Auswirkungen.
00:38:07: Ist die Idee quasi zwei E-Kerne dynamisch zu einem P-Kern zusammenzufassen.
00:38:12: Wenn man jetzt einen Thread hat oder einen Prozess hat, der eben sehr viel Leistung, Single-Zert-Leistung erfordert.
00:38:19: Also dynamisch.
00:38:20: Das ist natürlich komplex, weil Der Software thread dann auf zwei Kerne aufgeteilt werden muss.
00:38:28: Aber man kann ja nicht so stark aufteilen, wenn jetzt zum Beispiel eine Kommunikation zwischen andern stattfindet.
00:38:37: Das ist halt riesengeladenzen, deshalb muss das schon sehr geschickt gemacht werden.
00:38:42: Ob das in der Praxis dann funktioniert und wie gut vor allem.
00:38:47: Und wenn man schon sieht, dass Intel ja bei den normalen Hybrid Design schon so ein Thread Director mit einbauen musste, damit das unter, sag ich mal jetzt eher Windows auch gut funktioniert, steckt da halt ein sehr großer Aufwand davor hin.
00:38:59: Also ich will das nicht ausschließen, dass das nicht umsetzbar ist.
00:39:03: Aber ob das praktikabel ist oder und wie viel Di-Fläche da zusätzlich notwendig ist und ob das am Ende nicht doch dann vielleicht wieder mehr Strom kostet, weiß man nicht.
00:39:13: Und mit dem neuen Intelchef, Liputan, der hat ja zum Beispiel eher ein anderes Feature will er nämlich wieder zurückbringen.
00:39:21: Da hat mir jetzt gar nicht so drauf eingegangen.
00:39:22: Das ist das Hyperswetting.
00:39:25: Das Hyperswetting ist ja, dass ein Kern eben den umgekehrten Fall, dass ein Kern eben zwei Swats parallel aber arbeiten kann.
00:39:33: Weil die Recheneinheit in der Regel ja gar nicht voll ausgelastet sind bei den meisten Anwendungen.
00:39:37: Und das bringt vor allem bei X-Achzechzechzehn deutlich einen Performance-Gewinn bei vielen Anwendungen.
00:39:42: Und das hatte Intel ja eben in den letzten Generationen abgeschafft, ob es jetzt kaputt gegangen ist oder eine bewusste Entscheidung war, dass da streiten sich die Geister drüber.
00:39:52: Und das soll wiederkommen.
00:39:54: Das ist deshalb, ist das sehr spannend, wie die Entwicklung fortgeht.
00:40:00: Also ich denke auch, dass das Hybrid wird nicht mehr weggehen.
00:40:03: wird weiter so bleiben.
00:40:04: und also das Unterschied ist starke Kerne sind, ob das dann in Zukunft so sein wird, dass wir irgendwann mal quasi nur noch E-Kerne haben werden, die relativ leistungsstark sind oder eben so zusammengefasst werden können.
00:40:16: Das wird dann die Zukunft zeigen.
00:40:19: Ich habe das immer so ein bisschen verstanden mit dem Hyperferding, dass wenn man sowieso schon so viele E-Kerne hat, dass das dann vielleicht auch ein bisschen viel wird mit dem Hyperferding.
00:40:27: Und auch da wieder würde man dann E-Kerne bauen, die Hyperferding haben.
00:40:33: Das ist ja da auch wieder eine Erweiterung.
00:40:35: Bei Pekern könnte man es machen und dann kommt man da nochmal durcheinander.
00:40:38: Also man weiß es nicht.
00:40:40: Find ich auch schwierig die Entscheidung.
00:40:42: Aber ich glaube vielleicht fassen wir es mal so zusammen, wie der jeweilige Prozessor ausgelegt ist, ist halt auch immer ein Kompromiss.
00:40:49: Da gibt es keine absolute Weisheit.
00:40:51: Jeder Hersteller hat da ein bisschen anderen Blick drauf und vielleicht auch spezielle Patente und Ideen, wie er das vermarkten möchte.
00:40:59: Und es gibt jedenfalls eine neue Dimensionen, in die die optimieren können, wie sie das mit P&E-Kern oder mit kompakten, nicht kompakten und zusätzlichen Low-Power-E-Kernen auftauchen.
00:41:10: Also ein riesen Spielfeld.
00:41:13: Ja, Christian, vielen Dank für das Gespräch.
00:41:15: Das war sozusagen Prozessor Philosophie.
00:41:20: Wie teile ich meine Kerne auf, meine Deilfläche auf?
00:41:23: Also vielen Dank.
00:41:25: Danke schön.
00:41:27: Und vor allem danken wir aber Ihnen, liebe Zuhörerinnen und Zuhörer, für Ihr Interesse.
00:41:31: Wir freuen uns über Feedback, bitte per Mail an bit-rauschen-et-ct.de.
00:41:38: Und wenn Sie jetzt noch mehr Lust auf Podcasts haben, finden Sie eine große Auswahl und eine immer größere Auswahl unter heiser.de-podcasts.
00:41:47: Auch herzlichen Dank an unseren Producer Ralf.
00:41:50: und ganz zum Schluss sage ich Tschüss und bis zur nächsten Folge von Bitrauschen.
00:41:55: Jeden zweiten Mittwoch, ganz früher morgen.
Neuer Kommentar