In den USA hat man einen Chip entwickelt, der leistungsstarke Geräte deutlich schneller und kleiner machen könnte. Dazu zählen etwa Grafikkarten, Prozessoren und auch KI-gestützte Projekte.
Unser Titelbild (Grafikchip einer AMD-Grafikkarte) ist ein Symbolbild.
An der University of Southern California (USC) haben Forscher erklärt, dass man einen neuen Chip und Speicher entwickelt habe, der in Zukunft sowohl KI-Projekte als auch Hardware verbessern könne (via techxplore.com).
Denn anstatt nur auf Silizium, den derzeit wichtigsten Baustein für Computer-Chips, setzt man an der Universität auf eine Kombination neuer Materialien und traditioneller Siliziumtechnologie. Dadurch soll die Leistung steigen und gleichzeitig die Chipgröße sinken.
Chips werden kleiner, leistungsstärker und stromsparender
Joshua Yang ist Professor für Elektrotechnik und Computertechnik an der USC. Er erklärt, dass der neu entwickelte Speicherchip die derzeit höchste Informationsdichte pro Gerät (11 Bit) unter allen bisher bekannten Speichertechnologien bieten würde. Und genau das könnt in Zukunft eine entscheidende Rolle dabei spielen, verschiedenen Geräten einen großen Performance-Boost zu verleihen.
Wie genau funktioniert das? Die vorgestellte Technik konzentriert sich darauf, die Positionen der Atome zur Darstellung von Informationen zu verwenden. In der derzeitigen Technik nutzt man die Anzahl der Elektronen zur Berechnung auf einem Chip.
Die Positionen der Atome bieten eine kompakte und stabile Möglichkeit, mehr Informationen auf analoge anstatt auf digitale Weise zu speichern. Außerdem können die Informationen dort verarbeitet werden, wo sie gespeichert sind, anstatt sie gleich zu einem dedizierten Prozessor zu schicken.
Durch die Umstellung der Chips auf Atome anstelle von Elektronen werden die Chips zudem kleiner. Yang fügt hinzu, dass mit dieser neuen Methode mehr Rechenkapazität auf kleinerem Raum zur Verfügung steht.
Obendrein könnte diese Methode „viel mehr Speicherebenen bieten, um die Informationsdichte zu erhöhen“.
Einen weiteren Punkt, den die Forscher nennen, ist die Einsparung von Energie. Denn wenn ihr Geräte wie Handys oder Smartwatches abschaltet, benötigt der Vorgang Strom, weil viele Dinge neu geladen werden müssen. Mit der neuen Technik sollen Daten langfristig gespeichert werden können und das soll beispielsweise beim nächsten Boot eures Handys Strom und Ressourcen sparen.
KI-Anwendung von der Cloud auf den Chip
Als weitere Anwendungsbeispiele werden vor allem KI-Projekte genannt. Denn diese werden fast ausschließlich in der Cloud berechnet. Mit dem neuen Chip könnt die Leistung jedoch so steigen, dass jede Person etwa ChatGPT im Chip seiner Smartwatch integrieren könnte, ohne noch den großen Server mit den hunderten Grafikkarten zu benötigen.
Derzeit werden leistungsstarke Grafikkarten immer größer und benötigen viel Platz im Gaming-System. Und das könnte sich am Ende ändern. Nvidias neue, kleine Grafikkarte ist für Gamer nur bedingt geeignet:
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.
Die Erwähnung von KI in diesem Zusammenhang wirkt etwas unseriös. Das ist immer gleiche Schema, um Investoren anzulocken.
Man bringt ein Thema ins Spiel, was gerade in der Presse kursiert und verbindet es mit dem eigenen Produkt.
Es geht hier ja erstmal nur um Speichermedien und so weit ich weiß wird z.B. mit 3D oder “5D” Optical Data Storage auch schon seit Jahrzehnten geforscht.
Für mich alles ziemlich nichtssagend.
Hat das irgendeine Aussagekraft? Meinen die mit Device das Äquivalent zu einem Transistor? Warum? Weil es die gleichen Abmessungen hat?
11bit sind 2048 Zustände, das wäre natürlich mehr als 2…
Und wie will man da genau etwas im Atom speichern? Vielleicht die Energieniveaus der Elektronen ändern? Innerhalb einer Armbanduhr? Sehr undurchsichtig das Ganze..
Bis auf Weiteres ist mir das soviel Wert wie der allmonatliche “Durchbruch” bei der Kernfusion.^^ Aber ich lass mich gern überraschen.
Ändern würde sich wohl eher nicht viel, weil alles sofort wieder von aufwendigerer Software aufgefressen wird. Siehe die Akkus und Chips von Handys.
Gewissermaßen hast du recht allerdings glaube ich in diesem Fall könnte das Verhältnis sehr viel extremer ausfallen.
Immerhin sind KI-Anwendungen wirklich wirklich wirklich rechenintensiv. Man beachte also vor allem diese Stelle im Artikel:
Wenn man die Leistung von einem großen Rechenzentrum auf die Größe eines Chips schrumpfen könnte, der in eine Smartwatch passt, dann ist das schon sehr extrem. Da haben wir viele Jahre puffer, bevor die Anwendungen so aufwändig werden um diesen Leistungsgewinn “verpuffen” zu lassen.