Eine wichtige Entdeckung könnte neue Grafikkarten und Prozessoren viel kleiner und richtig schnell machen

Eine wichtige Entdeckung könnte neue Grafikkarten und Prozessoren viel kleiner und richtig schnell machen

In den USA hat man einen Chip entwickelt, der leistungsstarke Geräte deutlich schneller und kleiner machen könnte. Dazu zählen etwa Grafikkarten, Prozessoren und auch KI-gestützte Projekte.

Unser Titelbild (Grafikchip einer AMD-Grafikkarte) ist ein Symbolbild.

An der University of Southern California (USC) haben Forscher erklärt, dass man einen neuen Chip und Speicher entwickelt habe, der in Zukunft sowohl KI-Projekte als auch Hardware verbessern könne (via techxplore.com).

Denn anstatt nur auf Silizium, den derzeit wichtigsten Baustein für Computer-Chips, setzt man an der Universität auf eine Kombination neuer Materialien und traditioneller Siliziumtechnologie. Dadurch soll die Leistung steigen und gleichzeitig die Chipgröße sinken.

Chips werden kleiner, leistungsstärker und stromsparender

Joshua Yang ist Professor für Elektrotechnik und Computertechnik an der USC. Er erklärt, dass der neu entwickelte Speicherchip die derzeit höchste Informationsdichte pro Gerät (11 Bit) unter allen bisher bekannten Speichertechnologien bieten würde. Und genau das könnt in Zukunft eine entscheidende Rolle dabei spielen, verschiedenen Geräten einen großen Performance-Boost zu verleihen.

Wie genau funktioniert das? Die vorgestellte Technik konzentriert sich darauf, die Positionen der Atome zur Darstellung von Informationen zu verwenden. In der derzeitigen Technik nutzt man die Anzahl der Elektronen zur Berechnung auf einem Chip.

Die Positionen der Atome bieten eine kompakte und stabile Möglichkeit, mehr Informationen auf analoge anstatt auf digitale Weise zu speichern. Außerdem können die Informationen dort verarbeitet werden, wo sie gespeichert sind, anstatt sie gleich zu einem dedizierten Prozessor zu schicken.

Durch die Umstellung der Chips auf Atome anstelle von Elektronen werden die Chips zudem kleiner. Yang fügt hinzu, dass mit dieser neuen Methode mehr Rechenkapazität auf kleinerem Raum zur Verfügung steht.

Obendrein könnte diese Methode „viel mehr Speicherebenen bieten, um die Informationsdichte zu erhöhen“.

Einen weiteren Punkt, den die Forscher nennen, ist die Einsparung von Energie. Denn wenn ihr Geräte wie Handys oder Smartwatches abschaltet, benötigt der Vorgang Strom, weil viele Dinge neu geladen werden müssen. Mit der neuen Technik sollen Daten langfristig gespeichert werden können und das soll beispielsweise beim nächsten Boot eures Handys Strom und Ressourcen sparen.

KI-Anwendung von der Cloud auf den Chip

Als weitere Anwendungsbeispiele werden vor allem KI-Projekte genannt. Denn diese werden fast ausschließlich in der Cloud berechnet. Mit dem neuen Chip könnt die Leistung jedoch so steigen, dass jede Person etwa ChatGPT im Chip seiner Smartwatch integrieren könnte, ohne noch den großen Server mit den hunderten Grafikkarten zu benötigen.

Derzeit werden leistungsstarke Grafikkarten immer größer und benötigen viel Platz im Gaming-System. Und das könnte sich am Ende ändern. Nvidias neue, kleine Grafikkarte ist für Gamer nur bedingt geeignet:

Nach Monaten stellt Nvidia eine neue, winzige Grafikkarte vor – Doch die wollt ihr vermutlich nicht kaufen

Quelle(n): techxplore.com
Deine Meinung? Diskutiere mit uns!
8
Gefällt mir!
Kommentar-Regeln von MeinMMO
Bitte lies unsere Kommentar-Regeln, bevor Du einen Kommentar verfasst.
Abonnieren
Benachrichtige mich bei
4 Kommentare
Neueste
Älteste Meisten Abstimmungen
Inline Feedback
Alle Kommentare anzeigen
Sphirox

Die Erwähnung von KI in diesem Zusammenhang wirkt etwas unseriös. Das ist immer gleiche Schema, um Investoren anzulocken.
Man bringt ein Thema ins Spiel, was gerade in der Presse kursiert und verbindet es mit dem eigenen Produkt.
Es geht hier ja erstmal nur um Speichermedien und so weit ich weiß wird z.B. mit 3D oder “5D” Optical Data Storage auch schon seit Jahrzehnten geforscht.

mein-mmo-2F

Für mich alles ziemlich nichtssagend.

this new memory chip has the highest information density per device (11 bits)

Hat das irgendeine Aussagekraft? Meinen die mit Device das Äquivalent zu einem Transistor? Warum? Weil es die gleichen Abmessungen hat?
11bit sind 2048 Zustände, das wäre natürlich mehr als 2…

Und wie will man da genau etwas im Atom speichern? Vielleicht die Energieniveaus der Elektronen ändern? Innerhalb einer Armbanduhr? Sehr undurchsichtig das Ganze..

Bis auf Weiteres ist mir das soviel Wert wie der allmonatliche “Durchbruch” bei der Kernfusion.^^ Aber ich lass mich gern überraschen.

Yoma

Ändern würde sich wohl eher nicht viel, weil alles sofort wieder von aufwendigerer Software aufgefressen wird. Siehe die Akkus und Chips von Handys.

Blutmarionette

Gewissermaßen hast du recht allerdings glaube ich in diesem Fall könnte das Verhältnis sehr viel extremer ausfallen.

Immerhin sind KI-Anwendungen wirklich wirklich wirklich rechenintensiv. Man beachte also vor allem diese Stelle im Artikel:

Mit dem neuen Chip könnt die Leistung jedoch so steigen, dass jede Person etwa ChatGPT im Chip seiner Smartwatch integrieren könnte, ohne noch den großen Server mit den hunderten Grafikkarten zu benötigen.

Wenn man die Leistung von einem großen Rechenzentrum auf die Größe eines Chips schrumpfen könnte, der in eine Smartwatch passt, dann ist das schon sehr extrem. Da haben wir viele Jahre puffer, bevor die Anwendungen so aufwändig werden um diesen Leistungsgewinn “verpuffen” zu lassen.

Passwort vergessen

Bitte gib Deinen Benutzernamen oder Deine Email-Adresse ein. Du erhälst einen Link, um ein neues Passwort per Email zu erstellen.

4
0
Sag uns Deine Meinungx