> > > > Googles Quantencomputer kommt inzwischen auf 1.000 QuBit

Googles Quantencomputer kommt inzwischen auf 1.000 QuBit

DruckenE-Mail
Erstellt am: von

D WaveAlle aktuellen IT-Systeme führen ihre Berechnungen aktuell auf Prozessoren aus, die im Grunde nur zwei Zustände kennen – 0 und 1. In Binärzahlen ausgedrückt werden sämtliche Berechnungen und Speichervorgänge ausgeführt. Doch trotz des Moorsches Gesetzes wird der Verdopplung der Integrationsdichte der Transistoren alle 18 Monate irgendwann eine Grenze auferlegt sein, auch wenn diese durch Intel und andere Hersteller immer wieder nach hinten geschoben wird.

Quantencomputer sollen in absehbarer Zukunft eine Alternative sein. Viele große Unternehmen und Forschungsinstitute arbeiten seit Jahren an der praktischen Umsetzung dieses Projektes. Nachdem immer wieder Zweifel aufkamen, ob ein Quantencomputer überhaupt funktionieren könne, scheint zumindest dieser Punkt seit einigen Jahren unstrittig. Google, die NASA und die Universities Space Research Association (USRA) forschen seit Jahren an einem Projekt namens D-Wave. Dabei handelt es sich um einen Quantancomputer, der bisher mit 512 QuBits arbeitete.

D-Wave Quantencomputer
Bildergalerie: D-Wave Quantencomputer

Bevor wir aber zu den QuBits kommen, noch einmal ein Blick auf unser binäres System, auf dem die aktuelle Technik arbeitet. Dort wird mit Transistoren gearbeitet, die offen oder geschlossen sein können. Ein offener Transistor repräsentiert eine 0 und ein geschlossener Transistor eine 1. Ein Quantencomputer arbeitet aber nach dem Prinzip der Quantenmechanik und darin anhand der Superposition. Eine gleiche physikalische Größe kann sich dabei überlagern, ohne sich dabei gegenseitig zu behindern. Ein QuBit kann also gleichzeitig eine 1 und eine 0 repräsentieren. Die genauen physikalischen Vorgänge dahinter beschreibt die Quantenmechanik. Für die Beschreibung des Quantencomputers bliebt wichtig, dass ein Bit oder QuBit eben nicht nur 0 oder 1 sein kann, sondern 0 und 1 gleichzeitig. Binär ausgedrückt werden über ein QuBit 00, 01, 10 und 11 repräsentiert. Mit einer Steigerung der QuBits steigt somit auch die Rechenleistung des Systems exponentiell an.

D-Wave Quantencomputer
Bildergalerie: D-Wave Quantencomputer

Soweit mag dies noch alles einleuchtend sein und bringt die Frage auf, warum Computer nicht heute schon so arbeiten. Doch der Aufbau eines Quantencomputer und der einzelnen QuBits gestaltet sich sehr schwierig. Sobald die Informationen aus einem QuBit ausgelesen werden, werden diese dekohärent – sind danach also verändert und müssten für eine Speicherung erneut geschrieben werden. Aber dies ist nur eine der Hürden, die noch genommen werden müssen.

D-Wave in seiner ersten Version wurde 2007 gebaut und verwendete 16 QuBits. Inzwischen war man bei 512 QuBits angelangt, wobei jeder QuBit einen kleinen superleitenden Schaltkreis darstellt. Dieses System wird dazu extrem niedrigen Temperaturen ausgesetzt und ermöglicht so einen Stromfluss in beide Richtungen. Über Algorithmen und das erkennen bestimmter Muster bei Temperaturerhöhungen wird die Berechnung ausgeführt. Physikalisch sind auch hier viele Prozesse gleichzeitig im Gange, die sich nur schwer erklären lassen. D-Wave ist vermutlich auch noch kein echter Quantencomputer, es werden noch keine echten Berechnungen ausgeführt, sondern er wird dazu verwendet zu verstehen, wie dies früher oder später funktionieren könnte.

D-Wave Quantencomputer
Bildergalerie: D-Wave Quantencomputer

Der Ausbau auf nun mehr als 1.000 QuBits soll dazu der nächste Schritt sein. Dabei muss man sich zunächst auch einmal vor Augen führen, welche technischen Voraussetzungen geschaffen werden müssen, damit D-Wave überhaupt funktioniert. Alleine das Kühlsystem verbraucht mehr als 15.000 W, während der Chip selbst auf nur wenige Mikrowatt kommt. Der Ausbau von 512 auf mehr als 1.000 QuBits soll aber gelungen sein, ohne dass dabei der Verbrauch signifikant gestiegen ist. Dies soll ein entscheidender Schritt bei der Entwicklung der Quantencomputer sein, auch wenn die Auswirkungen aktuell minimal klingen.

Bis die klassischen Computer an ihre Grenzen stoßen, werden noch einige Jahre wenn nicht Jahrzehnte vergehen. Bis dahin werden sich die Quantencomputer sicherlich auch auf ein praktikables Niveau entwickelt haben – auch wenn diese Schwelle derzeit auf beiden Seiten noch nicht abzusehen ist.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (6)

#1
Registriert seit: 13.02.2006
Koblenz
Flottillenadmiral
Beiträge: 5519
Moores Law besagt NICHT das die Rechenleistung, sondern die Zahl der Transistoren alle 18Monate verdoppelt wird. Moor sprach damals von "Komplexität", die teilweise auch als Integrationsdichte, also "Zahl der Transistoren pro Fläche" interpretiert wird.

https://de.wikipedia.org/wiki/Mooresches_Gesetz

Ansonsten:
Schön das es vorwärts geht.
#2
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9064
Interessant das ganze, wobei allerdings immernoch einige vermuten dass solch ein Quantencomputer immernoh von herkömmlichen Grenzen der binären Schaltelektronik abhängig wäre.
Auf jeden Fall so oder so zukunftsweisend.

Ich hoffe nur dass bei Erfolg nicht wie vermutet, das komplette RSA Verfahren nutzlos wird (darauf basiert jedes asynchrone Verschlüsselungssystem zur Zeit, also SSL, PGP usw). Dabei hab ich sicher nicht die NSA im Sinn, aber irgendwann wären solche Rechner ja auch für Private Leute verfügbar.
#3
customavatars/avatar121653_1.gif
Registriert seit: 19.10.2009
Mönchengladbach
Flottillenadmiral
Beiträge: 4553
Ist dennoch fast das gleiche wie Doppelte Leistung :fresse:

Ich find es Interessant mit zu erleben wie eine Alte Technologie langsam ausläuft und der Nachfolger entwickelt wird.
#4
customavatars/avatar87890_1.gif
Registriert seit: 24.03.2008
Heidelberg
Moderator
A glorious mess!
Beiträge: 4775
Hauptproblem ist weiterhin, dass es im moment nur wenige Anwendungen dafür gibt.
Es bleibt immer noch bei den drei Hauptanwendungen:
-Faktorisieren
-Suchalgorithmen
-Quanten-Simulation (wo hier wahrscheinlich die sinnvollste Anwendung möglich ist)

Nichts desto Troz, schön das die entwicklung weiter geht. Quantennetzwerke sind naütlich auch ein riesen Thema bei der Sicherheit.
#5
Registriert seit: 12.01.2012

Oberstabsgefreiter
Beiträge: 385
Zitat Woozy;23904560
Ist dennoch fast das gleiche wie Doppelte Leistung :fresse:

naja wenn die anzahl durch 10x soviel on chip cache ansteigt oder andere Faktoren ( Festplatten / Bussysteme / längere Queues bzw. Pipelines ) limitiert wird bzw. diese gleich bleiben kommt man deshalb nicht auf die doppelte Leistung.

auf der anderen Seite kannst du durch besseres Techniken, erweiterte Befehltssätze (die dann auch genutzt werden :P), oder ein anderes Design bei der selben Transistoren Anzahl mehr Leistung rausholen, oder indem du ihm einfach mehr Saft gibst ;) -> nicht mehr am "sweet spot".
#6
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 9064
Zitat Brainorg;23904974
Hauptproblem ist weiterhin, dass es im moment nur wenige Anwendungen dafür gibt.
Es bleibt immer noch bei den drei Hauptanwendungen:
-Faktorisieren
-Suchalgorithmen
-Quanten-Simulation (wo hier wahrscheinlich die sinnvollste Anwendung möglich ist)

Lässt sich theoretisch nicht jeder Algorithmus für sowas umbauen?
Ein echter "Quanten Computer" wäre auch Turing vollständig. Nur das Projekt von D Wave ist es (noch) nicht. Hier eine recht interessante Diskusion: physics - Is D-Wave Systems's "D-Wave One" a quantum computer? - Skeptics Stack Exchange
Raytracing wäre ein interessanter Ansatz im Consumer Bereich irgendwann, wenn sich das umsetzen lässt.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Test: Intel Xeon E3-1230 v5 (Skylake)

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Vor ein paar Tagen stellte Intel die Xeon-Prozessoren mit Sockel 1151 aus der Skylake-Familie vor. Diese sind hauptsächlich für den Workstation- und Entry-Level-Server-Bereich gedacht, die Vorgänger-CPUs fanden sich aber auch in vielen PCs unserer Leser wieder. Der Clou der Prozessoren ist das... [mehr]

Skylake richtig einstellen: Was man machen sollte, was man lassen sollte

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/XEON-E3-1230V5/LOGO_XEON

Intels Skylake-Chips wurden vor nunmehr vier Monate vorgestellt und sind leider immer noch nur spärlich verfügbar. Nach unserem Test der Core i7-6700K- und Core i5-6600K-Prozessoren zum Launch haben wir uns bereits diverse Z170-Boards angesehen, die Mobilversionen getestet und sind aufs... [mehr]

Core i7-6950X im Test: Dicker Motor, alte Karosse

Logo von IMAGES/STORIES/GALLERIES/REVIEWS/6950X/6950X-LOGO

Intels letzter CPU-Launch ist schon eine Weile her - Ende Oktober 2015 testeten wir den Xeon E5-1230v5 auf Skylake-Basis, seitdem war zumindest im Desktop-Bereich nichts neues mehr vom Marktführer zu hören. Am heutigen Tag aktualisiert Intel endlich die High-End-Plattform und bringt mit dem Core... [mehr]

Intel 'Kaby Lake': Die siebte Core-Generation im Detail vorgestellt

Logo von IMAGES/STORIES/LOGOS-2016/INTEL_7TH_CORE_GEN

Im Zuge der kommenden "Kaby Lake"-Plattform, deren breite Verfügbarkeit für das erste Quartal 2017 erwartet wird, nutzt Intel heute die Gelegenheit, die siebte Core-Generation offiziell im Detail vorzustellen und bereits ein paar Prozessoren auf den Markt zu bringen. Wir konnten uns bereits vor... [mehr]

So schnell ist Kaby Lake: Erste eigene Benchmarks zum i7-7500U

Logo von IMAGES/STORIES/REVIEW_TEASER/INTEL_KABY_LAKE

Offiziell vorgestellt hat Intel die 7. Generation der Core-Prozessoren bereits Ende August, doch erst jetzt ist Kaby Lake in Form des ersten Notebooks verfüg- und damit testbar. Dabei handelt es sich um das Medion Akoya S3409 MD60226, in dem ein Core i7-7500U verbaut wird. Während das Notebook... [mehr]

Delid Die Mate im Test

Logo von IMAGES/STORIES/IMAGES/STORIES/GALLERIES/REVIEWS/2016/DDM/DDM

Seit der Ivy-Bridge-Generation verlötet Intel Die und Heatspreader nicht mehr miteinander, was leider in deutlich schlechteren Kern-Temperaturen resultiert. Abhilfe dagegen schafft nur das Delidding (das sogenannte „Köpfen“) der CPU sowie der anschließende Austausch der Wärmeleitpaste durch... [mehr]