> > > > Googles Quantencomputer kommt inzwischen auf 1.000 QuBit

Googles Quantencomputer kommt inzwischen auf 1.000 QuBit

Veröffentlicht am: von

D WaveAlle aktuellen IT-Systeme führen ihre Berechnungen aktuell auf Prozessoren aus, die im Grunde nur zwei Zustände kennen – 0 und 1. In Binärzahlen ausgedrückt werden sämtliche Berechnungen und Speichervorgänge ausgeführt. Doch trotz des Moorsches Gesetzes wird der Verdopplung der Integrationsdichte der Transistoren alle 18 Monate irgendwann eine Grenze auferlegt sein, auch wenn diese durch Intel und andere Hersteller immer wieder nach hinten geschoben wird.

Quantencomputer sollen in absehbarer Zukunft eine Alternative sein. Viele große Unternehmen und Forschungsinstitute arbeiten seit Jahren an der praktischen Umsetzung dieses Projektes. Nachdem immer wieder Zweifel aufkamen, ob ein Quantencomputer überhaupt funktionieren könne, scheint zumindest dieser Punkt seit einigen Jahren unstrittig. Google, die NASA und die Universities Space Research Association (USRA) forschen seit Jahren an einem Projekt namens D-Wave. Dabei handelt es sich um einen Quantancomputer, der bisher mit 512 QuBits arbeitete.

D-Wave Quantencomputer
Bildergalerie: D-Wave Quantencomputer

Bevor wir aber zu den QuBits kommen, noch einmal ein Blick auf unser binäres System, auf dem die aktuelle Technik arbeitet. Dort wird mit Transistoren gearbeitet, die offen oder geschlossen sein können. Ein offener Transistor repräsentiert eine 0 und ein geschlossener Transistor eine 1. Ein Quantencomputer arbeitet aber nach dem Prinzip der Quantenmechanik und darin anhand der Superposition. Eine gleiche physikalische Größe kann sich dabei überlagern, ohne sich dabei gegenseitig zu behindern. Ein QuBit kann also gleichzeitig eine 1 und eine 0 repräsentieren. Die genauen physikalischen Vorgänge dahinter beschreibt die Quantenmechanik. Für die Beschreibung des Quantencomputers bliebt wichtig, dass ein Bit oder QuBit eben nicht nur 0 oder 1 sein kann, sondern 0 und 1 gleichzeitig. Binär ausgedrückt werden über ein QuBit 00, 01, 10 und 11 repräsentiert. Mit einer Steigerung der QuBits steigt somit auch die Rechenleistung des Systems exponentiell an.

D-Wave Quantencomputer
Bildergalerie: D-Wave Quantencomputer

Soweit mag dies noch alles einleuchtend sein und bringt die Frage auf, warum Computer nicht heute schon so arbeiten. Doch der Aufbau eines Quantencomputer und der einzelnen QuBits gestaltet sich sehr schwierig. Sobald die Informationen aus einem QuBit ausgelesen werden, werden diese dekohärent – sind danach also verändert und müssten für eine Speicherung erneut geschrieben werden. Aber dies ist nur eine der Hürden, die noch genommen werden müssen.

D-Wave in seiner ersten Version wurde 2007 gebaut und verwendete 16 QuBits. Inzwischen war man bei 512 QuBits angelangt, wobei jeder QuBit einen kleinen superleitenden Schaltkreis darstellt. Dieses System wird dazu extrem niedrigen Temperaturen ausgesetzt und ermöglicht so einen Stromfluss in beide Richtungen. Über Algorithmen und das erkennen bestimmter Muster bei Temperaturerhöhungen wird die Berechnung ausgeführt. Physikalisch sind auch hier viele Prozesse gleichzeitig im Gange, die sich nur schwer erklären lassen. D-Wave ist vermutlich auch noch kein echter Quantencomputer, es werden noch keine echten Berechnungen ausgeführt, sondern er wird dazu verwendet zu verstehen, wie dies früher oder später funktionieren könnte.

D-Wave Quantencomputer
Bildergalerie: D-Wave Quantencomputer

Der Ausbau auf nun mehr als 1.000 QuBits soll dazu der nächste Schritt sein. Dabei muss man sich zunächst auch einmal vor Augen führen, welche technischen Voraussetzungen geschaffen werden müssen, damit D-Wave überhaupt funktioniert. Alleine das Kühlsystem verbraucht mehr als 15.000 W, während der Chip selbst auf nur wenige Mikrowatt kommt. Der Ausbau von 512 auf mehr als 1.000 QuBits soll aber gelungen sein, ohne dass dabei der Verbrauch signifikant gestiegen ist. Dies soll ein entscheidender Schritt bei der Entwicklung der Quantencomputer sein, auch wenn die Auswirkungen aktuell minimal klingen.

Bis die klassischen Computer an ihre Grenzen stoßen, werden noch einige Jahre wenn nicht Jahrzehnte vergehen. Bis dahin werden sich die Quantencomputer sicherlich auch auf ein praktikables Niveau entwickelt haben – auch wenn diese Schwelle derzeit auf beiden Seiten noch nicht abzusehen ist.

Social Links

Ihre Bewertung

Ø Bewertungen: 0

Tags

Kommentare (8)

#1
Registriert seit: 13.02.2006
Koblenz
Admiral
Beiträge: 10233
Moores Law besagt NICHT das die Rechenleistung, sondern die Zahl der Transistoren alle 18Monate verdoppelt wird. Moor sprach damals von "Komplexität", die teilweise auch als Integrationsdichte, also "Zahl der Transistoren pro Fläche" interpretiert wird.

https://de.wikipedia.org/wiki/Mooresches_Gesetz

Ansonsten:
Schön das es vorwärts geht.
#2
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12438
Interessant das ganze, wobei allerdings immernoch einige vermuten dass solch ein Quantencomputer immernoh von herkömmlichen Grenzen der binären Schaltelektronik abhängig wäre.
Auf jeden Fall so oder so zukunftsweisend.

Ich hoffe nur dass bei Erfolg nicht wie vermutet, das komplette RSA Verfahren nutzlos wird (darauf basiert jedes asynchrone Verschlüsselungssystem zur Zeit, also SSL, PGP usw). Dabei hab ich sicher nicht die NSA im Sinn, aber irgendwann wären solche Rechner ja auch für Private Leute verfügbar.
#3
customavatars/avatar121653_1.gif
Registriert seit: 19.10.2009
127.0.0.1
Lesertest-Fluraufsicht
Beiträge: 6276
Ist dennoch fast das gleiche wie Doppelte Leistung :fresse:

Ich find es Interessant mit zu erleben wie eine Alte Technologie langsam ausläuft und der Nachfolger entwickelt wird.
#4
customavatars/avatar87890_1.gif
Registriert seit: 24.03.2008
Heidelberg
A glorious mess!
Beiträge: 4845
Hauptproblem ist weiterhin, dass es im moment nur wenige Anwendungen dafür gibt.
Es bleibt immer noch bei den drei Hauptanwendungen:
-Faktorisieren
-Suchalgorithmen
-Quanten-Simulation (wo hier wahrscheinlich die sinnvollste Anwendung möglich ist)

Nichts desto Troz, schön das die entwicklung weiter geht. Quantennetzwerke sind naütlich auch ein riesen Thema bei der Sicherheit.
#5
Registriert seit: 12.01.2012
Bayern
Leutnant zur See
Beiträge: 1034
Zitat Woozy;23904560
Ist dennoch fast das gleiche wie Doppelte Leistung :fresse:

naja wenn die anzahl durch 10x soviel on chip cache ansteigt oder andere Faktoren ( Festplatten / Bussysteme / längere Queues bzw. Pipelines ) limitiert wird bzw. diese gleich bleiben kommt man deshalb nicht auf die doppelte Leistung.

auf der anderen Seite kannst du durch besseres Techniken, erweiterte Befehltssätze (die dann auch genutzt werden :P), oder ein anderes Design bei der selben Transistoren Anzahl mehr Leistung rausholen, oder indem du ihm einfach mehr Saft gibst ;) -> nicht mehr am "sweet spot".
#6
customavatars/avatar202850_1.gif
Registriert seit: 06.02.2014
Im sonnigen Süden
Admiral
Beiträge: 12438
Zitat Brainorg;23904974
Hauptproblem ist weiterhin, dass es im moment nur wenige Anwendungen dafür gibt.
Es bleibt immer noch bei den drei Hauptanwendungen:
-Faktorisieren
-Suchalgorithmen
-Quanten-Simulation (wo hier wahrscheinlich die sinnvollste Anwendung möglich ist)

Lässt sich theoretisch nicht jeder Algorithmus für sowas umbauen?
Ein echter "Quanten Computer" wäre auch Turing vollständig. Nur das Projekt von D Wave ist es (noch) nicht. Hier eine recht interessante Diskusion: physics - Is D-Wave Systems's "D-Wave One" a quantum computer? - Skeptics Stack Exchange
Raytracing wäre ein interessanter Ansatz im Consumer Bereich irgendwann, wenn sich das umsetzen lässt.
#7
Registriert seit: 03.08.2006

Banned
Beiträge: 1674
Kann sein, daß sich garkein Algo dafür umbauen lässt ;) Jedenfalls nicht praktisch sinnvoll
Fefes Blog
#8
Registriert seit: 01.08.2017
ganz im Westen
Leutnant zur See
Beiträge: 1094
Zitat DragonTear;23905334
Lässt sich theoretisch nicht jeder Algorithmus für sowas umbauen?
Ein echter "Quanten Computer" wäre auch Turing vollständig. Nur das Projekt von D Wave ist es (noch) nicht. Hier eine recht interessante Diskusion: physics - Is D-Wave Systems's "D-Wave One" a quantum computer? - Skeptics Stack Exchange
Raytracing wäre ein interessanter Ansatz im Consumer Bereich irgendwann, wenn sich das umsetzen lässt.


Quantencomputer sollen viele Berechnungen im moment noch nicht schneller durchführen können, als normale Computer. Es sind eher die Spezialanwendungend, wie Brainorg schon gesagt hat, wo es die vorteile gibt. Materialforschung/Pharmazie gehören auch dazu.
Das mit dem Raytracing finde ich schon ganz interessant, ABER das Feld wird im moment stark mit neuronalen Netzwerken beschleunigt...befindet sich also schon wesentlich näher am Technologiesprung.
Um Kommentare schreiben zu können, musst Du eingeloggt sein!

Das könnte Sie auch interessieren:

Coffee Lake: Overclocking-Check

Logo von IMAGES/STORIES/LOGOS-2016/KABYLAKE

Nach dem ausführlichen Overclocking-Check für Skylake-Prozessoren sowie dem Overclocking-Check für Kaby Lake-Prozessoren ist es nach Veröffentlichung der neuen Generation mit Codenamen Coffee-Lake erneut Zeit für einen Overclocking-Check. Wir werfen einen Blick auf die Übertaktbarkeit... [mehr]

Intel kämpft mit schwerer Sicherheitslücke (Update: Intel veröffentlicht...

Logo von IMAGES/STORIES/2017/INTEL

Vor, während und zwischen den Feiertagen herrschte ein wildes Treiben in der Linux-Community. Zunächst war nicht ganz klar, was hier genau vor sich geht, inzwischen aber scheinen die Auswirkungen deutlich zu werden: Intel hat nach einer Lücke in der Management Unit eines jeden... [mehr]

Gelungener Feinschliff: AMD Ryzen 7 2700X und Ryzen 5 2600X im Test

Logo von IMAGES/STORIES/2017/AMD_RYZEN_7_2700X

Rund ein Jahr nach dem Start der Ryzen-Prozessoren legt AMD nach und bringt die zweite Generation in den Handel. Die soll schneller und effizienter arbeiten und den Druck auf Intel weiter erhöhen. Allerdings lautet die Devise Evolution statt Revolution, statt gravierender Änderungen gibt es vor... [mehr]

AMD Ryzen 5 2400G und Ryzen 3 2200G im Test: Die Lücke ist gestopft

Logo von IMAGES/STORIES/2017/AMD_RYZEN_5_2400G

Während Notebook-Käufer sich bereits seit einigen Wochen von den Vorzügen der Zen-basierten Raven-Ridge-APUs überzeugen können, musste sich das Desktop-Lager noch gedulden. Nun aber heißt es auch hier: Intel erhält neue Konkurrenz. Und die könnte einen noch größeren Einfluss als die... [mehr]

AMD Ryzen Threadripper 2990WX und 2950X im Test: Mit Vollgas an Intel vorbei

Logo von IMAGES/STORIES/2017/AMD_THREADRIPPER_2950X

Pünktlich zum ersten Geburtstag startet AMD den Ryzen-Threadripper-Generationswechsel. Und wie schon im Frühjahr beim Sprung von Ryzen 1 zu Ryzen 2 vertraut man auf zwei Dinge: mehr Kerne und einen geringeren Preis. Beide sollen dabei helfen, dem Dauerrivalen Intel im... [mehr]

AMD Ryzen 5 2400G und Ryzen 3 2200G: Raven Ridge kann auch spielen

Logo von IMAGES/STORIES/2017/AMD_RYZEN_TEASER_100

Eine gute Alternative, wenn es um einen Alltags- oder Office-Rechner geht: So lautete vor wenigen Tagen das Fazit zu AMDs neuen APUs. Doch wie sich Ryzen 3 2200G und Ryzen 5 2400G schlagen, wenn die Zeit zwischen Word und Chrome mit dem ein oder anderen Spiel überbrückt werden soll, konnte... [mehr]