27.01.2017 (Doc Storage)
4 von 5, (1 Bewertung)

Was ist Quantum-Computing?

Antwort Doc Storage:

Die Entwickler der Quantenrechner versuchen, sich durch Entfernung von den Gesetzen der Elektrotechnik, also der klassischen Physik und durch Hinwendung zu den Gesetzen der Quantenmechanik wesentlich zu beschleunigen und mit flexibleren Zuständen arbeiten zu können. Wichtig sind in diesem Zusammenhang die Quantenverschränkung und das Prinzip der Superposition. Die Forschung verspricht sich durch die Nutzung dieser neuartigen Möglichkeiten vor allem wesentlich schnellere Verarbeitung großer Datenmengen und langer Zahlenfolgen, wie sie aktuell beispielsweise auf dem Gebiet von Big Data anfallen. Quantenrechner sind momentan noch größtenteils theoretische Konstrukte, deren kleinste Komponenten noch in Laboren auf ihre Machbarkeit hin untersucht werden.

Im Gegensatz zur bisherigen elektrotechnisch basierten Informatik, bei der die Bits einer Information durch Spannungspotentiale oberhalb oder eben unterhalb eines definierten Niveaus dargestellt werden, nutzen Implementierungen in Quantenrechnern verschiedene quantenmechanische Zustände für denselben Zweck. Es kann sich hier um Drehungen von Elektronen eben in die eine oder andere Richtung, das Energieniveau von Molekülen oder Atomen oder die Richtung des Stromflusses in bestimmten Materialien, zum Beispiel in Supraleitern. Der große Unterschied gegenüber der klassischen Informatik besteht nun darin, dass sich in Quantenrechnern diese Zustände auch überlagern können, dass heißt wie beispielsweise in der Optik mehrere Zustände zu einem neuen aufaddieren können.

Wie in der klassischen Informatik können solche Qubits aus unterschiedlichen Zuständen in Registern zusammengefasst werden. Wobei beispielsweise ein Register aus zwei Qubits eine beliebige sogenannte Superposition der Basiszustände beider Qubits darstellen kann, daneben sind auch andere Verknüpfungen wie Summen oder Differenzen zulässig. Über weitere Zustände eines Registers, sogenannte Verschränkungen, lassen sich einige Probleme wesentlich schneller berechnen als mit klassischer Informatik, zumindest erhofft man sich dies für die dann fertigen Quantencomputer.

Bieten diese Möglichkeiten in der theoretischen Betrachtung ihrer unterschiedlichen Realisierungsweisen die Hoffnung auf schnelle Abarbeitung bisher sehr zeitaufwändiger Probleme, so ist diese Realisierung doch momentan noch durch die ganz realen physikalischen Beschränkungen belegt. Beispielsweise neigen die für Qubits verwendeten Atome dazu, sich nach einer bestimmten Zeit selbständig in einen möglichst energiearmen Zustand zu begeben.

David DiVincenzo von der RWTH Aachen hat fünf »DiVincenzo-Kriterien« aufgestellt, die ein Quantenrechner erfüllen muss:

  1. Der Rechner besteht aus einem skalierbaren System gut charakterisierter Qubits.
  2. Alle Qubits können in einen fest definierten Ausgangszustand gebracht werden.
  3. Ein universeller Satz elementarer Quantengatter kann ausgeführt werden.
  4. Einzelne Qubits (mindestens eins) können ausgelesen werden.
  5. Die relevante Dekohärenzzeit ist viel länger als die Zeit, die benötigt wird, ein elementares Quantengatter zu realisieren, so dass mit geeignetem fehlerkorrigierendem Code die Fehlerrate pro Gatter unter der Schwelle für fehlertolerantes Quantenrechnen liegt.

Ein Problem stellt momentan hierbei schon der erste Punkt dar. Er verlangt, dass die Anzahl der Qubits beliebig hoch sein muss, während alle anderen Eigenschaften noch erfüllt werden. Es konnte bis heute noch kein entsprechendes, darüber hinaus auch noch fehlertolerantes Gatter realisiert werden. Momentan liegt die Schwelle in der Forschung hier bei einigen Qubits bei akzeptablen Temperaturen. Angeblich funktionierende Systeme mit wenig mehr als 1.000 Qubits wurde von der NASA und Google bereits publiziert. Allerdings laufen diese Systeme nah am absoluten Nullpunkt und sind daher für den Masseneinsatz kaum geeignet.

Gruß
Doc Storage

Weiterführende Links

Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de

Mehr von Doc. tec. Storage 16.10.2020 Welchen Stellenwert haben DMTF Redfish und SNIA Swordfish?

Die neuen Versionen von DMTF Redfish und SNIA Swordfish enthalten nun NVMe- und NVMe-oF-Spezifikations-Verbesserungen. Da stellt sich die Frage nach dem Stellenwert der beiden Spezifikationen. Doc Storage sieht hier aber großes Potenzial.


09.10.2020 Was ist ein Ingress- und Egress-Datenverkehr?

Der Datenverkehr unterliegt in Netzwerken und der Cloud einem definierten Regelwerk. Dabei fallen mitunter auch die Begriffe Ingress und Egress. Doc Storage erklärt die Bedeutung.


28.08.2020 Kommt mit QLC-Flash das Ende hybrider Speichersysteme?

Die ersten Arrays mit QLC-Flash-Technologie kommen auf den Markt. Einige Hersteller prophezeien durchaus vollmundig das Ende von hybriden Speichersystemen, also solchen mit Flash und Festplatten. Ist dieses Ende tatsächlich absehbar oder wie sieht die Zukunft in diesem Bereich aus?


21.08.2020 Mehr in die Zukunft agieren, weniger jammern

Jammern ist gerade irgendwie in Mode. Der Virus, der Markt, die Geschäfte – natürlich ist es aktuell schwierig. Für die Kunden gestaltet sich vieles aber positiv, braucht es doch weniger Manpower, um Produkte und Lösungen in Betrieb zu nehmen. Das macht sich im Geldbeutel bemerkbar. IT-Anbieter müssen künftig nicht nur in Studien in die Zukunft schauen, sondern sich generell schneller anpassen und auf neue Gegebenheiten reagieren.


07.08.2020 Marktstudien: Ergebnisse meist zu offensichtlich

Marktstudien belegen in der Regel bekannte Trends, mehr nicht. Wirkliche Erkenntnisse oder Neues fördern sie, laut Doc Storage, nicht zu Tage. Dies belegt er anhand zweier aktueller Beispiele: Die Analysekriterien sind schwammig, die Argumente eher fadenscheinig und die Resultate offensichtlich. Zudem sei fragwürdig, in wie weit Sponsoren die Ergebnisse beeinflussen.


31.07.2020 Business-Continuity: Zu viele Firmen unvorbereitet auf K-Fall

Jüngste Studien sprechen von einem steigenden Bewusstsein in Sachen Business-Continuity. Doc Storage kann den Zahlen allerdings wenig positives abgewinnen, denn noch nicht mal zwei Drittel aller Unternehmen besitzen einen Business-Continuity-Plan und fast die Hälfte verfügt über keine fest definierte Rückkehrmaßnahmen. Aus seiner Sicht ist es erschreckend, wie viele Firmen und IT-Abteilungen nicht auf einen Katastrophenfall vorbereitet sind.

powered by
N-TEC GmbH FAST LTA
Cloudian Tech Data IBM Storage Hub
Folgen Sie speicherguide.de auch auf unseren Social-Media-Kanälen
Folgen Sie und auf Facebook Folgen Sie und auf YouTube Folgen Sie und auf Twitter