Hyman Eli Goldberg and Emanuel Goldberg – two pioneers of optical character and code recognition – or why one of them was not properly credited

I was researching for an article about image and object recognition, when I stumbled upon an inconsistency. In the Wikipedia article about optical character recognition (OCR) I read:

“In 1914, Emanuel Goldberg developed a machine that read characters and converted them into standard telegraph code.”

A few a few lines further it was stated that the same Emanuel Goldberg developed a machine (called “Statistical Machine”) for searching microfilm archives using an optical code recognition system. Furthermore it was stated that the Statistical Machine got patented in 1931.
Now I wanted to know more about these machines and immediately found lots of information about the Statistical Machine on the web. For instance about it’s intended purpose that was to retrieve accounting and sales statistics, therefore the name (source).
But for the first machine I found absolutely nothing, only dozens of articles with copies of the sentence from Wikipedia. This was strange, why were there no sketches and no technical details available, when it was such a noteworthy invention?

I studied the footnotes. In the Wikipedia article the indicated source for the information about the machine of 1914 was:

Dhavale, Sunita Vikrant (2017). Advanced Image-Based Spam Detection and Filtering Techniques. Hershey, PA: IGI Global. p. 91.

I quickly found the passage in the book by Dr. Dhavale and read about the same:

“In 1914, Emanuel Goldberg developed a machine to convert printed characters into standard telegraph code.”

She presented another source for this: Schantz, Herbert F. (1982). The history of OCR, optical character recognition

„Okay, we are getting closer“, I thought. Thanks to ebook lending I was able to look that up promptly. The answer may not surprise you. Herbert F. Schantz states crystal clear that it was Goldberg who invented a machine that reads and converts typed messages to standard telegraph code (Morse code):

Schantz 1982, snippet of page 2

One can see that the year for the invention now has changed from 1914 to 1912. – A few lines above Schantz mentions a time window (between 1912 and 1914) to include the invention of the optophone by Edmund Fournier d’Albe:

Schantz 1982, snippet of page 2

I assume this is how the year 1914 got into the book of Dhavale. Please also note that the forename is misspelled. His correct name is Emanuel Goldberg.

But what really astonished me, was the notion that the work was done in Chicago. Emanuel Goldberg was Professor at Leipzig (Germany) during that time, why should he work in Chicago?

At this point I already sensed that Schantz’s research for this chapter was deeply flawed. – I decided to consult the only comprehensive biography of Emanuel Goldberg that is available. It was written by Berkeley professor Michael Buckland and published in 2006. The title of the book: Emanuel Goldberg and his Knowledge Machine.

Of course “knowledge machine” refers to Goldberg’s Statistical Machine. (For those who are interested in the operating principles of that machine: the technical details can be found on this page). Anyway. I leafed through the book. It was was arranged more or less chronologically and I found nothing about Goldberg spending time in Chicago or working on a machine that converts characters to Morse code.

I was already in the 1930s and half through the book as Buckland suddenly quotes from this passage of the book of Herbert F. Schantz:

Schantz 1982, snippet of page 3

The passage starts with the notion that Goldberg was „already known for the invention of OCR-type telegraphic devices.“ But other than Dr. Dhavale Prof. Buckland realized that Schantz had messed it up. Buckland knew that two inventive Goldbergs existed, both working on optical recognition systems. The famous one is of course Emanuel Goldberg. The almost forgotten one is Hyman Eli Goldberg (also known as Hyman Golber, due to a later change of name).

Here is, what Buckland states with regard to Schantz’s confusion:

“For once in his life, Goldberg received more than his fair share of credit, because two inventive Goldbergs working on pattern recognition devices have not been adequately distinguished. The other Goldberg was Hymen [sic] Eli Goldberg of Chicago, who was associated with the Goldberg Calculating Machine Company and changed his name to Hymen Eli Golber. Golber obtained numerous U.S. and German patents, most of them in the years 1907 to 1914 and 1930, for innovations in calculating and printing machinery. One of his techniques was to print characters in electrically conducting ink on a nonconducting surface. A sensor would then test whether surface points were conductive or not, thereby detecting the location and shape of printed characters.”

Buckland 2006, p. 162

Note that Buckland got the forename wrong. Hyman is correct.

Long story short: It was Hyman Eli Goldberg who patented a machine that converts characters into telegraph code.

And this is the corresponding patent: it was filed as „Controller“ in 1911 and granted in 1915: patents.google.com/patent/US1165663A (a precursor version is patented under US1117184.)

patent US1165663, snippet of page 1

By the way: the machine can NOT process standard print or typewrite letters. The conversion works due to a specifically shaped set of letters and digits that is presented on page 3 of the patent file:

patent US1165663, snippet of page 3

For further reading: there is at least one publication (from Dennis Yi Tenen, Columbia University) that acknowledges, explains and credits the invention of Hyman Eli Goldberg properly: amodern.net/article/laminate-text

Conclusion: It is a bit frustrating that Michael Buckland’s finding did not make it into the Wikipedia (as of 11/11/2022). The false claim is now spread over the Internet and will never vanish completely.
So what can be learned from this? – Well, obviously this: do not trust every information that is in the Wikipedia, always look for the original source, if something looks inconsistent, dig deep.

Wie ich nebenbei einen mathematischen Zusammenhang entdeckte …

… der natürlich schon bekannt war, den ich aber nicht kannte. Und das war so: Ich wollte mir eine nerdige Email-Adresse zulegen, und da ich perfekte Zahlen mag, also Zahlen, deren Teiler die Zahl selbst ergeben, wenn man sie aufsummiert, fand ich 28@ als Präfix ganz schön. [1+2+4+7+14=28]. Um dem Ganzen eine besondere Note zu geben, stellte ich 28 binär da, das sieht dann so aus: 11100. Vorher hatte ich aber schon die 6 getestet, die auch perfekt ist. Diese sah binär so aus: 110. An dem Punkt dachte ich dann: Moment mal, da scheint es ein Muster zu geben. Ich gab die nächste perfekte Zahl [496] in den Umrechner ein. Das Ergebnis war das erwartete: 111110000. Alle drei perfekten Zahlen hatten also die gleiche Binärstruktur. Das konnte unmöglich ein Zufall sein. Ich testete weitere Zahlen und das Muster setzte sich fort. In der binären Perspektive konnte man also unmittelbar erkennen, dass diese Zahlen eine besondere Struktur haben. Ich experimentierte etwas weiter rum, indem ich Binärzahlen, die noch symetrischer sind, in Dezimal umrechnete, nämlich binäre Repdigits: 11=3, 111=7, 1111=15, 11111=31. Dann googelte ich die Zahlenfolge 3, 7, 15, 31 und siehe da: Es handelte sich hierbei um Mersenne-Zahlen. Das war verblüffend. Ich fragte mich, ob es vielleicht einen Zusammenhang zwischen den verschiedenen symmetrischen Binärzahlen geben könnte, und stöberte in der Wikipedia. Und tatsächlich: Perfekte Zahlen und die Primzahlen unter den Mersenne-Zahlen haben eine Verbindung, die schon Euklid vermutet und Euler spezifiziert hatte: Alle geraden perfekten Zahlen [ob es ungerade gibt, ist offen] können mithilfe von Mersenne-Primzahlen erzeugt werden. Da man bisher aber erst 49 Mersenne-Primzahlen kennt, kennt man auch erst entsprechend viele perfekte Zahlen. Die Frage, ob es unendlich viele Mersenne-Primzahlen [und entsprechend viele perfekte Zahlen] gibt, ist übrigens weiterhin offen.

Stephen Hawking überbewertet?

Geburtstag hin oder her. An dieser Stelle darf auch einmal erwähnt werden, dass Stephen Hawking nicht unbedingt DER Physiker unserer Zeit ist. Er ist auch durch sein besonderes Schicksal zum Star geworden. Zudem verstand er es, populärwissenschaftliche Bestseller zu schreiben.
Seine größte Leistung, die quantenmechanische Beschreibung schwarzer Löcher, stammt aus den 70er Jahren [Particle Creation by Black Holes, 1975]. Nach dieser geben schwarze Löcher eine Strahlung ab: die nach ihm benannte Hawking-Strahlung. Empirisch nachgewiesen wurde dieses Phänomen bislang nicht, einfach weil wir keinen Zugang zu schwarzen Löchern haben. Es herrscht allerdings Konsens darüber, dass sich der Effekt aus Quantenfeldtheorie und Relativitätstheorie ableiten lässt.
Einen Namen machte sich Hawking bereits 1966 durch die Formulierung von Singularitäten-Theoremen, die er in den nachfolgenden Jahren gemeinsam mit Roger Penrose weiter ausarbeitete.
In den 80ern entwickelte er gemeinsam mit James Hartle kosmologische Theorien über die Randbedingungen des Universums [siehe „no boundary proposal“ der Quantenkosmologie]. Außerhalb der Hawking-Schule werden diese aber nicht als valide angesehen. 2004 machte er noch einmal wissenschaftliche Schlagzeilen, als er behauptete, das sogenannte „Problem des Informationsverlusts Schwarzer Löcher“ gelöst zu haben. Die wissenschaftliche Community konnte er damit aber nicht überzeugen [siehe hier]. Das Problem gilt immer noch als ungelöst.
Hawking ist ein großer theoretischer Physiker … gewesen, muss man wohl sagen, denn in den letzten Jahren ist er primär als Celebrity in Erscheinung getreten. Es gibt mindestens ein halbes Dutzend Physiker, die ebenso viel oder mehr geleistet haben. Ein paar Namen seien genannt: Alain Aspect, Peter Higgs, Gerardus ’t Hooft,  David Gross, Steven Weinberg, Edward Witten … Aber selbst die Nobelpreisträger, zu denen Hawking übrigens nicht gehört, kennt kaum einer außerhalb der wissenschaftlichen Gemeinschaft. Anyway: Happy Birthday Stephen! Ihr Durchhaltevermögen und Lebenswille trotz ALS ist bewundernswert und verdient größten Respekt!

In eigener Sache: Abstract und Inhaltsangabe meiner Studie zu Robert Musil von 2008

Der Titel der Arbeit lautet „Genauigkeit und Seele“: Der Versuch einer Synthese von Ratio und Mystik in Robert Musils Roman „Der Mann ohne Eigenschaften“. Sie kann in gedruckter Form u.a. über Amazon bezogen werden. Eine digitale Kopie stelle ich hier zur Verfügung.

In der Arbeit wird das Verhältnis von Ratio und Mystik in Musils Roman mit analytischen Mitteln behandelt, bei gleichzeitiger, durchaus historisch-kritisch gewendeter Bezugnahme auf maßgebliche Wegbereiter des logisch-empiristischen Paradigmas selbst. In diesem Fall sind das Ernst Mach [1838-1916] und Ludwig Wittgenstein [1889-1951].

Klappentext / Abstract
 
In Robert Musils Gesamtwerk im Allgemeinen und im „Mann ohne Eigenschaften“ im Besonderen wird immer wieder auf die Gegensätzlichkeit von naturwissenschaftlichem Denken und „Gefühlsdenken“, Wissen und Glauben, Ratio und Mystik verwiesen [vgl. Albertsen 1968, S. 11]. Musil stellte die verschiedenen Formen des Erkennens zwar einander gegenüber, doch bestand das Ziel keineswegs darin, die Trennlinie zwischen diesen zu verschärfen. Im Gegenteil: Musil hoffte darauf, die heterogenen Pole menschlicher Welterschließung am Beispiel seines Protagonisten Ulrich unter einer empirisch ausgerichteten Form von ‚Meta-Rationalität‘ subsumieren zu können [vgl. Pieper 2002, S. 67]. Darzulegen, warum der Versuch dieser Synthese scheitern musste, ist ein Hauptanliegen der Arbeit. Das Schicksal Ulrichs, der Zentralfigur des Romans, ist bei dieser vornehmlich erkenntnistheoretischen Untersuchung in keiner Weise auszuklammern. Wie sich zeigen wird, ist dieses mit den philosophischen Ansichten derselben und denen ihres Schöpfers aufs engste verflochten. [Die entsprechende Literaturliste findet sich im Buch ab S. 94.]


Aus dem Inhaltsverzeichnis:

Eine Art Einleitung
Stellung der Aufgabe
Forschungsstand

1. Essayistische Eingangsbetrachtungen
1.1. Der „Mystiker mit dem Bedürfnis nach rationaler Überprüfung
1.2. Die Erkenntnis des Dichters

2. Der „rationale Mensch“
2.1. Die Etymologie des Verstandesdenkens
2.2. Rationalisierung und Spezialisierung: Die „Entzauberung der Welt“

2.3. Die „Westliche Wissenschaftliche Tradition“
2.4. Die Grenzen des Sagbaren

3. Das Mystische
3.1. Etymologie und Begriffsbestimmung
3.2. Die mystische Komponente des Begriffes „ohne Eigenschaften“
3.3. Der Mystikbegriff Wittgensteins

4. Musil und die exakten Wissenschaften
4.1. Drei Versuche, ein „bedeutender Mann“ zu werden
4.2. Musils Schwanken zwischen der dualistischen Gestaltpsychologie Stumpfs und Machs monistischer Empfindungslehre
4.3. Musils Dissertation über die Erkenntnislehre Machs und die Beantwortung einer „Lebensfrage“

5. Gründzüge der Philosophie Ernst Machs
5.1. Die Denkökonomie oder das ‚Machsche Rasiermesser‘
5.2. Die evolutionäre Erkenntnistheorie
5.3. [IIIII.III.] Die Elemententheorie
5.4. Machs Sprachkritik
5.5. Körper und Substanz
5.6. Das Machsche Prinzip: Funktionalität statt Naturnotwendigkeit, Relativität statt Absolutheit
5.7. Die ‚Unrettbarkeit des Ichs‘
5.8. Eine solipsistische Welt ohne Selbst?

6. Rezeption der Machschen- und Ausbildung einer ‚Musilschen Erkenntnislehre‘ im „Mann ohne Eigenschaften“
6.1. Vorbemerkungen
6.2. Die Rückbindung der Wissenschaft an das Leben
6.3. Naturnotwendigkeit oder unendlicher Möglichkeitsraum?
6.3.1. Kausalität und erzählerische Ordnung
6.3.2. „Es könnte ebensogut anders sein“: Ulrichs „Möglichkeitssinn“
6.3.3. Die Auseinandersetzung mit dem Kausalitätsprinzip im „Mann ohne Eigenschaften“
6.4. Die Funktionale Betrachtungsweise
6.4.1. Das „Kraftfeld“ von Gut und Böse, Liebe und Hass
6.4.2. Die Anpassung der moralischen Vorstellungen an die „Beweglichkeit der Tatsachen“ oder Musils ‚Mathematik der Moral‘
6.5. Der Subjektbegriff in einer „Welt von Eigenschaften ohne Mann“
6.5.1. Die Machsche Elemententheorie und die freie Verteilung von Eigenschaften
6.5.2. Kulturelle Aspekte der ‚Eigenschaftslosigkeit‘
6.6. Die „Utopie des exakten Lebens“ oder „schweigen, wo man nichts zu sagen hat“
6.7. Auf dem Weg in den „anderen Zustand“

7. Endbetrachtung

Literatur

Warum meine beste aller möglichen Welten deterministisch ist.

Vorbemerkung: Diesen Aufsatz habe ich 2007 geschrieben. Die Frage nach der Willensfreiheit würde ich heute anders beantworten. Gleichwohl halte ich den Text nach wie vor für lesenswert.  

Dieser Kurzaufsatz versucht natürlich keine Antwort auf die Frage zu geben, ob unsere Welt gänzlich deterministisch ist oder nicht. Das wäre eine Frage, die sich nur mit allumfassender Kenntnis der naturgesetzlichen Struktur des Universums klären ließe. Die Beantwortung dieser Frage fiele also [wenn überhaupt] in den Kompetenzbereich der Physik. Jedoch kann der Philosoph seine Zeit nutzen, indem er sich Gedanken darüber macht, was es bedeuten würde, in einem deterministischen Universum zu leben.
Ich behaupte nicht bloß, dass der Determinismus ein konsistentes Erklärungsmodell ist – das wäre zu wenig – vielmehr möchte ich zeigen, warum der Determinismus auch aus philosophischen Gründen Vorteile gegenüber indeterministischen Konzepten bietet. Keineswegs werde ich eine kompatibilistische Position beziehen, in der sich Willensfreiheit und Determinismus gegenseitig nicht ausschließen. Ich persönliche glaube, dass der menschliche Geist nicht losgelöst von der materiellen Welt existieren kann. Das impliziert nicht, dass der Mensch willenlos ist. Nein, der bewusste Wille ist schon da, nur ist er in meiner Vorstellung durch unvorstellbar komplexe Kausalketten ins Universum eingebettet.


Deterministisches Chaos, Berechenbarkeit und quantenmechanischer Zufall  

In einem absolut deterministischen Universum kann es keinen Platz für Zufälle geben. Der Physiker, der seine Aufgabe darin sieht, die Wahrheit des Determinismus zu beweisen, müsste also zeigen, dass diejenigen Phänomene, die ein Ergebnis echten Zufalls zu sein scheinen, auf Pseudozufall beruhen. Einstein ist das nicht gelungen, obwohl er zeitlebens daran gearbeitet hat. Sein berühmter Satz „Gott würfelt nicht“ blieb gleichwohl ein Vermächtnis für viele nachfolgende Physiker, die wie er eine indeterministische Deutung der Quantenphysik nicht hinnehmen wollten.
 
Auf der Makroebene scheinen alle Systeme naturgesetzlich determiniert zu sein. Das gilt auch für Systeme, die in der Physik als chaotisch bezeichnet werden. Ein chaotisches System gilt aufgrund seiner Komplexität als unberechenbar. Diese Unberechenbarkeit beruht allerdings nicht auf einer prinzipiellen epistemischen Schranke, sondern auf einem Mangel an Information. Auch ein chaotisches System folgt einer deterministischen Dynamik und ein allwissendes Wesen könnte das Verhalten des Systems prinzipiell vorhersagen.
Die letzte Bastion echten Zufalls bildet allein die Quantenphysik, deren Entwicklung bereits im frühen zwanzigsten Jahrhundert mit Arbeiten von Planck und Einstein begann und die von Bohr, Heisenberg u. a. weiterentwickelt wurde, dann allerdings unter indeterministischen Prämissen [siehe Kopenhagener Deutung]. Von Beginn an stellten sich die Forscher natürlich die Frage, ob die scheinbar zufälligen Phänomenen auf der Quantenebene [z. B. beim Doppelspaltversuch] nicht doch determiniert sein könnten. Die Existenz von sogenannten nichtlokalen verborgenen Variablen lässt sich jedenfalls bis heute nicht ausschließen und es gibt eine ganze Reihe von Interpretationen der Quantenphysik, die auf dieser Möglichkeit fußen.
Aber selbst wenn es auf der Quantenebene tatsächlich echte Zufallsprozesse geben sollte, so änderte das nichts an der Determiniertheit des Menschen. Denn Quanteneffekte machen sich nach heutigem Erkenntnisstand auf höheren Ebenen nicht bemerkbar, d. h. die Physik des meso- und makroskopischen Bereichs [und damit auch die des Gehirns] ist vermutlich eine deterministische.


Der Indeterminismus ist ein Determinismus  

Jetzt kommt ein weiteres aber – und dieses ist entscheidend: Selbst wenn sich quantenphysikalische Zufallseffekte auf höhere Ebenen auswirken sollten [insbes. im menschlichen Gehirn], die Physik der menschlichen Kognition also nicht vollständig deterministisch wäre, so änderte das auch nichts an der Determiniertheit des Menschen. Es wäre allerdings eine weniger wünschenswerte Determiniertheit, denn der menschliche Wille würde teilweise von unkontrollierten Zufallsprozessen abhängen. Innerhalb des quantenmechanischen Systems Mensch herrschte zwar ein gewisser Freiheitsgrad, aber der Wille selbst wäre in Gefahr. Treffend formuliert hat dies mein Freund Carsten Glöckner: „Ein freier Wille ist nicht dein Wille.“
 
Zudem hat eine indeterministische Welt den Nachteil, das sie nicht hintergehbare Erkenntnisgrenzen enthält. In einer solchen Welt wäre es unmöglich herauszufinden, warum sich ein System exakt so verhalten hat, wie es sich verhalten hat. Dinge wie Gehirne wären nichts anderes als komplexe Würfel, von denen man nicht genau wissen kann, wie sie fallen.
Die Struktur hinter den Dingen möglichst genau zu beschreiben und zu verstehen, ist das Ziel jedes seriösen Forschers. Zwar trägt der Philosoph nicht unmittelbar zur Aufdeckung dieser Strukturen bei, aber er sollte doch zumindest das Interesse an dieser Form der Erkenntniserweiterung teilen. Für den forschenden Menschen muss die beste aller möglichen Welten folglich eine deterministische sein, denn nur in einer solchen kann das Rekonstruktionsprinzip vollständig gelten, nur in einer solchen kann durch sukzessives Aufdecken ihrer Strukturen ein höheres Prinzip in seiner Gänze erkannt werden. Kurzum: ein Universum, das sich selbst betrachten und verstehen kann, ist deterministisch.


Die Irrationalitätstheorie der Willensfreiheit  

Von einem befreundeten Physiker wurde die Fähigkeit, irrationale Handlungen zu vollziehen, als Indiz für die menschliche Willensfreiheit herangezogen. Aus bewusster Perspektive scheint es, als könne der Mensch durch Willensanstrengung tatsächlich irrationale Entscheidungen herbeiführen. Betrachtet man die molekulare Ebene, entscheidet der Mensch aber gemäß seiner Hirnzustände. Auf dieser Ebene wird Rationalitätam besten in Bezug auf eine spezifische Zweckerfüllung verstanden. Ein Hirnzustand ist also dann rational, wenn er zweckerfüllend ist. Wenn man sich nun bewusst zu einer irrationalen Tat entschließen möchte, bedeutet das auf unterer Ebene, dass die Zweckerfüllung gerade darin besteht, den Prozess anzuwerfen, der die irrationale Handlung initiiert. Denn natürlich kann ich mich dazu entscheiden, komische Dinge zu sagen oder Fratzen zu ziehen. Aber das ist nicht im entferntesten ein Beweis dafür, dass der Wille nicht determiniert ist.
 
Aber angenommen der Quantenzufall könnte tatsächlich die Entscheidung zwischen zwei Möglichkeiten herbeiführen, und eine der zwei Möglichkeiten wäre tatsächlich irrationaler in Bezug auf eine Zweckerfüllung, dann wäre die hier vorgestellte Form der Willensfreiheit erfüllt. Doch ist das eine Vorstellung die positiv besetzt werden kann? Willensfreiheit bestünde dann darin, dass durch Zufallsprozesse irrationale Handlungen nicht ausgeschlossen sind. Ist das eine befriedigende Antwort? Wenn man annimmt, dass ein zweckerfüllender Zustand darin bestehen könnte, dass die Person auf bewusster Ebene zu der Einstellung kommt, einen anderen Menschen töten zu müssen, der irrationale Zustand diesen Zwang jedoch abwenden könnte, hätte die Theorie dann an Attraktivität gewonnen?
Ich denke nicht, denn auch der umgekehrte Fall wäre möglich. Man könnte zwischen dem Zustand, jemanden umbringen zu müssen, und dem, dies nicht zu tun, schweben – und entscheiden müsste der Zufall. Diese Theorie erscheint mir als eine äußerst unbefriedigende Theorie der Willensfreiheit, denn gemäß dieser werden ultimative Handlungen zum Würfelspiel.


Die akausale Theorie der Willensfreiheit  

Philosophen, die die Kopenhagener Deutung [KD] schätzen, würden an dieser Stelle vielleicht einschreiten und argumentieren, die obige Theorie wäre dann vollkommen, wenn man zusätzlich annähme, dass der Zustand, bei dem der Geist zwischen rationaler und irrationaler Entscheidung schwebt [siehe Superposition], durch den freien Willendes Menschen in die gewünschte Richtung gelenkt werden kann. [Man könnte diesen Prozess in Anlehnung an die KD als vom Willen gesteuerte Zustandsreduktion bezeichnen.] Freilich wäre der Wille dann eine Instanz, die immateriell ist und von nichts außer sich selbst abhängt, d. h. akausal ist. Der Wille wäre im wahrsten Sinne des Wortes ein unbewegter Beweger. Dass dieser Theorie nicht mit physikalischen Mitteln beizukommen ist, liegt auf der Hand. Mehr noch: Es ist eine Theorie, die alles erklären will, aber nichts beweist, die weitere Fragen aufwirft und gegen das Prinzip ontologischer Sparsamkeit verstößt. Trotzdem ist nicht ausgeschlossen, dass sie wahr ist. Für den Philosophen, dem die menschliche Würde besonders am Herzen liegt, wäre eine Welt, in der es im Kopf akausal zugeht, vermutlich die beste aller möglichen Welten. Allerdings würde sich eine solche Welt nicht mit dem Konzept eines allmächtigen Gottes vertragen. Aber diese Vorstellung gilt ja ohnehin als naiv.
Für welche Theorie entscheiden Sie sich nun, werter Leser? Meine These: Das Universum kennt die Antwort. Nur beweisen kann ich es nicht. Aber auch das weiß das Universum.
  

Wer denken kann, der denke

Fragment eines Manifests
von Björn Buxbaum-Conradi und Fabian Butzbach
Frankfurt am Main – Januar 2011
[Download des Textes als PDF hier]

Die aufgeklärte westliche Wissenskultur ist ein hohes Gut. Insgesamt profitieren wir von den Erkenntnissen, die sie hervorgebracht hat, auch wenn stets eine missbräuchliche Nutzung von Wissen möglich ist. Das wissenschaftliche Ideal unter Schutz zu stellen, gehört zum Selbstverständnis unserer Zivilisation. Und doch deuten viele Phänomene unserer Zeit darauf hin, dass unsere Wissenskultur sukzessive unterwandert wird und einer Wiederbelebung bedarf. Wie könnte eine solche Wiedergeburt aussehen? Die Verfasser Björn Buxbaum-Conradi und Fabian Butzbach werden dieser Frage hier nachgehen. Um klar zu sehen, wird eine Bestandsaufnahme ohne Beschönigung notwendig sein. In gemeinsamer Anstrengung soll schließlich ein Gegengewicht geschaffen werden zu Pseudowissenschaft, Esoterik, Populismus, Verschwörungstheorien, religiöser Engstirnigkeit sowie all jenen, die direkt oder indirekt, absichtlich oder aus Nachlässigkeit, wissend oder unwissend, ein Gefüge der Unvernunft mit aufbauen oder nichts dagegen unternehmen.

Einleitung
Denker aller Zeitalter liebten große Worte. Getrieben von der Vorstellung, dass der Mensch ein Vernunftwesen sei, frei in seinem Handeln und ausgestattet mit einer unsterblichen Seele, wurde er zur Krone der Schöpfung, ja zum höchsten Wesen überhaupt erklärt. Nur Gott als Weltenschaffer und oberster Richter war dem Menschengeschlecht übergeordnet.
In einem Jahrtausende währenden Prozess entfachte der menschliche Geist ein Licht, das die Beschaffenheit der eigenen Art bis zur feinsten Zellstruktur durchleuchten sollte: An die Stelle menschlicher Überhöhung trat im Zuge der Entzauberung der Welt durch die exakten Wissenschaften eine für das menschliche Selbstverständnis nur schwer hinnehmbare Erniedrigung. Der Mensch stammte seither nicht von Gott, sondern vom Affen ab; der Geist führte kein immaterielles Eigenleben mehr, sondern stand und fiel mit der Intaktheit des Gehirns. Und von der Liebe zwischen den Geschlechtern blieb nur ein arterhaltender, durch Neurotransmitter generierter Rauschzustand.
Zentrale Begriffe der Philosophie fielen wie Steine zu Boden: Wahrheit ist formal nicht mehr als der Wert einer propositionalen Funktion; Schönheit degradierte zum subjektivistischen Füllwort ohne Anspruch auf Allgemeingültigkeit; Chancengleichheit als Bedingung für Gerechtigkeit wurde in einer Welt, in der die Macht der Gene herrscht, zu einem unmöglichen Versprechen; der Glaubean einen allmächtigen und gleichzeitig gütigen Gott ist nicht erst seit den Gewaltexzessen zweier Weltkriege und dem Holocaust ein Unding, und die seit Urzeiten gepriesene menschliche Freiheit entpuppte sich im Lichte der Neurobiologie als Illusion – oder aber als Fluch, wenn sie doch existieren sollte, denn wer frei ist, ist verantwortlich für sein Tun. Aber – und das ist das Gute daran: All diese Verwerfungen althergebrachter Vorstellungen haben ihre Berechtigung, denn sie beugen einer systematischen Selbsttäuschung vor. In der Vergangenheit mögen positive Illusionen und „Wahnsysteme“ [Thomas Metzinger] vielleicht einen Überlebensvorteil geboten haben. Aber für heutige und kommende Zeiten muss das Gebot ein anderes sein: Es gilt, angesichts der menschlichen Sterblichkeit, aufrichtig zu bleiben; es gilt, sich einzugestehen, dass die Vorstellung an ein paradiesisches Jenseits nicht haltbar ist. Glaube kann erst dort beginnen, wo Wissen aufhört; was im Umkehrschluss bedeutet, dass es unmöglich ist, an Dinge zu glauben, von denen man weiß, dass sie nicht sein können.[1]
Es gilt sich schließlich einzugestehen, dass ein legitimer Raum für Glaubensinhalte nur dort sein kann, wo kein Wissen ist. Aber wovon man nichts weiß, kann man nicht sprechen, und wovon man nicht sprechen kann, darüber sollte man bekanntlich schweigen [s. Wittgenstein].
Intellektuell redlich ist daher nur der, der bereit ist, seine Meinung zu revidieren, wenn empirische Befunde dies gebieten, intellektuell redlich ist nur der, der nicht aufhört zu fragen, wo gefragt werden kann, intellektuell redlich ist nur der, der die Grenzen des Denkens mitdenkt und dadurch dem Ausdruck der Gedanken eine Grenze setzt: Der intellektuell Redliche sagt, was er weiß, und schweigt darüber, was er glaubt.

Menschliche Vernunft
Eines der wichtigsten Konzepte für das menschliche Selbstverständnis ist das der Vernunft. Von nahezu allen großen Denkern des Abendlandes wurde die Vernunft als das höchste Gut des Menschen angesehen. Das Vermögen, vernünftig zu handeln, begründet den Unterschied zwischen Mensch und Tier. Wer vernünftig handelt, handelt im Einklang mit der menschlichen Natur. Heute ist es freilich geboten, den althergebrachten Vernunftbegriff einer naturalistischen Revision zu unterwerfen. Denn was meint vernünftig handeln eigentlich? Lässt sich zu diesem geistigen Vermögen eine reale neurophysiologische Basis finden? Existiert so etwas wie Vernunft im selben Sinne wie das Gehirn? Oder muss der Terminus ein philosophisches Abstraktum bleiben?
Blicken wir noch einmal zurück: In der Kritik der reinen Vernunft kommt Kant zu dem Schluss, dass Sätze gebildet werden können, die die Erkenntnis über die Welt erweitern, aber nicht auf Erfahrung basieren.[2] Zu diesen zählte Kant neben philosophischen und mathematischen Sätzen auch die der Physik, da er annahm, Raum, Zeit und Kausalität seien reine Anschauungsformen, die dem menschlichen Erkenntnissubjekt selbst entspringen. Spätestens die Entwicklung nicht-euklidischer Geometrien hat aber gezeigt, dass solche Sätze eine Mär sind. Es ist irrsinnig, von „der“ Mathematik zu sprechen. Vielmehr lassen sich verschiedene Mathematiken entwerfen, je nachdem welches axiomatische System gewählt wird.[3] Solche Systeme können sich in der Praxis unterschiedlich gut bewährt haben, aber tatsächlich enthalten sie kein genuines Wissen über die Beschaffenheit der Welt.[4] Hinzu kommt, dass der absolute Raum- und Zeitbegriff Newtons, auf den Kant zurückgreift, seit der empirischen Bestätigung der Einsteinschen Theorien ausgedient hat. Ähnlich verhält es sich mit dem klassischen Kausalitätsbegriff, dem mit der Planck-Zeit eine unüberwindbare Grenze auferlegt wurde.[5] Zudem kann es auch oberhalb der Planck-Zeit non-deterministisch zugehen [siehe Quantenphysik].
Stellt man nun die von Kant als unbeantwortbar zurückgewiesene Frage, wie die reinen Anschauungsformen entstanden sind, im Lichte heutiger Erkenntnisse ein weiteres Mal, so muss die Antwort lauten: aus der Evolution. Im Laufe des phylogenetischen Anpassungsprozesses an die Form des mesoskopischen Raumes[6] haben sich im menschlichen Gehirn fest verankerte Strukturen herausgebildet, die unsere kognitiven Fähigkeiten und unsere Wahrnehmung der Welt bestimmen.
Aus diesen Gründen dient in der Kognitionspsychologie schon seit geraumer Zeit der empirisch gehaltvollere Begriff der adaptiven Verhaltenskontrolle[7] als Ersatz für den Vernunftbegriff. Verortet ist das Vermögen zur adaptiven Verhaltenskontrolle vornehmlich im präfrontalen Kortex. Dieser Hirnregion verdankt der Mensch die Fähigkeit zu Impuls- und Triebunterdrückung, zu Belohnungs- und Bedürfnisaufschub, zu geplantem Handeln, Extrapolation, Antizipation und reflexivem Denken.[8] Als adaptiv wird dieses Vermögen bezeichnet, weil es die bestmögliche Anpassung des Menschen an seine naturräumliche, kulturelle und soziale Umgebung zum Ziel hat. Die aus diesem Vermögen resultierende besondere Flexibilität des Menschen ist in der Evolutionsgeschichte einzigartig: Kein Lebewesen kann so schnell auf sich verändernde Umweltbedingungen reagieren wie der Mensch.
In der Interaktion zwischen Gehirn und Umwelt findet sich der Ursprung allen gehaltvollen Wissens. Natürlich besitzen auch Tiere, insbesondere Primaten, erfahrungsbasiertes Wissen, das z. B. eingesetzt wird, um die Nahrungssuche zu optimieren. Aber nur beim Menschen kommt es zu einer ganzheitlichen Projektion aller wahrgenommenen Umweltsignale und einer gleichzeitigen Integration von Gedächtnisinhalten, emotionalen Bewertungen und allgemeinem Vorwissen. Zudem fungiert das menschliche Gehirn als „Beziehungsorgan“, das soziale Interaktionen vermittelt und gleichzeitig von diesen geprägt wird.[9] Der menschliche präfrontale Kortex als die Hirnregion, die vorausschauendes Planen und vielschichtige Sozialbeziehungen ermöglicht, stellt sich somit als mächtiges Werkzeug im evolutionären Kampf ums Dasein dar. Zwar hat sich der Mensch durch seine Fähigkeit zu höherer Sprache und abstraktem Denken, das seinen höchsten Ausdruck in den Formalismen der Mathematik findet, in gewisser Weise vom Tierreich entkoppelt, aber selbstverständlich ist der Evolutionsprozess an diesem Punkt nicht stehen geblieben. Er ist durch den Einschub einer weiteren Ebene, nämlich der kulturellen, lediglich komplexer geworden.

Status Quo
Weitsichtiges, planendes Handeln – es macht uns anpassungs- und damit überlebensfähig. Im Umkehrschluss bedeutet es, dass ein Mangel an Vorausschau und Planung den Niedergang ganzer Zivilisationen herbeiführen kann. Wie viele Hochkulturen vor uns sind schon an sich selbst gescheitert? Wir können uns eine Abwertung der Wissenskultur, die über Jahrhunderte gewachsen ist und uns ein komfortables Leben führen lässt, nicht leisten. Gesellschaften in denen eine breite Masse, aber auch viele Entscheidungsträger, das wissenschaftliche Ideal nicht teilen, werden früher oder später in Abhängigkeit derer geraten, die über Wissen verfügen, es pflegen und mehren. Wissen ist Macht. Und die Kluft zwischen Arm und Reich ist nicht zuletzt auf ein Wissens- und Innovationsgefälle zurückzuführen.

Wie steht es heute um unsere, die westliche Kultur? Leben wir noch in einem Zeitalter der Aufklärung oder gerät der Anspruch der Vordenker immer weiter in Verruf und Vergessenheit? Wie viel Unvernunft verträgt eine Gesellschaft?
Leider lassen viele Kulturphänomene und Irrlehren unserer Zeit darauf schließen, dass etwas faul ist in den einstigen Mutterländern der Aufklärung: Statt der modernen Medizin zu vertrauen, lassen sich viele Menschen von esoterischer Pseudowissenschaft verführen. Statt sich aktiv zu bilden, begeben sich viele Bürger lieber in die Obhut ihres Fernsehers. Statt das Wohl des Gemeinwesens im Blick zu haben, schauen Politiker nur zu gerne auf Umfragewerte. Sie agieren nicht weitsichtig, sondern populistisch. Statt sich auf Erfahrungsinhalte zu konzentrieren und diese logisch zu prüfen, entwickeln zahllose Sozialwissenschaftler immer weitere Theorien, die einer empirischen Grundlage entbehren.[10]
Einige Ursachen dieser Phänomene lassen sich leicht benennen: Menschen sind bequem und Nachdenken ist mühsam. Menschen sind oft selbstsüchtig und persönlicher Erfolg wird über Gemeininteressen gestellt. Viele Intellektuelle haben zwar viel gelesen, aber nicht erkannt, dass Wissen nicht allein aus Büchern, sondern vielmehr aus der Synthese von genauer Beobachtung und logischer Strenge zu gewinnen ist. Zudem bedeutet ergebnisoffenes Forschen, dass man sich auch unbequemen Wahrheiten stellen muss. Gerade in der Intelligenzdebatte [nature vs. nurture] stößt man auf sozialwissenschaftlicher Seite immer wieder auf Behauptungen, die mit den Ergebnissen biologischer Forschung nicht übereinstimmen. Man möchte die idealisierten Vorstellungen, die man von der Welt hat, eben nicht aufgeben. Aufklärung kann schmerzhaft sein, aber diesen Schmerz gilt es auszuhalten.
Die größte Herausforderung, der sich die Autoren stellen müssen, liegt in ihrem Anliegen selbst begründet. Denn zahllosen Menschen fehlt der nötige Halt im Leben gerade als Folge der Aufklärung, hat diese ihnen doch die Religion genommen. Viele suchen ihr Heil seither in halbreligiösen Ersatzlehren wie z. B. der Anthroposophie oder der Homöopathie. Verschwörungstheorien haben ebenfalls Hochkonjunktur.[11]
Wie kann Aufklärung also funktionieren, ohne dass gleichzeitig jede Form von Spiritualität illegitim erscheint?

Literatur

    • Braus, Dieter F.: Einblicke ins Gehirn, Stuttgart 2010
    • Jungclaussen, Hardwin: Neuronale Vernunft. 2003
    • Metzinger, Thomas: Spiritualität und intellektuelle Redlichkeit, Vortrag auf dem Kongress „Meditation und Wissenschaft“, Berlin 2010
    • Trivers, Robert: Deceit and Self-Deception, London 2011
    • Wittgenstein, Ludwig: Tractatus logico-philosophicus, Frankfurt am Main 2003

Anmerkungen
zurück nach oben

[1] Problematisch ist, dass denen, die wenig wissen, meist auch das nötige Meta-Wissen fehlt.
[2] Kant nennt diese „synthetische Urteile apriori“.
[3] Die englische Sprache wird diesem Sachverhalt gerecht.
[4] Saul Kripke hat zudem gezeigt, dass Apriorität nicht unbedingt Notwendigkeit einschließen muss. Siehe Kripke: Naming and Necessity 1972.
[5] Die Planck-Zeit beschreibt das kleinstmögliche Zeitintervall, für das die bekannten Gesetze der Physik gültig sind.
[6] Der mesoskopische Raum umfasst den mittleren Bereich, der zwischen Mikro- und Makrokosmus liegt.
[7] Im Englischen: adaptive control of behavior.
[8] Die auf assoziativem Denken beruhende Kreativität und das Vermögen zur adaptiven Verhaltenskontrolle sind nicht miteinander korreliert, sie gehen jedoch im Idealfall ein Zusammenspiel ein.
[9] Weiterführend hierzu: „Das Gehirn – Ein Beziehungsorgan“ [ein umfassendes Forschungsprojekt an der Universität Heidelberg].
[10] Die „Gender Studies“ wären hier als erstes zu nennen.
[11] „Chemtrails“ scheinen momentan besonders populär zu sein.

Der XX-Faktor beim Schachspiel – oder wider die Gleichmacherei in der Intelligenzdebatte

Warum wird beim Leistungsschach eigentlich eine Geschlechtertrennung vorgenommen? Körperliche Unterschiede spielen doch beim Schach nun wirklich keine Rolle, sollte man meinen.
„Nein“, sagt Elisabeth Pähtz, Deutschlands beste Schachspielerin: „Viel hängt auch mit dem Körperbau zusammen. Männer haben mehr Energiereserven, mehr Sitzfleisch.“ [Interview hier.]

Ja, eine Partie Turnierschach kann lange dauern, bis zu fünf oder sogar sechs Stunden [je nach Regelung]. Aber erklärt das wirklich, warum Frauen so viel schlechter beim Schach abschneiden?
Klar, es gibt weniger Frauen, die Schach spielen. In Deutschland liegt das Verhältnis von männlichen zu weiblichen Vereinsspielern bei 16 zu 1. Aber nur eine Frau [Elisabeth Pähtz] ist unter den deutschen Top-100-Spielern vertreten* [auf Platz 71 mit einer Elo-Zahl von 2464]. Setzte man eine gleiche Leistungsverteilung zwischen den Geschlechtern voraus, müssten statistisch gesehen allerdings 6 Frauen unter den besten 100 sein. Ähnlich verhält es sich an der Weltspitze: Supergroßmeister wird ein Spieler, wenn er eine Elo-Zahl größer 2700 hat. Seit Einführung dieses Indexes im Jahr 1970 gab es 94 Spieler, die das geschafft haben. Darunter aber nur eine Frau: Die Ungarin Judit Polgár, die mit einem Höchstwert von 2735 immerhin auf Platz 40 steht. Der aktuelle Weltmeister [Magnus Carlsen] hat allerdings fast 150 Punkte mehr [2882].
Elisabeth Pähtz erklärt das schlechtere Abschneiden von Schachspielerinnen auch mit dem unterschiedlichen Eintrittsalter in die Pubertät. Frauen interessierten sich schon ab zwölf Jahren für Make-up, Kleidung und Jungs, während Männer in dieser entscheidenden Phase noch wie Kinder seien und mehr Zeit hätten sich zu verbessern: „Das ist der Vorteil, den die Jungen haben. Aus ihnen werden oft Männer, die ihr ganzes Leben nur an Schach denken können.“ [ibid.]
Ich halte diese Erklärung für wenig belastbar. Haben vorpubertäre Jungen etwa keine Alltagsprobleme zu bewältigen? Dass auch zerebrale Unterschiede [z.B. Vorteile beim räumlichen Vorstellungsvermögen] dazu beitragen könnten, dass Männer die besseren Schachspieler sind, zieht Pähtz in dem genannten Interview gar nicht erst in Erwägung.
* Da Frauen auch bei den Wettbewerben, an denen Männer teilnehmen, starten dürfen [und dies auch häufig tun] sind die Elo-Werte beider Geschlechter aufeinander abgestimmt.

*

Ich muss gestehen, dass es mir mit dem, was ich hier vorbringe, nicht um Leistungen beim Schach geht. Was mich stört, ist die zwanghafte Gleichmacherei, wenn es um das Thema Intelligenz geht. Stellt ein Verhaltensforscher biologisch bedingte Kognitionsunterschiede zwischen den Geschlechtern fest, wird er dafür angefeindet, und zwar ohne Rücksicht auf die Validität der Ergebnisse. Diese können ja nur falsch sein. Das noch größere Tabu ist aber die wissenschaftliche Beschäftigung mit Intelligenz in Bezug auf verschiedene Ethnien. Es deutet alles darauf hin, dass es signifikante Unterschiede gibt. Groß angelegte IQ-Tests haben dies immer wieder gezeigt. Doch im politisch korrekten Weltbild darf es diese Abweichungen nicht geben. Intelligenztests sind daher eine teuflische Sache. Und jeder, der die Testergebnisse auch nur teilweise biologisch deutet, macht sich sofort zur Persona non grata. Ein Forscher, der neben kulturellen Gegebenheiten und Umweltbedingungen zusätzlich genetische Faktoren ins Spiel bringt, kann schließlich nur ein Rassist sein.
Sollen potentielle Teilursachen also ausscheiden, nur weil sie auf genetischen Prinzipien beruhen? Wie verhält es sich z.B. mit diesen Punkten?

[1] Kleinvölker, die über lange Zeiträume abgeschottet vom Rest der Welt lebten, waren einem höheren Inzuchtrisiko ausgesetzt [siehe auch genetischer Flaschenhals]. [2] In einigen Kulturen wurde [und wird] die Verwandtenheirat selbst dann praktiziert, wenn es vermeidbar wäre. [3] In Regionen mit schwierigen Umweltbedingungen war Intelligenz vielleicht ein stärkeres Selektionskriterium als in solchen, wo man fürs bloße Überleben nicht ganz so viel Aufwand betreiben musste [bezieht sich insbes. auf Zeiträume noch vor dem Aufkommen von Ackerbau und Viehzucht].

Ja, das Thema ist heikel. Und ja, es wurde in der Vergangenheit pervertiert [insbesondere in Deutschland] und es ist daher äußerste Vorsicht geboten. Dennoch: Um restlos verstehen zu können, warum unsere Welt so starke wirtschaftliche Ungleichheiten aufweist, sollte man den Faktor möglicher mentaler Unterschiede nicht von vornherein ausklammern. Die Kluft zwischen Arm und Reich lässt sich nur effektiv bekämpfen, wenn man alle Ursachen kennt.

Bitte verstehen Sie mich nicht falsch. Ein Mensch sollte nie aufgrund eines Gruppendurchschnitts beurteilt werden, sondern immer als Individuum. Ersteres würde in punkto Intelligenz auch gar keinen Sinn machen, denn in jeder ethnischen Großgruppe trifft man die gesamte Spannweite kognitiver Begabung an. Und natürlich müssen alle Menschen die gleichen Grundrechte haben. Diese Rechte erhalten sie ja qua ihres Menschseins, unabhängig von Hautfarbe, Geschlecht, Intelligenz und welcher Eigenschaft auch immer. Genauso wichtig ist das Ziel, Chancengleichheit herzustellen. Das geht aber leider nur bis zu einem gewissen Grad. Es taugt beispielsweise nicht jedes Kind für einen höheren Schulabschluss wie Abitur oder Matura, selbst bei bester Förderung. Das ist an sich nichts Negatives. Problematisch wird es erst dann, wenn Eigenschaften, die man selbst kaum beeinflussen kann, zum höchsten Gut erklärt werden.

Ich denke, die sogenannte „politische Korrektheit“ beruht auch auf dem Missverständnis, dass Gleichbehandlung per se richtig ist. Es wird vielen nicht gefallen, aber de facto ist es so, dass genetische Unterschiede umso sichtbarer hervortreten, je gleicher Menschen behandelt werden.
Grundsätzlich sollte aus der Tatsache, dass ungleiche Beschaffenheit und Ungleichbehandlung meist Hand in Hand gehen, nicht die naive Vorstellung erwachsen, das Problem sei über eine wie auch immer geartete Negation von ersterem zu lösen. Es ist diese verdrehte Lesart, die dazu führt, dass Unterschiede, wie ich sie oben angeführt habe, umgedeutet oder kaschiert werden. Kombiniert man das noch mit religiösen Heile-Welt-Vorstellungen ist das Zerrbild vollständig.

Was jeden von uns verbindet, ist das Menschsein. Unsere Gleichheit vor dem Gesetz konstituiert sich allein hieraus. Alle Eigenschaften, die darüber hinausgehen, sind für die Festsetzung von Grundrechten irrelevant. Man kann daher guten Gewissens sagen: Wir sind nicht alle gleich, und es ist okay. Die Welt wäre auch verdammt langweilig, wenn es anders wäre.

Literatur

    • Dieter E. Zimmer: Ist Intelligenz erblich? Eine Klarstellung. Reinbek bei Hamburg 2012.
    • Auch dieser Essay vom selben Autor lohnt sich für eine weiterführende Lektüre.

Everything You Always Wanted to Know About the World’s First Commercial Quantum Computer* [*But Were Afraid to Ask]

After 14 years of research and development the first commercial quantum computer in history was launched this year by D-Wave Systems, Canada. The D-Wave One works with 128 qubits, has a volume of 10 cubic metres and comes with a scheduled price of 10.000.000 $. Until now D-Wave Systems officially sold only one computer. Not surprisingly this first customer [Lockheed Martin] comes from the military sector. One can assume that the Pentagon and the intelligence services also have a D-Wave One in their cellar.

As is well known the hypothetical computation power of quantum computers cannot be compared with that of classical processors. Due to superposition effects a quantum register with 128 maximally entangled qubits can represent 2^128 states at once. Yes, indeed, that’s a mind-blowing huge number.

There are physical impairments of course: Quantum superpositions are extremely prone to interference [see decoherence]. The slightest interaction with the environment leads to a collapse of the quantum system. Therefore the components of the D-Wave One have to be cooled down close to absolute zero. One technique that can be utilized in this cryogenic state is called adiabatic quantum computation [AQC]. This technology is supposed to be superior to classical processing when it comes to hard optimization problems [details here] and is applied in the D-Wave computers.

Will D-Wave Systems change the world in the next years? It’s at least their claim. And Jeff Bezos [CEO of Amazon] as well as Goldman Sachs are also believing in the potential of this enterprise, as they have invested large sums in D-Wave.

Well, dear reader, if you have some bucks left, you can of course also order your first quantum computer. Just write an email to sales@dwavesys.com. For Amazon Prime clients shipping is free! 😉