TORIma Akademie Logo TORIma Akademie
John von Neumann
Wissenschaft

John von Neumann

TORIma Akademie — Mathematiker / Informatiker

John von Neumann

John von Neumann

John von Neumann (von NOY -mən; ungarisch: Neumann János Lajos [ˈnɒjmɒn ˈjaːnoʃ ˈlɒjoʃ]; 28. Dezember 1903 – 8. Februar 1957) war ein ungarischer und amerikanischer…

John von Neumann (von NOY-mən; ungarisch: Neumann János Lajos [ˈnɒjmɒn ˈjaːnoʃ ˈlɒjoʃ]; 28. Dezember 1903 – 8. Februar 1957) war ein bekannter ungarisch-amerikanischer Mathematiker, Physiker, Informatiker und Ingenieur. Seine intellektuelle Breite war unter seinen Zeitgenossen beispiellos und umfasste sowohl reine als auch angewandte Wissenschaften, und er leistete wegweisende Beiträge in zahlreichen Disziplinen wie Mathematik, Physik, Wirtschaftswissenschaften, Informatik und Statistik. Er war Pionier der mathematischen Grundlagen der Quantenphysik, der fortgeschrittenen Funktionsanalyse und entwickelte die Spieltheorie maßgeblich weiter, indem er Konzepte wie zelluläre Automaten, den universellen Konstruktor und den digitalen Computer einführte oder formalisierte. Bemerkenswert ist, dass seine theoretischen Arbeiten zur Selbstreplikation älter waren als die Aufklärung der DNA-Struktur.

John von Neumann ( von NOY-mən; Ungarisch: Neumann János Lajos [ˈnɒjmɒnˈjaːnoʃˈlɒjoʃ]; 28. Dezember 1903 – 8. Februar 1957) war ein ungarischer und amerikanischer Mathematiker, Physiker, Informatiker und Ingenieur. Von Neumann hatte vielleicht die umfassendste Berichterstattung aller Mathematiker seiner Zeit, indem er reine und angewandte Wissenschaften integrierte und wichtige Beiträge zu vielen Bereichen leistete, darunter Mathematik, Physik, Wirtschaftswissenschaften, Informatik und Statistik. Er war ein Pionier beim Aufbau des mathematischen Rahmenwerks der Quantenphysik, bei der Entwicklung der Funktionsanalyse und in der Spieltheorie, indem er Konzepte wie zelluläre Automaten, den universellen Konstruktor und den digitalen Computer einführte oder kodifizierte. Seine Analyse der Struktur der Selbstreplikation ging der Entdeckung der DNA-Struktur voraus.

Während des Zweiten Weltkriegs leistete von Neumann einen wichtigen Beitrag zum Manhattan-Projekt. Er formulierte die mathematischen Modelle, die den Sprenglinsen zugrunde liegen, die für Kernwaffen vom Implosionstyp entscheidend sind. Seine beratenden Aufgaben sowohl vor als auch nach dem Krieg erstreckten sich auf zahlreiche Organisationen, darunter das Office of Scientific Research and Development, das Ballistic Research Laboratory der United States Army, das Armed Forces Special Weapons Project und das Oak Ridge National Laboratory. In den 1950er Jahren, auf dem Höhepunkt seines Einflusses, leitete er mehrere Ausschüsse des Verteidigungsministeriums, insbesondere den Ausschuss für die Bewertung strategischer Raketen und den wissenschaftlichen Beratungsausschuss für Interkontinentalraketen. Darüber hinaus war er Mitglied der einflussreichen Atomenergiekommission, die die gesamte nationale Entwicklung der Atomenergie überwachte. Neben Bernard Schriever und Trevor Gardner spielte er eine entscheidende Rolle bei der Gestaltung und Entwicklung der ersten Interkontinentalraketenprogramme (ICBM) der USA. In dieser Zeit galt er als die herausragende Autorität des Landes auf dem Gebiet der Atomwaffen und als führender Verteidigungswissenschaftler im US-Verteidigungsministerium.

Von Neumanns tiefgreifende Beiträge und sein außergewöhnliches intellektuelles Können fanden bei seinen Kollegen in Physik, Mathematik und anderen Disziplinen breite Anerkennung. Zu seinen herausragenden Auszeichnungen zählen die Medal of Freedom und die Benennung eines Mondkraters in seiner Anerkennung.

Biografischer Überblick und Bildung

Familienlinie

John von Neumann wurde am 28. Dezember 1903 in Budapest, Königreich Ungarn (damals Teil Österreich-Ungarns), in eine wohlhabende, säkulare jüdische Familie geboren. Sein ursprünglicher Name war Neumann János Lajos. In der ungarischen Nomenklatur steht der Nachname vor den Vornamen, die auf Englisch John Louis heißen.

Er war der älteste von drei Brüdern, wobei Mihály (Michael) und Miklós (Nicholas) seine jüngeren Geschwister waren. Sein Vater, Neumann Miksa (auch bekannt als Max von Neumann), war Bankier und promovierte in Rechtswissenschaften. Miksa war Ende der 1880er Jahre von Pécs nach Budapest gezogen. Sein Großvater väterlicherseits und sein Urgroßvater stammten aus Ond (heute Teil von Szerencs) im Komitat Zemplén, Nordungarn. Johns Mutter war Kann Margit (Margaret Kann), deren Eltern Kann Jákab und Meisels Katalin, Mitglieder der Familie Meisels, waren. Drei Generationen der Familie Kann wohnten in großzügigen Wohnungen oberhalb der Kann-Heller-Büros in Budapest; Von Neumanns engste Familie bewohnte eine 18-Zimmer-Wohnung im obersten Stockwerk.

Am 20. Februar 1913 verlieh Kaiser Franz Joseph Johns Vater den ungarischen Adelsstand in Anerkennung seiner herausragenden Verdienste um das Österreichisch-Ungarische Reich. Infolgedessen erhielt die Familie Neumann die erbliche Bezeichnung Margittai, was „von Margitta“ (heute Marghita, Rumänien) bedeutet. Obwohl es keine familiären Bindungen zur Stadt gab, wurde diese Bezeichnung als Hommage an Margarete gewählt, ein Gefühl, das sich auch im gewählten Wappen mit drei Margeriten widerspiegelte. Neumann János nahm daraufhin den Namen margittai Neumann János (John Neumann de Margitta) an, den er später zu Johann von Neumann eindeutschte.

Ein Wunderkind

John von Neumann zeigte schon in jungen Jahren erstaunliche Fähigkeiten. Zusammen mit seinen Brüdern und Cousins ​​erhielt er Unterricht von Gouvernanten. Da von Neumanns Vater die Bedeutung der Mehrsprachigkeit erkannte, sorgte er dafür, dass die Kinder neben ihrer Muttersprache Ungarisch auch Englisch, Französisch, Deutsch und Italienisch unterrichteten. Anekdotische Berichte deuten darauf hin, dass von Neumann im Alter von acht Jahren die Differential- und Integralrechnung beherrschte und mit zwölf Jahren Berichten zufolge Borels bahnbrechendes Werk La Théorie des Fonctions gelesen hatte. Seine intellektuelle Neugier erstreckte sich auch auf die Geschichte, was sich in der Lektüre von Wilhelm Onckens 46-bändiger Weltgeschichtsreihe Allgemeine Geschichte in Einzeldarstellungen widerspiegelt. Ein spezieller Raum in der Familienwohnung wurde in eine Bibliothek und einen Leseraum umgewandelt.

Im Jahr 1914 schrieb sich von Neumann am lutherischen Fasori Evangélikus Gimnázium ein. Eugene Wigner, der an der Einrichtung ein Jahr älter war als er, wurde schnell ein enger Bekannter.

Obwohl sein Vater darauf bestand, dass er die Schule auf einer altersgerechten Klassenstufe besuchte, erhielt von Neumann fortgeschrittenen Unterricht von Privatlehrern. Im Alter von 15 Jahren begann er unter der Anleitung des Analytikers Gábor Szegő mit dem Studium der fortgeschrittenen Analysis. Berichten zufolge war Szegő bei ihrer ersten Begegnung von Neumanns mathematischen Fähigkeiten und seiner schnellen Auffassungsgabe so beeindruckt, dass er laut Szegős Frau sichtlich emotional nach Hause zurückkehrte. Im Alter von 19 Jahren hatte von Neumann zwei bedeutende mathematische Arbeiten verfasst, wobei die zweite eine zeitgenössische Definition von Ordnungszahlen enthielt, die Georg Cantors frühere Formulierung ersetzte. Nach Abschluss seiner Gymnasialausbildung bewarb er sich erfolgreich um den Eötvös-Preis, einen renommierten nationalen Mathematikpreis, und erhielt diesen.

Universitätsstudien

Theodore von Kármán, ein Freund von Neumann, erzählte, dass von Neumanns Vater seinem Sohn eine Karriere in der Industrie anstrebte und von Kármán bat, ihn von der Mathematik abzubringen. Folglich kamen von Neumann und sein Vater zu dem Schluss, dass Chemieingenieurwesen der geeignetste Berufsweg sei. Mangels umfangreicher Kenntnisse auf diesem Gebiet absolvierte von Neumann ein zweijähriges, nicht-diplomiertes Chemiestudium an der Universität Berlin. Anschließend bestand er im September 1923 erfolgreich die Aufnahmeprüfung für die ETH Zürich. Gleichzeitig schrieb sich von Neumann an der Pázmány-Péter-Universität, damals noch als Universität Budapest bekannt, als Doktorand in Mathematik ein. Seine Dissertation befasste sich mit einer Axiomatisierung der Mengenlehre von Cantor. 1926 schloss er sein Chemieingenieurstudium an der ETH Zürich ab und bestand gleichzeitig seine Doktorprüfung summa cum laude in Mathematik mit den Nebenfächern Experimentalphysik und Chemie an der Universität Budapest.

Anschließend ging von Neumann, unterstützt durch ein Stipendium der Rockefeller Foundation, an die Universität Göttingen, um bei David Hilbert Mathematikstudien fortzusetzen. Hermann Weyl erinnerte sich, dass er, von Neumann und Emmy Noether im Winter 1926–1927 nach dem Unterricht häufig durch die „kalten, nassen, regennassen Straßen Göttingens“ spazierten und sich an Diskussionen über hyperkomplexe Zahlensysteme und ihre Darstellungen beteiligten.

Beruf und Privatleben

Von Neumanns Habilitation wurde am 13. Dezember 1927 abgeschlossen und führte 1928 zu seiner Ernennung zum Privatdozenten an der Universität Berlin, wo er seine Lehrtätigkeit aufnahm. Insbesondere war er die jüngste Person, die jemals in der Geschichte der Universität zum Privatdozenten gewählt wurde. Während dieser Zeit war er produktiv und verfasste jeden Monat etwa eine bedeutende Mathematikarbeit. Im Jahr 1929 hatte er kurzzeitig eine Position als Privatdozent an der Universität Hamburg inne, um sich bessere Aussichten auf eine unbefristete Professur zu verschaffen, bevor er im Oktober desselben Jahres als Gastdozent für mathematische Physik an die Princeton University wechselte.

1930 ließ sich von Neumann katholisch taufen. Bald darauf heiratete er Marietta Kövesi, eine Wirtschaftsabsolventin der Universität Budapest. Ihre Tochter Marina wurde 1935 geboren und verfolgte später eine akademische Laufbahn als Professorin. Die Ehe des Paares wurde am 2. November 1937 geschieden. Anschließend heiratete von Neumann am 17. November 1938 Klára Dán.

Im Jahr 1933 nahm von Neumann eine unbefristete Professur am Institute for Advanced Study in New Jersey an, nachdem der Plan der Institution, Hermann Weyl zu ernennen, offensichtlich gescheitert war. Anschließend anglisierte er seinen Vornamen zu John, behielt aber den deutsch-aristokratischen Nachnamen von Neumann bei. Von Neumann wurde 1937 eingebürgerter US-amerikanischer Staatsbürger und versuchte umgehend, als Leutnant dem Officers Reserve Corps der US-Armee beizutreten. Obwohl er die erforderlichen Prüfungen bestanden hatte, wurde seine Bewerbung aufgrund seines Alters abgelehnt. 1939 wanderten seine Mutter, seine Brüder und seine Schwiegereltern in die Vereinigten Staaten aus, um sich ihm anzuschließen.

Klára und John von Neumann waren innerhalb der akademischen Gemeinschaft von Princeton aktiv sozial präsent. Ihr weißes Schindelhaus an der Westcott Road galt als eines der bedeutendsten Privathäuser Princetons. John von Neumann trug stets formelle Anzüge und war für seine Wertschätzung für jiddischen und „unkonventionellen“ Humor bekannt. Seine bedeutendsten Werke führte er oft in lauten, unstrukturierten Umgebungen auf. Berichten zufolge erhielt er während seines Aufenthalts in Princeton Beschwerden darüber, dass er deutsche Marschmusik in übermäßiger Lautstärke spielte. Churchill Eisenhart stellte fest, dass von Neumann in der Lage war, bis in die frühen Morgenstunden an gesellschaftlichen Zusammenkünften teilzunehmen und anschließend um 8:30 Uhr einen Vortrag zu halten.

Von Neumann wurde weithin für seine Bereitschaft anerkannt, Einzelpersonen aller Leistungsniveaus wissenschaftliche und mathematische Beratung anzubieten. Laut Wigner betreute von Neumann informell ein größeres Arbeitsvolumen als jeder andere zeitgenössische Mathematiker. Seine Tochter bemerkte seine tiefe Sorge um sein Erbe, das sowohl sein Privatleben als auch die nachhaltige Wirkung seiner intellektuellen Beiträge umfasste.

Er galt weithin als außergewöhnlicher Ausschussvorsitzender, der Flexibilität in persönlichen oder organisatorischen Fragen bewies und gleichzeitig Entschlossenheit in technischen Fragen bewahrte. Herbert York bezeichnete die zahlreichen „Von-Neumann-Ausschüsse“, an denen er teilnahm, als bemerkenswert sowohl hinsichtlich ihrer operativen Methodik als auch ihrer Produktivität. Die direkte und enge Zusammenarbeit zwischen den von Neumann geleiteten Ausschüssen und relevanten Militär- oder Unternehmensorganisationen schuf ein grundlegendes Modell für alle Langstreckenraketeninitiativen der Luftwaffe. Zahlreiche Bekannte von Neumann äußerten sich verwirrt über sein Engagement in militärischen Angelegenheiten und größeren Machtstrukturen. Stanisław Ulam postulierte, dass von Neumann eine uneingestandene Bewunderung für Einzelpersonen oder Einheiten hegte, die in der Lage waren, die Meinungen und Entscheidungen anderer zu beeinflussen.

Von Neumann bewahrte gewissenhaft seine in seinen prägenden Jahren erworbenen Sprachkenntnisse. Er sprach fließend Ungarisch, Französisch, Deutsch und Englisch und verfügte über Konversationskompetenz in Italienisch, Jiddisch, Latein und Altgriechisch. Seine Spanischkenntnisse waren vergleichsweise weniger gut. Er zeigte eine tiefe Leidenschaft und ein enzyklopädisches Verständnis der antiken Geschichte und hatte Freude daran, antike griechische Historiker in ihrer Originalsprache zu lesen. Ulam vermutete, dass diese Interessen seine Sicht auf den Verlauf zukünftiger Ereignisse und die grundlegenden Mechanismen der menschlichen Natur und der gesellschaftlichen Funktion beeinflusst haben könnten.

In den Vereinigten Staaten war von Neumanns engster Vertrauter der Mathematiker Stanisław Ulam. Von Neumann ging davon aus, dass ein erheblicher Teil seiner mathematischen Überlegungen intuitiv erfolgte; Er ging häufig mit einem ungelösten Problem in den Ruhestand und wachte mit der Lösung auf. Ulam stellte fest, dass von Neumanns kognitiver Prozess eher auditiv als visuell zu sein schien. Ulam erzählte: „Abgesehen von seiner Vorliebe für abstrakten Witz besaß er eine tiefe Wertschätzung – fast schon Appetit – für fundiertere Formen der Komödie und des Humors.“

Krankheit und Tod

Im Jahr 1955 wurde bei einer in der Nähe von Neumanns Schlüsselbein entdeckten Raumforderung Krebs diagnostiziert, der möglicherweise vom Skelett, der Bauchspeicheldrüse oder der Prostata ausging. Obwohl Konsens darüber besteht, dass der Tumor metastasiert hat, ist die genaue Lage des primären Krebses nach wie vor Gegenstand unterschiedlicher Angaben. Die Ätiologie der bösartigen Erkrankung könnte mit der Strahlenbelastung im Los Alamos National Laboratory zusammenhängen. Als sein Tod näher rückte, bat er um einen Priester; Allerdings erzählte der Geistliche später, dass von Neumann aus der Durchführung der Sterbesakratie nur wenig Trost empfand, da er große Angst vor dem Tod hatte und nicht in der Lage war, ihn zu akzeptieren. In Bezug auf seine religiösen Ansichten soll von Neumann gesagt haben: „Angesichts der Möglichkeit der ewigen Verdammnis für Ungläubige ist es rationaler, sich letztendlich dem Glauben zuzuwenden“, eine Aussage, die sich auf Pascals Wette bezog. Er vertraute seiner Mutter an: „Wahrscheinlich existiert ein göttliches Wesen. Zahlreiche Phänomene lassen sich mit einer solchen Existenz leichter erklären als ohne sie.“

Er starb als römisch-katholischer Mann am 8. Februar 1957 im Alter von 53 Jahren im Walter Reed Army Medical Hospital und wurde auf dem Princeton Cemetery beigesetzt.

Mathematik

Mengenmengentheorie

Bemühungen des frühen 20. Jahrhunderts, die Mathematik auf der Grundlage der naiven Mengenlehre zu etablieren, stießen auf ein erhebliches Hindernis durch Russells Paradoxon, das die Menge aller Mengen betraf, die sich selbst nicht enthalten. Die Herausforderung, eine umfassende Axiomatisierung für die Mengenlehre zu formulieren, wurde etwa zwei Jahrzehnte später implizit von Ernst Zermelo und Abraham Fraenkel angegangen. Die Zermelo-Fraenkel-Mengentheorie führte einen Rahmen von Prinzipien ein, die die Konstruktion von Mengen erleichtern, die üblicherweise in der mathematischen Praxis verwendet werden, schloss jedoch nicht ausdrücklich die mögliche Existenz einer Menge aus, die sich selbst enthält. In seiner Doktorarbeit von 1925 stellte von Neumann zwei Methoden zum Ausschluss solcher Mengen vor: das Grundlagenaxiom und das Konzept der Klasse

Das Fundamentaxiom besagt, dass alle Mengen hierarchisch aufgebaut sind und den Zermelo-Fraenkel-Prinzipien folgen. Dies impliziert, dass eine Menge, wenn sie ein Element einer anderen ist, dieser in der Grundhierarchie vorangehen muss, wodurch ausgeschlossen wird, dass eine Menge ein Element von sich selbst ist. Um die Konsistenz dieses neuen Axioms mit bestehenden Axiomen festzustellen, entwickelte von Neumann die Methode der inneren Modelle, die später zu einem entscheidenden Werkzeug in der Mengenlehre wurde.

Eine zweite Strategie zur Lösung des Problems der sich selbst enthaltenden Mengen basiert auf dem Konzept einer Klasse. In diesem Rahmen wird eine Menge als eine Klasse definiert, die ein Element anderer Klassen ist, wohingegen eine eigentliche Klasse als eine Klasse definiert ist, die kein Element einer anderen Klasse ist. Innerhalb des Zermelo-Fraenkel-Axiomatensystems wird die Konstruktion einer Menge, die alle Mengen enthält, die nicht zu sich selbst gehören, durch die Axiome verhindert. Umgekehrt erlaubt von Neumanns Rahmen die Konstruktion einer solchen Sammlung, sie wird jedoch als eigentliche Klasse und nicht als Menge kategorisiert.

Insgesamt umfasste von Neumanns Hauptleistung in der Mengenlehre die „Axiomatisierung der Mengenlehre und (damit verbunden) elegante Theorie der Ordnungs- und Kardinalzahlen sowie die erste strenge Formulierung von Definitionsprinzipien durch die transfinite Induktion“.

Das Von-Neumann-Paradoxon

Stefan Banach und Alfred Tarski erweiterten Felix Hausdorffs Hausdorff-Paradoxon von 1914 und demonstrierten 1924, wie eine dreidimensionale Kugel in disjunkte Mengen unterteilt werden kann, die dann verschoben und gedreht werden können, um zwei identische Kopien der ursprünglichen Kugel zu erstellen. Dieses Phänomen ist als Banach-Tarski-Paradoxon bekannt. Sie stellten außerdem fest, dass eine zweidimensionale Scheibe eine solche paradoxe Zerlegung nicht zulässt. 1929 erzielte von Neumann jedoch ein ähnliches Ergebnis für eine Scheibe, indem er sie in eine endliche Anzahl von Teilen unterteilte und sie wieder zu zwei Scheiben zusammensetzte, wobei er flächenerhaltende affine Transformationen anstelle von Translationen und Rotationen einsetzte. Dieses Ergebnis beruhte auf der Identifizierung freier Gruppen affiner Transformationen, einer bedeutenden Methode, die von Neumann später in seiner Forschung zur Maßtheorie ausarbeitete.

Beweistheorie

Von Neumanns Beiträge zur Mengenlehre ermöglichten es ihrem axiomatischen System, die in früheren Systemen vorhandenen Inkonsistenzen zu überwinden und es so als brauchbare Grundlage für die Mathematik zu etablieren, ungeachtet des Fehlens eines Konsistenzbeweises. Die anschließende Untersuchung befasste sich mit der Frage, ob dieses System schlüssige Lösungen für alle in seinem Rahmen darstellbaren mathematischen Probleme bot oder ob es durch die Einbeziehung robusterer Axiome verbessert werden könnte, um den Beweis eines breiteren Spektrums von Theoremen zu erleichtern.

Bis 1927 beteiligte sich von Neumann aktiv an Diskussionen in Göttingen über die Ableitung der Elementararithmetik aus den Peano-Axiomen. Aufbauend auf Ackermanns Forschungen initiierte er Bemühungen, die Konsistenz der Arithmetik erster Ordnung zu demonstrieren, indem er die für Hilberts Schule charakteristischen finistischen Methoden einsetzte. Es gelang ihm, die Konsistenz eines bestimmten Fragments der natürlichen Zahlenarithmetik durch die Einführung von Einschränkungen bei der Induktion nachzuweisen. Anschließend verfolgte er einen umfassenderen Beweis für die Konsistenz der klassischen Mathematik und nutzte Techniken der Beweistheorie.

Eine definitiv negative Antwort auf die Frage der Vollständigkeit kam im September 1930 auf der Zweiten Konferenz über die Erkenntnistheorie der exakten Wissenschaften, wo Kurt Gödel seinen ersten Unvollständigkeitssatz vorstellte. Dieser Satz besagt, dass herkömmliche axiomatische Systeme von Natur aus unvollständig sind, was bedeutet, dass sie nicht jede wahre Aussage beweisen können, die in ihrer formalen Sprache ausgedrückt werden kann. Darüber hinaus bleibt diese Unvollständigkeit zwangsläufig bei jeder konsequenten Erweiterung dieser Systeme erhalten. Während der Konferenz schlug von Neumann Gödel vor, seine Erkenntnisse an unentscheidbare Sätze über ganze Zahlen anzupassen.

Innerhalb eines Monats informierte von Neumann Gödel über eine wichtige Implikation seines Theorems: Standardaxiomatischen Systemen fehlt von Natur aus die Fähigkeit, ihre eigene Konsistenz zu beweisen. Gödel antwortete und erklärte, er habe dieses Ergebnis, das jetzt als sein zweiter Unvollständigkeitssatz anerkannt wird, unabhängig identifiziert und beabsichtige, einen Vorabdruck seines bevorstehenden Artikels zu versenden, der beide Ergebnisse umfasst, obwohl diese Veröffentlichung nie zustande kam. Anschließend räumte von Neumann Gödels Vorrang in ihrer Korrespondenz ein. Dennoch wich von Neumanns demonstrativer Ansatz von dem Gödels ab und er behauptete, dass der zweite Unvollständigkeitssatz einen tiefgreifenderen Einfluss auf Hilberts Programm hatte, als Gödel zunächst annahm. Diese Offenbarung veränderte von Neumanns Sicht auf mathematische Genauigkeit grundlegend und veranlasste ihn, die Forschung zu den grundlegenden Aspekten der Mathematik und Metamathematik einzustellen und seine Bemühungen auf angewandte Probleme zu lenken.

Ergodische Theorie

Im Jahr 1932 veröffentlichte von Neumann eine Reihe von Arbeiten, die grundlegende Beiträge zur Ergodentheorie lieferten, einer mathematischen Disziplin, die sich mit den Zuständen dynamischer Systeme beschäftigt, die ein invariantes Maß besitzen. In Bezug auf diese Veröffentlichungen zur Ergodentheorie aus dem Jahr 1932 behauptete Paul Halmos, dass sie allein „ausgereicht hätten, um ihm mathematische Unsterblichkeit zu garantieren“, selbst wenn von Neumann keine anderen Arbeiten unternommen hätte. Zu diesem Zeitpunkt hatte von Neumann bereits seine bahnbrechenden Arbeiten zur Operatortheorie verfasst, und die aus dieser Forschung abgeleiteten Prinzipien erwiesen sich als entscheidend für die Formulierung seines mittleren Ergodensatzes.

Dieses Theorem betrifft beliebige einheitliche Ein-Parameter-Gruppen t V t {\displaystyle {\mathit {t}}\to {\mathit {V_{t}}}} und behauptet, dass für jeden Vektor ϕ {\displaystyle \phi innerhalb des Hilbert-Raums, der limit lim T §7475§ T §8586§ T V t ( ϕ ) d t {\textstyle \lim _{T\to \infty }{\frac {1}{T}}\int _{0}^{T}V_{t}(\phi )\,dt} existiert gemäß der durch die Hilbert-Norm definierten Metrik. Diese Grenze ist ein Vektor ψ {\displaystyle \psi so dass V t ( ψ ) = ψ {\displaystyle V_{t}(\psi )=\psi für alle t {\displaystyle t} . Dieses Ergebnis wurde in der Erstveröffentlichung festgestellt. In der darauffolgenden Arbeit behauptete von Neumann, dass diese Ergebnisse eine angemessene Grundlage für physikalische Anwendungen im Zusammenhang mit Boltzmanns Ergodenhypothese darstellten. Darüber hinaus stellte er fest, dass eine vollständige Ergodizität noch nicht erreicht wurde, und identifizierte dies als einen Bereich für weitere Forschung.

Später in diesem Jahr veröffentlichte er eine weitere wegweisende Arbeit, mit der er die systematische Untersuchung der Ergodizität einleitete. In dieser Arbeit präsentierte und demonstrierte er einen Zerlegungssatz, der verdeutlichte, dass ergodische maßerhaltende Aktionen auf der reellen Linie die Grundelemente darstellen, aus denen alle maßerhaltenden Aktionen konstruiert werden können. Darüber hinaus wurden mehrere weitere wichtige Theoreme eingeführt und rigoros bewiesen. Die in diesem Artikel vorgestellten Ergebnisse haben zusammen mit denen einer anderen Zusammenarbeit mit Paul Halmos erhebliche Auswirkungen auf verschiedene mathematische Bereiche.

Maßtheorie

In der Maßtheorie betrifft das „Problem des Maßes“ für einen n-dimensionalen euklidischen Raum Rn die Existenz einer positiven, normalisierten, invarianten und additiven Mengenfunktion, die auf alle Teilmengen von Rn anwendbar ist. Die Forschungen von Felix Hausdorff und Stefan Banach deuteten auf eine positive Lösung dieses Problems hin, wenn n = 1 oder n = 2, in allen anderen Szenarien jedoch eine negative Lösung, hauptsächlich aufgrund des Banach-Tarski-Paradoxons. Von Neumann behauptete, dass das „Problem im Wesentlichen gruppentheoretischer Natur“ sei, und schlug vor, dass die Existenz eines Maßes durch die Untersuchung der Eigenschaften der mit dem spezifischen Raum verbundenen Transformationsgruppe festgestellt werden könne. Das positive Ergebnis für Räume mit höchstens zwei Dimensionen und das negative Ergebnis für höhere Dimensionen ergeben sich aus der Lösbarkeit der euklidischen Gruppe im ersten Fall und ihrer Unlösbarkeit im zweiten Fall. Folglich postulierte von Neumann, dass der entscheidende Faktor eher die Veränderung der Gruppe als die Veränderung des Raums selbst sei. Ungefähr im Jahr 1942 teilte er Dorothy Maharam eine Methode mit, um zu zeigen, dass jeder vollständige σ-endliche Maßraum einen multiplikativen Hub besitzt; Er veröffentlichte diesen Beweis jedoch nicht und sie entwickelte daraufhin eine Alternative.

In mehreren von Neumanns Veröffentlichungen werden die von ihm verwendeten Methoden oft als aussagekräftiger angesehen als die tatsächlichen Ergebnisse. Im Vorfeld seiner nachfolgenden Untersuchungen zur Dimensionstheorie innerhalb von Operatoralgebren wandte von Neumann Äquivalenzprinzipien durch endliche Zerlegung an und formulierte so das Maßproblem in funktionalen Begriffen um. Ein bedeutender Beitrag von Neumanns zur Maßtheorie entstand aus einem Aufsatz, der sich mit Haars Frage nach der Existenz einer Algebra befasste, die alle beschränkten Funktionen auf der reellen Zahlenlinie umfasst und „ein vollständiges System von Vertretern der Klassen fast überall gleicher messbarer begrenzter Funktionen“ darstellen würde. Er bewies diese Existenz positiv und untersuchte in späteren Kooperationen mit Stone verschiedene Verallgemeinerungen und algebraische Facetten des Problems. Darüber hinaus stellte er mithilfe neuartiger Methoden die Existenz von Desintegrationen für verschiedene allgemeine Maßtypen fest. Von Neumann lieferte außerdem einen neuartigen Beweis für die Einzigartigkeit von Haar-Maßen, indem er die Mittelwerte von Funktionen verwendete; Dieser Ansatz war jedoch auf kompakte Gruppen beschränkt. Um dies auf lokal kompakte Gruppen auszudehnen, war er gezwungen, völlig neue Techniken zu entwickeln. Er präsentierte auch einen innovativen und genialen Beweis für das Radon-Nikodym-Theorem. Seine Vorlesungsunterlagen zur Maßtheorie, die er am Institute for Advanced Study hielt, dienten in dieser Zeit als wichtige Wissensquelle zu diesem Thema in Amerika und wurden anschließend veröffentlicht.

Topologische Gruppen

Auf der Grundlage seiner früheren Forschungen in der Maßtheorie hat von Neumann die Theorie topologischer Gruppen erheblich weiterentwickelt, beginnend mit einer Veröffentlichung über nahezu periodische Funktionen auf Gruppen, in der er Bohrs Theorie auf beliebige Gruppen erweiterte. Er entwickelte dieses Gebiet durch eine gemeinsame Arbeit mit Bochner weiter, die die Theorie der Fast-Periodizität verfeinerte, um Funktionen einzubeziehen, deren Werte Elemente linearer Räume und nicht Skalarzahlen waren. 1938 erhielt er den Bôcher-Gedächtnispreis als Anerkennung für seine analytischen Beiträge im Zusammenhang mit diesen Veröffentlichungen.

In einer Veröffentlichung von 1933 wandte von Neumann das kürzlich eingeführte Haar-Maß an, um Hilberts fünftes Problem speziell für kompakte Gruppen zu lösen. Das dieser Lösung zugrunde liegende Grundkonzept entstand mehrere Jahre zuvor, als von Neumann in seiner Arbeit über die analytischen Eigenschaften von Gruppen linearer Transformationen enthüllte, dass geschlossene Untergruppen einer allgemeinen linearen Gruppe tatsächlich Lie-Gruppen sind. Dieser Befund wurde anschließend von Cartan auf beliebige Lie-Gruppen verallgemeinert und als Satz über geschlossene Untergruppen formalisiert.

Funktionsanalyse

John von Neumann leistete Pionierarbeit bei der axiomatischen Definition eines abstrakten Hilbert-Raums und charakterisierte ihn als einen komplexen Vektorraum, der mit einem hermiteschen Skalarprodukt ausgestattet ist, wobei die entsprechende Norm sowohl Trennbarkeit als auch Vollständigkeit aufweist. In denselben Veröffentlichungen etablierte er auch die allgemeine Form der Cauchy-Schwarz-Ungleichung, die zuvor nur anhand spezifischer Fälle erkannt worden war. Seine Beiträge erstreckten sich auf die Entwicklung der Spektraltheorie der Operatoren im Hilbert-Raum, die in drei einflussreichen Artikeln detailliert beschrieben wurde, die zwischen 1929 und 1932 veröffentlicht wurden. Diese grundlegende Arbeit gipfelte in seiner Abhandlung Mathematische Grundlagen der Quantenmechanik, die neben zeitgenössischen Werken von Stone und Banach die ersten Monographien zur Hilbert-Raumtheorie darstellte. Von Neumann erkannte die Grenzen von Folgen bei der Entwicklung einer Theorie schwacher Topologien und initiierte ein Programm zur Bewältigung dieser Herausforderungen, das zu seinen bahnbrechenden Definitionen lokalkonvexer Räume und topologischer Vektorräume führte. Darüber hinaus sind mehrere andere topologische Eigenschaften, die er in dieser Zeit einführte, wie die Beschränktheit und die totale Beschränktheit – die seine frühe Anwendung von Hausdorffs topologischen Konzepten vom Euklidischen bis zum Hilbert-Raum widerspiegeln – auch heute noch von grundlegender Bedeutung. Zwei Jahrzehnte lang galt von Neumann weithin als die herausragende Autorität auf diesem Gebiet. Diese Fortschritte wurden hauptsächlich durch die Anforderungen der Quantenmechanik vorangetrieben, in der von Neumann die Notwendigkeit erkannte, die Spektraltheorie hermitescher Operatoren von begrenzten auf unbeschränkte Fälle zu erweitern. Zu den weiteren bedeutenden Errungenschaften, die in diesen Arbeiten aufgeführt werden, gehören eine umfassende Erläuterung der Spektraltheorie für normale Operatoren, die anfängliche abstrakte Formulierung der Spur eines positiven Operators, eine Verallgemeinerung von Riesz‘ zeitgenössischer Darstellung von Hilberts Spektralsätzen und die entscheidende Unterscheidung zwischen hermiteschen und selbstadjunkten Operatoren in einem Hilbert-Raum. Diese Unterscheidung ermöglichte es ihm, alle hermiteschen Operatoren zu charakterisieren, die einen bestimmten hermiteschen Operator erweitern. Er verfasste auch einen Artikel, in dem er die Unzulänglichkeit unendlicher Matrizen, damals ein gängiges Werkzeug in der Spektraltheorie, zur Darstellung hermitescher Operatoren demonstrierte. Seine umfangreichen Arbeiten zur Operatortheorie führten schließlich zu seinem tiefgreifendsten Beitrag zur reinen Mathematik: der systematischen Untersuchung von von Neumann-Algebren und allgemeiner von Operatoralgebren.

Anschließende Forschungen zu Operatorringen veranlassten von Neumann, seine Spektraltheorie erneut zu prüfen und einen neuartigen Ansatz zur Analyse ihrer geometrischen Aspekte durch die Anwendung direkter Integrale von Hilberträumen einzuführen. Ähnlich wie bei seinen Beiträgen zur Maßtheorie stellte er mehrere Theoreme auf, die aus Zeitgründen unveröffentlicht blieben. Er teilte Nachman Aronszajn und K. T. Smith mit, dass er in den frühen 1930er Jahren, als er sich mit dem Problem des invarianten Unterraums beschäftigte, die Existenz echter invarianter Unterräume für vollständig stetige Operatoren innerhalb eines Hilbert-Raums nachgewiesen hatte.

In Zusammenarbeit mit I. J. Schoenberg verfasste von Neumann mehrere Werke, die sich mit der translationinvarianten Hilbertschen Metrik auf der reellen Zahlenlinie befassten und in ihrer umfassenden Klassifizierung gipfelten. Den Anstoß für diese Forschung gaben verschiedene Untersuchungen zur Einbettung metrischer Räume in Hilbert-Räume.

In Zusammenarbeit mit Pascual Jordan verfasste von Neumann gemeinsam eine prägnante Arbeit, die die erste Ableitung einer Norm aus einem inneren Produkt unter Verwendung der Parallelogrammidentität lieferte. Seine Spurenungleichung gilt als zentrales Ergebnis der Matrixtheorie und wird häufig bei Matrixnäherungsproblemen angewendet. Darüber hinaus war er der erste, der das Konzept einführte, dass das Dual einer Vornorm eine Norm darstellt. Dies wurde in einer wegweisenden Arbeit über die Theorie einheitlich invarianter Normen und symmetrischer Eichfunktionen vorgestellt, die heute als symmetrische absolute Normen anerkannt sind. Diese besondere Veröffentlichung ebnete natürlich den Weg für die Untersuchung symmetrischer Operatorideale und dient als Grundlagentext für die zeitgenössische Forschung zu symmetrischen Operatorräumen.

In Zusammenarbeit mit Robert Schatten leistete er Pionierarbeit bei der Untersuchung nuklearer Operatoren in Hilbert-Räumen und der Tensorprodukte von Banach-Räumen. Ihre Arbeit umfasste die Einführung und Analyse von Trace-Klassenoperatoren, ihrer damit verbundenen Ideale und ihrer dualen Beziehungen zu kompakten Operatoren sowie ihrer Vordualität mit begrenzten Operatoren. Zu den frühen Erfolgen von Alexander Grothendieck gehörte die Ausweitung dieses Konzepts auf Nuklearbetreiber auf Banach-Räumen. Zuvor, im Jahr 1937, hatte von Neumann bereits bedeutende Erkenntnisse auf diesem Gebiet veröffentlicht, wie zum Beispiel die Etablierung einer Ein-Parameter-Skala unterschiedlicher Kreuznormen auf l §1617§ n l §3738§ n {\displaystyle {\textit {l}}\,_{2}^{n}\otimes {\textit {l}}\,_{2}^{n}} und die Demonstration verschiedener anderer Ergebnisse, die für das relevant sind, was heute als Schatten-von-Neumann-Ideale anerkannt wird.

Operatoralgebren

Von Neumann begründete das Gebiet der Operatorringe, insbesondere durch die Entwicklung von Von-Neumann-Algebren, die ursprünglich als W*-Algebren bezeichnet wurden. Obwohl seine grundlegenden Konzepte für Operatorringe bereits 1930 entstanden, begann seine intensive Forschung zu ihnen erst nach seinem anschließenden Treffen mit F. J. Murray. Eine von Neumann-Algebra wird formal als *-Algebra begrenzter Operatoren auf einem Hilbert-Raum definiert, die durch ihren Abschluss in der schwachen Operatortopologie und die Einbeziehung des Identitätsoperators gekennzeichnet ist. Der von Neumann-Bikommutantensatz demonstriert die Äquivalenz zwischen dieser analytischen Definition und einer rein algebraischen Definition und behauptet, dass sie ihrem Bikommutanten entspricht. Nach seiner Klärung des Szenarios der kommutativen Algebra begann von Neumann 1936 mit Murrays teilweiser Mitarbeit mit der Untersuchung des nichtkommutativen Falls und konzentrierte sich dabei auf die allgemeine Untersuchung von Faktoren und die Klassifizierung von von Neumann-Algebren. Die sechs bahnbrechenden Arbeiten, die er zwischen 1936 und 1940 verfasste und in denen er diese Theorie ausarbeitete, gelten als „Meisterwerke der Analyse im 20. Jahrhundert“. In diesen Arbeiten wurden zahlreiche grundlegende Ergebnisse zusammengestellt und mehrere Forschungsprogramme zur Theorie der Operatoralgebra ins Leben gerufen, an denen sich Mathematiker jahrzehntelang beteiligten. Ein bemerkenswertes Beispiel ist die Klassifizierung von Faktoren. Darüber hinaus zeigte er 1938, dass jede von Neumann-Algebra auf einem separierbaren Hilbert-Raum als direktes Integral von Faktoren ausgedrückt werden kann; Dieser Befund wurde jedoch erst 1949 veröffentlicht. Von-Neumann-Algebren sind eng mit einer Theorie der nichtkommutativen Integration verbunden, einem Konzept, auf das von Neumann in seinem Werk anspielte, es aber nicht explizit formalisierte. Ein weiterer bedeutender Beitrag zur Polarzerlegung wurde 1932 veröffentlicht.

Gittertheorie

Von 1935 bis 1937 widmete von Neumann seine Bemühungen der Gittertheorie, die teilweise geordnete Mengen untersucht, bei denen zwei beliebige Elemente sowohl eine größte Untergrenze als auch eine kleinste Obergrenze besitzen. Garrett Birkhoff bemerkte insbesondere: „John von Neumanns brillanter Geist raste wie ein Meteor über die Gittertheorie.“ Von Neumann integrierte die klassische projektive Geometrie mit zeitgenössischen algebraischen Strukturen, einschließlich linearer Algebra, Ringtheorie und Gittertheorie. Diese Synthese ermöglichte die Neuinterpretation zahlreicher früherer geometrischer Erkenntnisse im Kontext allgemeiner Module über Ringen. Seine Beiträge waren grundlegend für spätere Entwicklungen in der modernen projektiven Geometrie.

Sein bedeutendster Beitrag war die Etablierung der kontinuierlichen Geometrie als eigenständiges mathematisches Gebiet. Diese Entwicklung ging aus seiner bahnbrechenden Forschung zu Operatorringen hervor. Innerhalb der Mathematik dient die kontinuierliche Geometrie als Alternative zur komplexen projektiven Geometrie. Im Gegensatz zur komplexen projektiven Geometrie, bei der die Dimension eines Unterraums zu einer diskreten Menge gehört, wie z. B. §6, §1011§ , . . . , n {\displaystyle 0,1,...,{\mathit {n}}} , in kontinuierlicher Geometrie kann die Dimension jedes Element innerhalb des Einheitsintervalls sein [ §4445§ , §4849§ ] {\displaystyle [0,1]} . Zuvor hatten Menger und Birkhoff einen axiomatischen Rahmen für die komplexe projektive Geometrie basierend auf den Eigenschaften ihres Gitters aus linearen Unterräumen erstellt. Aufbauend auf seiner Arbeit zu Ringen von Operatoren verfeinerte von Neumann anschließend diese Axiome, um eine umfassendere Kategorie von Gittern abzugrenzen, die er kontinuierliche Geometrien nannte.

Im Gegensatz zu projektiven Geometrien, bei denen Unterraumabmessungen eine diskrete Menge darstellen (insbesondere nichtnegative ganze Zahlen), können die Abmessungen von Elementen innerhalb einer kontinuierlichen Geometrie über das Einheitsintervall [ §8, §1213§ ] {\displaystyle [0,1]} . Von Neumanns Motivation beruhte auf der Identifizierung von Neumann-Algebren mit einer Dimensionsfunktion, die ein kontinuierliches Spektrum von Dimensionen ergab. Bemerkenswerterweise wurde in den Projektionen des hyperfiniten Typ-II-Faktors das erste Beispiel einer kontinuierlichen Geometrie beobachtet, die sich vom projektiven Raum unterscheidet.

In seiner abstrakteren Arbeit zur Gittertheorie ging von Neumann erfolgreich die komplexe Herausforderung an, die Klasse von zu definieren C G ( F ) {\displaystyle {\mathit {CG(F)}}} . Diese Klasse repräsentiert kontinuierlichdimensionale projektive Geometrie über einem beliebigen Teilungsring F {\displaystyle {\mathit {F}}\,} , artikuliert unter Verwendung des abstrakten Formalismus der Gittertheorie. Darüber hinaus präsentierte er eine abstrakte Untersuchung der Dimension innerhalb vollständig ergänzter modularer topologischer Gitter, bei denen es sich um Eigenschaften handelt, die den Gittern von Unterräumen innerer Produkträume innewohnen.

Die Dimension ist durch zwei grundlegende Eigenschaften eindeutig definiert und ermöglicht eine positive lineare Transformation. Es bleibt unter perspektivischen Abbildungen, auch bekannt als Perspektivitäten, invariant und erhält die Ordnung durch Inklusion aufrecht. Der komplizierteste Aspekt des Beweises stellt die Äquivalenz zwischen Perspektivität und „Projektivität durch Zerlegung“ her, woraus sich als Konsequenz direkt die Transitivität der Perspektivität ergibt.

Für jede ganze Zahl n > §1011§ {\displaystyle n>3} , alle n {\displaystyle {\mathit {n}}} -dimensionale abstrakte projektive Geometrie ist isomorph zum Unterraumgitter einer n {\displaystyle {\mathit {n}}} -dimensionaler Vektorraum V n ( F ) {\displaystyle V_{n}(F) über einem eindeutigen entsprechenden Teilungsring F {\displaystyle F} . Dieses Prinzip wird offiziell als Veblen-Young-Theorem anerkannt. Anschließend erweiterte von Neumann dieses grundlegende Ergebnis der projektiven Geometrie um den kontinuierlichen Dimensionsbereich. Dieser Koordinationssatz brachte die Forschung in der abstrakten projektiven Geometrie und Gittertheorie erheblich voran, wobei ein Großteil der nachfolgenden Arbeiten von Neumanns Methoden verwendeten. Birkhoff formulierte diesen Satz wie folgt:

Jedes komplementäre modulare Gitter L, das eine „Basis“ von n ≥ 4 paarweisen perspektivischen Elementen besitzt, ist isomorph zum Gitter ℛ(R), das alle Hauptrechtsideale eines geeigneten regulären Rings R umfasst. Dieser Satz stellt den Höhepunkt von 140 Seiten außergewöhnlich brillanter und tiefgründiger algebraischer Arbeit dar, die völlig neue axiomatische Grundlagen einführte. Um die außerordentliche intellektuelle Schärfe von Neumann wirklich zu erfassen, muss man nur versuchen, dieser präzisen logischen Abfolge zu folgen, wenn man bedenkt, dass er häufig vor dem Frühstück fünf Seiten solchen Materials verfasste, während er an einem Schreibtisch in seinem Wohnzimmer saß.

Die Entwicklung dieser Theorie erforderte die Einführung regelmäßiger Ringe. Konkret ist ein regulärer Von-Neumann-Ring als ein Ring definiert, in dem für jedes Element a gilt {\displaystyle a} , dort existiert ein Element x {\displaystyle x} erfüllt die Bedingung a x a = a {\displaystyle axa=a} . Diese Ringe stammen aus seiner Forschung zu von Neumann-Algebren sowie zu AW*-Algebren und verschiedenen Kategorien von C*-Algebren und sind eng damit verbunden.

Während der Formulierung und Demonstration der oben genannten Theoreme wurden zahlreiche zusätzliche technische Ergebnisse ermittelt, insbesondere in Bezug auf die Distributivität, einschließlich der unendlichen Distributivität, die von Neumann ad hoc entwickelte. Darüber hinaus formulierte er eine Theorie der Bewertungen innerhalb von Gittern und trug zur Weiterentwicklung der allgemeinen Theorie metrischer Gitter bei.

Birkhoff stellte in seiner posthumen Veröffentlichung über von Neumann fest, dass die meisten dieser Erkenntnisse aus einer intensiven zweijährigen Forschungszeit hervorgingen. Obwohl von Neumann über 1937 hinaus ein Interesse an der Gittertheorie aufrechterhielt, wurde dieses Engagement zweitrangig und manifestierte sich hauptsächlich in der Korrespondenz mit anderen Mathematikern. Ein abschließender Beitrag im Jahr 1940 beinhaltete ein gemeinsames Seminar mit Birkhoff am Institute for Advanced Study, bei dem von Neumann eine Theorie σ-vollständiger gittergeordneter Ringe ausarbeitete. Diese Arbeit wurde jedoch nie offiziell zur Veröffentlichung vorbereitet.

Mathematische Statistik

Von Neumann hat das Gebiet der mathematischen Statistik erheblich vorangebracht. 1941 bestimmte er genau die Verteilung des Verhältnisses zwischen dem mittleren Quadrat aufeinanderfolgender Differenzen und der Stichprobenvarianz für Variablen, die unabhängig und identisch normalverteilt sind. Dieses spezifische Verhältnis wurde anschließend auf die Residuen von Regressionsmodellen angewendet und wird heute allgemein als Durbin-Watson-Statistik anerkannt, die zur Bewertung der Nullhypothese seriell unabhängiger Fehler im Vergleich zur Alternativhypothese von Fehlern nach einer stationären Autoregression erster Ordnung verwendet wird.

Anschließend erweiterten Denis Sargan und Alok Bhargava diese Erkenntnisse, um Tests zu entwickeln, die bestimmen, ob die Fehlerterme in einem Regressionsmodell einen Gaußschen Random Walk aufweisen (d. h., was auf das Vorhandensein einer Einheitswurzel hinweist), im Gegensatz zur Alternativhypothese, dass sie einen stationären autoregressiven Prozess erster Ordnung darstellen.

Zusätzliche Forschungsbemühungen

Während seiner frühen Karriere verfasste von Neumann mehrere Veröffentlichungen zur mengentheoretischen reellen Analysis und Zahlentheorie. In einer Arbeit aus dem Jahr 1925 wurde sein Beweis vorgelegt, der zeigte, dass jede dichte Folge von Punkten innerhalb des Intervalls [ §8, §1213§ ] {\displaystyle [0,1]} könnte neu angeordnet werden, um eine gleichmäßige Verteilung zu erreichen. Seine einzige Veröffentlichung im Jahr 1926 konzentrierte sich auf Prüfers Theorie der idealen algebraischen Zahlen, in der er eine neuartige Konstruktionsmethode einführte. Diese Arbeit erweiterte Prüfers Theorie auf das gesamte Gebiet der algebraischen Zahlen und erläuterte deren Beziehung zu p-adischen Zahlen. Im Jahr 1928 veröffentlichte er zwei weitere Arbeiten, die diese mathematischen Konzepte näher erläuterten. Der erste Aufsatz befasste sich mit dem Problem der Aufteilung eines Intervalls in eine abzählbare Sammlung kongruenter Teilmengen. Diese Forschung löste eine von Hugo Steinhaus gestellte Frage, insbesondere ob ein Intervall §3536§ {\displaystyle \aleph _{0}} -teilbar. Von Neumann hat schlüssig gezeigt, dass alle Arten von Intervallen – halboffen, offen und geschlossen – tatsächlich §5859§ {\displaystyle \aleph _{0}} -teilbar durch Übersetzungen, was bedeutet, dass sie zerlegt werden können in §8182§ {\displaystyle \aleph _{0}} Teilmengen, die durch Übersetzung kongruent sind. Der anschließende Artikel präsentierte einen konstruktiven Beweis, unabhängig vom Auswahlaxiom, der die Existenz von beweist §100101§ §108109§ {\displaystyle 2^{\aleph _{0}}} algebraisch unabhängige reelle Zahlen.Er zeigte, dass die Werte A r = n = §148149§ §158159§ §162163§ [ n r ] / §188189§ §192193§ n §199200§ {\displaystyle A_{r}=\textstyle \sum _{n=0}^{\infty }2^{2^{[nr]}}\!{\big /}\,2^{2^{n^{2}}}} sind algebraisch unabhängig, wenn r > §226227§ {\displaystyle r>0} . Dies impliziert die Existenz einer perfekten, algebraisch unabhängigen Menge reeller Zahlen, deren Kardinalität dem Kontinuum entspricht. Weitere, weniger prominente Beiträge aus seiner frühen Karriere umfassen einen Beweis eines Maximumprinzips für den Gradienten einer Minimierungsfunktion innerhalb der Variationsrechnung sowie eine geringfügige Vereinfachung des Satzes von Hermann Minkowski über lineare Formen in der geometrischen Zahlentheorie. Anschließend war er in Zusammenarbeit mit Pascual Jordan und Eugene Wigner Co-Autor einer wegweisenden Arbeit. Diese Arbeit klassifizierte alle endlichdimensionalen formal realen Jordan-Algebren und führte zur Entdeckung der Albert-Algebren, die aus ihrem Streben nach einem verbesserten mathematischen Rahmen für die Quantentheorie hervorgingen. Im Jahr 1936 versuchte von Neumann, die Initiative voranzutreiben, die Axiome seines früheren Hilbert-Raumprogramms durch die der Jordan-Algebren zu ersetzen, wie in einer Arbeit untersucht, die das unendlichdimensionale Szenario untersuchte. Obwohl er beabsichtigte, mindestens einen weiteren Aufsatz zu diesem Thema zu veröffentlichen, blieb dieser ungeschrieben. Dennoch dienten diese grundlegenden Axiome später als Grundlage für weitere Forschungen zur algebraischen Quantenmechanik, die von Irving Segal initiiert wurden.

Physik

Quantenmechanik

John von Neumann leistete in seiner bahnbrechenden Veröffentlichung Mathematical Foundations of Quantum Mechanics aus dem Jahr 1932 Pionierarbeit bei der Etablierung eines strengen mathematischen Rahmens für die Quantenmechanik, der als Dirac-von-Neumann-Axiome formalisiert wurde. Nach seiner Arbeit zur Axiomatisierung der Mengenlehre richtete von Neumann seine Bemühungen auf die Axiomatisierung der Quantenmechanik. 1926 hatte er die Idee, dass der Zustand eines Quantensystems als Punkt innerhalb eines komplexen Hilbert-Raums dargestellt werden könnte, der sogar für ein einzelnes Teilchen unendlichdimensional sein könnte. Innerhalb dieses quantenmechanischen Formalismus werden beobachtbare Größen wie Position oder Impuls als lineare Operatoren dargestellt, die auf den mit dem Quantensystem verknüpften Hilbert-Raum wirken.

Folglich wurde die Physik der Quantenmechanik effektiv in die Mathematik der Hilbert-Räume und der damit verbundenen linearen Operatoren umgewandelt. Beispielsweise wird das Unschärfeprinzip, das besagt, dass die genaue Bestimmung der Position eines Teilchens die gleichzeitige genaue Bestimmung seines Impulses ausschließt und umgekehrt, mathematisch als Nichtkommutativität ihrer jeweiligen Operatoren ausgedrückt. Dieser innovative mathematische Rahmen umfasste sowohl Heisenbergs als auch Schrödingers Formulierungen als spezifische Beispiele.

Von Neumanns abstrakter Ansatz ermöglichte es ihm, die grundlegende Debatte zwischen Determinismus und Nichtdeterminismus anzugehen. In seinem Buch präsentierte er einen Beweis dafür, dass die statistischen Ergebnisse der Quantenmechanik im Gegensatz zur klassischen statistischen Mechanik nicht aus Durchschnittswerten einer zugrunde liegenden Menge bestimmter „verborgener Variablen“ resultieren könnten. Allerdings veröffentlichte Grete Hermann 1935 einen Artikel, in dem sie behauptete, dass von Neumanns Beweis einen konzeptionellen Fehler aufwies, der ihn ungültig machte. Hermanns Kritik blieb weitgehend unbemerkt, bis John S. Bell 1966 unabhängig ein ähnliches Argument vorbrachte. In jüngerer Zeit, im Jahr 2010, argumentierte Jeffrey Bub, dass Bell von Neumanns ursprünglichen Beweis falsch interpretiert hatte, und stellte klar, dass der Beweis zwar möglicherweise nicht alle Theorien über versteckte Variablen ungültig macht, aber eine bestimmte und signifikante Teilmenge effektiv ausschließt. Bub postulierte weiter, dass von Neumann selbst sich dieser Einschränkung bewusst war und nicht behauptete, dass sein Beweis die Theorien über verborgene Variablen allgemein widerlegte. Der Wahrheitsgehalt von Bubs Interpretation ist jedoch ebenfalls umstritten. Anschließend bot Gleasons Theorem von 1957 ein alternatives Argument gegen versteckte Variablen, das mit von Neumanns allgemeiner Richtung übereinstimmte, aber auf Annahmen basierte, die als robuster und physikalisch relevanter galten.

Von Neumanns Beweis leitete einen bedeutenden Forschungsverlauf ein, der durch die anschließende Entwicklung des Bell-Theorems und der Experimente von Alain Aspect im Jahr 1982 schließlich zeigte, dass die Quantenphysik entweder einen Begriff von erfordert Realität, die sich grundlegend von der klassischen Physik oder der Einbeziehung der Nichtlokalität unterscheidet, die scheinbar der speziellen Relativitätstheorie widerspricht.

In einem Kapitel von Die mathematischen Grundlagen der Quantenmechanik führte von Neumann eine umfassende Analyse des Messproblems durch. Er ging davon aus, dass das gesamte physikalische Universum von einer universellen Wellenfunktion umfasst werden könnte. Angesichts der Notwendigkeit eines externen Faktors, um den Zusammenbruch der Wellenfunktion auszulösen, folgerte von Neumann, dass dieser Zusammenbruch durch das Bewusstsein des Experimentators ausgelöst wurde. Er behauptete, dass der mathematische Rahmen der Quantenmechanik die Lokalisierung des Zusammenbruchs der Wellenfunktion an jedem Punkt innerhalb der Kausalsequenz erlaube, der sich vom Messgerät bis zum „subjektiven Bewusstsein“ des menschlichen Beobachters erstreckt. Während die Abgrenzung zwischen Beobachter und Beobachtetem zwar flexibel gestaltet werden könnte, behält die Theorie im Wesentlichen nur dann ihre Kohärenz, wenn irgendwo ein Beobachter anwesend ist. Trotz ihrer Akzeptanz durch Eugene Wigner fand diese Interpretation, die den Zusammenbruch dem Bewusstsein zuschrieb, in der breiteren Physikgemeinschaft keine breite Akzeptanz.

Während sich die Theorien der Quantenmechanik weiter weiterentwickeln, geht der grundlegende mathematische Formalismus zur Lösung quantenmechanischer Probleme, der den meisten zeitgenössischen Ansätzen zugrunde liegt, auf die von Neumann entwickelten Formalismen und Techniken zurück. Folglich basieren die laufenden Diskussionen über die Interpretation der Theorie und ihre Erweiterungen weitgehend auf gemeinsamen grundlegenden mathematischen Annahmen.

Arthur Wightman, ein mathematischer Physiker, behauptete 1974, dass von Neumanns Axiomisierung der Quantentheorie, die als Beitrag zur Lösung von Hilberts sechstem Problem angesehen wurde, möglicherweise die bedeutendste Axiomisierung einer physikalischen Theorie darstellte, die zu dieser Zeit erreicht wurde. Durch seine Veröffentlichung von 1932 entwickelte sich die Quantenmechanik zu einer ausgereiften Theorie, die sich durch eine präzise mathematische Formulierung auszeichnete, die eindeutige Lösungen für konzeptionelle Herausforderungen ermöglichte. Trotz dieser Erfolge äußerte von Neumann später den Eindruck, dass dieses wissenschaftliche Unterfangen unvollständig sei, und stellte fest, dass er trotz des umfangreichen mathematischen Apparats, den er entwickelt hatte, keinen umfassenden und zufriedenstellenden mathematischen Rahmen für die Quantentheorie in ihrer Gesamtheit geschaffen hatte.

Von-Neumann-Entropie

Im Rahmen der Quanteninformationstheorie findet die von Neumann-Entropie weit verbreitete Anwendung in verschiedenen Formulierungen, einschließlich bedingter Entropie und relativer Entropie. Verschränkungsmaße werden aus Größen abgeleitet, die direkt mit der von Neumann-Entropie korrelieren. Für ein statistisches Ensemble quantenmechanischer Systeme, das durch die Dichtematrix gekennzeichnet ist ρ {\displaystyle \rho } , die von Neumann-Entropie ist definiert als S ( ρ ) = Tr ( ρ ln ρ ) . {\displaystyle S(\rho )=-\operatorname {Tr} (\rho \ln \rho ).\,} Zahlreiche Entropiemaße aus der klassischen Informationstheorie, wie etwa die Holevo-Entropie und die bedingte Quantenentropie, sind an den Quantenbereich anpassbar. Die Quanteninformationstheorie konzentriert sich hauptsächlich auf die Interpretation und Anwendung der von Neumann-Entropie, die als grundlegendes Element in ihrer Entwicklung dient, während die Shannon-Entropie zur klassischen Informationstheorie gehört.

Dichtematrix

Der Formalismus, der Dichteoperatoren und -matrizen umfasst, wurde 1927 von Neumann und unabhängig davon, wenn auch mit weniger systematischer Weiterentwicklung, von Lev Landau 1927 und Felix Bloch 1946 entwickelt. Die Dichtematrix ermöglicht die Darstellung probabilistischer Überlagerungen von Quantenzuständen, die als gemischte Zustände bezeichnet werden, im Gegensatz zu Wellenfunktionen, die sich auf die Beschreibung reiner Zustände beschränken.

Von Neumann-Messschema

Das von Neumann-Messschema, das als Vorläufer der Quantendekohärenztheorie gilt, konzeptualisiert Messungen projektiv, indem es das Messgerät einbezieht, das selbst als Quanteneinheit modelliert wird. Dieser Rahmen der „projektiven Messung“, der ursprünglich von Neumann eingeführt wurde, löste später die Entstehung von Quantendekohärenztheorien aus.

Quantenlogik

John von Neumann führte das Konzept der Quantenlogik erstmals 1932 in seiner Abhandlung Mathematische Grundlagen der Quantenmechanik ein, in der er postulierte, dass Projektionen innerhalb eines Hilbert-Raums Aussagen über physikalische Observablen darstellen könnten. Die formale Disziplin der Quantenlogik wurde später in einer Veröffentlichung von 1936 begründet, die von Neumann und Garrett Birkhoff gemeinsam verfasst wurde. Diese bahnbrechende Arbeit führte nicht nur die Quantenlogik ein, sondern lieferte auch den ersten schlüssigen Beweis, dass die Quantenmechanik einen Aussagenkalkül erfordert, der sich grundsätzlich von klassischen logischen Systemen unterscheidet, und identifizierte damit eine neuartige algebraische Struktur für die Quantenlogik. Während die Grundidee für einen auf die Quantenlogik zugeschnittenen Aussagenkalkül in von Neumanns Veröffentlichung von 1932 kurz vorgestellt wurde, wurde die zwingende Anforderung für diesen neuen Kalkül durch mehrere Beweise im Jahr 1936 untermauert. Beispielsweise sind Photonen nicht in der Lage, zwei hintereinander angeordnete Filter zu durchqueren, die senkrecht (z. B. horizontal und vertikal) polarisiert sind. Folglich können sie erst recht nicht passieren, wenn entweder vor oder nach diesen beiden ein dritter diagonal polarisierter Filter eingeführt wird. Wenn dieser dritte Filter jedoch zwischen die ersten beiden eingefügt wird, können die Photonen erfolgreich übertragen werden. Diese empirische Beobachtung lässt sich logisch in die Nichtkommutativität der Konjunktion übersetzen, ausgedrückt als ( A B ) ( B A ) {\displaystyle (A\land B)\neq (B\land A)} .Darüber hinaus wurde festgestellt, dass die Verteilungsgesetze der klassischen Logik, insbesondere P ( F R ) = {\displaystyle P\lor (Q\land R)={}} ( P F ) ( P R ) {\displaystyle (P\lor Q)\land (P\lor R) und P ( F R ) = {\displaystyle P\land (Q\lor R)={}} ( P F ) ( P R ) {\displaystyle (P\land Q)\lor (P\land R) , gelten nicht für die Quantentheorie.

Diese Diskrepanz entsteht, weil im Gegensatz zu klassischen Disjunktionen eine Quantendisjunktion auch dann gültig sein kann, wenn beide konstituierenden Disjunktionen falsch sind. Dieses Phänomen wird oft auf das häufige Vorkommen in der Quantenmechanik zurückgeführt, bei dem eine Reihe von Alternativen semantische Bestimmtheit besitzt, jede einzelne Alternative jedoch inhärent unbestimmt bleibt. Folglich muss das klassische logische Verteilungsgesetz durch eine weniger strenge Bedingung ersetzt werden. Anstatt ein Verteilungsgitter zu bilden, bilden Sätze, die sich auf ein Quantensystem beziehen, ein orthomodulares Gitter, das isomorph zum Gitter der Unterräume innerhalb des diesem System entsprechenden Hilbert-Raums ist.

Trotz dieser Beiträge blieb von Neumann mit seinen Fortschritten in der Quantenlogik unzufrieden. Sein Ziel war es, eine einheitliche Synthese von formaler Logik und Wahrscheinlichkeitstheorie zu erreichen. Als er jedoch versuchte, einen Aufsatz für die Henry-Joseph-Vorlesung vorzubereiten, die 1945 in der Washington Philosophical Society gehalten wurde, konnte er ihn nicht fertigstellen, vor allem aufgrund seiner umfassenden Beteiligung an der Kriegsforschung. In seiner Ansprache auf dem Internationalen Mathematikerkongress 1954 hob er diese besondere Herausforderung als eines der ungelösten Probleme für zukünftige mathematische Forschung hervor.

Fluiddynamik

Während des Zweiten Weltkriegs trug von Neumann maßgeblich zur Fluiddynamik bei, einschließlich der bahnbrechenden Strömungslösung für Druckwellen, die heute als Taylor-von-Neumann-Sedov-Druckwelle bezeichnet wird, und würdigte die drei Wissenschaftler, die sie unabhängig voneinander entwickelt haben, sowie die unabhängige Mitentdeckung des ZND-Detonationsmodells für Sprengstoffe, zusammen mit Yakov Borisovich Zel'dovich und Werner Döring. In den 1930er Jahren baute von Neumann sein Fachwissen über die mathematischen Prinzipien geformter Ladungen auf.

Anschließend entwickelte von Neumann in Zusammenarbeit mit Robert D. Richtmyer einen Algorithmus, der künstliche Viskosität einführte und so das Verständnis von Stoßwellenphänomenen verbesserte. Computersimulationen hydrodynamischer oder aerodynamischer Herausforderungen ordneten häufig übermäßig viele Gitterpunkte Bereichen zu, die durch abrupte Diskontinuitäten wie Stoßwellen gekennzeichnet sind. Die Anwendung künstlicher Viskosität milderte diese scharfen Stoßübergänge mathematisch ab und bewahrte gleichzeitig die grundlegenden physikalischen Prinzipien.

Von Neumann weitete die Computermodellierung schnell auf diesen Bereich aus und entwickelte Software speziell für seine ballistischen Untersuchungen. Während des Zweiten Weltkriegs stellte er R. H. Kent, dem damaligen Direktor des Ballistic Research Laboratory der US-Armee, ein Rechenprogramm vor, das eine Stoßwelle mithilfe eines eindimensionalen Modells aus 100 Molekülen simulieren sollte. Anschließend hielt von Neumann ein Seminar zu diesem Programm vor einem Publikum, zu dem auch sein Kollege Theodore von Kármán gehörte. Im Anschluss an von Neumanns Vortrag bemerkte von Kármán: „Sie wissen natürlich, dass Lagrange in ähnlicher Weise digitale Modelle zur Simulation der Kontinuumsmechanik einsetzte.“ Von Neumann war jedoch mit Lagranges Mécanique analytique.

nicht vertraut

Zusätzliche Forschungsbeiträge

Obwohl seine Leistungen in der Physik nicht so umfangreich waren wie in der Mathematik, leistete von Neumann dennoch mehrere bedeutende Beiträge auf diesem Gebiet. Seine bahnbrechenden gemeinsamen Arbeiten mit Subrahmanyan Chandrasekhar, die sich mit der Statistik fluktuierender Gravitationsfelder, die von zufällig verteilten Sternen erzeugt werden, befassten, galten als Tour de Force. Im Rahmen dieser Arbeiten formulierten sie eine Theorie der Zweikörperrelaxation und nutzten die Holtsmark-Verteilung, um die komplexe Dynamik stellarer Systeme zu modellieren. Er verfasste auch mehrere andere unveröffentlichte Manuskripte zur Sternstruktur, von denen Teile später in Chandrasekhars spätere Veröffentlichungen übernommen wurden. In früheren Forschungen trug von Neumann unter der Leitung von Oswald Veblen zur Entwicklung grundlegender Konzepte im Zusammenhang mit Spinoren bei, die später die Twistor-Theorie von Roger Penrose beeinflussten. Ein wesentlicher Teil dieser Arbeit stammt aus Seminaren, die in den 1930er Jahren am Institute for Advanced Study (IAS) abgehalten wurden. Als Ergebnis dieser Zusammenarbeit verfasste er zusammen mit A. H. Taub und Veblen einen Artikel, der die Dirac-Gleichung auf die projektive Relativitätstheorie erweiterte. Diese in den 1930er Jahren durchgeführte Forschung konzentrierte sich hauptsächlich auf die Erhaltung der Invarianz in Bezug auf Koordinaten-, Spin- und Eichtransformationen und stellte eine frühe Erforschung möglicher Theorien der Quantengravitation dar. Gleichzeitig legte er seinen Kollegen mehrere Vorschläge vor, die sich mit den Herausforderungen der aufkommenden Quantenfeldtheorie und der Quantisierung der Raumzeit befassten. Diese Konzepte wurden jedoch weder von ihm noch von seinen Mitarbeitern als produktiv erachtet und daher nicht weiterverfolgt. Dennoch behielt er ein gewisses Maß an Interesse bei, was durch ein 1940 von ihm verfasstes Manuskript über die Dirac-Gleichung im de-Sitter-Raum belegt wird.

Wirtschaftswissenschaften

Spieltheorie

Von Neumann etablierte die Spieltheorie als eigenständige mathematische Disziplin. Im Jahr 1928 bewies er offiziell seinen bahnbrechenden Minimax-Satz. Dieses Theorem zeigt, dass in Nullsummenspielen, die durch perfekte Informationen gekennzeichnet sind (bei denen die Spieler zu jedem Zeitpunkt über vollständige Kenntnis aller vorangegangenen Züge verfügen), für beide Teilnehmer ein Paar Strategien existiert, die es jedem ermöglichen, seine maximalen potenziellen Verluste zu minimieren. Diese Strategien werden als optimal bezeichnet. Von Neumann zeigte außerdem, dass die Minimaxwerte dieser Strategien im absoluten Wert gleichwertig, aber im Vorzeichen entgegengesetzt sind. Anschließend verfeinerte und erweiterte er das Minimax-Theorem, um Spiele mit unvollständigen Informationen und solche mit mehr als zwei Spielern einzubeziehen, und veröffentlichte diese Fortschritte in seinem 1944 gemeinsam mit Oskar Morgenstern verfassten Werk Theory of Games and Economic Behavior. Das große öffentliche Interesse, das diese Veröffentlichung hervorrief, wurde durch einen Artikel auf der Titelseite der The New York Times unterstrichen. In dieser Abhandlung behauptete von Neumann, dass die Wirtschaftstheorie die Anwendung der Funktionsanalyse, insbesondere konvexer Mengen und des topologischen Fixpunktsatzes, erforderte, anstatt sich auf die konventionelle Differentialrechnung zu verlassen, da der Maximumoperator nicht von Natur aus differenzierbare Funktionen bewahrt.

Seit ihrer Einführung haben von Neumanns funktionalanalytische Methoden – einschließlich der Anwendung von Dualitätspaarungen realer Vektorräume zur Darstellung von Preisen und Mengen, die Verwendung von Stützen und Trennen verwendet Hyperebenen und konvexe Mengen sowie die Fixpunkttheorie sind nach wie vor grundlegende Instrumente der mathematischen Ökonomie.

Mathematische Ökonomie

John von Neumann hat die mathematische Genauigkeit der Wirtschaftswissenschaften durch eine Reihe einflussreicher Veröffentlichungen erheblich weiterentwickelt. In seinem bahnbrechenden Modell einer expandierenden Wirtschaft bewies er die Existenz und Einzigartigkeit eines Gleichgewichtszustands, indem er seinen verallgemeinerten Fixpunktsatz von Brouwer anwendete. Dieses Modell enthielt den Matrixstift A − λB, bestehend aus nichtnegativen Matrizen A und B. Von Neumanns Ziel bestand darin, die Wahrscheinlichkeitsvektoren p und q sowie einen positiven Skalar λ zu identifizieren, die die Komplementaritätsgleichung erfüllen würden p T ( A λ B ) q = §4849§ {\displaystyle p^{T}(A-\lambda B)q=0} , in Verbindung mit zwei Ungleichheitssystemen, die wirtschaftliche Effizienz darstellen. In diesem Rahmen bezeichnet der transponierte Wahrscheinlichkeitsvektor p die Rohstoffpreise, während der Wahrscheinlichkeitsvektor q die betriebliche Intensität des Produktionsprozesses bezeichnet. Die singuläre Lösung λ entspricht dem Wachstumsfaktor, definiert als eins plus der Wirtschaftswachstumsrate, wobei diese Wachstumsrate dem Zinssatz entspricht.

Von Neumanns Ergebnisse werden oft als spezifisches Beispiel linearer Programmierung angesehen, insbesondere weil sein Modell ausschließlich nichtnegative Matrizen verwendet. Sein Modell einer expandierenden Wirtschaft bleibt ein Thema anhaltenden Interesses unter mathematischen Ökonomen. Zahlreiche Wissenschaftler haben dieses spezielle Papier als den bedeutendsten Beitrag zur mathematischen Ökonomie gelobt und seine bahnbrechende Einführung von Fixpunktsätzen, linearen Ungleichungen, komplementärer Slackness und Sattelpunktdualität angeführt. Während einer Konferenz über von Neumanns Wachstumsmodell bemerkte Paul Samuelson, dass viele Mathematiker zwar Methoden entwickelt hätten, die für Ökonomen von Nutzen seien, von Neumann sich jedoch dadurch auszeichnete, dass er substanzielle Beiträge direkt zur Wirtschaftstheorie leistete. Die anhaltende Bedeutung dieser Arbeit, insbesondere in Bezug auf allgemeine Gleichgewichte und die Anwendung von Fixpunktsätzen, wird durch die anschließende Verleihung von Nobelpreisen unterstrichen: Kenneth Arrow 1972, Gérard Debreu 1983 und John Nash 1994. Nash verwendete in seiner Doktorarbeit insbesondere Fixpunktsätze, um Gleichgewichte für nichtkooperative Spiele und Verhandlungsszenarien zu definieren. Sowohl Arrow als auch Debreu haben zusammen mit den anderen Nobelpreisträgern Tjalling Koopmans, Leonid Kantorovich, Wassily Leontief, Paul Samuelson, Robert Dorfman, Robert Solow und Leonid Hurwicz auch lineare Programmierung in ihre Forschung einbezogen.

John von Neumanns Beschäftigung mit diesem Thema entstand während seiner Vorlesungen in Berlin zwischen 1928 und 1929. Während seiner Sommeraufenthalte lebte er in Budapest, wo er den Wirtschaftswissenschaftler traf Nicholas Kaldor. Anschließend riet Kaldor von Neumann, ein Werk des mathematischen Ökonomen Léon Walras zu konsultieren. Von Neumann stellte fest, dass Walras‘ Allgemeine Gleichgewichtstheorie und Walras‘ Gesetz, die auf Systemen simultaner linearer Gleichungen beruhten, paradoxerweise darauf hindeuten könnten, dass eine Gewinnmaximierung durch die Produktion und den Verkauf einer negativen Menge eines Gutes erreichbar sei. Folglich ersetzte er diese Gleichungen durch Ungleichungen, integrierte dynamische Gleichgewichte und andere Neuerungen, was schließlich in der Veröffentlichung seiner bahnbrechenden Arbeit gipfelte.

Lineare Programmierung

Auf der Grundlage seiner früheren Arbeiten zu Matrixspielen und seines Modells einer expandierenden Wirtschaft entwickelte von Neumann die Theorie der Dualität in der linearen Programmierung. Dies geschah, als George Dantzig seine Forschung prägnant präsentierte, was einen ungeduldigen von Neumann dazu veranlasste, eine direktere Erklärung zu verlangen. Anschließend hörte Dantzig erstaunt zu, wie von Neumann einen einstündigen Diskurs über konvexe Mengen, Festkommatheorie und Dualität hielt und schließlich die grundlegende Äquivalenz zwischen Matrixspielen und linearer Programmierung vermutete.

Anschließend schlug von Neumann eine innovative lineare Programmiermethodik vor, die sich auf Paul Gordans homogenes lineares System aus dem Jahr 1873 stützte, ein Konzept, das später durch Karmarkars Algorithmus weite Verbreitung fand. Sein Ansatz verwendete einen Pivot-Algorithmus, der zwischen Simplices operierte, wobei das Pivot-Kriterium durch ein nichtnegatives Teilproblem der kleinsten Quadrate festgelegt wurde, das einer Konvexitätsbeschränkung unterliegt (insbesondere der Projektion des Nullvektors auf die konvexe Hülle des aktuellen Simplex). Bemerkenswert ist, dass der Algorithmus von Neumann als bahnbrechende Methode für innere Punkte in der linearen Programmierung gilt.

Informatik

John von Neumann war eine grundlegende Persönlichkeit auf dem Gebiet der Informatik und leistete wesentliche Beiträge in mehreren Bereichen, darunter Hardware-Design, theoretische Informatik, wissenschaftliches Rechnen und die Philosophie der Informatik.

Hardware

Von Neumann war als Berater für das ballistische Forschungslabor der Armee tätig und trug hauptsächlich als Mitglied des wissenschaftlichen Beratungsausschusses zum ENIAC-Projekt bei. Während die Single-Memory-Architektur mit gespeicherten Programmen weithin als von-Neumann-Architektur bekannt ist, stammen ihre Grundprinzipien aus der Arbeit von J. Presper Eckert und John Mauchly, den Erfindern von ENIAC und seinem Nachfolgemodell EDVAC. Während seiner Beratungstätigkeit für das EDVAC-Projekt an der University of Pennsylvania verfasste von Neumann ein unvollendetes Dokument mit dem Titel Erster Entwurf eines Berichts über das EDVAC. Die frühe Verbreitung dieses Papiers machte die Patentansprüche von Eckert und Mauchly ungültig. Darin wurde ein Computerdesign beschrieben, bei dem sich sowohl Daten als auch Programme in einem einheitlichen Adressraum befanden, eine Abkehr von früheren Computern, bei denen Programme separat auf Medien wie Papierbändern oder Steckbrettern gespeichert wurden. Dieses architektonische Paradigma bildete später die Grundlage für die meisten zeitgenössischen digitalen Computerdesigns.

Anschließend übernahm von Neumann den Entwurf der IAS-Maschine am Institute for Advanced Study in Princeton, New Jersey. Er sicherte sich die Finanzierung und die notwendigen Komponenten wurden im angrenzenden RCA-Forschungslabor entwickelt und hergestellt. Von Neumann plädierte für den Einbau einer Magnettrommel in den IBM 701, umgangssprachlich auch als Verteidigungscomputer bekannt. Diese Maschine stellte eine schnellere Iteration der IAS-Maschine dar und diente als Grundlage für die äußerst erfolgreiche kommerzielle IBM 704.

Algorithmen

Im Jahr 1945 entwickelte von Neumann den Merge-Sort-Algorithmus, eine Methode, bei der ein Array rekursiv in zwei Hälften geteilt, jede unabhängig sortiert und dann anschließend zusammengeführt wird.

Im Zusammenhang mit seiner Arbeit an der Wasserstoffbombe arbeitete von Neumann mit Stanisław Ulam zusammen, um Simulationen für hydrodynamische Berechnungen zu erstellen. Darüber hinaus spielte er eine Rolle bei der Weiterentwicklung der Monte-Carlo-Methode, einem Ansatz, der Zufallszahlen verwendet, um Lösungen für komplexe Probleme zu schätzen.

Von Neumanns Algorithmus, der eine faire Münze mithilfe einer voreingenommenen Münze simulieren soll, findet Anwendung in der „Software-Whitening“-Phase bestimmter Hardware-Zufallszahlengeneratoren. Von Neumann erkannte die Unpraktikabilität der Generierung „echter“ Zufallszahlen und entwickelte eine Form der Pseudozufälligkeit mithilfe der Mittelquadratmethode. Er begründete diese rudimentäre Technik mit der Behauptung, sie sei schneller als andere verfügbare Methoden, und sagte bekanntlich: „Jeder, der über arithmetische Methoden zur Erzeugung zufälliger Ziffern nachdenkt, befindet sich natürlich in einem Zustand der Sünde.“ Er stellte außerdem fest, dass Fehler bei dieser Methode auffällig offensichtlich waren, im Gegensatz zu anderen Techniken, bei denen Fehler möglicherweise subtil verborgen wurden.

Von Neumann führte das stochastische Rechnen im Jahr 1953 ein, dessen praktische Umsetzung jedoch erst in den 1960er-Jahren möglich war, als Fortschritte in der Computertechnik aufkamen. Ungefähr um 1950 war er auch ein Pionier in der Diskussion der zeitlichen Komplexität von Berechnungen, einem Konzept, das sich schließlich zur Disziplin der rechnerischen Komplexitätstheorie entwickelte.

Zellulare Automaten, DNA und der universelle Konstruktor

Von Neumanns mathematische Untersuchungen zur Mechanik der Selbstreplikation gingen der Aufklärung der DNA-Struktur voraus. Stanisław Ulam und von Neumann sind weithin dafür bekannt, dass sie ab den 1940er Jahren das Gebiet der zellulären Automaten als vereinfachten mathematischen Rahmen für die Modellierung biologischer Systeme etabliert haben.

Während der Vorlesungen in den Jahren 1948 und 1949 stellte von Neumann das Konzept eines kinematischen, sich selbst reproduzierenden Automaten vor. Bis 1952 war seine Herangehensweise an dieses Problem abstrakter geworden. Er entwickelte einen komplizierten zweidimensionalen zellulären Automaten, der in der Lage ist, seine ursprüngliche zelluläre Konfiguration autonom zu reproduzieren. Der von Neumann-Universalkonstruktor, abgeleitet vom von Neumann-Zellularautomaten, wurde in seinem posthum veröffentlichten Werk Theory of Self Reproducing Automata ausführlich beschrieben. Die von Neumann-Nachbarschaft, die jede Zelle in einem zweidimensionalen Gitter so definiert, dass sie vier orthogonal benachbarte Gitterzellen als Nachbarn hat, bleibt eine Standardkonfiguration in verschiedenen anderen zellulären Automaten.

Wissenschaftliches Rechnen und numerische Analyse

Von Neumann gilt weithin als potenziell „der einflussreichste Forscher auf dem Gebiet des wissenschaftlichen Rechnens aller Zeiten“ und hat sowohl durch technische Innovationen als auch durch seine Führungsrolle in der Verwaltung einen bedeutenden Beitrag zum Fachgebiet geleistet. Er entwickelte das Von-Neumann-Stabilitätsanalyseverfahren, eine Methode, die immer noch häufig verwendet wird, um die Fehlerakkumulation in numerischen Techniken für lineare partielle Differentialgleichungen zu verhindern. Seine Arbeit mit Herman Goldstine aus dem Jahr 1947 führte implizit die Rückwärtsfehleranalyse ein und markierte deren erste Beschreibung. Darüber hinaus gehörte er zu den Pionieren, die die Jacobi-Methode dokumentierten. Während seiner Zeit in Los Alamos verfasste von Neumann mehrere geheime Berichte mit detaillierten numerischen Lösungen für Probleme der Gasdynamik. Seine Frustration über den begrenzten Fortschritt der Analysemethoden für diese nichtlinearen Herausforderungen veranlasste ihn jedoch, sich rechnerischen Ansätzen zuzuwenden. Infolgedessen entwickelte sich Los Alamos unter seiner Führung in den 1950er und frühen 1960er Jahren zu einem herausragenden Zentrum für Computerwissenschaften.

Diese Arbeit führte von Neumann zu der Erkenntnis, dass die Berechnung über ihre Rolle als bloßes Werkzeug zur numerischen Lösung von Problemen durch rohe Gewalt hinausging; es könnte auch analytische Erkenntnisse liefern. Er verstand außerdem, dass eine Vielzahl wissenschaftlicher und technischer Probleme, insbesondere nichtlineare, von Computeranwendungen profitieren könnten. Im Juni 1945 hielt er auf dem Ersten Kanadischen Mathematischen Kongress seinen Eröffnungsvortrag über allgemeine Strategien zur Problemlösung, mit besonderem Schwerpunkt auf den numerischen Aspekten der Fluiddynamik. Er erläuterte auch, wie Windkanäle als analoge Computer funktionierten, und sagte voraus, dass digitale Computer sie ablösen und eine neue Ära der Strömungsdynamik einläuten würden. Garrett Birkhoff bezeichnete diese Präsentation als „ein unvergessliches Verkaufsgespräch“. Anschließend erweiterte von Neumann dieses Gespräch mit Goldstine zum Manuskript „On the Principles of Large Scale Computing Machines“, das er nutzte, um sich für die Weiterentwicklung des wissenschaftlichen Rechnens einzusetzen. In seinen Veröffentlichungen wurden auch Konzepte wie Matrixinversion, Zufallsmatrizen und automatisierte Relaxationsmethoden zur Lösung elliptischer Randwertprobleme weiterentwickelt.

Wettersysteme und globale Erwärmung

Im Rahmen seiner Erkundung potenzieller Computeranwendungen entwickelte von Neumann ein Interesse an der Wettervorhersage und beobachtete Parallelen zwischen den Herausforderungen in diesem Bereich und denen, denen er während des Manhattan-Projekts begegnete. 1946 gründete von Neumann das „Meteorological Project“ am Institute for Advanced Study und sicherte sich die Finanzierung durch das Weather Bureau, die U.S. Air Force und die Wetterdienste der U.S. Navy. In Zusammenarbeit mit Carl-Gustaf Rossby, der damals als der bedeutendste theoretische Meteorologe galt, stellte er ein Team von zwanzig Meteorologen zusammen, um sich mit verschiedenen Fragen auf diesem Gebiet zu befassen. Aufgrund seiner anderen Nachkriegsverpflichtungen war er jedoch nicht in der Lage, genügend Zeit für die effektive Leitung des Projekts aufzuwenden, was zu begrenzten Erfolgen führte.

Diese Situation änderte sich, als Jule Gregory Charney von Rossby die Co-Leitung des Projekts übernahm. 1950 entwickelten von Neumann und Charney gemeinsam die weltweit erste Klimamodellierungssoftware, mit der sie anschließend die ersten numerischen Wettervorhersagen weltweit erstellten. Dabei nutzten sie den ENIAC-Computer, zu dem von Neumann Zugriff hatte. Von Neumann und sein Team veröffentlichten diese Ergebnisse als Numerical Integration of the Barotropic Vorticity Equation. Gemeinsam spielten sie eine entscheidende Rolle bei der Integration des Energie- und Feuchtigkeitsaustauschs zwischen Meer und Luft in Klimastudien. Trotz ihres primitiven Charakters verbreiteten sich die Nachrichten über die ENIAC-Vorhersagen schnell weltweit und führten zur Initiierung zahlreicher paralleler Projekte an anderen Orten.

Im Jahr 1955 überzeugten von Neumann, Charney und ihre Mitarbeiter ihre Geldgeber erfolgreich davon, die Joint Numerical Weather Prediction Unit (JNWPU) in Suitland, Maryland, zu gründen, die anschließend routinemäßige Echtzeit-Wettervorhersagen aufnahm. Im Anschluss daran schlug von Neumann ein umfassendes Forschungsprogramm zur Klimamodellierung vor:

Die Methodik besteht darin, zunächst kurzfristige Vorhersagen zu verfolgen, gefolgt von langfristigen Vorhersagen jener Kreislaufeigenschaften, die in der Lage sind, sich über beliebig lange Zeiträume selbst aufrechtzuerhalten. Erst dann werden Versuche unternommen, Vorhersagen für mittel-lange Zeiträume zu treffen, die zu langwierig für die Behandlung durch eine einfache hydrodynamische Theorie, aber zu kurz für eine Analyse mit dem allgemeinen Prinzip der Gleichgewichtstheorie sind.

Die positiven Ergebnisse, über die Norman A. Phillips im Jahr 1955 berichtete, führten zu einer sofortigen Reaktion, die von Neumann dazu veranlasste, in Princeton eine Konferenz zum Thema „Anwendung numerischer Integrationstechniken auf das Problem der allgemeinen Zirkulation“ zu organisieren. Er strukturierte das Programm strategisch mit einer prädiktiven Ausrichtung, um sich eine nachhaltige Unterstützung durch das Wetteramt und das Militär zu sichern. Diese Initiative gipfelte in der Gründung der General Circulation Research Section (derzeit bekannt als Geophysical Fluid Dynamics Laboratory) neben der JNWPU. Von Neumann beschäftigte sich kontinuierlich sowohl mit der technischen Komplexität der Modellierung als auch mit der entscheidenden Aufgabe, eine fortlaufende finanzielle Unterstützung für diese Projekte sicherzustellen. Im späten 19. Jahrhundert schlug Svante Arrhenius vor, dass anthropogene Aktivitäten durch den Eintrag von Kohlendioxid in die Atmosphäre eine globale Erwärmung auslösen könnten. 1955 bemerkte von Neumann, dass dieser Prozess möglicherweise bereits im Gange sei, und erklärte: „Das durch die industrielle Verbrennung von Kohle und Öl in die Atmosphäre freigesetzte Kohlendioxid – mehr als die Hälfte davon während der letzten Generation – könnte die Zusammensetzung der Atmosphäre ausreichend verändert haben, um eine allgemeine Erwärmung der Welt um etwa ein Grad Fahrenheit zu erklären.“ Seine Untersuchungen zu Wettersystemen und meteorologischen Vorhersagen veranlassten ihn, eine Manipulation der Umwelt vorzuschlagen, insbesondere durch die Verbreitung von Farbstoffen auf den polaren Eiskappen, um die Absorption der Sonnenstrahlung zu erhöhen und dadurch die Albedo zu verringern. Dennoch riet er dringend zur Vorsicht bei allen atmosphärischen Modifikationsprogrammen:

Was getan werden könnte, ist natürlich kein Hinweis darauf, was getan werden sollte ... Tatsächlich wäre es eine komplexe Angelegenheit, die letztendlichen Folgen einer allgemeinen Abkühlung oder einer allgemeinen Erwärmung abzuschätzen. Veränderungen würden sich auf den Meeresspiegel und damit auf die Bewohnbarkeit der kontinentalen Küstenschelfs auswirken; die Verdunstung der Meere und damit die allgemeine Niederschlags- und Vereisungsmenge; und so weiter... Aber es besteht kaum ein Zweifel daran, dass man könnte die notwendigen Analysen durchführen, um die Ergebnisse vorherzusagen, in jedem gewünschten Ausmaß einzugreifen und letztendlich ziemlich fantastische Ergebnisse zu erzielen.

Von Neumann warnte außerdem davor, dass die Manipulation von Wetter und Klima für militärische Zwecke ausgenutzt werden könnte, und informierte den Kongress 1956 darüber, dass solche Fähigkeiten eine größere Gefahr darstellen könnten als Interkontinentalraketen (ICBMs).

Technologische Singularitätshypothese

Die erste Anwendung des Singularitätskonzepts in einem technologischen Rahmen wird von Neumann zugeschrieben. Laut Ulam befasste sich von Neumann mit dem „immer schneller werdenden Fortschritt der Technologie und Veränderungen in der Lebensweise des Menschen, der den Anschein erweckt, als stünde er vor einer wesentlichen Singularität in der Geschichte der Rasse, jenseits derer die menschlichen Angelegenheiten, wie wir sie kennen, nicht weitergehen könnten.“ Dieser Gedanke wurde später in Alvin Tofflers Veröffentlichung Future Shock aus dem Jahr 1970 weiter ausgeführt

Verteidigungsbeiträge

Das Manhattan-Projekt

Seit den späten 1930er-Jahren entwickelte von Neumann Spezialwissen über Explosionen, bei denen es sich um Phänomene handelt, die sich naturgemäß nur schwer mathematisch modellieren lassen. In dieser Zeit entwickelte er sich zum führenden Experten auf dem Gebiet der Mathematik geformter Ladungen. Dieses Fachwissen führte zu zahlreichen militärischen Beratungstätigkeiten und anschließend zu seiner Teilnahme am Manhattan-Projekt. Sein Engagement umfasste regelmäßige Besuche der geheimen Forschungseinrichtungen des Projekts im Los Alamos Laboratory in New Mexico.

Von Neumanns wichtigster Beitrag zur Atombombe umfasste die Konzeption und das Design der Sprenglinsen, die für die Komprimierung des Plutoniumkerns der Fat-Man-Waffe erforderlich sind, die anschließend über Nagasaki eingesetzt wurde. Obwohl von Neumann nicht der Urheber des Konzepts der „Implosion“ war, gehörte er zu seinen beständigsten Befürwortern und förderte dessen kontinuierliche Verfeinerung trotz der Vorbehalte vieler Kollegen, die einen solchen Entwurf für unpraktisch hielten. Darüber hinaus entwickelte er schließlich die Strategie, stärkere Hohlladungen und geringere Mengen an spaltbarem Material einzusetzen, um den „Zusammenbau“-Prozess deutlich zu beschleunigen.

Die Knappheit von Uran-235 für Mehrfachbomben und die Ungeeignetheit von Plutonium-239 für das „Thin Man“-Design erforderten eine erhebliche Ausweitung des Implosivlinsenprojekts, was zur Umsetzung von von Neumanns Konzept führte. Die Implosion erwies sich als einzige praktikable Methode zur Nutzung des am Standort Hanford beschafften Plutonium-239. Von Neumann definierte das erforderliche Sprengstofflinsendesign, trotz anhaltender Bedenken hinsichtlich „Kanteneffekten“ und Unvollkommenheiten des Sprengstoffmaterials. Seine Berechnungen deuteten darauf hin, dass die Implosion erfolgreich sein würde, sofern sie die sphärische Symmetrie innerhalb einer Abweichung von 5 % aufrechterhielt. Nach mehreren erfolglosen Modellversuchen gelang George Kistiakowsky dieser entscheidende Durchbruch, der in der Fertigstellung des Baus der Trinity-Bombe im Juli 1945 gipfelte.

Während eines Septembers 1944 stellte diese Erkenntnis fest, dass die Detonation einer Atombombe mehrere Kilometer über einem Ziel und nicht auf Bodenhöhe ihre zerstörerische Wirksamkeit erheblich steigern würde.

Von Neumann nahm am Zielauswahlkomitee teil, dessen Aufgabe es war, Hiroshima und Nagasaki als die ersten japanischen Städte für den Einsatz von Atombomben zu identifizieren. Er überwachte die Berechnungen zum erwarteten Ausmaß der Bombenexplosionen, den prognostizierten Todesopfern und der optimalen Detonationshöhe zur Maximierung der Stoßwellenausbreitung. Kyoto, ein bedeutendes Kulturzentrum, war von Neumanns bevorzugte Wahl, eine Auswahl, die von General Leslie Groves, dem Leiter des Manhattan-Projekts, unterstützt wurde. Dennoch lehnte Kriegsminister Henry L. Stimson dieses Ziel letztendlich ab.

Am 16. Juli 1945 war von Neumann zusammen mit zahlreichen anderen Mitarbeitern des Manhattan-Projekts Zeuge des ersten Atombomben-Detonationstests mit dem Codenamen Trinity. Dieses Ereignis, das zur Evaluierung des Implosionsmethodengeräts gedacht war, ereignete sich auf dem Alamogordo Bombing Range in New Mexico. Allein aufgrund seiner Beobachtungen schätzte von Neumann die Explosionsausbeute auf 5 Kilotonnen TNT (21 TJ). Im Gegensatz dazu leitete Enrico Fermi eine genauere Schätzung von 10 Kilotonnen ab, indem er die Ausbreitung zerrissener Papierfetzen beobachtete, während die Schockwelle seine Position durchquerte. Die tatsächliche Sprengkraft lag zwischen 20 und 22 Kilotonnen. Bemerkenswert ist, dass der Begriff „Kilotonnen“ erstmals 1944 in von Neumanns Arbeiten eingeführt wurde.

Von Neumann setzte seine Forschungen unermüdlich fort und wurde neben Edward Teller zu einer Schlüsselfigur bei der Weiterentwicklung des Wasserstoffbombenprojekts. In Zusammenarbeit mit Klaus Fuchs trug er zur weiteren Entwicklung der Bombe bei. Im Jahr 1946 reichten sie gemeinsam ein geheimes Patent ein, das einen Mechanismus für den Einsatz einer Spaltbombe zur Komprimierung von Fusionsbrennstoff und damit zur Einleitung der Kernfusion detailliert beschreibt. Während das Fuchs-von-Neumann-Patent die Strahlungsimplosion beinhaltete, unterschied sich seine Methodik von der, die letztendlich im endgültigen Entwurf der Teller-Ulam-Wasserstoffbombe übernommen wurde. Dennoch flossen ihre Recherchen in die „George“-Aufnahme von Operation Greenhouse ein und lieferten entscheidende Erkenntnisse für das endgültige Design. Anschließend übermittelte Fuchs die Fuchs-von-Neumann-Arbeit im Rahmen seiner nuklearen Spionageaktivitäten an die Sowjetunion; Bei der unabhängigen sowjetischen Entwicklung des Teller-Ulam-Designs wurde es jedoch nicht genutzt. Der Historiker Jeremy Bernstein bemerkte die Ironie, dass „John von Neumann und Klaus Fuchs 1946 eine brillante Erfindung machten, die den gesamten Verlauf der Entwicklung der Wasserstoffbombe hätte verändern können, aber erst vollständig verstanden wurde, nachdem die Bombe erfolgreich hergestellt worden war.“

In Anerkennung seiner Verdienste während des Krieges erhielt von Neumann im Juli 1946 den Navy Distinguished Civilian Service Award, gefolgt von der Medal for Merit im Oktober 1946.

Nachkriegsbemühungen.

Im Jahr 1950 begann von Neumann seine Tätigkeit als Berater für die Weapons Systems Evaluation Group, eine Einrichtung, deren Aufgabe es ist, die Joint Chiefs of Staff und den US-Verteidigungsminister bei der Weiterentwicklung und Anwendung neuer Technologien zu beraten. Gleichzeitig fungierte er als Berater des Armed Forces Special Weapons Project, das die militärischen Dimensionen der Atomwaffen überwachte. In den folgenden zwei Jahren weitete sich seine Beratungstätigkeit auf verschiedene Bereiche der US-Regierung aus. Diese Engagements umfassten Rollen bei der Central Intelligence Agency (CIA), Mitgliedschaft im einflussreichen General Advisory Committee der Atomic Energy Commission, Beratung für das kürzlich gegründete Lawrence Livermore National Laboratory und Mitarbeit in der Scientific Advisory Group der United States Air Force. In dieser Zeit erlangte er den Status eines herausragenden Verteidigungswissenschaftlers im Pentagon, dessen Fachwissen von den höchsten Ebenen der US-Regierung und des US-Militärs als unanfechtbar angesehen wurde.

Während mehrerer Sitzungen des Beirats der US-Luftwaffe prognostizierte von Neumann zusammen mit Edward Teller, dass die Vereinigten Staaten bis 1960 in der Lage sein würden, eine Wasserstoffbombe zu bauen, die kompakt genug für den Raketeneinsatz ist. Im Jahr 1953 besuchte Bernard Schriever, der an diesen Treffen teilgenommen hatte, von Neumann persönlich in Princeton, um dieses Potenzial zu bestätigen. Anschließend engagierte Schriever Trevor Gardner, der einige Wochen später auch von Neumann konsultierte, um die voraussichtlichen Auswirkungen gründlich zu verstehen, bevor er in Washington mit der Befürwortung eines solchen Waffensystems begann. Zu diesem Zeitpunkt baute von Neumann, der zahlreiche Ausschüsse mit Schwerpunkt auf strategischen Raketen und nuklearer Bewaffnung leitete oder daran teilnahm, kritische Argumente hinsichtlich potenzieller sowjetischer Fortschritte in diesen Bereichen und bei der strategischen Verteidigung gegen amerikanische Bomber strategisch in Regierungsberichte ein. Diese Berichte dienten dazu, die Argumente für die Entwicklung von Interkontinentalraketen (ICBMs) zu untermauern. Gardner ermöglichte von Neumann häufig die Teilnahme an Treffen mit dem US-Verteidigungsministerium, bei denen er seine Erkenntnisse verschiedenen hochrangigen Beamten vorstellte. In diesen Berichten beschriebene Schlüsselelemente des Designs, wie z. B. Trägheitsleitmechanismen, wurden anschließend zur Grundlage für alle zukünftigen Interkontinentalraketen. Bis 1954 legte von Neumann regelmäßig vor verschiedenen militärischen Unterausschüssen des Kongresses Zeugnis ab, um eine nachhaltige Unterstützung für das Interkontinentalraketenprogramm sicherzustellen.

Trotz dieser Bemühungen wurden weitere Impulse für notwendig erachtet. Um das ICBM-Programm auf sein maximales Potenzial auszuschöpfen, wurde eine direkte Intervention des Präsidenten angestrebt. Ein direktes Treffen im Juli 1955 überzeugte Präsident Eisenhower erfolgreich und gipfelte in einer Präsidialdirektive vom 13. September 1955. In dieser Direktive wurde behauptet, dass die Entwicklung einer Interkontinentalrakete durch die Sowjetunion vor den Vereinigten Staaten „die schwersten Auswirkungen auf die nationale Sicherheit und den Zusammenhalt der freien Welt“ mit sich bringen würde. Folglich wurde das Interkontinentalraketenprojekt als „ein Forschungs- und Entwicklungsprogramm mit höchster Priorität vor allen anderen“ bezeichnet und der Verteidigungsminister wurde beauftragt, es mit „höchster Dringlichkeit“ zu starten. Spätere Beweise bestätigten, dass die Sowjets in dieser Zeit tatsächlich bereits Tests ihrer eigenen ballistischen Mittelstreckenraketen durchführten. Von Neumann behielt seine Rolle als zentraler Berater für Interkontinentalraketen bei und traf sich bis zu seinem Tod weiterhin mit dem Präsidenten, unter anderem in seiner Residenz in Gettysburg, Pennsylvania, und anderen hochrangigen Regierungsbeamten.

Atomenergiekommission

Im Jahr 1955 wurde von Neumann zum Kommissar der Atomic Energy Commission (AEC) ernannt und galt damals als die höchste offizielle Position, die Wissenschaftlern innerhalb der Regierung zur Verfügung stand. Obwohl diese Ernennung in der Regel die Kündigung aller anderen Beratungsverträge erforderlich machte, wurde von Neumann aufgrund von Bedenken der Luftwaffe und wichtiger Senatoren eine Ausnahme gewährt, um seine Arbeit mit mehreren wichtigen Militärausschüssen fortzusetzen. Er nutzte diese einflussreiche Rolle, um die Herstellung kompakter Wasserstoffbomben voranzutreiben, die speziell für den Einsatz mit Interkontinentalraketen (ICBMs) entwickelt wurden. Zu seinen Bemühungen gehörte die Bewältigung der kritischen Knappheit von Tritium und Lithium-6, den wesentlichen Bestandteilen dieser Waffen. Darüber hinaus lehnte er aktiv die Einführung von Mittelstreckenraketen ab, die von der Armee bevorzugt werden, und plädierte stattdessen für die überlegene Wirksamkeit von H-Bomben, die von Interkontinentalraketen tief in das gegnerische Territorium abgefeuert werden. Er behauptete, dass die inhärente Ungenauigkeit solcher Raketen durch die Zerstörungskraft einer Wasserstoffbombe gemildert würde. Von Neumann ging auch davon aus, dass die Sowjetunion wahrscheinlich ein vergleichbares Waffensystem entwickelte, eine Vorhersage, die sich später als zutreffend erwies. Während der Abwesenheit von Lewis Strauss in der zweiten Hälfte des Jahres 1955 übernahm von Neumann die Verantwortung als kommissarischer Vorsitzender der Kommission.

In seinen letzten Lebensjahren, vor seinem Krebstod, leitete von Neumann den hochgeheimen Interkontinentalraketen-Ausschuss (ICBM) der US-Regierung, der gelegentlich in seiner Residenz zusammentrat. Der Auftrag des Ausschusses bestand darin, die Machbarkeit der Entwicklung einer Interkontinentalrakete zu bewerten, die eine thermonukleare Waffe transportieren kann. Von Neumann beharrte stets darauf, dass diese trotz erheblicher technischer Herausforderungen bewältigt werden könnten. Der SM-65 Atlas absolvierte 1959, zwei Jahre nach seinem Untergang, erfolgreich seinen ersten voll funktionsfähigen Test. Anschließend wurden 1962 die fortschrittlicheren Titan-Raketen eingesetzt. Beide Systeme waren ursprünglich in den Interkontinentalraketen-Komitees unter dem Vorsitz von Neumann vorgeschlagen worden. Die erfolgreiche Entwicklung von Interkontinentalraketen war nicht nur auf Fortschritte in der Raketentechnik zurückzuführen, sondern auch auf die Entwicklung verbesserter, miniaturisierter Sprengköpfe, die Probleme bei der Lenkung und der Hitzebeständigkeit milderten; Von Neumanns tiefes Verständnis dieser Sprengkopftechnologien machte seinen Rat unverzichtbar.

Von Neumanns Engagement im Staatsdienst beruhte in erster Linie auf seiner Überzeugung, dass die Bewahrung von Freiheit und Zivilisation den Sieg der Vereinigten Staaten über totalitäre Ideologien, insbesondere den Nationalsozialismus, den Faschismus und den Sowjetkommunismus, erforderlich machte. Während einer Anhörung im Senatsausschuss bezeichnete er seine politische Haltung als „heftig antikommunistisch und viel militaristischer als die Norm“.

Persönliche Eigenschaften

Berufliche Praktiken

Herman Goldstine beobachtete von Neumanns bemerkenswerte Fähigkeit, latente Fehler intuitiv zu erkennen und zuvor erworbene Informationen fehlerfrei abzurufen. Wenn er mit komplexen Problemen konfrontiert wurde, verzichtete er auf einen längeren Kampf; Stattdessen zog er sich zurück und kehrte nach einer Ruhephase oft mit einem Vorsatz zurück. Dieser Ansatz, der als „den Weg des geringsten Widerstands gehen“ bezeichnet wird, veranlasste ihn gelegentlich, tangentiale Forschungslinien zu verfolgen. Wenn ein Problem anfänglich erhebliche Herausforderungen mit sich brachte, wandte er sich außerdem bereitwillig einer alternativen Aufgabe zu, anstatt zu versuchen, Schwachstellen für einen Durchbruch zu identifizieren. Gelegentlich zeigte er, dass er mit der mathematischen Standardliteratur nicht vertraut war, und zog es vor, bei Bedarf grundlegende Informationen neu abzuleiten, anstatt vorhandene Referenzen zu konsultieren.

Nach dem Ausbruch des Zweiten Weltkriegs wurde von Neumanns Zeitplan aufgrund umfangreicher akademischer und militärischer Verpflichtungen außerordentlich anspruchsvoll. Seine Tendenz, die formale Dokumentation von Präsentationen und die Veröffentlichung von Forschungsergebnissen zu vernachlässigen, verstärkte sich. Für ihn war es eine Herausforderung, ein Thema schriftlich schriftlich zu artikulieren, es sei denn, das Konzept war in seinen Gedanken vollständig entwickelt; andernfalls, so gab er zu, würde er „die schlimmsten Züge von Pedantismus und Ineffizienz entwickeln“.

Mathematische Breite

Der Mathematiker Jean Dieudonné postulierte, dass von Neumann „möglicherweise der letzte Vertreter einer einst blühenden und zahlreichen Gruppe war, der großen Mathematiker, die gleichermaßen in der reinen und angewandten Mathematik zu Hause waren und während ihrer gesamten Karriere eine stetige Produktion in beide Richtungen aufrechterhielten“. Dieudonné behauptete weiter, dass von Neumanns besonderes Genie in der Analyse und der „Kombinatorik“ liege, und interpretierte letztere im weitesten Sinne als seine Fähigkeit, komplizierte Werkgruppen zu organisieren und zu axiomatisieren, die zuvor als von minimaler mathematischer Relevanz angesehen wurden. Seine analytische Methodik orientierte sich an der deutschen Schule und basierte auf den Prinzipien der linearen Algebra und der allgemeinen Topologie. Obwohl von Neumann über ein enzyklopädisches intellektuelles Fundament verfügte, konnte sein Umfang in der reinen Mathematik nicht mit dem von Poincaré, Hilbert oder sogar Weyl mithalten; Insbesondere leistete er keine wesentlichen Beiträge zur Zahlentheorie, algebraischen Topologie, algebraischen Geometrie oder Differentialgeometrie. Umgekehrt waren seine Leistungen in der angewandten Mathematik mit denen von Gauß, Cauchy oder Poincaré vergleichbar.

Eugene Wigner erklärte: „Niemand kennt die Naturwissenschaften, nicht einmal von Neumann. Aber was die Mathematik betrifft, hat er zu jedem Teil davon beigetragen, mit Ausnahme der Zahlentheorie und der Topologie. Das ist meiner Meinung nach etwas Einzigartiges.“ Paul Halmos stellte fest, dass trotz von Neumanns umfangreichen mathematischen Kenntnissen erhebliche Lücken in der algebraischen Topologie und Zahlentheorie bestanden; Halmos berichtete von einem Fall, in dem von Neumann die topologische Definition eines Torus nicht identifizierte. Von Neumann gestand Herman Goldstine seinen völligen Mangel an Begabung für Topologie und sein anhaltendes Unbehagen mit dem Thema. Goldstine bezog sich später auf dieses Eingeständnis, als er von Neumann Hermann Weyl gegenüberstellte, dem seiner Meinung nach mehr Tiefe und Breite zukam.

Salomon Bochner stellte in seinem biografischen Bericht über von Neumann fest, dass sich ein erheblicher Teil von Neumanns Beiträgen zur reinen Mathematik auf endliche und unendlichdimensionale Vektorräume konzentrierte, ein Bereich, der in dieser Zeit einen wesentlichen Teil des mathematischen Feldes ausmachte. Dennoch betonte Bochner, dass dieser Fokus entscheidende Bereiche der mathematischen Landschaft außer Acht ließ, insbesondere solche, die „globale Geometrie“ umfassen, wie Topologie, Differentialgeometrie, harmonische Integrale und algebraische Geometrie. Von Neumann beschäftigte sich selten mit diesen speziellen Disziplinen und zeigte nach Bochners Einschätzung nur eine begrenzte Neigung zu ihnen.

In einer späten Veröffentlichung äußerte von Neumann seine Besorgnis darüber, dass reine Mathematiker zunehmend nicht mehr in der Lage seien, fundierte Fachkenntnisse auch nur in einem kleinen Teil ihrer Disziplin zu erwerben. In den frühen 1940er Jahren entwickelte Ulam eine Schein-Doktorprüfung für von Neumann, um Lücken in seinem mathematischen Verständnis zu identifizieren; von Neumann hatte Mühe, zufriedenstellende Antworten auf Fragen der Differentialgeometrie, Zahlentheorie und Algebra zu geben. Diese Erfahrung ließ sie zu dem Schluss kommen, dass Doktorprüfungen möglicherweise „wenig bleibende Bedeutung“ hätten. Als Weyl umgekehrt eine Einladung zum Verfassen einer Geschichte der Mathematik des 20. Jahrhunderts mit der Begründung ablehnte, dass eine einzelne Person diese Aufgabe nicht übernehmen könne, postulierte Ulam, dass von Neumann zu einem solchen Unterfangen fähig gewesen sein könnte.

Bevorzugte Problemlösungsmethoden

Ulam stellte fest, dass sich von Neumann durch die Beherrschung dreier unterschiedlicher Ansätze auszeichnete, während sich viele Mathematiker typischerweise auf eine einzige Technik spezialisierten und diese wiederholt anwendeten:

  1. Kenntnisse in der symbolischen Manipulation linearer Operatoren;
  2. Ein intuitives Verständnis der logischen Architektur, die neuartigen mathematischen Theorien innewohnt;
  3. Ein intuitives Verständnis des kombinatorischen Rahmens, der aufkommenden Theorien zugrunde liegt.

Obwohl von Neumann häufig als Analytiker bezeichnet wurde, identifizierte sich von Neumann einst als Algebraist, und sein methodischer Ansatz verband häufig algebraische Techniken mit mengentheoretischer Intuition. Er zeigte eine Vorliebe für akribische Details und ließ sich von ausführlichen Wiederholungen oder allzu expliziten Notationen nicht aus der Fassung bringen. Eine bemerkenswerte Veranschaulichung dieser Eigenschaft findet sich in seiner Arbeit über Ringe von Operatoren, in der er die Standardfunktionsnotation erweiterte ϕ ( x ) {\displaystyle \phi (x)} , zu ϕ ( ( x ) ) {\displaystyle \phi ((x)) . Diese Notationserweiterung wurde iterativ angewendet und gipfelte in Ausdrücken wie ( ψ ( ( ( ( a ) ) ) ) ) §8384§ = ϕ ( ( ( ( a ) ) ) ) {\displaystyle (\psi ((((a))))^{2}=\phi ((((a)))) . Infolgedessen wurde diese Veröffentlichung von 1936 unter Studenten umgangssprachlich als „von Neumanns Zwiebel“ bekannt, was implizierte, dass ihre Gleichungen „geschält“ werden mussten, um sie zu verstehen. Trotz ihrer Klarheit und intellektuellen Kraft zeichneten sich seine schriftlichen Werke nicht durch Prägnanz oder ästhetische Eleganz aus. Obwohl er technisch herausragend war, bestand sein vorrangiges Ziel in der präzisen und umsetzbaren Formulierung grundlegender wissenschaftlicher Probleme und Untersuchungen und nicht nur in der Lösung isolierter mathematischer Rätsel.

Ulam berichtete, dass von Neumann Physiker häufig dadurch in Erstaunen versetzte, dass er komplexe Dimensionsschätzungen und algebraische Berechnungen mental durchführte, und zwar mit einer Leichtigkeit, die mit dem Schachspielen mit verbundenen Augen vergleichbar war. Ulam vertrat die Ansicht, dass von Neumann die Analyse physikalischer Phänomene in erster Linie durch abstrakte logische Schlussfolgerungen und nicht durch konkrete visuelle Darstellungen anging.

Vorlesungsstil

Herman Goldstine charakterisierte von Neumanns Vorträge als „geschmeidig und klar“ und kontrastierte sie mit seinen wissenschaftlichen Artikeln, die er als „härter“ und ohne vergleichbare Einsicht empfand. Auch Paul Halmos beschrieb die Vorträge als „umwerfend“ und verwies auf von Neumanns klare, schnelle, präzise und umfassende Rede. Sowohl Goldstine als auch Halmos stellten fest, dass der Stoff während der Vorlesungen zwar „so einfach und natürlich“ erschien, bei späterer Betrachtung jedoch oft verwirrend wurde. Von Neumanns schnelles Sprechtempo stellte sein Publikum vor Herausforderungen; Selbst in Stenografie hatte Banesh Hoffmann Mühe, sich Notizen zu machen, und Albert Tucker erinnerte sich, dass die Zuhörer ihn häufig mit Fragen unterbrachen, um ihn zum Tempo zu bewegen und ihnen die Möglichkeit zu geben, seine komplexen Ideen zu verarbeiten. Von Neumann war sich dessen bewusst und freute sich, wenn seine Zuhörer darauf hinwiesen, dass er zu schnell sprach. Obwohl er sich auf Vorlesungen vorbereitete, stützte er sich selten auf ausführliche Notizen, sondern skizzierte lieber die wichtigsten Diskussionspunkte und deren Dauer.

Eidetisches Gedächtnis

Von Neumann war bekannt für sein eidetisches Gedächtnis, insbesondere für seine symbolische Manifestation. Herman Goldstine bemerkte:

Eine seiner bemerkenswerten Fähigkeiten war seine Fähigkeit zur absoluten Erinnerung. Soweit ich das beurteilen konnte, war von Neumann einmal in der Lage, ein Buch oder einen Artikel wörtlich zu zitieren; außerdem konnte er es Jahre später bedenkenlos tun. Er konnte es auch ohne Geschwindigkeitseinbußen aus der Originalsprache ins Englische übersetzen. Einmal stellte ich seine Fähigkeiten auf die Probe, indem ich ihn bat, mir zu erzählen, wie A Tale of Two Cities begann. Daraufhin begann er ohne Pause sofort das erste Kapitel zu rezitieren und fuhr fort, bis er nach etwa zehn oder fünfzehn Minuten aufgefordert wurde, aufzuhören.

Angeblich besaß von Neumann die Fähigkeit, ganze Telefonverzeichnisse im Gedächtnis zu speichern. Er amüsierte Bekannte, indem er sie aufforderte, zufällig Seitennummern auszuwählen und anschließend die auf diesen Seiten aufgeführten Namen, Adressen und Telefonnummern aufzusagen. Stanisław Ulam postulierte, dass von Neumanns Gedächtnis in erster Linie auditiv und nicht visuell sei.

Mathematische Schärfe

Von Neumanns Kollegen würdigten häufig seine außergewöhnliche mathematische Begabung, seine schnelle Rechengeschwindigkeit und seine allgemeine Problemlösungsfähigkeit. Paul Halmos beschrieb seine Geschwindigkeit als „beeindruckend“, während Lothar Wolfgang Nordheim ihn zum „schnellsten Geist, den ich je getroffen habe“ erklärte. Enrico Fermi sagte gegenüber dem Physiker Herbert L. Anderson: „Weißt du, Herb, Johnny kann Berechnungen in seinem Kopf zehnmal so schnell durchführen wie ich! Und ich kann sie zehnmal so schnell erledigen wie du, Herb, also kannst du sehen, wie beeindruckend Johnny ist!“ Edward Teller gestand, dass er „nie mit ihm mithalten konnte“, und Israel Halperin verglich den Versuch, mit von Neumann Schritt zu halten, mit „einem Dreirad, das einen Rennwagen jagt“.

Seine Fähigkeit, neuartige Probleme schnell zu lösen, war außergewöhnlich. George Pólya, bei dem von Neumann an der ETH Zürich studierte, erzählte: „Johnny war der einzige Student, vor dem ich jemals Angst hatte. Wenn ich im Verlauf einer Vorlesung ein ungelöstes Problem darlegte, war die Wahrscheinlichkeit groß, dass er am Ende der Vorlesung mit der vollständigen Lösung auf einen Zettel gekritzelt zu mir kam.“ In ähnlicher Weise stellte George Dantzig von Neumann ein ungelöstes lineares Programmierproblem vor, das er „wie ich es mit einem gewöhnlichen Sterblichen tun würde“ anging, wobei er darauf hinwies, dass es keine zuvor veröffentlichte Literatur zu diesem Thema gab. Dantzig war erstaunt, als von Neumann, als er das Problem hörte, ausrief: „Oh, das!“ und dann einen spontanen Vortrag hielt, der länger als eine Stunde dauerte und dessen Lösung durch die zuvor unartikulierte Theorie der Dualität erläuterte.

Eine Anekdote über von Neumanns Lösung des berühmten „Fliegenrätsels“ ist Teil der mathematischen Folklore geworden. Das Rätsel beschreibt zwei Fahrräder, die im Abstand von 20 Meilen voneinander losfahren und jeweils mit 10 Meilen pro Stunde aufeinander zufahren, bis sie kollidieren. Gleichzeitig pendelt eine Fliege mit einer Geschwindigkeit von 24 km/h zwischen den Fahrrädern hin und her, bis sie bei der Kollision zerquetscht wird. Die Abfrage ist die Gesamtstrecke, die die Fliege zurückgelegt hat. Der herkömmliche „Trick“ für eine schnelle Lösung besteht darin, zu erkennen, dass die einzelnen Flugabschnitte der Fliege irrelevant sind; Von Bedeutung ist nur die kontinuierliche Bewegung mit 24 km/h während der gesamten Fahrtdauer des Fahrrads (eine Stunde). Laut Eugene Wigner stellte Max Born dieses Rätsel an von Neumann. Andere Wissenschaftler, denen Born das Rätsel gestellt hatte, hatten die Entfernung sorgfältig berechnet. Als von Neumann prompt die richtige Antwort von 15 Meilen lieferte, vermutete Born, dass er den „Trick“ abgeleitet haben musste. Berichten zufolge antwortete von Neumann: „Welcher Trick? Ich habe nur die geometrische Reihe summiert.“

Selbstzweifel

Gian-Carlo Rota bemerkte von Neumanns „tief sitzende und wiederkehrende Selbstzweifel“. John L. Kelley erinnerte sich im Jahr 1989 an von Neumanns Behauptung, dass er vergessen werden würde, während Kurt Gödel neben Pythagoras in Erinnerung bleiben würde, ein Gefühl, das im Gegensatz zu der weit verbreiteten Ehrfurcht stand, die seine Kollegen ihm entgegenbrachten. Stanisław Ulam postulierte, dass ein Teil von Neumanns kreativen Selbstzweifeln darauf zurückzuführen sein könnte, dass er trotz seiner offensichtlichen Fähigkeit dazu nicht in der Lage war, mehrere wichtige Konzepte wie die Unvollständigkeitssätze und Birkhoffs punktuellen Ergodensatz zu entwickeln. Während von Neumann über außergewöhnliche Fähigkeiten in komplizierten Überlegungen und tiefgreifenden Einsichten verfügte, bemerkte er möglicherweise einen Mangel an Eignung für scheinbar irrationale Beweise, Theoreme oder intuitive Durchbrüche. Ulam erzählte, dass von Neumann während einer Zeit in Princeton, als er sich mit Operatorringen, kontinuierlichen Geometrien und Quantenlogik beschäftigte, von der Bedeutung seiner Arbeit nicht überzeugt zu sein schien und erst dann Zufriedenheit fand, als er eine geniale technische Lösung oder einen neuartigen Ansatz entdeckte. Dennoch behauptete Rota, dass von Neumann eine „unvergleichlich stärkere Technik“ als Ulam besaß, obwohl er Ulam als den kreativeren Mathematiker anerkannte.

Legacy

Auszeichnungen

Nobelpreisträger Hans Bethe hat einmal darüber nachgedacht, ob ein Geist wie der von Neumann eine Spezies bedeuten könnte, die der Menschheit überlegen ist. Edward Teller beobachtete von Neumanns Fähigkeit, sich mit seinem dreijährigen Sohn auf Augenhöhe zu unterhalten, und veranlasste Teller zu der Frage, ob er das gleiche Prinzip auf andere anwendete. Peter Lax charakterisierte von Neumann als „süchtig nach dem Nachdenken, insbesondere nach dem Nachdenken über Mathematik“. Eugene Wigner bemerkte von Neumanns umfassendes Verständnis mathematischer Probleme, indem er sie „nicht nur in ihrem ursprünglichen Aspekt, sondern in ihrer gesamten Komplexität“ erfasste. Claude Shannon bezeichnete ihn als „den klügsten Menschen, den ich je getroffen habe“ und wiederholte damit ein allgemeines Gefühl. Jacob Bronowski beschrieb ihn als „ausnahmslos den klügsten Mann, den ich je gekannt habe“ und definierte Genie als ein Individuum mit zwei tiefgreifenden Ideen. Im Jahr 2006 behauptete Tom Siegfried, dass von Neumann den Begriff Polymath im vergangenen Jahrhundert verkörperte und dass seine Beiträge zur Physik, Mathematik, Informatik und Wirtschaft ihn zu einer der herausragenden intellektuellen Persönlichkeiten in jedem Bereich machten.

Wigner hob von Neumanns außergewöhnlichen Intellekt hervor und beschrieb seinen Geist als schneller als alle anderen, denen er jemals begegnet war, und erklärte:

Ich habe in meinem Leben sehr viele intelligente Menschen kennengelernt. Ich kannte Max Planck, Max von Laue und Werner Heisenberg. Paul Dirac war mein Schwager; Leo Szilard und Edward Teller gehörten zu meinen engsten Freunden; und Albert Einstein war auch ein guter Freund. Und ich habe viele der klügsten jüngeren Wissenschaftler gekannt. Aber keiner von ihnen hatte einen so schnellen und scharfsinnigen Verstand wie Jancsi von Neumann. Ich habe dies oft in Gegenwart dieser Männer bemerkt, und niemand hat mir jemals widersprochen.

Miklós Rédei postulierte: „Wenn der Einfluss eines Wissenschaftlers weit genug ausgelegt wird, um Auswirkungen auf Bereiche außerhalb der eigentlichen Wissenschaft einzuschließen, dann war John von Neumann wahrscheinlich der einflussreichste Mathematiker, der je gelebt hat.“ Lax vermutete, dass von Neumann einen Nobelpreis für Wirtschaftswissenschaften erhalten hätte, wenn er länger gelebt hätte, und dass er in ähnlicher Weise mit Nobelpreisen für Informatik und Mathematik geehrt worden wäre, wenn es solche Auszeichnungen gegeben hätte. Gian-Carlo Rota bezeichnete von Neumann als „den ersten, der eine Vision von den grenzenlosen Möglichkeiten des Rechnens hatte“ und dafür, dass er „die Entschlossenheit besaß, die beträchtlichen intellektuellen und technischen Ressourcen zu sammeln, die zum Bau des ersten großen Computers führten“, und kam zu dem Schluss, dass „kein anderer Mathematiker in diesem Jahrhundert einen so tiefgreifenden und nachhaltigen Einfluss auf den Verlauf der Zivilisation hatte.“ Er gilt weithin als einer der bedeutendsten und einflussreichsten Mathematiker und Wissenschaftler des 20. Jahrhunderts, und seine umfangreichen Beiträge auf zahlreichen Gebieten haben seinen Ruf als Universalgelehrter gefestigt.

Der Neurophysiologe Leon Harmon charakterisierte von Neumann in ähnlicher Weise als das einzige „wahre Genie“, dem er begegnet war, selbst unter Größen wie Einstein, Teller und J. Robert Oppenheimer. Harmon bemerkte: „von Neumanns Geist war allumfassend. Er konnte Probleme in jedem Bereich lösen. ... Und sein Geist arbeitete immer, immer ruhelos.“ In seinen beratenden Funktionen für nicht-akademische Unternehmungen erlangte von Neumann durch seine außergewöhnliche Mischung aus wissenschaftlichem Können und pragmatischem Einsatz beispiellose Glaubwürdigkeit bei Militäroffizieren, Ingenieuren und Industriellen. Herbert York bemerkte, dass von Neumann auf dem Gebiet der nuklearen Raketentechnik als „die eindeutig dominierende Beraterfigur“ angesehen wurde. Der Ökonom Nicholas Kaldor bekräftigte, dass von Neumann „zweifellos dem Genie am nächsten kam, dem ich je begegnet bin“. In ähnlicher Weise formulierte Paul Samuelson: „Wir Ökonomen sind dankbar für von Neumanns Genie. Es steht uns nicht zu, zu berechnen, ob er ein Gauß, ein Poincaré oder ein Hilbert war. Er war der unvergleichliche Johnny von Neumann. Er stürzte sich kurz in unser Reich, und seitdem ist es nicht mehr dasselbe.“

Ehrungen und Auszeichnungen

In Anerkennung von Neumanns Beiträgen wurden mehrere Ehrungen und Auszeichnungen vergeben, darunter der jährliche John von Neumann Theory Prize des Institute for Operations Research and the Management Sciences, die IEEE John von Neumann Medal und der John von Neumann Prize der Society for Industrial and Applied Mathematics. Darüber hinaus tragen sowohl der Mondkrater von Neumann als auch der Asteroid 22824 von Neumann seinen Namen.

Von Neumann erhielt zahlreiche Auszeichnungen, darunter die Medal for Merit im Jahr 1947, die Medal of Freedom im Jahr 1956 und den Enrico Fermi Award, der ebenfalls 1956 verliehen wurde. Zu seinen Auszeichnungen gehörte außerdem die Wahl in mehrere Ehrengesellschaften, insbesondere die American Academy of Arts and Sciences und die National Akademie der Wissenschaften sowie die Verleihung von acht Ehrendoktortiteln. Am 4. Mai 2005 veröffentlichte der United States Postal Service die Gedenkbriefmarkenserie American Scientists, die vom Künstler Victor Stabin entworfen wurde und von Neumann, Barbara McClintock, Josiah Willard Gibbs und Richard Feynman zeigte.

Die John von Neumann-Universität wurde 2016 in Kecskemét, Ungarn, als Nachfolgerin des Kecskemét College gegründet.

Ausgewählte Werke

Von Neumanns erste veröffentlichte Arbeit, Über die Position von Nullstellen bestimmter minimaler Polynome, wurde gemeinsam mit Michael Fekete verfasst und erschien, als von Neumann 18 Jahre alt war. Im Alter von 19 Jahren wurde sein Solowerk Über die Einführung transfiniter Zahlen veröffentlicht. Seine Doktorarbeit entstand aus einer Erweiterung seiner zweiten Einzelarbeit, Eine Axiomatisierung der Mengenlehre. 1932 erschien sein erstes Buch, Mathematical Foundations of Quantum Mechanics. Anschließend wechselte von Neumann für seine Veröffentlichungen vom Deutschen ins Englische, die über den Bereich der reinen Mathematik hinaus selektiver und vielfältiger wurden. Seine Abhandlung Theorie der Detonationswellen aus dem Jahr 1942 trug wesentlich zur militärischen Forschung bei. Seine Pionierarbeit auf dem Gebiet der Informatik begann mit dem unveröffentlichten Manuskript Über die Prinzipien großer Rechenmaschinen aus dem Jahr 1946, und seine Beiträge zur Wettervorhersage begannen mit der Veröffentlichung Numerische Integration der barotropen Vorticitätsgleichung aus dem Jahr 1950. Zusätzlich zu seinen formellen Arbeiten verfasste er informelle Essays, die sich sowohl an Kollegen als auch an die breite Öffentlichkeit richteten, darunter sein 1947 erschienenes Werk The Mathematician, das als „Abschied von der reinen Mathematik“ bezeichnet wurde, und sein 1955 erschienenes Essay Können wir die Technologie überleben?, in dem es um eine düstere Zukunft geht, die Atomkrieg und absichtliche Klimaveränderung umfasst. Sein umfangreiches Werk wurde in einer sechsbändigen Sammlung zusammengestellt.

Persönliches Leben

Er heiratete Mariette Kövesi im Jahr 1930; Ihre Ehe wurde 1937 geschieden. Gemeinsam hatten sie eine Tochter, Marina von Neumann Whitman. Marina von Neumann Whitman wurde akademische Ökonomin und war insbesondere die erste Frau im Rat der Wirtschaftsberater des Präsidenten (1972–1973) und später Vizepräsidentin für öffentliche Angelegenheiten bei General Motors (1979–1992), eine Position, die sie in dieser Zeit zur ranghöchsten Frau in der US-amerikanischen Automobilindustrie machte. Darüber hinaus hatte sie den Titel einer emeritierten Professorin an der University of Michigan inne.

Anschließend heiratete er Klara Dan (1938–1957), die an der Programmierung der ENIAC- und MANIAC-Computer beteiligt war.

Notizen

Referenzen