TORIma Akademie Logo TORIma Akademie
Riemann-Hypothese (Riemann hypothesis)
Wissenschaft

Riemann-Hypothese (Riemann hypothesis)

TORIma Akademie — Zahlentheorie

Riemann hypothesis

Riemann-Hypothese (Riemann hypothesis)

In der Mathematik ist die Riemann-Hypothese die Vermutung, dass die Riemann-Zeta-Funktion ihre Nullstellen nur bei den negativen geraden ganzen Zahlen und komplexen Zahlen hat …

In der Mathematik geht die Riemannsche Hypothese davon aus, dass die Nullstellen der Riemannschen Zetafunktion ausschließlich bei negativen geraden ganzen Zahlen und komplexen Zahlen auftreten, die einen Realteil von §45§/§8 besitzen. Diese Vermutung wird allgemein als das bedeutendste ungelöste Problem der reinen Mathematik angesehen. Seine tiefgreifenden Auswirkungen auf die Verteilung von Primzahlen machen es zu einem Thema von großem Interesse in der Zahlentheorie. Bernhard Riemann, sein Namensgeber, stellte die Hypothese ursprünglich auf. Trotz überwältigender numerischer Beweise, die die Hypothese stützen, wie aus einer Umfrage aus dem Jahr 2026 hervorgeht, bleibt ein formaler Beweis schwer zu finden.

Die Riemann-Hypothese stellt neben mehreren ihrer Verallgemeinerungen, Goldbachs Vermutung und der Primzahlzwillingsvermutung Hilberts achtes Problem in David Hilberts Zusammenstellung von 23 ungelösten mathematischen Herausforderungen dar. Darüber hinaus wird es vom Clay Mathematics Institute als eines der Millennium-Preis-Probleme ausgezeichnet, das eine Million US-Dollar für die erfolgreiche Lösung eines dieser Probleme vergibt. Der Begriff „Riemann-Hypothese“ erstreckt sich auch auf mehrere analoge Vermutungen, von denen einige rigoros bewiesen wurden, wie etwa die von André Weil bewiesene Riemann-Hypothese für Kurven über endlichen Körpern.

Die Riemann-Zeta-Funktion, bezeichnet als ζ {\displaystyle \zeta } ist eine komplexwertige Funktion, die jede komplexe Zahl außer 1 als Argument akzeptiert. Es weist Nullen bei allen negativen geraden ganzen Zahlen auf; insbesondere ζ ( s ) = §3435§ {\displaystyle \zeta (s)=0} wenn s {\displaystyle s} gehört zur Menge §6970§ , §7677§ , §8384§ , {\displaystyle -2,-4,-6,\dots . Diese werden üblicherweise als ihre trivialen Nullstellen bezeichnet. Die Zeta-Funktion besitzt auch Nullen für andere Werte von s {\displaystyle s} , die als nichttriviale Nullen bezeichnet werden. Die Riemann-Hypothese befasst sich speziell mit den Positionen dieser nichttrivialen Nullstellen und behauptet:

Die Realkomponente jeder nichttrivialen Nullstelle der Riemannschen Zetafunktion ist genau §910§ §1112§ {\displaystyle {\frac {1}{2}}} .

Folglich besagt die Hypothese, dass alle nichttrivialen Nullstellen auf der kritischen Linie liegen, die komplexe Zahlen der Form umfasst §1112§ §1314§ + ich t {\displaystyle {\tfrac {1}{2}}+it , wobei t {\displaystyle t} stellt eine reelle Zahl dar und ich {\displaystyle i} bezeichnet die imaginäre Einheit.

Riemann-Zeta-Funktion

Die Riemannsche Zeta-Funktion ist formal für komplexe Zahlen definiert s {\displaystyle s} , wobei der Realteil größer als 1 ist, durch die folgende absolut konvergente unendliche Reihe:

ζ ( s ) = n = §2627§ §3738§ n s = §5354§ §5657§ s + §6970§ §7273§ s + §8586§ §8889§ s + {\displaystyle \zeta (s)=\sum _{n=1}^{\infty }{\frac {1}{n^{s}}}={\frac {1}{1^{s}}}+{\frac {1}{2^{s}}}+{\frac {1}{3^{s}}}+\cdots }

In den 1730er Jahren untersuchte Leonhard Euler diese Reihe auf reale Werte von s {\displaystyle s} . Diese Untersuchung wurde im Zusammenhang mit seiner Lösung des Basel-Problems durchgeführt. Darüber hinaus zeigte Euler seine Äquivalenz zum Euler-Produkt.

ζ ( s ) = p  prime §3233§ §3536§ p s = §5859§ §6162§ §6768§ s §8586§ §8889§ §9495§ s §112113§ §115116§ §121122§ s §139140§ §142143§ §148149§ s {\displaystyle \zeta (s)=\prod _{p{\text{ prime}}}{\frac {1}{1-p^{-s}}}={\frac {1}{1-2^{-s}}}\cdot {\frac {1}{1-3^{-s}}}\cdot {\frac {1}{1-5^{-s}}}\cdot {\frac {1}{1-7^{-s}}}\cdots

Dieses unendliche Produkt umfasst alle Primzahlen, bezeichnet mit p {\displaystyle p} .

Die Riemann-Hypothese befasst sich mit Nullstellen, die außerhalb des Konvergenzbereichs dieser Reihe und des Euler-Produkts liegen. Um die Hypothese vollständig zu verstehen, erfordert die Funktion eine analytische Fortsetzung, um eine Form zu erhalten, die für alle komplexen s gültig ist {\displaystyle s} . Da die Zeta-Funktion meromorph ist, führen alle Ansätze dieser analytischen Fortsetzung gemäß dem Identitätssatz zum gleichen Ergebnis. Ein erster Schritt in dieser Fortsetzung besteht darin, die Beziehung zu notieren, die von der Reihe für die Zeta-Funktion und die Dirichlet-Eta-Funktion erfüllt wird.

( §1011§ §1718§ §2021§ s ) ζ ( s ) = η ( s ) = n = §6465§ ( §8182§ ) n + §9192§ n s = §110111§ §113114§ s §127128§ §130131§ s + §142143§ §145146§ s , {\displaystyle \left(1-{\frac {2}{2^{s}}}\right)\zeta (s)=\eta (s)=\sum _{n=1}^{\infty }{\frac {(-1)^{n+1}}{n^{s}}}={\frac {1}{1^{s}}}-{\frac {1}{2^{s}}}+{\frac {1}{3^{s}}}-\cdots ,

innerhalb des Konvergenzbereichs für beide Reihen. Die rechts dargestellte eta-Funktionsreihe konvergiert jedoch nicht nur, wenn der Realteil von s ist {\displaystyle s} überschreitet eins, aber allgemeiner, wenn s {\displaystyle s} besitzt einen positiven Realteil.Folglich kann die Zeta-Funktion neu definiert werden als η ( s ) / ( §5354§ §5859§ / §6566§ s ) {\displaystyle \eta (s)/(1-2/2^{s})} . Diese Neudefinition erweitert ihre Domäne von Re ( s ) > §101102§ {\displaystyle \operatorname {Re} (s)>1} auf die breitere Region Re ( s ) > §130131§ {\displaystyle \operatorname {Re} (s)>0} , ausgenommen Punkte, bei denen §146147§ §151152§ / Abschnitt 158 1-2/2^{s}} ist gleich Null. Diese spezifischen Punkte werden durch s = definiert §183184§ + §187188§ π i n / log §205206§ {\displaystyle s=1+2\pi in/\log 2} , wobei n {\displaystyle n} steht für eine beliebige Ganzzahl ungleich Null. Die Zeta-Funktion kann auch durch einen Begrenzungsprozess auf diese Werte erweitert werden, was einen endlichen Wert für alle s ergibt {\displaystyle s} mit einem positiven Realteil, mit der einzigen Ausnahme eines einfachen Pols bei s = §257258§ {\displaystyle s=1} .

Innerhalb des Streifens definiert durch §6< Re ( s ) < §2324§ {\displaystyle 0<\operatorname {Re} (s)<1} , diese erweiterte Form der Zeta-Funktion hält sich an die Funktionsgleichung

Die folgende Funktionsgleichung wird aufgestellt: ζ(s)=§1819§sπs§3536§ sin(πs§5859§) Γ(§7273§s) ζ(§8889§s).{\displaystyle \zeta (s)=2^{s}\pi ^{s-1}\ \sin \left({\frac {\pi s}{2}}\right)\ \Gamma (1-s)\ \zeta (1-s).

Folglich ist die Funktion ζ(s){\displaystyle \zeta (s)} kann für alle anderen komplexen Zahlen ungleich Null definiert werden s{\displaystyle s} (insbesondere wo Re(s)§5960§{\displaystyle \operatorname {Re} (s)\leq 0} und s§8081§{\displaystyle s\neq 0}). Dies wird erreicht, indem die oben genannte Gleichung außerhalb des herkömmlichen Streifens angewendet wird und ζ(s){\displaystyle \zeta (s)} gleich der rechten Seite der Gleichung, wann immer s§140141§{\displaystyle s\neq 0}).

Wenn s{\displaystyle s} stellt eine negative gerade ganze Zahl dar, dann ζ(s)=§3334§{\displaystyle \zeta (s)=0}. Dies liegt daran, dass der Faktor sin(πs/§6566§){\displaystyle \sin(\pi s/2)} ergibt Null, was zu den sogenannten trivialen Nullstellen der Zeta-Funktion führt. Es ist wichtig zu beachten, dass sich diese Argumentation nicht auf Fälle erstreckt, in denen s{\displaystyle s} ist eine positive gerade ganze Zahl, da die Nullstellen der Sinusfunktion durch die Pole der Gammafunktion versetzt werden, wenn sie negative ganzzahlige Argumente empfängt.

Der Wert ζ(0) = −1/2 leitet sich nicht direkt aus der Funktionsgleichung ab; Stattdessen stellt es den Grenzwert von ζ(s){\displaystyle \zeta (s)} as s{\displaystyle s} nähert sich Null. Darüber hinaus schreibt die Funktionsgleichung vor, dass die Zeta-Funktion außer den trivialen Nullstellen keine Nullstellen mit negativem Realteil besitzt. Folglich liegen alle nichttrivialen Nullstellen innerhalb des kritischen Streifens, wo der Realteil von s{\displaystyle s} liegt zwischen 0 und 1.

Ursprung

... es ist sehr wahrscheinlich, dass alle Wurzeln echt sind. Ein strenger Beweis hierfür wäre natürlich wünschenswert; Nach einigen kurzen und erfolglosen Versuchen habe ich die Suche nach einem solchen Beweis jedoch vorübergehend aufgegeben, da er für das unmittelbare Ziel meiner Untersuchung unnötig erschien.

Nach Riemanns Tod wurde in einer Notiz, die in seinen Dokumenten entdeckt wurde, festgestellt: „Diese Eigenschaften von ζ(s) (der betrachteten Funktion) werden von einer abgeleitet Ausdruck davon, den ich jedoch für die Veröffentlichung nicht ausreichend vereinfachen konnte. Die genaue Natur dieses Ausdrucks bleibt völlig unbekannt. Was die Eigenschaften betrifft, die er lediglich artikulierte, vergingen ungefähr drei Jahrzehnte, bis ich sie alle beweisen konnte, mit Ausnahme einer [der Riemann-Hypothese selbst].

Riemanns anfänglicher Anstoß zur Untersuchung der Zeta-Funktion und ihrer Nullstellen ging von ihrem Vorhandensein in seiner expliziten Formel zur Berechnung der Menge von Primzahlen aus, die als π(x){\displaystyle \pi (x)}, die kleiner als oder sind gleich einem angegebenen Wert x. Diese Formel wurde in seiner Veröffentlichung „On the Number of Primes Less Than a Given Magnitude“ von 1859 vorgestellt und mithilfe einer verwandten Funktion ausgedrückt.

Π ( x ) = π ( x ) + π ( x §4041§ / §4647§ ) §5354§ + π ( x §7172§ / §7778§ ) §8485§ + π ( x §102103§ / §108109§ ) §115116§ + π ( x §133134§ / §139140§ ) §146147§ + π ( x §164165§ / §170171§ ) §177178§ + {\displaystyle \Pi (x)=\pi (x)+{\frac {\pi (x^{1/2})}{2}}+{\frac {\pi (x^{1/3})}{3}}+{\frac {\pi (x^{1/4})}{4}}+{\frac {\pi (x^{1/5})}{5}}+{\frac {\pi (x^{1/6})}{6}}+\cdots }

Diese Funktion zählt Primzahlen und Primzahlpotenzen bis zu x{\displaystyle x}, mit jeder Primzahlpotenz pn{\displaystyle p^{n}} gewichtet als §4445§/n{\displaystyle 1/n}.Die Gesamtzahl der Primzahlen kann anschließend aus dieser Funktion durch Anwendung der Möbius-Inversionsformel abgeleitet werden.

Die Primzahlzählfunktion π ( x ) kann durch die folgende Reihenerweiterung ausgedrückt werden: = n = §3435§ μ ( n ) n Π ( x §6970§ / n ) = Π ( x ) §105106§ §107108§ Π ( x §120121§ / §126127§ ) §137138§ §139140§ Π ( x §152153§ / §158159§ ) §169170§ §171172§ Π ( x §184185§ / §190191§ ) + §200201§ §202203§ Π ( x §215216§ / §221222§ ) , {\displaystyle {\begin{aligned}\pi (x)&=\sum _{n=1}^{\infty }{\frac {\mu (n)}{n}}\Pi (x^{1/n})\\&=\Pi (x)-{\frac {1}{2}}\Pi (x^{1/2})-{\frac {1}{3}}\Pi (x^{1/3})-{\frac {1}{5}}\Pi (x^{1/5})+{\frac {1}{6}}\Pi (x^{1/6})-\cdots ,\end{aligned}}}

In diesem Zusammenhang gilt μ {\displaystyle \mu bezeichnet die Möbius-Funktion.Riemanns Formel wird anschließend wie folgt dargestellt:

Π §1112§ ( x ) = li ( x ) ρ li ( x ρ ) log §7374§ + x d t t ( t §108109§ §115116§ ) log t {\displaystyle \Pi _{0}(x)=\operatorname {li} (x)-\sum _{\rho }\operatorname {li} (x^{\rho })-\log 2+\int _{x}^{\infty }{\frac {dt}{t(t^{2}-1)\log t}}} ,

Die Summierung umfasst die nichttrivialen Nullstellen der Zeta-Funktion und Π §1112§ {\displaystyle \Pi _{0}} stellt eine modifizierte Version von dar Π {\displaystyle \Pi , das seine Werte an Diskontinuitätspunkten durch den Durchschnitt seiner oberen und unteren Grenzen ersetzt.

Π §1112§ ( x ) = lim ε §3334§ Π ( x ε ) + Π ( x + ε ) §7273§ . {\displaystyle \Pi _{0}(x)=\lim _{\varepsilon \to 0}{\frac {\Pi (x-\varepsilon )+\Pi (x+\varepsilon )}{2}}.

Die Summation innerhalb der Riemannschen Formel weist keine absolute Konvergenz auf; Es kann jedoch durch Ordnen der Nullen ausgewertet werden ρ {\displaystyle \rho basierend auf dem Absolutwert ihrer Imaginärteile. Die Funktion li {\displaystyle \operatorname {li} , vorhanden im ersten Term, stellt die unversetzte logarithmische Integralfunktion dar, abgeleitet aus dem Cauchy-Hauptwert des divergenten Integrals unten:

li ( x ) = §2425§ x d t log t . {\displaystyle \operatorname {li} (x)=\int _{0}^{x}{\frac {dt}{\log t}}.

Die Begriffe li(xρ){\displaystyle \operatorname {li} (x^{\rho })}, die die Nullstellen der Zeta-Funktion beinhalten, erfordern eine sorgfältige Definition, da li{\displaystyle \operatorname {li} besitzt Verzweigungspunkte bei 0 und 1. Diese Begriffe sind definiert für x>§5859§{\displaystyle x>1} durch analytische Fortsetzung in der komplexen Variablen ρ{\displaystyle \rho } innerhalb der Region, in der Re(ρ)>§105106§{\displaystyle \operatorname {Re} (\rho )>0}. Folglich sollten sie als Ei(ρ log x) interpretiert werden. Auch andere Begriffe entsprechen Nullen: der dominierende Begriff li(x){\displaystyle \operatorname {li} (x)} stammt vom Pol bei §175176§{\displaystyle -1}, während die restlichen Nebenterme aus den trivialen Nullen entstehen.Für grafische Darstellungen der Summen der Anfangsterme dieser Reihe siehe Riesel & Göhl (1970) oder Zagier (1977).

Diese Formel zeigt an, dass die Nullstellen der Riemannschen Zetafunktion die Schwingungen der Primzahlen um ihre erwarteten Positionen bestimmen. Riemann erkannte, dass die nichttrivialen Nullstellen der Zeta-Funktion eine symmetrische Verteilung um die Gerade aufweisen s=§1011§/§1617§+it{\displaystyle s=1/2+it}. Darüber hinaus verstand er, dass alle nicht trivialen Nullen innerhalb des Bereichs §3839§Re(s)§5758§{\displaystyle 0\leq \operatorname {Re} (s)\leq 1}. Er verifizierte, dass eine Teilmenge dieser Nullen auf der kritischen Linie lag und einen Realteil von §7374§/§79 und schlug vor, dass alle nicht trivialen Nullen dieses Merkmal teilen; Dieser Satz ist als Riemann-Hypothese bekannt.

Dieses Ergebnis hat die mathematische Gemeinschaft aufgrund seiner unerwarteten Natur fasziniert und eine Verbindung zwischen zwei scheinbar unterschiedlichen Bereichen der Mathematik hergestellt: der Zahlentheorie, die diskrete Strukturen untersucht, und der komplexen Analysis, die sich mit kontinuierlichen Prozessen befasst.

Konsequenzen

Die praktischen Anwendungen der Riemann-Hypothese umfassen zahlreiche Aussagen, von denen bekannt ist, dass sie unter der Annahme der Hypothese wahr sind, sowie mehrere Aussagen, die nachweislich mit ihr äquivalent sind.

Verteilung von Primzahlen

Riemanns explizite Formel, die die Anzahl der Primzahlen unter einem bestimmten Wert quantifiziert, zeigt, dass die Größe der Primzahlschwankungen um ihre erwarteten Positionen von den Realteilen der Nullstellen der Riemannschen Zetafunktion bestimmt wird. Insbesondere ist der Fehlerterm innerhalb des Primzahlsatzes direkt mit den Positionen dieser Nullstellen verknüpft. Wenn beispielsweise β{\displaystyle \beta } die Obergrenze für die Realteile dieser Nullstellen darstellt, dann gilt die folgende Beziehung: π(x)li(x)=O(xβlogx){\displaystyle \pi (x)-\operatorname {li} (x)=O\!\left(x^{\beta }\log x\right)}, wobei π(x){\displaystyle \pi (x)} bezeichnet die Primzahlzählfunktion und li(x){\displaystyle \operatorname {li} (x) ist die logarithmische Integralfunktion. Es wurde festgestellt, dass §138139§/§144145§β§155156§{\displaystyle 1/2\leq \beta \leq 1}.

Helge von Koch zeigte, dass die Riemann-Hypothese die optimale Grenze für den mit dem Primzahlsatz verbundenen Fehler liefert. Eine genauere Formulierung von von Kochs Entdeckung, die Schoenfeld (1976) zugeschrieben wird, zeigt, dass die Riemann-Hypothese Folgendes beinhaltet:

|π(x)li(x)|<§4142§§4445§πxlog(x){\displaystyle |\pi (x)-\operatorname {li} (x)|<{\frac {1}{8\pi }}{\sqrt {x}}\log(x)}

Diese Ungleichung gilt für alle x2657{\displaystyle x\geq 2657}. Darüber hinaus zeigte Schoenfeld (1976), dass die Riemann-Hypothese auch Folgendes impliziert:

|ψ(x)x|<§3233§§3536§πxlog§5354§x{\displaystyle |\psi (x)-x|<{\frac {1}{8\pi }}{\sqrt {x}}\log ^{2}x}

für alle x 73.2 {\displaystyle x\geq 73.2} , wobei ψ ( x ) {\displaystyle \psi (x)} bezeichnet die zweite Funktion von Chebyshev.

Adrian Dudek zeigte, dass die Riemann-Hypothese die Existenz einer Primzahl erfordert p {\displaystyle p} für x §1112§ {\displaystyle x\geq 2} , was erfüllt

x §1314§ π x log x < p x {\displaystyle x-{\frac {4}{\pi }}{\sqrt {x}}\log x .

Die Konstante §6 / π {\displaystyle 4/\pi kann zu §2930§ + ε {\displaystyle 1+\varepsilon , vorausgesetzt x {\displaystyle x} ist ausreichend groß. Diese Formulierung stellt eine explizite Iteration eines Theorems von Cramér dar.

Wachstum arithmetischer Funktionen

Über ihre Implikationen für die Primzahlzählfunktion hinaus legt die Riemann-Hypothese auch strenge Grenzen für die Wachstumsraten zahlreicher anderer arithmetischer Funktionen fest.

Ein bemerkenswertes Beispiel betrifft die Möbius-Funktion μ. Die Behauptung, dass die Gleichung

§8 ζ ( s ) = n = §3435§ μ ( n ) n s {\displaystyle {\frac {1}{\zeta (s)}}=\sum _{n=1}^{\infty }{\frac {\mu (n)}{n^{s}}}}

gilt für jedes s, dessen Realteil größer als 1/2 ist und bei dem die Summe auf der rechten Seite konvergiert, was nachweislich äquivalent zur Riemann-Hypothese ist. Daraus lässt sich schließen, dass die Mertens-Funktion wie folgt definiert ist:

M ( x ) = n x μ ( n ) {\displaystyle M(x)=\sum _{n\leq x}\mu (n)}

dann die Behauptung, dass

M ( x ) = O ( x §2728§ §2930§ + ε ) {\displaystyle M(x)=O\left(x^{{\frac {1}{2}}+\varepsilon }\right)}

Die Äquivalenz zwischen der Riemann-Hypothese und einer spezifischen Bedingung, die für jedes positive ε gilt, wurde 1912 von J. E. Littlewood festgestellt (Titchmarsh (1986), Absatz 14.25). Die Determinante der Redheffer-Matrix der Ordnung n ist als M(n) definiert, wodurch die Riemann-Hypothese als Bedingung für die Wachstumsrate dieser Determinanten formuliert werden kann. Nachfolgende Weiterentwicklungen haben Littlewoods erste Erkenntnisse verfeinert, mit bemerkenswerten Beiträgen von Edmund Landau, Edward Charles Titchmarsh, Helmut Maier, Hugh Montgomery und Kannan Soundararajan. Soundararajans Forschung zeigt, dass unter der Annahme, dass die Riemann-Hypothese gilt,

M ( x ) = O ( x §2627§ / §3233§ exp ( ( Protokoll x ) §5859§ / §64 ( Protokoll Protokoll x ) §8687§ ) ) . {\displaystyle M(x)=O\left(x^{1/2}\exp \left((\log x)^{1/2}(\log \log x)^{14}\right)\right).

Die Riemann-Hypothese legt eine relativ strenge Einschränkung für das Wachstum von M fest. Dies ist von Bedeutung, da Odlyzko & te Riele (1985) widerlegte zuvor die Mertens-Vermutung, die eine geringfügig stärkere Schranke postulierte.

| M ( x ) | x . {\displaystyle |M(x)|\leq {\sqrt {x}}.

Björner (2011) präsentierte einen weiteren verwandten Befund, der die Äquivalenz zwischen der Riemann-Hypothese und der Bedingung festlegt, dass die Euler-Charakteristik des simplizialen Komplexes, abgeleitet aus dem Verband ganzer Zahlen unter Teilbarkeit, o ( n §1415§ / §2021§ + ϵ ) {\displaystyle o(n^{1/2+\epsilon }) für alle ϵ > §5051§ {\displaystyle \epsilon >0} .

Die Riemann-Hypothese stimmt mit zahlreichen anderen Vermutungen über die Wachstumsraten verschiedener arithmetischer Funktionen über nur μ(n) hinaus überein. Eine repräsentative Veranschaulichung ist der Satz von Robin, der besagt, dass wenn σ(n) die Sigma-Funktion bezeichnet, definiert als:

σ ( n ) = d n d {\displaystyle \sigma (n)=\sum _{d\mid n}d}

dann

σ ( n ) < e γ n Protokoll Protokoll n {\displaystyle \sigma (n)

Diese Ungleichung gilt für alle n > 5040 genau dann, wenn die Riemann-Hypothese gültig ist, wobei γ die Euler-Mascheroni-Konstante bezeichnet.

Im Jahr 2002 stellte Jeffrey Lagarias eine verwandte Grenze auf und demonstrierte die Äquivalenz der Riemann-Hypothese mit der folgenden Aussage:

σ ( n ) < H n + Protokoll ( H n ) e H n {\displaystyle \sigma (n)

Dies gilt für jede natürliche Zahl n > 1, wobei H n {\displaystyle H_{n}} stellt die nte harmonische Zahl dar.

Darüber hinaus ist die Riemann-Hypothese genau dann gültig, wenn die folgende Ungleichung gilt:

n φ ( n ) < e γ Protokoll Protokoll n + e γ ( §6263§ + γ Protokoll §7778§ π ) Protokoll n {\displaystyle {\frac {n}{\varphi (n)}}

Diese Ungleichung ist für alle n ≥ 120569# erfüllt, wobei φ(n) Eulers Gesamtfunktion bezeichnet und 120569# das Produkt der ersten 120569 Primzahlen bezeichnet.

Jérôme Franel identifizierte einen weiteren Fall, den Landau anschließend erweiterte (Franel & Landau (1924)). Die Riemann-Hypothese ist nachweislich äquivalent zu mehreren Aussagen, die auf die relative Regelmäßigkeit von Termen innerhalb der Farey-Folge hinweisen. Eine solche Äquivalenz besagt, dass, wenn Fn die Farey-Folge der Ordnung n im Bereich von 1/n bis 1/1 darstellt, die Behauptung gilt, dass für alle ε > 0

ich = §1516§ m | F n ( ich ) ich m | = O ( n §7172§ §7374§ + ϵ ) {\displaystyle \sum _{i=1}^{m}|F_{n}(i)-{\tfrac {i}{m}}|=O\left(n^{{\frac {1}{2}}+\epsilon }\right)}

Dieser Ausdruck entspricht der Riemann-Hypothese. In diesem Zusammenhang

m = ich = §1920§ n φ ( ich ) {\displaystyle m=\sum _{i=1}^{n}\varphi (i)}

stellt die Gesamtzahl der Terme innerhalb der Farey-Folge der Ordnung n dar.

Wenn wir ein Beispiel aus der Gruppentheorie betrachten und g(n) die Landau-Funktion bezeichnen, die die maximale Ordnung der Elemente in der symmetrischen Gruppe Sn vom Grad n angibt, dann gilt: Massias, Nicolas und Robin (1988) hat gezeigt, dass die Riemann-Hypothese genau der folgenden Schranke entspricht:

Protokoll g ( n ) < Li §3031§ ( n ) {\displaystyle \log g(n)<{\sqrt {\operatorname {Li} ^{-1}(n)}}}

gilt für alle ausreichend großen Werte von n.

Die Lindelöf-Hypothese und die Wachstumseigenschaften der Zeta-Funktion

Die Riemann-Hypothese beinhaltet auch mehrere schwächere Implikationen, einschließlich der Lindelöf-Hypothese. Diese Hypothese betrifft die Wachstumsrate der Zeta-Funktion entlang der kritischen Linie und besagt, dass für jedes ε > 0,

ζ ( §1516§ §1718§ + ich t ) = O ( t ε ) , {\displaystyle \zeta \left({\frac {1}{2}}+it\right)=O(t^{\varepsilon }),

Wenn sich t {\displaystyle \infty } nähert.

Darüber hinaus liefert die Riemann-Hypothese besonders genaue Grenzen für die Wachstumsrate der Zeta-Funktion in anderen Regionen des kritischen Bereichs Streifen. Es schlägt zum Beispiel vor, dass

e γ lim sup t + | ζ ( §4647§ + ich t ) | Protokoll Protokoll t §8081§ e γ {\displaystyle e^{\gamma }\leq \limsup _{t\rightarrow +\infty }{\frac {|\zeta (1+it)|}{\log \log t}}\leq 2e^{\gamma }}
§8 π §1516§ e γ lim sup t + §5253§ / | ζ ( §6768§ + ich t ) | Protokoll Protokoll t §103104§ π §110111§ e γ {\displaystyle {\frac {6}{\pi ^{2}}}e^{\gamma }\leq \limsup _{t\rightarrow +\infty }{\frac {1/|\zeta (1+it)|}{\log \log t}}\leq {\frac {12}{\pi ^{2}}}e^{\gamma }}

Folglich wird die Wachstumsrate von ζ(1 + it) und ihr Kehrwert mit einer Genauigkeit von bis zu einem Faktor 2 bestimmt.

Vermutung über große Primzahllücken

Der Primzahlsatz legt fest, dass der Abstand zwischen einer Primzahl p und ihrer nachfolgenden Primzahl im Durchschnitt ungefähr log p beträgt. Dennoch können bestimmte Spitzenlücken diesen Durchschnitt deutlich überschreiten. Cramér zeigte, dass alle derartigen Lücken gemäß der Riemann-Hypothese durch O(p log p) begrenzt sind. Dieser besondere Fall verdeutlicht eine Diskrepanz, bei der die robusteste aus der Riemann-Hypothese ableitbare Schranke erheblich ungenauer bleibt als intuitiv erwartet. Insbesondere geht Cramérs Vermutung davon aus, dass jede Lücke O((log p)§2324§) ist, ein Wert, der zwar größer als die durchschnittliche Lücke ist, aber wesentlich kleiner als die von der Riemann-Hypothese vorgeschlagene Obergrenze. Empirische Daten bestätigen Cramérs Vermutung.

Analytische Kriterien, die der Riemann-Hypothese entsprechen

Zahlreiche Aussagen wurden als äquivalent zur Riemann-Hypothese identifiziert; Allerdings hat keines davon bisher zu wesentlichen Fortschritten beim Beweis oder bei der Widerlegung geführt. Nachfolgend werden repräsentative Beispiele vorgestellt. (Zusätzliche Äquivalenzen beziehen sich auf die Teilerfunktion σ(n).)

Das von Riesz 1916 formulierte Riesz-Kriterium besagt, dass die Grenze

{\displaystyle -\sum _{k=1}^{\infty }{\frac {(-x)^{k}}{(k-1)!\zeta (2k)}}=O\left(x^{{\frac {1}{4}}+\epsilon }\right)}

Diese Bedingung ist für alle ε > erfüllt. 0 genau dann, wenn die Riemann-Hypothese gültig ist.

Nyman (1950) hat gezeigt, dass die Riemann-Hypothese genau dann wahr ist, wenn der Funktionsraum durch Ausdrücke der Form definiert ist

{\displaystyle f(x)=\sum _{\nu =1}^{n}c_{\nu }\rho \left({\frac {\theta _{\nu }}{x}}\right)}

wobei ρ(z) die Bruchkomponente von z bezeichnet und 0 ≤ θν ≤ 1, mit der zusätzlichen Einschränkung, dass

{\displaystyle \sum _{\nu =1}^{n}c_{\nu }\theta _{\nu }=0,

Dieser Raum ist dicht innerhalb des Hilbert-Raums L2(0,1), der quadratintegrierbare Funktionen über das Einheitsintervall umfasst. Beurling (1955) erweiterte dies, indem er zeigte, dass der Zeta-Funktion Nullstellen mit einem Realteil über 1/p fehlen, und zwar genau dann, wenn dieser spezifische Funktionsraum eine Dichte in Lp(0,1) aufweist. Anschließend verstärkte Baez-Duarte dieses Nyman-Beurling-Kriterium und erweiterte es auf Szenarios, in denen .

Salem (1953) stellte fest, dass die Riemann-Hypothese genau dann gilt, wenn die folgende Integralgleichung erfüllt ist:

§1112§ z σ §3637§ φ ( z ) e x / z + §6970§ d z = §8283§ {\displaystyle \int _{0}^{\infty }{\frac {z^{-\sigma -1}\varphi (z)}{{e^{x/z}}+1}}\,dz=0}

Diese Gleichung besitzt keine nicht trivial beschränkten Lösungen für φ {\displaystyle \varphi wenn §2324§ / §2930§ < σ < §3839§ {\displaystyle 1/2<\sigma <1} .

Weils Kriterium geht davon aus, dass die Positivität einer bestimmten Funktion der Riemann-Hypothese entspricht. In ähnlicher Weise besagt Lis Kriterium, dass die Positivität einer bestimmten Zahlenfolge auch der Riemann-Hypothese entspricht.

Speiser (1934) zeigte, dass die Riemann-Hypothese der Behauptung entspricht, dass ζ''(s), das die Ableitung von ζ(s) darstellt, innerhalb des angegebenen Streifens keine Nullen enthält.

§6< ( s ) < §2324§ §2526§ . {\displaystyle 0<\Re (s)<{\frac {1}{2}}.}

Die Bedingung, dass ζ(s) ausschließlich einfache Nullstellen auf der kritischen Linie besitzt, ist äquivalent dazu, dass seine Ableitung keine Nullstellen auf derselben kritischen Linie aufweist.

Die Farey-Folge stellt zwei Äquivalenzen her, die 1924 von Jerome Franel und Edmund Landau identifiziert wurden.

Die De Bruijn-Newman-Konstante, symbolisiert durch Λ und zu Ehren von Nicolaas Govert benannt de Bruijn und Charles M. Newman, ist definiert als die singuläre reelle Zahl, für die die Funktion gilt

H ( λ , z ) := §2627§ e λ du §46 Φ ( du ) cos ( z du ) d du {\displaystyle H(\lambda ,z):=\int _{0}^{\infty }e^{\lambda u^{2}}\Phi (u)\cos(zu)\,du} ,

Diese Funktion wird durch einen reellen Parameter λ parametrisiert, enthält eine komplexe Variable z und wird durch die Anwendung einer superexponentiell abfallenden Funktion definiert.

Φ ( du ) = n = §2627§ ( §3738§ π §4445§ n §5253§ e §6061§ du §6970§ π n §7879§ e §8687§ du ) e π n §108109§ e §116117§ du {\displaystyle \Phi (u)=\sum _{n=1}^{\infty }(2\pi ^{2}n^{4}e^{9u}-3\pi n^{2}e^{5u})e^{-\pi n^{2}e^{4u}}} .

Eine Funktion besitzt genau dann ausschließlich reelle Nullstellen, wenn λ ≥ Λ. Da die Riemann-Hypothese der Behauptung entspricht, dass alle Nullstellen von H(0, z) real sind, folgt daraus, dass die Riemann-Hypothese der Vermutung entspricht, dass Λ ≤ 0. Brad Rodgers und Terence Tao stellten anschließend fest, dass diese Äquivalenz genau Λ = 0 ist, indem sie zeigten, dass Null die Untergrenze für die Konstante darstellt. Folglich würde der Beweis, dass Null die Obergrenze ist, die Riemann-Hypothese bestätigen. Newman bemerkte, dass diese Vermutung (heute ein bewiesener Satz) „eine quantitative Version des Diktums ist, dass die Riemann-Hypothese, wenn sie wahr ist, nur knapp zutrifft.“ Ab April 2020 beträgt die festgelegte Obergrenze Λ ≤ 0,2.

Implikationen der verallgemeinerten Riemann-Hypothese

Zahlreiche Anwendungen nutzen die verallgemeinerte Riemann-Hypothese für Dirichlet-L-Reihen oder Zeta-Funktionen von Zahlenfeldern und gehen über den Rahmen der Standard-Riemann-Hypothese hinaus. Viele grundlegende Eigenschaften der Riemannschen Zetafunktion lassen sich leicht auf alle Dirichlet-L-Reihen verallgemeinern, was darauf hindeutet, dass eine Methodik, mit der die Riemann-Hypothese für die Riemann-Zetafunktion bewiesen werden kann, auch auf die verallgemeinerte Riemann-Hypothese für Dirichlet-L-Funktionen anwendbar sein könnte. Während mehrere Ergebnisse, die ursprünglich mithilfe der verallgemeinerten Riemann-Hypothese ermittelt wurden, später ohne Rückgriff auf diese Hypothese bedingungslos bewiesen wurden, waren diese unbedingten Beweise in der Regel wesentlich komplexer. Ein wesentlicher Teil der in der folgenden Liste aufgezählten Konsequenzen stammt aus Conrad (2010).

Das Prinzip der ausgeschlossenen Mitte

Bestimmte Implikationen der Riemann-Hypothese (RH) sind auch Konsequenzen ihrer Negation und begründen sie somit als Theoreme. In ihrer Analyse des Satzes von Hecke, Deuring, Mordell, Heilbronn, Ireland & Rosen (1990, S. 359) stellt fest:

Die Beweismethode hier ist wirklich erstaunlich. Wenn die verallgemeinerte Riemann-Hypothese wahr ist, dann ist der Satz wahr. Wenn die verallgemeinerte Riemann-Hypothese falsch ist, dann ist der Satz wahr. Somit ist der Satz wahr!!

Bei der Behauptung, dass die verallgemeinerte Riemann-Hypothese falsch ist, ist Vorsicht geboten, da eine solche Aussage eine genaue Angabe der Klasse von Dirichlet-Reihen erfordert, für die ein Gegenbeispiel existiert.

Littlewoods Theorem

Dieser Abschnitt befasst sich mit dem Vorzeichen des Fehlerterms im Primzahlsatz. Berechnungen haben gezeigt, dass π(x) < li(x) für alle x ≤ 1025, und es wurde kein Wert von x identifiziert, für den π(x) > li(x).

Im Jahr 1914 demonstrierte Littlewood die Existenz beliebig großer Werte von x für which

π ( x ) > li ( x ) + §3233§ §3435§ x Protokoll x Protokoll Protokoll Protokoll x , {\displaystyle \pi (x)>\operatorname {li} (x)+{\frac {1}{3}}{\frac {\sqrt {x}}{\log x}}\log \log \log x,}

und dass es auch beliebig große Werte von x gibt, für die

π ( x ) < li ( x ) §3334§ §3536§ x Protokoll x Protokoll Protokoll Protokoll x . {\displaystyle \pi (x)<\operatorname {li} (x)-{\frac {1}{3}}{\frac {\sqrt {x}}{\log x}}\log \log \log x.}

Folglich erfährt die Differenz π(x) − li(x) unendlich viele Vorzeichenwechsel. Die Skewes-Zahl liefert eine Schätzung für den Wert von x, bei dem dieser anfängliche Vorzeichenwechsel auftritt.

Littlewoods Beweis gliedert sich in zwei unterschiedliche Fälle: einen, in dem die Riemann-Hypothese (RH) als falsch angenommen wird (ausführlich auf etwa einer halben Seite von Ingham 1932, Kapitel V), und einen anderen, in dem die RH als wahr angenommen wird (auf etwa einem Dutzend Seiten). Anschließend veröffentlichte Stanisław Knapowski einen Artikel, in dem er die Häufigkeit untersuchte, mit der Δ ( n ) {\displaystyle \Delta (n)} ändert das Vorzeichen innerhalb des Intervalls Δ ( n ) {\displaystyle \Delta (n)} .

Gaußsche Klassenzahl-Vermutung

Diese Vermutung, die ursprünglich in Artikel 303 von Gauß‘ Disquisitiones Arithmeticae formuliert wurde, geht davon aus, dass nur eine endliche Anzahl imaginärer quadratischer Körper eine bestimmte Klassenzahl besitzt. Eine mögliche Methode für seinen Beweis besteht darin, zu zeigen, dass die Klassenzahl h(D) gegen Unendlich tendiert (h(D) → ∞), wenn sich die Diskriminante D der negativen Unendlichkeit nähert (D → −∞).

Die nachfolgende Reihe von Theoremen, die die Riemann-Hypothese einbeziehen, ist in Ireland & Rosen (1990, S. 358–361):

(In der Arbeit von Hecke und Heilbronn werden nur L-Funktionen berücksichtigt, die mit imaginären quadratischen Charakteren verbunden sind. Folglich bezieht sich die Behauptung, dass GRH wahr ist oder GRH falsch ist, speziell auf diese speziellen L-Funktionen. Während ein Scheitern der verallgemeinerten Riemann-Hypothese (GRH) für die L-Funktion eines Kubikkörpers vorliegt Der Dirichlet-Charakter würde nach strenger Definition bedeuten, dass GRH falsch ist. Dies war nicht die spezifische Art von GRH-Versagen, die Heilbronn in Betracht gezogen hatte. Daher war seine Annahme eingeschränkter als eine allgemeine Erklärung, dass GRH falsch ist

Wachstum der Eulerschen Totient-Funktion

1983 zeigte J. L. Nicolas, dass die Ungleichung φ ( n ) < e γ n log log n {\displaystyle \varphi (n)<e^{-\gamma }{\frac {n}{\log \log n}} gilt für eine unendliche Anzahl von n, wobei φ(n) die Eulersche Gesamtfunktion darstellt und γ die Eulersche Konstante bezeichnet. Ribenboim betonte die faszinierende Natur der Beweismethode und stellte fest, dass die Ungleichung zunächst durch die Annahme der Riemann-Hypothese als wahr und anschließend durch die Annahme ihrer Falschheit festgestellt wurde.

Dieser Abschnitt befasst sich mit den Verallgemeinerungen und analogen Konzepten im Zusammenhang mit der Riemann-Hypothese.

Die Diskussion hier bezieht sich auf die Dirichlet-L-Reihe und ihre Relevanz in anderen Zahlenfeldern.

Die Riemann-Hypothese kann durch die Substitution der Riemann-Zeta-Funktion durch globale L-Funktionen erweitert werden, die formal analog, aber wesentlich umfassender sind. Innerhalb dieses erweiterten Rahmens wird postuliert, dass die nichttrivialen Nullstellen globaler L-Funktionen einen Realteil von 1/2 besitzen. Diese umfassenderen Vermutungen, im Gegensatz zur klassischen Riemann-Hypothese, die sich ausschließlich auf die Riemann-Zeta-Funktion bezieht, unterstreichen die tiefgreifende Bedeutung der Riemann-Hypothese in der zeitgenössischen Mathematik.

Die am weitesten verbreitete verallgemeinerte Riemann-Hypothese erweitert die ursprüngliche Hypothese auf alle Dirichlet-L-Funktionen. Insbesondere postuliert diese Verallgemeinerung die Nichtexistenz von Siegel-Nullstellen, die als Nullstellen von L-Funktionen definiert sind, die sich innerhalb des Intervalls (1/2, 1) befinden.

Die erweiterte Riemann-Hypothese erweitert den Geltungsbereich der Riemann-Hypothese auf alle Dedekind-Zetafunktionen, die mit algebraischen Zahlenfeldern verbunden sind. Da die Dedekind-Zetafunktion für eine abelsche Erweiterung der Rationalzahlen als Produkt von Dirichlet-L-Funktionen formuliert werden kann und der einzige potentielle Pol für die Riemannsche Zetafunktion bei 1 liegt (wodurch verhindert wird, dass irgendein Pol eine nichttriviale Null aufhebt), impliziert diese spezielle Formulierung der Riemann-Hypothese folglich die verallgemeinerte Riemann-Hypothese.

Darüber hinaus kann die Riemann-Hypothese auf erweitert werden L-Funktionen, die Hecke-Zeichen von Zahlenfeldern entsprechen. Da Dirichlet-L-Funktionen eine spezielle Art von Hecke-L-Funktionen für endliche Charaktere sind, führt diese Erweiterung direkt zur verallgemeinerten Riemann-Hypothese. Da Dedekind-Zeta-Funktionen außerdem als Produkt von Hecke-L-Funktionen dargestellt werden können und der einzige Potentialpol für eine Hecke-L-Funktion bei 1 liegt, impliziert diese Iteration der Riemann-Hypothese auch die Version, die auf Dedekind-Zeta-Funktionen anwendbar ist.

Zwei primäre Ansätze scheinen die umfassendsten Erweiterungen der Riemann-Hypothese zu bieten. Die Große Riemann-Hypothese erweitert ihren Anwendungsbereich und umfasst alle automorphen L-Funktionen, einschließlich Mellin-Transformationen von Hecke-Eigenformen. Umgekehrt erweitert die Riemann-Hypothese für die Selberg-Klasse die Hypothese auf Funktionen, die bestimmte Eigenschaften erfüllen (die mutmaßlich von den meisten Funktionen erfüllt werden, die üblicherweise als Zeta-Funktionen oder L-Funktionen bezeichnet werden) und nicht auf Funktionen, die durch explizite Formeln definiert sind. Obwohl angenommen wird, dass die Selberg-Klasse mit der Klasse der automorphen L-Funktionen äquivalent ist, was darauf hindeutet, dass diese Ansätze austauschbar sein sollten, bleibt die Feststellung dieser Äquivalenz ein erhebliches offenes Problem und ein Bestandteil des Langlands-Programms.

In diesem Abschnitt werden Funktionsfelder und die Zetafunktionen von Varietäten untersucht, die über endlichen Feldern definiert sind.

Im Jahr 1924 führte Artin globale Zeta-Funktionen für (quadratische) Funktionskörper ein und schlug für sie eine analoge Riemann-Hypothese vor. Diese Vermutung wurde später von Hasse für den Fall der Gattung 1 und allgemein von Weil im Jahr 1948 bewiesen. Beispielsweise die Beobachtung, dass die Gauß-Summe des quadratischen Charakters eines endlichen Körpers der Größe q (wobei q ungerade ist) einen Absolutwert von q {\displaystyle {\sqrt {q}}} veranschaulicht die Riemann-Hypothese im Funktionsfeldkontext. Diese Entwicklung veranlasste Weil 1949, eine ähnliche Behauptung für alle algebraischen Varietäten aufzustellen, was zu den Weil-Vermutungen führte, die schließlich von Pierre Deligne aufgestellt wurden.

Dieser Abschnitt befasst sich mit den arithmetischen Zetafunktionen arithmetischer Schemata und ihren entsprechenden L-Faktoren.

Arithmetische Zeta-Funktionen erweitern die Konzepte der Riemann- und Dedekind-Zeta-Funktionen sowie der Zeta-Funktionen von Varietäten über endlichen Körpern, um jedes arithmetische Schema oder Schema endlichen Typs über ganze Zahlen einzuschließen. Für ein reguläres, zusammenhängendes, gleichdimensionales arithmetisches Schema mit Kronecker-Dimension n kann seine arithmetische Zeta-Funktion in ein Produkt aus entsprechend definierten L-Faktoren und einem Hilfsfaktor zerlegt werden. Unter der Annahme der Existenz einer Funktionsgleichung und einer meromorphen Fortsetzung geht die verallgemeinerte Riemann-Hypothese für den L-Faktor davon aus, dass seine Nullstellen innerhalb des kritischen Streifens liegen ( s ) ( §2223§ , n ) {\displaystyle \Re (s)\in (0,n)} befinden sich auf der Mittellinie. Folglich besagt die verallgemeinerte Riemann-Hypothese für die arithmetische Zeta-Funktion eines solchen Schemas, dass ihre Nullstellen innerhalb des kritischen Streifens auf vertikalen Linien liegen class="MJX-TeXAtom-ORD"> ( s ) = §5556§ / §6162§ , §6566§ / §7172§ , , n §8586§ / §9192§ {\displaystyle \Re (s)=1/2,3/2,\dots ,n-1/2} , und seine Pole innerhalb des kritischen Streifens liegen auf vertikalen Linien ( s ) = §118119§ , §122123§ , , n §136137§ {\displaystyle \Re (s)=1,2,\dots ,n-1} . Während diese Hypothese für Schemata mit positiver Charakteristik aufgestellt wurde, die auf die Arbeit von Pierre Deligne zurückgeführt werden, bleibt sie für die Charakteristik Null völlig unbewiesen.

Selberg Zeta-Funktionen

1956 führte Selberg die Selberg-Zeta-Funktion für eine Riemann-Fläche ein. Diese Funktionen weisen Ähnlichkeiten mit der Riemannschen Zetafunktion auf und besitzen eine Funktionsgleichung und eine unendliche Produktentwicklung analog zum Euler-Produkt, sind jedoch über geschlossene Geodäten statt über Primzahlen definiert. Als Gegenstück für diese Funktionen zu den expliziten Formeln der Primzahlentheorie dient die Selberg-Spurenformel. Selberg zeigte, dass Selberg-Zetafunktionen einem Analogon der Riemann-Hypothese folgen, bei der die imaginären Komponenten ihrer Nullstellen den Eigenwerten des Laplace-Operators der Riemann-Oberfläche entsprechen.

Ihara Zeta-Funktionen

Die Ihara-Zeta-Funktion, definiert für einen endlichen Graphen, stellt ein Analogon der Selberg-Zeta-Funktion dar. Yasutaka Ihara präsentierte diese Funktion zunächst im Rahmen diskreter Untergruppen der zwei mal zwei p-adischen speziellen linearen Gruppe. Wie T. Sunada feststellte, gilt ein regelmäßiger endlicher Graph genau dann als Ramanujan-Graph – ein mathematisches Modell für effiziente Kommunikationsnetzwerke –, wenn seine Ihara-Zeta-Funktion das Analogon der Riemann-Hypothese erfüllt.

Montgomerys Paarkorrelationsvermutung

1973 schlug Montgomery die Paarkorrelationsvermutung vor, die besagt, dass die Korrelationsfunktionen der entsprechend normalisierten Nullstellen der Zeta-Funktion mit denen der Eigenwerte einer zufälligen hermiteschen Matrix übereinstimmen sollten. Nachfolgende Arbeiten von Odlyzko aus dem Jahr 1987 lieferten durch umfangreiche Berechnungen dieser Korrelationsfunktionen numerische Beweise, die diese Vermutung stützen.

Montgomery zeigte, dass unter der Annahme der Riemann-Hypothese mindestens zwei Drittel aller Nullstellen einfach sind. Eine verwandte Vermutung besagt, dass alle Nullstellen der Zeta-Funktion einfach sind oder, allgemeiner ausgedrückt, keine nichttrivialen ganzzahligen linearen Beziehungen zwischen ihren Imaginärteilen aufweisen. Im Gegensatz dazu weisen Dedekind-Zetafunktionen, die Verallgemeinerungen der Riemannschen Zetafunktion für algebraische Zahlenkörper sind, häufig mehrere komplexe Nullstellen auf. Dieses Phänomen tritt auf, weil Dedekind-Zetafunktionen in ein Potenzprodukt von Artin-L-Funktionen zerlegt werden, was zu Fällen führt, in denen Nullstellen von Artin-L-Funktionen mehrere Nullstellen in Dedekind-Zetafunktionen erzeugen. Weitere Beispiele für Zeta-Funktionen mit mehreren Nullstellen sind die L-Funktionen, die bestimmten elliptischen Kurven zugeordnet sind; diese können am realen Punkt ihrer kritischen Linie mehrere Nullen aufweisen. Die Birch-Swinnerton-Dyer-Vermutung geht davon aus, dass die Multiplizität einer solchen Nullstelle dem Rang der elliptischen Kurve entspricht.

Andere Zeta-Funktionen

Es gibt zahlreiche andere Zeta-Funktionen, die Analogien zur Riemann-Hypothese aufweisen, von denen einige bereits gründlich bewiesen wurden. Beispielsweise besitzen Goss-Zetafunktionen von Funktionsfeldern eine Riemann-Hypothese, die Sheats (1998) erfolgreich demonstrierte. Die zentrale Vermutung der Iwasawa-Theorie, die von Barry Mazur und Andrew Wiles für zyklotomische Felder und von Wiles für völlig reelle Felder aufgestellt wurde, korreliert die Nullstellen einer p-adischen L-Funktion mit den Eigenwerten eines Operators. Folglich kann dies als ein analoges Konzept zur Hilbert-Pólya-Vermutung für p-adische L-Funktionen angesehen werden.

Versuche von Beweisen

Obwohl sich zahlreiche Mathematiker mit der Riemann-Hypothese beschäftigt haben, hat sich bisher keine ihrer Lösungsvorschläge als endgültiger Beweis durchgesetzt. Watkins (2021) bietet eine Zusammenstellung mehrerer fehlerhafter Lösungen.

Operatortheorie

Hilbert und Pólya schlugen vor, dass die Riemann-Hypothese durch die Identifizierung eines selbstadjungierten Operators aufgestellt werden könnte. Die Existenz eines solchen Operators würde, wenn man ihn dem Kriterium für reelle Eigenwerte unterwirft, logischerweise die Aussage über die Realteile der Nullstellen von ζ(s) implizieren. Dieses Konzept wird durch mehrere analoge Riemannsche Zetafunktionen unterstützt, bei denen Nullstellen mit Operatoreigenwerten übereinstimmen. Insbesondere entsprechen die Nullstellen einer Zeta-Funktion für eine Varietät über einem endlichen Körper den Eigenwerten eines Frobenius-Elements innerhalb einer étale-Kohomologiegruppe. In ähnlicher Weise stellen die Nullstellen einer Selberg-Zeta-Funktion Eigenwerte eines Laplace-Operators auf einer Riemann-Oberfläche dar, und die Nullstellen einer p-adischen Zeta-Funktion korrelieren mit Eigenvektoren einer Galois-Aktion auf idealen Klassengruppen.

Odlyzko (1987) zeigte, dass die Verteilung der Nullstellen der Riemann-Zeta-Funktion statistische Gemeinsamkeiten mit den Eigenwerten von Zufallsmatrizen aufweist, die aus dem Gaußschen Einheitsensemble abgeleitet wurden. Diese Beobachtung verleiht der Hilbert-Pólya-Vermutung Glaubwürdigkeit.

Im Jahr 1999 postulierten Michael Berry und Jonathan Keating die Existenz einer unbekannten Quantisierung. H ^ {\displaystyle {\hat {H}}} für den klassischen Hamiltonoperator H = xp, so dass ζ ( §4243§ / §4849§ + i H ^ ) = §6970§ {\displaystyle \zeta (1/2+i{\hat {H}})=0} . Sie vermuteten außerdem, dass die Riemannschen Nullstellen genau dem Spektrum des Operators entsprechen §8586§ / §9192§ + i H ^ {\displaystyle 1/2+i{\hat {H}}} . Dieser Satz weicht von der kanonischen Quantisierung ab, die typischerweise zum Heisenbergschen Unschärfeprinzip führt, ausgedrückt als σ x σ p §146147§ {\displaystyle \sigma _{x}\sigma _{p}\geq {\frac {\hbar }{2}}} und liefert die natürlichen Zahlen als Spektrum für den Quantenharmonischen Oszillator. Ein entscheidender Aspekt dieser Vermutung ist, dass der Hamilton-Operator ein selbstadjungierter Operator sein muss, wodurch die Quantisierung das Hilbert-Pólya-Programm erfüllen kann. Als Erweiterung dieses quantenmechanischen Problems schlugen Berry und Connes vor, dass die Umkehrung des Hamilton-Potentials mit der Halbableitung der Funktion N ( s ) = §178179§ π Arg ξ ( §194195§ / §200201§ + i s ) {\displaystyle N(s)={\frac {1}{\pi }}\operatorname {Arg} \xi (1/2+i{\sqrt {s}})} .Folglich wird diese Beziehung innerhalb des Hilbert-Pólya-Frameworks ausgedrückt als V §235236§ ( x ) = §248249§ π d §262263§ / §268269§ N ( x ) d x §286287§ / §292293§ . {\displaystyle V^{-1}(x)={\sqrt {4\pi }}{\frac {d^{1/2}N(x)}{dx^{1/2}}}. Diese Formulierung erzeugt einen Hamiltonoperator, dessen Eigenwerte dem Quadrat der imaginären Komponente des entsprechen Riemannsche Nullstellen und deren funktionale Determinante genau die Riemannsche Xi-Funktion ist. Insbesondere wird postuliert, dass die Riemannsche Xi-Funktion proportional zur funktionalen Determinante (Hadamard-Produkt) det ( H + §326327§ / §332333§ + s ( s §345346§ ) ) {\displaystyle \det(H+1/4+s(s-1))} , was zur Beziehung ξ ( s ) ξ ( §382383§ ) = det ( H + s ( s §407408§ ) + §413414§ / §419420§ ) det ( H + §432433§ / §438439§ ) . {\displaystyle {\frac {\xi (s)}{\xi (0)}}={\frac {\det(H + s (s-1) + 1/4) . Dennoch erweist sich dieser Operator als unpraktisch, da er die Umkehrfunktion (eine implizite Funktion) des Potentials und nicht das Potential direkt berücksichtigt. Eine aus der Riemann-Hypothese über endliche Körper gezogene Analogie weist darauf hin, dass der Hilbert-Raum, der die mit den Nullstellen verbundenen Eigenvektoren umfasst, eine erste Kohomologiegruppe des Spektrums Spec (Z) der ganzen Zahlen bilden könnte. Deninger (1998) dokumentierte verschiedene Bemühungen, eine solche Kohomologietheorie zu etablieren.

Zagier (1981) entwickelte einen natürlichen Raum invarianter Funktionen auf der oberen Halbebene, in dem die Eigenwerte des Laplace-Operators den Nullstellen der Riemannschen Zeta-Funktion entsprachen. Er stellte fest, dass die Riemann-Hypothese bewiesen wäre, wenn für diesen Raum ein geeignetes positiv definites inneres Produkt ermittelt werden könnte. Cartier (1982) präsentierte einen ähnlichen Fall, bei dem ein Computerprogramm aufgrund eines ungewöhnlichen Fehlers Nullstellen der Riemannschen Zetafunktion als Eigenwerte des identischen Laplace-Operators identifizierte.

Schumayer und Hutchinson (2011) untersuchten verschiedene Versuche, ein geeignetes physikalisches Modell im Zusammenhang mit der Riemannschen Zetafunktion zu entwickeln.

Lee-Yang-Theorem

Das Lee-Yang-Theorem geht davon aus, dass die Nullstellen spezifischer Partitionsfunktionen in der statistischen Mechanik ausschließlich auf einer „kritischen Linie“ liegen, wo ihr Realteil Null ist, was zu Vermutungen hinsichtlich seines Zusammenhangs mit der Riemann-Hypothese führt.

Turáns Ergebnis

Pál Turán hat gezeigt, dass, wenn die Funktionen sind n = §1516§ N n s {\displaystyle \sum _{n=1}^{N}n^{-s}} keine Nullen besitzen, wenn der Realteil von s eins überschreitet, dann T ( x ) = n x λ ( n ) n §9495§  für  x > §104105§ , {\displaystyle T(x)=\sum _{n\leq x}{\frac {\lambda (n)}{n}}\geq 0{\text{ für }}x>0, würde gelten, wobei λ(n) die Liouville-Funktion darstellt, definiert als (−1)r, wenn n r Primfaktoren hat. Turán behauptete, dass diese Bedingung wiederum die Wahrheit der Riemann-Hypothese implizieren würde. Haselgrove (1958) zeigte jedoch später, dass T(x) für unendlich viele x-Werte negativ ist (und widerlegte damit auch die verwandte Pólya-Vermutung). Anschließend identifizierten Borwein, Ferguson und Mossinghoff (2008) das kleinste x als §134135§185376951205. Darüber hinaus hat Spira (1968) numerisch berechnet, dass die oben erwähnte endliche Dirichlet-Reihe für N = 19 eine Nullstelle mit einem Realteil größer als 1 besitzt. Turán schlug auch eine etwas schwächere Prämisse vor – das Fehlen von Nullstellen mit einem Realteil größer als 1 + N−1/2+ε für groß N in der endlichen Dirichlet-Reihe – würde ebenfalls zur Riemann-Hypothese führen. Dennoch stellte Montgomery (1983) fest, dass diese Reihen für alle ausreichend großen N Nullstellen mit einem Realteil größer als 1 + (log log N)/(4 log N) enthalten. Folglich wird Turáns ursprüngliches Ergebnis vage wahr gemacht und kann nicht zum Beweis der Riemann-Hypothese beitragen.

Nichtkommutative Geometrie

Alain Connes hat einen Zusammenhang zwischen der Riemann-Hypothese und der nichtkommutativen Geometrie aufgeklärt und gezeigt, dass ein geeignetes Analogon der Selberg-Spurenformel, angewendet auf die Wirkung der Idèle-Klassengruppe auf dem Adèle-Klassenraum, die Riemann-Hypothese begründen würde. Weitere Einzelheiten zu diesen Konzepten liefert Lapidus (2008).

Hilbert-Räume ganzer Funktionen

Louis de Branges schlug vor, dass die Riemann-Hypothese aus einer Positivitätsbedingung innerhalb eines spezifischen Hilbert-Raums ganzer Funktionen abgeleitet werden könnte. Conrey und Li (2000) zeigten jedoch später, dass die erforderlichen Positivitätsbedingungen nicht erfüllt sind. Trotz dieser Herausforderung hat de Branges weiterhin daran gearbeitet, mithilfe dieses Ansatzes einen Beweis der Riemann-Hypothese zu entwickeln, obwohl er unter Mathematikern keine breite Akzeptanz gefunden hat.

Quasicrystals

Die Riemann-Hypothese geht davon aus, dass die Nullstellen der Zeta-Funktion einen Quasikristall darstellen, der durch eine diskrete Unterstützungsverteilung gekennzeichnet ist, deren Fourier-Transformation ebenfalls eine diskrete Unterstützung aufweist. Dyson (2009) schlug einen Ansatz zum Beweis der Riemann-Hypothese durch die Klassifizierung oder umfassende Untersuchung eindimensionaler Quasikristalle vor.

Arithmetische Zeta-Funktionen elliptischer Kurvenmodelle über Zahlenfeldern

Der Übergang von einer geometrischen Dimension von Eins, beispielsweise einem algebraischen Zahlenfeld, zu einer geometrischen Dimension von Zwei, veranschaulicht durch ein reguläres Modell einer elliptischen Kurve über einem Zahlenfeld, zeigt, dass die zweidimensionale Komponente der verallgemeinerten Riemann-Hypothese für die arithmetische Zeta-Funktion des Modells zu den Polen der Zeta-Funktion gehört. Im Gegensatz zum eindimensionalen Fall, in dem die Untersuchung des Zeta-Integrals in Tates These keine wesentlichen neuen Erkenntnisse zur Riemann-Hypothese liefert, beinhaltet Ivan Fesenkos Arbeit an einer zweidimensionalen Verallgemeinerung von Tates These eine integrale Darstellung eines Zeta-Integrals, das eng mit der Zeta-Funktion verbunden ist. Dieser neuartige zweidimensionale Kontext, der in einer Dimension unerreichbar ist, ermöglicht die Untersuchung der Pole der Zeta-Funktion durch das Zeta-Integral und die damit verbundenen Adelegruppen. Eine verwandte Vermutung von Ivan Fesenko bezüglich der Positivität der vierten Ableitung einer Randfunktion, die mit dem Zeta-Integral verknüpft ist, impliziert grundsätzlich den polbezogenen Aspekt der verallgemeinerten Riemann-Hypothese. Suzuki (2011) hat gezeigt, dass diese Implikation, wenn sie mit spezifischen technischen Annahmen kombiniert wird, Fesenkos Vermutung untermauert.

Mehrere Zeta-Funktionen

Delignes Beweis der Riemann-Hypothese für endliche Körper nutzte die Zeta-Funktionen von Produktvarietäten, deren Nullstellen und Pole mit den Summen der Nullstellen und Pole der ursprünglichen Zeta-Funktion korrelieren, wodurch die Begrenzung der Realteile der Nullstellen der ursprünglichen Zeta-Funktion ermöglicht wurde. Dieser Analogie folgend führte Kurokawa (1992) mehrere Zetafunktionen ein, deren Nullstellen und Pole in ähnlicher Weise den Summen der Nullstellen und Pole der Riemannschen Zetafunktion entsprechen. Um die Konvergenz der Reihen sicherzustellen, führte Kurokawa eine Einschränkung ein und berücksichtigte nur Summen von Nullen oder Polen, die nicht negative Imaginärteile besitzen. Derzeit reichen die festgelegten Grenzen für die Nullstellen und Pole mehrerer Zetafunktionen nicht aus, um effektive Schätzungen für die Nullstellen der Riemannschen Zetafunktion bereitzustellen.

Position der Nullen

Anzahl der Nullen

Die Funktionsgleichung zeigt in Verbindung mit dem Argumentprinzip an, dass die Menge der Nullstellen der Zeta-Funktion, die einen Imaginärteil zwischen 0 und T besitzen, durch den folgenden Ausdruck bestimmt wird:

N ( T ) = §1819§ π A r g ( ξ ( s ) ) = §5556§ π A r g ( Γ ( s §8788§ ) π s §106107§ ζ ( s ) s ( s §130131§ ) / §138139§ ) {\displaystyle N(T)={\frac {1}{\pi }}\mathop {\mathrm {Arg} } (\xi (s))={\frac {1}{\pi }}\mathop {\mathrm {Arg} } (\Gamma ({\tfrac {s}{2}})\pi ^{-{\frac {s}{2}}}\zeta (s)s(s-1)/2)

Diese Formel gilt für s = 1/2 + iT, wobei das Argument durch kontinuierliche Variation entlang der Linie mit Im(s) = T ermittelt wird, beginnend mit einem Argument von 0 bei ∞ + iT. Das Ergebnis stellt die Zusammenfassung eines substanziellen und dennoch umfassend verstandenen Begriffs dar.

§8π A r g ( Γ ( s §4041§ ) π s / §6162§ s ( s §7475§ ) / §8283§ ) = T §9394§ π Protokoll T §111112§ π T §127128§ π + §137138§ / §143144§ + O ( §151152§ / T ) {\displaystyle {\frac {1}{\pi }}\mathop {\mathrm {Arg} } (\Gamma ({\tfrac {s}{2}})\pi ^{-s/2}s(s-1)/2)={\frac {T}{2\pi }}\log {\frac {T}{2\pi }}-{\frac {T}{2\pi }}+7/8+O(1/T)

Zusätzlich wird ein kleinerer, aber etwas rätselhafter Begriff eingeführt.

S ( T ) = §1819§ π A r g ( ζ ( §4546§ / §51+ ich T ) ) = O ( Protokoll T ) . {\displaystyle S(T)={\frac {1}{\pi }}\mathop {\mathrm {Arg} } (\zeta (1/2+iT))=O(\log T).}

Folglich nähert sich die Dichte von Nullstellen, die eine imaginäre Komponente in der Nähe von T besitzen, log(T)/(2π) an. Die Funktion S quantifiziert die geringfügigen Abweichungen von dieser Näherung. Insbesondere weist die Funktion S(t) einen Einheitssprung an jeder Nullstelle der Zeta-Funktion auf, und für t ≥ 8 zeigt sie eine monotone Abnahme zwischen Nullstellen, wobei sich ihre Ableitung −log t nähert.

Trudgian (2014) stellte fest, dass, wenn T > e, dann

Die folgende Ungleichung liefert eine Obergrenze für die Differenz zwischen N(T) und seiner asymptotischen Näherung: {0.2}{T}}}" xmlns="w3.org/1998/Math/MathML"> | N ( T ) T §2627§ π log T §44 | 0,112 log T + 0,278 log log T + 3.385 + 0,2 T {\displaystyle |N(T)-{\frac {T}{2\pi }}\log {\frac {T}{2\pi e}}|\leq 0,112\log T+0,278\log \log T+3.385+{\frac {0.2}{T}}} .

Im Jahr 1996 zeigte Karatsuba, dass jedes Intervall (T, T + H] ist, vorausgesetzt, dass H T 27 82 + ε {\displaystyle H\geq T^{{\frac {27}{82}}+\varepsilon }} , enthält mindestens

H ( log T ) §2223§ §2425§ e c log log T {\displaystyle H(\log T)^{\frac {1}{3}}e^{-c{\sqrt {\log \log T}}}}

Punkte, an denen die Funktion S(t) einen Vorzeichenwechsel aufweist.

Selberg (1946) zeigte, dass die durchschnittlichen Momente gerader Potenzen von S durch Folgendes bestimmt werden.

§1112§ T | S ( t ) | §3738§ k d t = ( §5455§ k ) ! k ! ( §7071§ π ) §7980§ k T ( Protokoll Protokoll T ) k + O ( T ( Protokoll Protokoll T ) k §143144§ / §149150§ ) . {\displaystyle \int _{0}^{T}|S(t)|^{2k}dt={\frac {(2k)!}{k!(2\pi )^{2k}}}T(\log \log T)^{k}+O(T(\log \log T)^{k-1/2}).

Der Ausdruck S(T)/(log log T)1/2 dient zur Annäherung an eine Gaußsche Zufallsvariable mit einem Mittelwert von 0 und einer Varianz von 2π§1213§; Diese Näherung wurde 1983 von Ghosh begründet. Insbesondere die Größe |S(T)| liegt typischerweise bei ungefähr (log log T)1/2, kann jedoch gelegentlich deutlich größere Werte erreichen. Die genaue Wachstumsreihenfolge von S(T) bleibt unbestimmt. Riemanns anfängliche Schranke, S(T) = O(log T), wurde nicht bedingungslos verbessert; Die Riemann-Hypothese legt jedoch eine geringfügig engere Grenze von S(T) = O(log T/log log T) nahe. Die tatsächliche Größenordnung könnte etwas niedriger sein, da Zufallsfunktionen, die eine Verteilung analog zu S(T) aufweisen, typischerweise eine Wachstumsordnung aufweisen, die log(T)1/2 annähert. Umgekehrt kann der Wert nicht übermäßig klein sein: Selberg zeigte 1946, dass S(T) ≠ o((log T)1/3/(log log T)7/3) ist, und unter der Annahme der Riemann-Hypothese stellte Montgomery fest dass S(T) ≠ o((log T)1/2/(log log T)1/2).

Computergestützte Analysen bestätigen das außergewöhnlich langsame Wachstum von S: insbesondere |S(T)| bleibt unter 1 für T < 280 und |S(T)| ist kleiner als 2 für T < §2728§800000. Darüber hinaus beträgt der beobachtete Maximalwert |S(T)| hat bisher 3 nicht wesentlich überschritten.

Riemanns Schätzung S(T) = O(log T) zeigt, dass die Intervalle zwischen Nullstellen endlich sind. Littlewood verfeinerte dies anschließend und zeigte, dass die Unterschiede zwischen ihren imaginären Komponenten gegen Null konvergieren.

Theorem von Hadamard und de la Vallée-Poussin

Im Jahr 1896 stellten Hadamard und de la Vallée-Poussin unabhängig voneinander fest, dass auf der Geraden Re(s) = 1 keine Nullen liegen dürfen. Dieser Befund, kombiniert mit der Funktionsgleichung und dem Fehlen von Nullstellen mit einem Realteil größer als 1, zeigte, dass alle nicht trivialen Nullstellen notwendigerweise auf das Innere des kritischen Streifens beschränkt sind, der als 0 < Re(s) < 1. Dies stellte einen entscheidenden Fortschritt in ihren ersten Ableitungen des Primzahlsatzes dar.

Die ersten Beweise, die zeigen, dass die Zeta-Funktion keine Nullstellen mit einem Realteil von 1 besitzt, weisen Ähnlichkeiten auf. Diese Beweise basieren auf der Feststellung, dass, wenn ζ(1 + it) gleich Null ist, ζ(1 + 2it) singulär sein muss, eine Bedingung, die mathematisch unmöglich ist. Dies kann durch die Anwendung der folgenden Ungleichung erreicht werden:

| ζ ( σ ) §2223§ ζ ( σ + i t ) §4445§ ζ ( σ + §5859§ i t ) | §7374§ {\displaystyle |\zeta (\sigma )^{3}\zeta (\sigma +it)^{4}\zeta (\sigma +2it)|\geq 1}

Diese Ungleichung gilt für σ > 1, wobei t eine reelle Zahl ist und unter Berücksichtigung des Grenzwerts untersucht wird, wenn sich σ 1 nähert. Die Ableitung dieser Ungleichung erfordert die Ermittlung des Realteils des Logarithmus des Euler-Produkts, was Folgendes ergibt:

| ζ ( σ + i t ) | = exp p n p n ( σ + i t ) n = exp p n p n σ cos ( t log p n ) n , {\displaystyle |\zeta (\sigma +it)|=\exp \Re \sum _{p^{n}}{\frac {p^{-n(\sigma +it)}}{n}}=\exp \sum _{p^{n}}{\frac {p^{-n\sigma }\cos(t\log p^{n})}{n}},

In diesem Zusammenhang umfasst die Summierung alle Primzahlpotenzen pn, was zu folgender Implikation führt:

| ζ ( σ ) §2223§ ζ ( σ + i t ) §4445§ ζ ( σ + §5859§ i t ) | = exp p n p n σ §109110§ + §113114§ cos ( t log p n ) + cos ( §148149§ t log p n ) n {\displaystyle |\zeta (\sigma )^{3}\zeta (\sigma +it)^{4}\zeta (\sigma +2it)|=\exp \sum _{p^{n}}p^{-n\sigma }{\frac {3+4\cos(t\log p^{n})+\cos(2t\log p^{n})}{n}}}

Dieser Ausdruck ist nachweislich mindestens 1, da alle konstituierenden Terme innerhalb der Summierung positiv sind, eine Folge der folgenden Ungleichung:

§6+ §1011§ cos ( θ ) + cos ( §3334§ θ ) = §4243§ ( §4647§ + cos ( θ ) ) §6667§ 0. {\displaystyle 3+4\cos(\theta )+\cos(2\theta )=2(1+\cos(\theta ))^{2}\geq 0.}

Null-freie Regionen

Eine umfangreiche rechnerische Suche von Platt und Trudgian hat die Riemann-Hypothese für Werte von |t| bestätigt bis zu 3.0001753328×§131415§, Suche nach Gegenbeispielen. Außerhalb dieses Bereichs zeichnen sich nullfreie Regionen durch Ungleichungen im Zusammenhang mit σ + i t aus, die potenzielle Nullstellen darstellen. Die früheste Formulierung einer solchen Region wurde von De la Vallée-Poussin (1899–1900) aufgestellt, der die Existenz einer nullfreien Domäne demonstrierte, die 1 − σC/log(t) für a erfüllt spezifische positive Konstante C. Dies impliziert, dass Nullen sich nicht beliebig nahe an die Linie σ = 1 annähern können, was auf das Vorhandensein einer nullfreien Region in ihrer Nähe hinweist. Nachfolgende Forschungen verschiedener Autoren haben diesen Bereich erweitert und dabei Methoden wie den Mittelwertsatz von Vinogradov eingesetzt.

Eine aktuelle Veröffentlichung von Mossinghoff, Trudgian und Yang vom Dezember 2022 beschreibt vier nullfreie Regionen. Diese Ergebnisse stellen einen Fortschritt gegenüber früheren Ergebnissen dar, insbesondere denen von Kevin Ford im Jahr 2002, Mossinghoff und Trudgian im Jahr 2015 und Pace Nielsens geringfügiger Verfeinerung von Fords Arbeit im Oktober 2022:

Die Ungleichung σ§1213§§1920§5.558691log|t|{\displaystyle \sigma \geq 1-{\frac {1}{5.558691\log |t|}}} gilt unter der Bedingung, dass |t|§6970§{\displaystyle |t|\geq 2}.
Außerdem ist die Ungleichung σ§1213§§1920§55.241(log|t|)§4748§/§5354§(loglog|t|)§8788§/§9394§{\displaystyle \sigma \geq 1-{\frac {1}{55.241(\log {|t|})^{2/3}(\log {\log {|t|}})^{1/3}}}} gilt für |t|§127128§{\displaystyle |t|\geq 3}.Diese besondere Grenze gilt als die größte bekannte Region innerhalb des Bereichs 3.0001753328§149150§§152153§|t|exp(64.1)6,89§192193§§195196§{\displaystyle 3.0001753328\cdot 10^{12}\leq |t|\leq \exp(64.1)\ approx 6.89\cdot 10^{27}}.
Die Ungleichung: t+1.155\cdot \log \log t}}}" xmlns="w3.org/1998/Math/MathML"> σ §1213§ 0,04962 0,0196 1.15 + log §3940§ + §4546§ §4748§ log t + log log t 0,685 + log §8687§ + §9293§ §9495§ log t + 1.155 log log t {\displaystyle \sigma \geq 1-{\frac {0.04962-{\frac {0.0196}{1.15+\log 3+{\frac {1}{6}}\log t+\log \log t}}}{0.685+\log 3+{\frac {1}{6}}\log t+1.155\cdot \log \log t}}} ist immer dann gültig, wenn | t | 1,88 §160161§ §163164§ {\displaystyle |t|\geq 1.88\cdot 10^{14}} .Diese spezielle Bedingung beschreibt die größte bekannte Region innerhalb der breiteren Grenze, die durch exp ( 64.1 ) | t | exp ( 1000 ) 1,97 §228229§ 434 {\displaystyle \exp(64.1)\leq |t|\leq \exp(1000)\ca. 1,97\cdot 10^{434}} .
Die folgende Ungleichung, σ §1213§ 0,05035 27 164 ( log | t | ) + 7.096 + 0,0349 ( §6970§ 164 ( log | t | ) + 7.096 ) §104105§ {\displaystyle \sigma \geq 1-{\frac {0.05035}{{\frac {27}{164}}(\log {|t|})+7.096}}+{\frac {0.0349}{({\frac {27}{164}}(\log {|t|})+7.096)^{2}}}} , ist gültig, wenn | t | exp ( 1000 ) {\displaystyle |t|\geq \exp(1000) , der die größte bekannte Region innerhalb seiner eigenen definierten Grenzen darstellt.

Der Forschungsartikel führt zusätzlich eine Verbesserung der zweiten nullfreien Region ein. Die genauen Grenzen dieser Region bleiben unbestimmt, da | t | {\displaystyle |t|} ist nur Es wird davon ausgegangen, dass es „ausreichend groß“ ist, um die Bedingungen des in der Arbeit dargelegten Beweises zu erfüllen. Diese bestimmte Region ist definiert als:

σ §1213§ §1920§ 48.1588 ( log | t | ) §4748§ / §5354§ ( log log | t | ) §8788§ / §9394§ {\displaystyle \sigma \geq 1-{\frac {1}{48.1588(\log {|t|})^{2/3}(\log {\log {|t|}})^{1/3}}}} .

Nullen auf der kritischen Linie

Hardy (1914) und Hardy & Littlewood (1921) demonstrierte die Existenz unendlich vieler Nullstellen auf der kritischen Linie durch eine Analyse der Momente spezifischer Funktionen im Zusammenhang mit der Zeta-Funktion. Selberg (1942) bewies anschließend, dass zumindest ein kleiner, positiver Anteil dieser Nullstellen auf dieser Geraden liegt. Levinson (1974) vertiefte diese Erkenntnis und stellte fest, dass mindestens ein Drittel der Nullstellen auf der Geraden liegen, indem er die Nullstellen der Zeta-Funktion mit denen ihrer Ableitung korrelierte. Conrey (1989) verfeinerte diese Schätzung weiter und erhöhte den Anteil auf zwei Fünftel. Im Jahr 2020 erweiterten Pratt, Robles, Zaharescu und Zeindler diese Schätzung auf fünf Zwölftel, indem sie erweiterte Molfikatoren verwendeten, die Ableitungen höherer Ordnung der Zeta-Funktion und die damit verbundenen Kloosterman-Summen berücksichtigen sollen.

Die meisten Nullstellen liegen in unmittelbarer Nähe der kritischen Linie. Genauer gesagt, Bohr & Landau (1914) zeigte, dass für jedes positive ε die Anzahl der Nullen mit einem Realteil von mindestens 1/2+ε und einem Imaginärteil zwischen −T und T beträgt O ( T ) {\displaystyle O(T)} . In Kombination mit den Tatsachen, dass Nullen auf dem kritischen Streifen symmetrisch zur kritischen Linie sind und dass die Gesamtzahl der Nullen im kritischen Streifen beträgt Θ ( T Protokoll T ) {\displaystyle \Theta (T\log T)} bedeutet dies, dass fast alle nicht trivialen Nullstellen innerhalb eines Abstands von ε von der kritischen Linie liegen. Ivić (1985) liefert mehrere präzisere Versionen dieses Ergebnisses, die als Nulldichteschätzungen bezeichnet werden und die Anzahl der Nullstellen in Regionen mit einem Imaginärteil von höchstens T und einem Realteil von mindestens 1/2 + ε.

begrenzen

Hardy-Littlewood-Vermutungen

Im Jahr 1914 demonstrierte Godfrey Harold Hardy, dass die Funktion ζ ( §1617§ §1819§ + ich t ) {\displaystyle \zeta \left({\tfrac {1}{2}}+it\right)} besitzt unendlich viele reelle Nullen.

Die darauffolgenden beiden Vermutungen von Hardy und John Edensor Littlewood leiteten zwei neue Forschungsrichtungen bezüglich der Riemannschen Zeta-Funktion ein. Diese Vermutungen befassten sich zunächst mit dem Abstand zwischen den realen Nullstellen von ζ ( §1617§ §1819§ + i t ) {\displaystyle \zeta \left({\tfrac {1}{2}}+it\right)} und zweitens die Dichte von Nullen für ζ ( §5758§ §5960§ + i t ) {\displaystyle \zeta \left({\tfrac {1}{2}}+it\right)} innerhalb des Intervalls ( T , T + H ] {\displaystyle (T,T+H]} . Diese Untersuchungen basierten auf den Bedingungen, dass T > §120121§ {\displaystyle T>0} ausreichend groß sein, H = T a + ε {\displaystyle H=T^{a+\varepsilon }} , und dass der Wert von a > §171172§ {\displaystyle a>0} minimiert werden, wobei ε > §192193§ {\displaystyle \varepsilon >0} bezeichnet eine beliebig kleine positive Größe.

  1. Für jeden positiven Wert ε > §1112§ {\displaystyle \varepsilon >0} , eine entsprechende Untergrenze T §3132§ = T §4142§ ( ε ) > §5455§ {\displaystyle T_{0}=T_{0}(\varepsilon )>0} kann identifiziert werden. Diese Grenze stellt sicher, dass für alle T und für H = T §108109§ §110111§ + ε {\displaystyle H=T^{{\tfrac {1}{4}}+\varepsilon }} , das Intervall ( T , T + H ] {\displaystyle (T,T+H]} enthält ausnahmslos eine Null ungerader Ordnung für die Funktion ζ ( §176177§ §178 ) {\displaystyle \zeta {\bigl (}{\tfrac {1}{2}}+it{\bigr )}} .

Sei N ( T ) {\displaystyle N(T)} bezeichnen die kumulative Anzahl reeller Nullen und N §3233§ ( T ) {\displaystyle N_{0}(T)} stellt die Gesamtzahl der Nullen ungerader Ordnung für die Funktion dar   ζ ( §6869§ §7071§ + i t )   {\displaystyle ~\zeta \left({\tfrac {1}{2}}+it\right)~} innerhalb des Intervalls ( §103104§ , T ]   {\displaystyle (0,T]~} .

  1. Für jedes gegebene ε > §1112§ {\displaystyle \varepsilon >0} , es gibt einen Schwellenwert T §3132§ = T §4142§ ( ε ) > §5455§ {\displaystyle T_{0}=T_{0}(\varepsilon )>0} und eine positive Konstante c = c ( ε ) > §8586§ {\displaystyle c=c(\varepsilon )>0} . Folglich gilt für alle T T §110111§ {\displaystyle T\geq T_{0}} und wenn H = T §139140§ §141{\displaystyle H=T^{{\tfrac {1}{2}}+\varepsilon }} gilt die folgende Ungleichung true: N §171172§ ( T + H ) N §192193§ ( T ) c H {\displaystyle N_{0}(T+H)-N_{0}(T)\geq cH} .

Die Selberg-Zeta-Funktionsvermutung.

Atle Selberg untersuchte das Hardy-Littlewood-Problem 2 und zeigte, dass für jedes ε > 0 gibt es Konstanten T §1415§ = T §2425§ ( ε ) > §3738§ {\displaystyle T_{0}=T_{0}(\varepsilon )>0} und c = c(ε) > 0. Diese Konstanten stellen sicher, dass für T T §7071§ {\displaystyle T\geq T_{0}} und H = T 0,5 + ε {\displaystyle H=T^{0.5+\varepsilon }} , die Ungleichung N ( T + H ) N ( T ) c H Protokoll T {\displaystyle N(T+H)-N(T)\geq cH\log T} gilt. Selberg vermutete anschließend, dass dieses Ergebnis durch die Einstellung verfeinert werden könnte H = T 0,5 {\displaystyle H=T^{0.5}} .Anatoly Karatsuba bewies später, dass für ein festes ε mit 0 < ε < 0,001 und für ein ausreichend großes T, wenn H = T a + ε {\displaystyle H=T^{a+\varepsilon }} mit a = §240241§ §242243§ = §252253§ §254255§ §265266§ §267268§ {\displaystyle a={\tfrac {27}{82}}={\tfrac {1}{3}}-{\tfrac {1}{246}}} , dann enthält das Intervall (T, T+H) mindestens cH log(T) reelle Nullstellen der Riemannschen Zetafunktion ζ ( §310311§ §312313§ + ich t ) {\displaystyle \zeta \left({\tfrac {1}{2}}+it\right)} . Dieser Befund bestätigte wirksam Selbergs Vermutung. Es ist wichtig zu beachten, dass die Wachstumsreihenfolge dieser Schätzungen von Selberg und Karatsuba nicht weiter verfeinert werden kann, da sich T der Unendlichkeit nähert.

Karatsuba (1992) zeigte, dass ein Analogon der Selberg-Vermutung für fast alle Intervalle (T, T+H] gilt, wobei H = T ε {\displaystyle H=T^{\varepsilon }} und ε stellen einen beliebig kleinen, festen positiven Wert dar. Die Karatsuba-Methode erleichtert die Untersuchung von Nullstellen der Riemannschen Zetafunktion innerhalb „superkurzer“ Intervalle auf der kritischen Linie. Diese Intervalle, die als (T, T+H] bezeichnet werden, besitzen eine Länge H, die langsamer zunimmt als jeder, sogar unendlich kleine Grad von T. Insbesondere bewies Karatsuba, dass für alle gegebenen Zahlen ε und ε §6263§ {\displaystyle \varepsilon _{1}} erfüllt die Bedingungen §8081§ < ε , ε §9495§ < §100101§ {\displaystyle 0<\varepsilon ,\varepsilon _{1}<1} , fast alle Intervalle (T, T+H] wobei H exp { ( Protokoll T ) ε } {\displaystyle H\geq \exp {\{(\log T)^{\varepsilon }\}}} enthält mindestens H ( Protokoll T ) §187188§ ε §197198§ {\displaystyle H(\log T)^{1-\varepsilon _{1}}} Nullen für die Funktion ζ ( §227228§ §229230§ + ich t ) {\displaystyle \zeta \left({\tfrac {1}{2}}+it\right)} . Diese Schätzung kommt dem aus der Riemann-Hypothese abgeleiteten Ergebnis sehr nahe.

Numerische Berechnungen

Die Funktion

π s §1819§ Γ ( s §3435§ ) ζ ( s ) {\displaystyle \pi ^{-{\frac {s}{2}}}\Gamma ({\tfrac {s}{2}})\zeta (s)}

Diese Funktion hat innerhalb des kritischen Streifens dieselben Nullstellen wie die Zeta-Funktion und weist aufgrund ihrer Funktionsgleichung reelle Werte auf der kritischen Linie auf. Folglich kann das Vorhandensein von Nullen genau auf der realen Linie zwischen zwei Punkten festgestellt werden, indem numerisch überprüft wird, ob die Funktion an diesen jeweiligen Punkten entgegengesetzte Vorzeichen aufweist. Typischerweise wird folgende Notation verwendet:

ζ ( §1415§ §1617§ + ich t ) = Z ( t ) e ich θ ( t ) {\displaystyle \zeta ({\tfrac {1}{2}}+it)=Z(t)e^{-i\theta (t)}}

Diese Gleichung definiert eindeutig Hardys Z-Funktion und die Riemann-Siegel-Theta-Funktion θ, unter der Bedingung, dass es sich um glatte reelle Funktionen mit θ(0) = 0 handelt. Die Identifizierung zahlreicher Intervalle, in denen die Funktion Z einen Vorzeichenwechsel erfährt, liefert den Beweis für die Existenz mehrerer Nullstellen auf der kritischen Linie. Um die Riemann-Hypothese bis zu einem bestimmten Imaginärteil T für die Nullstellen zu validieren, muss zusätzlich bestätigt werden, dass innerhalb dieses Bereichs keine weiteren Nullstellen außerhalb der kritischen Linie vorhanden sind. Diese Bestätigung kann erreicht werden, indem Turings Methode verwendet wird, um die Gesamtzahl der Nullstellen innerhalb der Region zu berechnen und anschließend zu überprüfen, ob diese Zahl genau der Anzahl der Nullstellen entspricht, die sich auf der kritischen Linie befinden. Folglich kann die Riemann-Hypothese für jeden gewünschten Wert von T rechnerisch verifiziert werden, vorausgesetzt, dass alle Nullstellen der Zeta-Funktion innerhalb dieses Bereichs einfach sind und auf der kritischen Linie liegen.

Diese Berechnungen gelten auch für die Schätzung von π ( x ) {\displaystyle \pi (x)} über endliche Intervalle von x {\displaystyle x} . Zum Beispiel aktuelle Erkenntnisse aus dem Jahr 2020, die Nullberechnungen auf eine Höhe von erweiterten §4546§ × §5152§ §5455§ {\displaystyle 3\times 10^{12}} , haben gezeigt, dass:

| π ( x ) li ( x ) | < §4142§ §4445§ π x Protokoll ( x ) , für  2657 x 1.101 × §9394§ §9697§ . {\displaystyle |\pi (x)-\operatorname {li} (x)|<{\frac {1}{8\pi }}{\sqrt {x}}\log(x),\qquad {\text{for }}2657\leq x\leq 1.101\times 10^{26}.

Im Allgemeinen gilt diese Ungleichung unter der Voraussetzung, dass

Die Bedingungen für diese Analyse sind: -->2657{\displaystyle x\geq 2657} und 9.06loglogxxlogxT,{\displaystyle {\frac {9.06}{\log {\log {x}}}}{\sqrt {\frac {x}{\log {x}}}}\leq T,}.

Hier: T{\displaystyle T} stellt den maximalen etablierten Wert dar, für den die Riemann-Hypothese für alle Nullen gilt ρ{\displaystyle \rho }, vorausgesetzt, dass ihr Imaginärteil die Bedingung (ρ)(§6061§,T]{\displaystyle \Im {\left(\rho \right)}\in \left(0,T\right].

Die „Höhe“ einer Zeta-Funktionsnullstelle ist definiert als die Größe ihrer imaginären Komponente, wobei die Höhe der nten Nullstelle durch γn bezeichnet wird. Alle bisher untersuchten Nullstellen lagen auf der kritischen Linie und werden als einfach charakterisiert. Das Vorhandensein einer mehrfachen Nullstelle wäre dies erschweren Algorithmen zur Nullsuche, die auf der Erkennung von Vorzeichenänderungen zwischen aufeinanderfolgenden Nullen beruhen.

Gram-Punkte

Ein Gram-Punkt ist als eine bestimmte Stelle auf der kritischen Linie definiert, dargestellt als 1/2 + it, wobei die Zeta-Funktion einen reellen Wert ungleich Null ergibt. Unter Verwendung des Ausdrucks für die Zeta-Funktion auf der kritischen Linie ζ(1/2 + it) = Z(t)e(t), wobei Hardys Funktion Z reell für reell ist t und θ die Riemann-Siegel-Theta-Funktion bezeichnen, ist es offensichtlich, dass die Zeta-Funktion real ist, wenn sin(θ(t)) = 0. Diese Bedingung impliziert, dass θ(t) ein ganzzahliges Vielfaches von π sein muss, wodurch die einfache Berechnung von Gram-Punkten durch die Umkehrung der Formel für θ erleichtert wird. Diese Punkte werden üblicherweise als gn für n = 0, 1, ... indiziert, wobei gn die eindeutige Lösung der Gleichung θ(t) = nπ.

darstellt

Gram bemerkte, dass eine einzelne Nullstelle der Zeta-Funktion häufig zwischen zwei aufeinanderfolgenden Gram-Punkten auftrat, eine Beobachtung, die Hutchinson später Grams Gesetz nannte. Mehrere andere verwandte Sätze werden gelegentlich auch als Grams Gesetz bezeichnet; Beispielsweise ist der Ausdruck (−1)nZ(gn) typischerweise positiv, oder Z(t) weist im Allgemeinen entgegengesetzte Vorzeichen an aufeinanderfolgenden Gram-Punkten auf. Dargestellt werden die Imaginärkomponenten γn der Anfangsnullstellen und die entsprechenden ersten paar Grammpunkte gn.

Der erste Fall, in dem Grams Gesetz versagt, wird am 127. Nullpunkt und am Gram-Punkt g126 beobachtet, wo ihre erwartete Reihenfolge umgekehrt ist.

Ein Grammpunkt t wird als „gut“ definiert, wenn die Zeta-Funktion einen positiven Wert bei 1/2 + it aufweist. Zu den Indizes, die „schlechten“ Gram-Punkten entsprechen, bei denen Z ein anomales Vorzeichen anzeigt, gehören 126, 134, 195, 211 usw. (siehe Sequenz A114856 im OEIS). Ein Gram-Block stellt ein Intervall dar, das durch zwei gute Gram-Punkte begrenzt wird, wobei alle dazwischen liegenden Gram-Punkte als schlecht klassifiziert werden. Die Rosser-Regel, eine von Rosser, Yohe und Schoenfeld (1969) vorgeschlagene Verfeinerung des Gram-Gesetzes, geht davon aus, dass Gram-Blöcke häufig die erwartete Anzahl von Nullen enthalten, was der Anzahl der Gram-Intervalle entspricht, auch wenn einzelne Gram-Intervalle innerhalb des Blocks nicht jeweils genau eine Null enthalten. Beispielsweise stellt das durch g125 und g127 definierte Intervall einen Gram-Block dar, der einen einzelnen fehlerhaften Gram-Punkt umfasst, g126. Dieser Block enthält die erwarteten zwei Nullen, obwohl keines seiner beiden konstituierenden Gram-Intervalle eine eindeutige Null enthält. Rosser und Kollegen bestätigten, dass es bei den anfänglichen 3 Millionen Nullen keine Ausnahmen von der Rosser-Regel gab; Für die Rosser-Regel gibt es jedoch unendlich viele Ausnahmen für die gesamte Zeta-Funktion.

Sowohl die Gram-Regel als auch die Rosser-Regel legen nahe, dass Nullstellen im Allgemeinen in unmittelbarer Nähe ihrer erwarteten Positionen bleiben. Die Abweichung einer Null von ihrer vorhergesagten Position wird durch die zuvor definierte Funktion S bestimmt, die ein außergewöhnlich langsames Wachstum aufweist; seine durchschnittliche Größe nähert sich (log log T)1/2 an und erreicht nur dann einen Wert von 2, wenn T ungefähr 1024 beträgt. Folglich gelten diese Regeln weitgehend für kleine Werte von T, werden jedoch mit der Zeit häufig ungenau. Tatsächlich hat Trudgian (2011) gezeigt, dass sowohl das Gram-Gesetz als auch die Rosser-Regel in einem erheblichen Teil der Fälle versagen. Konkret wird prognostiziert, dass auf lange Sicht etwa 66 % der Gram-Intervalle, die durch zwei aufeinanderfolgende Gram-Punkte definiert werden, eine Null enthalten, während 17 % keine Nullen und weitere 17 % zwei Nullen enthalten (Hanga, 2020).

Zufallsmatrixtheorie und Quantenchaos

Unter der Annahme der Riemann-Hypothese entsteht eine Frage nach zusätzlichen Regelmäßigkeiten, die die Verteilung der Zeta-Funktionsnullstellen entlang der kritischen Linie bestimmen könnten. Eine vorherrschende Vermutung geht davon aus, dass die kritischen Nullstellen der Zeta-Funktion ein statistisches Verhalten analog zu den Eigenwerten umfangreicher hermitescher Zufallsmatrizen aufweisen. Dieses Konzept entstand aus Hugh Montgomerys Forschungen zur Paarkorrelationsvermutung im Zusammenhang mit den Nullstellen der Zeta-Funktion. Nach einer geeigneten Neuskalierung zum Ausgleich der steigenden Dichte von Nullstellen bei höheren Werten stimmt die hypothetische Paarkorrelationsfunktion mit der Funktion überein, die für Eigenwerte innerhalb des Gaußschen Unitären Ensembles (GUE) in der Zufallsmatrixtheorie beobachtet wird.

Andrew Odlyzko führte numerische Tests dieses Zusammenhangs durch und zeigte, dass die Abstandsstatistik von Nullstellen, die sich weit oben auf der kritischen Linie befinden, eine starke Übereinstimmung mit den Vorhersagen zeigt, die aus der GUE-Zufallsmatrixtheorie abgeleitet wurden. Diese Kongruenz geht über die Abstände der nächsten Nachbarn hinaus und umfasst Korrelationsfunktionen höherer Ordnung und wird allgemein als überzeugender Beweis dafür angesehen, dass die Nullstellen durch die identischen lokalen Statistiken, die in Zufallsmatrizen gefunden werden, genau modelliert werden.

Die Analogie mit Zufallsmatrizen ist auch für die Hilbert-Pólya-Vermutung und die Konzepte im Quantenchaos relevant. In quantenchaotischen Systemen entsprechen Eigenwerte häufig der Zufallsmatrixstatistik; Daher kann die Manifestation identischer Statistiken in den Nullstellen der Zeta-Funktion als Hinweis darauf interpretiert werden, dass diese Nullstellen möglicherweise von einem selbstadjungierten Operator oder einem chaotischen dynamischen System stammen. Dies liefert eine heuristische Erklärung dafür, warum die Nullstellen auf einer Spektrallinie liegen könnten und warum ihre Abstände eine signifikante Abstoßung anstelle einer zufälligen Häufung aufweisen.

Diese Perspektive wurde von Nicholas Katz und Peter Sarnak übernommen, die postulierten, dass Familien von L-Funktionen Symmetrietypen besitzen, die von kompakten klassischen Gruppen (unitär, orthogonal oder symplektisch) vorgegeben werden, und dass die Verteilungen ihrer tief liegenden Nullstellen den jeweiligen Zufallsmatrix-Ensembles entsprechen sollten. Im Fall der Riemannschen Zetafunktion ist das zugehörige Ensemble der einheitlichen Gruppe zugeordnet.

Die Zufallsmatrixtheorie hat Hypothesen über die Wachstumsmuster von Zeta-Funktionsmomenten entlang der kritischen Linie aufgestellt. Insbesondere verwendeten Jonathan Keating und Nina Snaith aus zufälligen Einheitsmatrizen abgeleitete Durchschnittswerte, um die Hauptkonstanten in Formeln für asymptotische Momente vorherzusagen, z. xmlns="w3.org/1998/Math/MathML"> §8T §1920§ T | ζ ( §3637§ / §4243§ + i t ) | §5859§ k d t {\displaystyle {\frac {1}{T}}\int _{0}^{T}|\zeta (1/2+it)|^{2k}\,dt} as . Ihre vorgeschlagenen Vermutungen beschreiben einen universellen Zufallsmatrixfaktor, der sich von einem arithmetischen Euler-Produktfaktor unterscheidet, und beeinflussen dadurch die nachfolgende Forschung zu den Momenten und Verhältnissen von L-Funktionen.

Folglich stellen Zufallsmatrixtheorie und Quantenchaos einen heuristischen Rahmen dar, der für die Riemann-Hypothese relevant ist, obwohl es keinen bekannten Beweis für die aus dieser Methodik abgeleitete Hypothese gibt.

Argumente, die die Riemann-Hypothese unterstützen und widerlegen

Wissenschaftliche Veröffentlichungen, die sich mit der Riemann-Hypothese befassen, nehmen hinsichtlich ihrer Richtigkeit typischerweise eine umsichtige und unverbindliche Haltung ein. Unter den Autoren, die eine Meinung artikulieren, suggeriert die Mehrheit, darunter Riemann (1859) und Bombieri (2000), eine Erwartung oder Hoffnung auf deren Wahrheit. Umgekehrt äußert eine begrenzte Zahl von Wissenschaftlern erhebliche Vorbehalte; Ivić (2008) zählt beispielsweise mehrere Gründe für Skeptizismus auf, während Littlewood (1962) unmissverständlich seinen Glauben an die Unwahrheit der Skepsis zum Ausdruck brachte und einen Mangel an unterstützenden Beweisen und jeglicher denkbaren Begründung für ihre Gültigkeit geltend machte. Die vorherrschende Meinung in Umfrageartikeln (Bombieri 2000, Conrey 2003 und Sarnak 2005) zeigt, dass die Beweise zwar substanziell, aber nicht schlüssig sind, was bedeutet, dass trotz ihrer wahrscheinlichen Wahrheit ein gewisses Maß an berechtigten Zweifeln bestehen bleibt.

Sarnak (2005), Conrey (2003) und Ivić (2008) führen mehrere Argumente auf, die dies sowohl unterstützen als auch widerlegen Riemann-Hypothese, die folgende Punkte umfasst:

Notizen

Referenzen

Beliebte Ausstellungen

Ev rûpel ji bo arşîva zanînê ya TORÎma Akademî hatiye amadekirin. Agahî, wêne û lînkên derve dikarin li gorî çavkaniyên vekirî bên nûkirin.

Über diesen Artikel

Informationen über Riemann-Hypothese

Ein kurzer Überblick über Leben, Forschung, Entdeckungen und wissenschaftliche Bedeutung von Riemann-Hypothese.

Themen-Tags

Informationen über Riemann-Hypothese Wer war Riemann-Hypothese Leben von Riemann-Hypothese Forschung von Riemann-Hypothese Entdeckungen von Riemann-Hypothese Wissenschaftliche Beiträge

Häufige Suchen zu diesem Thema

  • Wer war Riemann-Hypothese?
  • Was entdeckte Riemann-Hypothese?
  • Welche Beiträge leistete Riemann-Hypothese?
  • Warum ist Riemann-Hypothese wichtig?

Kategoriearchiv

Torima Akademi Neverok: Wissenschaftsarchiv

Entdecken Sie in unserem Wissenschaftsarchiv eine Fülle von Artikeln und detaillierten Erklärungen zu grundlegenden Konzepten, Theorien und Phänomenen. Von den Naturwissenschaften bis zur Mathematik – erweitern Sie Ihr

Startseite Zurück zu Wissenschaft