TORIma Académie Logo TORIma Académie
Claude Shannon
Sciences

Claude Shannon

TORIma Académie — Mathématicien / Théorie de l'information

Claude Shannon

Claude Shannon

Claude Elwood Shannon (30 avril 1916 – 24 février 2001) était un mathématicien américain, mathématicien, ingénieur électricien, informaticien,…

Claude Elwood Shannon (30 avril 1916 - 24 février 2001) était un mathématicien américain dont l'expertise couvrait les mathématiques, l'ingénierie électrique, l'informatique, la cryptographie et l'invention, ce qui lui a valu d'être reconnu comme le « père de la théorie de l'information » et la figure fondatrice de l'ère de l'information.

Shannon a été le pionnier de l'application de l'algèbre booléenne, un concept fondamental pour tous les circuits électroniques numériques. et a contribué de manière significative à l’établissement de l’intelligence artificielle en tant que domaine. Le roboticien Rodney Brooks a salué Shannon comme l'ingénieur du XXe siècle dont les contributions ont eu le plus d'impact sur les technologies du XXIe siècle, tandis que le mathématicien Solomon W. Golomb a qualifié ses réalisations intellectuelles de « l'une des plus grandes du XXe siècle ».

En 1936, Shannon a obtenu deux baccalauréats ès sciences de l'Université du Michigan, avec une spécialisation en génie électrique et en mathématiques. Alors qu'il poursuivait sa maîtrise en génie électrique au MIT à l'âge de 21 ans, la thèse de Shannon de 1937, « Une analyse symbolique des circuits de relais et de commutation », a fourni une démonstration révolutionnaire que l'algèbre booléenne, lorsqu'elle est appliquée électriquement, pouvait réaliser n'importe quelle relation numérique logique, jetant ainsi les bases théoriques de l'informatique et des circuits numériques. Cet ouvrage fondateur, souvent salué comme le mémoire de maîtrise le plus important jamais réalisé et qualifié d'« acte de naissance de la révolution numérique », a lancé une carrière qui a abouti à l'obtention du prix Kyoto en 1985. Il a ensuite complété son doctorat. en mathématiques au MIT en 1940, avec une thèse sur la génétique qui a présenté des résultats importants, bien que initialement inédits.

Pendant la Seconde Guerre mondiale, Shannon a apporté des contributions cruciales à la cryptanalyse pour la défense nationale des États-Unis, englobant la recherche fondamentale sur le décryptage et les télécommunications sécurisées. Son article fondateur dans ce domaine est largement considéré comme la pierre angulaire de la cryptographie moderne, ses efforts étant qualifiés de « un tournant, marquant la fin de la cryptographie classique et le début de la cryptographie moderne ». Ses recherches ont constitué la base de la cryptographie à clé symétrique, influençant les développements ultérieurs tels que les travaux de Horst Feistel, le Data Encryption Standard (DES) et l'Advanced Encryption Standard (AES). Par conséquent, Shannon est souvent reconnu comme le « père fondateur de la cryptographie moderne ».

L'article crucial de Shannon de 1948, « Une théorie mathématique de la communication », a établi les principes fondamentaux de la théorie de l'information, un travail que l'ingénieur électricien Robert G. Gallager a qualifié de « plan pour l'ère numérique » et que Scientific American a salué comme « la Magna Carta de l'ère de l'information ». Solomon W. Golomb a comparé l'impact de Shannon sur l'ère numérique à la profonde influence que « l'inventeur de l'alphabet a eu sur la littérature ». Il est également considéré comme le principal contributeur à la théorie de l'information après 1948. Le cadre théorique de Shannon a joué un rôle déterminant dans les progrès de nombreuses disciplines scientifiques, notamment l'invention du disque compact, l'évolution d'Internet, l'adoption généralisée de la téléphonie mobile et la compréhension des trous noirs. En outre, il a officiellement introduit le terme « bit » et a co-inventé à la fois la modulation par impulsions codées et le premier ordinateur portable. Ses innovations incluent également le graphique de flux de signaux.

En 1951, Shannon est devenu membre du groupe consultatif spécial en cryptologie de la Central Intelligence Agency. Il a ensuite été professeur au MIT de 1956 à 1978. Ses nombreuses contributions à l'intelligence artificielle incluent la co-organisation de l'atelier de Dartmouth en 1956, largement reconnu comme l'événement fondateur de la discipline, et la rédaction d'articles importants sur la programmation des ordinateurs d'échecs. Notamment, sa machine Theseus représentait le premier appareil électrique capable d'apprendre par essais et erreurs, marquant une première étape dans l'intelligence artificielle.

Biographie

Enfance

La famille Shannon résidait à Gaylord, dans le Michigan, où Claude est né dans un hôpital situé dans la ville voisine de Petoskey. Son père, Claude Sr. (1862-1934), poursuivit une carrière d'homme d'affaires et, pendant un certain temps, occupa le poste de juge des successions à Gaylord. Sa mère, Mabel Wolf Shannon (1880-1945), était une éducatrice en langues qui a également été directrice de la Gaylord High School. Claude Sr. faisait remonter ses ancêtres aux colons du New Jersey, tandis que Mabel était la progéniture d'immigrants allemands. Au cours de ses années de formation, la famille de Shannon a participé activement à leur Église méthodiste.

Claude Shannon a passé la majorité de ses seize premières années à Gaylord, où il a complété ses études publiques, aboutissant à l'obtention de son diplôme de Gaylord High School en 1932. Il a démontré une aptitude prononcée pour les disciplines mécaniques et électriques, avec ses atouts académiques résidant principalement dans les sciences et les mathématiques. Au cours de sa jeunesse, il a conçu de manière indépendante divers appareils, notamment des modèles d'avions, un bateau radiocommandé et un système télégraphique à fils barbelés d'un demi-mile de long se connectant à la résidence d'un ami. Parallèlement, il occupait un poste de messager pour la société Western Union.

Thomas Edison, que Shannon découvrit plus tard comme étant un parent éloigné, lui servait d'idole d'enfance. Les deux individus étaient des descendants directs de John Ogden (1609-1682), un éminent leader colonial et ancêtre de nombreuses personnalités notables.

Circuits logiques

En 1932, Shannon s'inscrit à l'Université du Michigan, où il découvre pour la première fois les travaux fondateurs de George Boole. Il a ensuite obtenu deux baccalauréats en 1936, spécialisés respectivement en génie électrique et en mathématiques.

Shannon a commencé ses études supérieures en génie électrique au Massachusetts Institute of Technology (MIT) en 1936, où il a contribué à l'analyseur différentiel de Vannevar Bush. Cet appareil représentait un des premiers ordinateurs analogiques, utilisant des composants électromécaniques pour résoudre des équations différentielles. Au cours de son analyse des circuits ad hoc complexes de l'analyseur, Shannon a conceptualisé des circuits de commutation dérivés des principes booléens. Sa thèse de maîtrise, intitulée Une analyse symbolique des circuits de relais et de commutation, a été achevée en 1937, avec un article associé publié en 1938. Cet ouvrage fondateur en théorie des circuits de commutation présentait des schémas de circuits de commutation capables de mettre en œuvre les opérateurs fondamentaux de l'algèbre booléenne. Il a ensuite démontré que ces circuits pouvaient rationaliser la configuration des relais électromécaniques alors utilisés dans les commutateurs de routage des appels téléphoniques. Développant cela, il a en outre établi que ces circuits possédaient la capacité de résoudre tout problème relevant de l'algèbre booléenne. Le chapitre final présentait des schémas de divers circuits, dont notamment un additionneur numérique complet de 4 bits. La méthodologie de Shannon s'écartait considérablement de celle des ingénieurs contemporains, tels qu'Akira Nakashima, qui adhéraient à la théorie des circuits existante et adoptaient une approche plus empirique. À l'inverse, les concepts de Shannon étaient plus abstraits et fondés mathématiquement, ouvrant une nouvelle direction qui est depuis devenue fondamentale dans l'ingénierie électrique moderne.

Le principe fondamental qui sous-tend tous les ordinateurs numériques électroniques est l'utilisation de commutateurs électriques pour la mise en œuvre logique. Les contributions de Shannon ont jeté les bases de la conception de circuits numériques, gagnant une large reconnaissance au sein de la communauté du génie électrique pendant et après la Seconde Guerre mondiale. La robustesse théorique des recherches de Shannon a supplanté les méthodologies ad hoc auparavant dominantes. En 1987, Howard Gardner a salué la thèse de Shannon comme « peut-être la thèse de maîtrise la plus importante, et aussi la plus célèbre, du siècle ». Herman Goldstine, en 1972, l'a qualifié de "sûrement... l'un des mémoires de maîtrise les plus importants jamais rédigés... Il a contribué à faire passer la conception de circuits numériques d'un art à une science". Un critique de son travail a fait remarquer : « Au meilleur de ma connaissance, il s'agit de la première application des méthodes de logique symbolique à un problème d'ingénierie aussi pratique. Du point de vue de l'originalité, je considère cet article comme exceptionnel. Le mémoire de maîtrise de Shannon a reçu le prix Alfred Noble en 1939.

En 1940, Shannon a obtenu son doctorat. en mathématiques du MIT. Vannevar Bush avait proposé que Shannon mène ses recherches doctorales au laboratoire de Cold Spring Harbor, dans le but de formuler un cadre mathématique pour la génétique mendélienne. Cette enquête a abouti au doctorat de Shannon. thèse, intitulée Une algèbre pour la génétique théorique. Bien que la thèse soit restée inédite en raison de la perte d'intérêt ultérieure de Shannon, elle contenait des conclusions importantes. De manière significative, il a été parmi les pionniers dans l’application d’un cadre algébrique à l’étude de la génétique théorique des populations. De plus, Shannon a développé une nouvelle expression générale pour la distribution de multiples traits liés au sein d'une population sur plusieurs générations dans le cadre d'un système d'accouplement aléatoire, un théorème sans précédent et non abordé par les autres généticiens des populations de cette époque.

En 1940, Shannon a été nommée National Research Fellow à l'Institute for Advanced Study de Princeton, New Jersey. À Princeton, Shannon a engagé des discussions concernant ses concepts avec d'éminents scientifiques et mathématiciens tels que Hermann Weyl et John von Neumann, et il a également eu des interactions périodiques avec Albert Einstein et Kurt Gödel. Shannon a fait preuve d'une approche multidisciplinaire dans son travail, une polyvalence qui a probablement facilité sa formulation ultérieure de la théorie mathématique de l'information.

Recherche en temps de guerre

Après un premier bref mandat aux Bell Labs à l'été 1937, Shannon revint ensuite pour contribuer au développement de systèmes de contrôle de tir et de méthodes cryptographiques tout au long de la Seconde Guerre mondiale, sous contrat avec la section D-2 (Systèmes de contrôle) du National Defense Research Committee (NDRC).

Shannon est reconnu pour avoir inventé les graphiques de flux de signaux en 1942. Son enquête sur le fonctionnement fonctionnel d'un ordinateur analogique a conduit à la découverte du gain topologique. formule.

Pendant une période de deux mois au début de 1943, Shannon a interagi avec l'éminent mathématicien britannique Alan Turing. Turing avait été envoyé à Washington pour diffuser les méthodes cryptographiques employées par la Government Code and Cypher School de Bletchley Park, qui ont joué un rôle déterminant dans le déchiffrement des codes utilisés par les sous-marins de la Kriegsmarine dans l'océan Atlantique Nord, au service cryptanalytique de la marine américaine. De plus, Turing a poursuivi ses recherches sur le chiffrement de la parole, ce qui a motivé sa présence aux Bell Labs. Leurs interactions comprenaient une rencontre à l’heure du thé à la cafétéria. Turing a présenté à Shannon sa publication de 1936, qui introduisait le concept désormais reconnu comme la « machine de Turing universelle ». Shannon a trouvé ce travail particulièrement convaincant, notant l'alignement significatif entre les concepts de Turing et ses propres théories en développement.

L'équipe de Shannon a conçu des systèmes anti-aériens capables de suivre les missiles et les avions adverses, tout en calculant simultanément les trajectoires d'interception de ces projectiles.

À la fin de la Seconde Guerre mondiale en 1945, la NDRC a commencé à publier un résumé complet des rapports techniques, avant sa dissolution éventuelle. Dans le volume consacré au contrôle de tir, un essai remarquable, Data Smoothing and Prediction in Fire-Control Systems, co-écrit par Shannon, Ralph Beebe Blackman et Hendrik Wade Bode, aborde formellement le défi du lissage des données dans les applications de contrôle de tir par analogie avec « le problème de la séparation d'un signal du bruit parasite dans les systèmes de communication ». Cette approche a effectivement encadré la question dans les paradigmes du traitement des données et du signal, préfigurant ainsi l'avènement de l'ère de l'information.

Les recherches cryptographiques de Shannon ont montré un lien profond avec ses contributions ultérieures à la théorie de la communication. À la fin de la guerre, il rédigea un mémorandum classifié pour Bell Telephone Laboratories, intitulé « Une théorie mathématique de la cryptographie », daté de septembre 1945. Une itération déclassifiée de ce document fut ensuite publiée en 1949 sous le titre « Théorie de la communication des systèmes secrets » dans le Bell System Technical Journal. Cette publication intégrait de nombreux concepts et cadres mathématiques qui étaient également présents dans son ouvrage fondateur, Une théorie mathématique de la communication. Shannon lui-même a expliqué que ses connaissances en temps de guerre sur la théorie de la communication et la cryptographie avaient évolué simultanément, affirmant qu '«elles étaient si proches l'une de l'autre qu'on ne pouvait pas les séparer». Une note de bas de page placée au début du rapport classifié indiquait l'intention de Shannon de « développer ces résultats… dans un prochain mémorandum sur la transmission d'informations. »

Au cours de son mandat aux Bell Labs, Shannon a démontré l'incassabilité inhérente du tampon cryptographique à usage unique grâce à une recherche classifiée, qui a ensuite été publiée en 1949. Cette même publication a en outre établi que tout système cryptographique jugé incassable doit fondamentalement posséder des caractéristiques analogues au tampon à usage unique : en particulier, la clé doit être véritablement aléatoire, de taille équivalente au texte brut, jamais partiellement ou entièrement réutilisé, et maintenu dans un secret absolu.

Théorie de l'information

En 1948, le mémorandum attendu s'est matérialisé sous le nom de « Une théorie mathématique de la communication », un article en deux parties publié dans les éditions de juillet et d'octobre du Bell System Technical Journal. Ce travail fondateur porte principalement sur les stratégies de codage optimales pour les messages destinés à être transmis par un expéditeur. Shannon a introduit le concept d'entropie de l'information, le définissant comme une mesure quantifiable du contenu informationnel d'un message, qui représente simultanément la réduction de l'incertitude obtenue par ce message. Grâce à cette contribution fondamentale, il a effectivement établi la discipline de la théorie de l'information.

Le livre La théorie mathématique de la communication compile l'article fondateur de Shannon de 1948 aux côtés de la vulgarisation accessible de Warren Weaver, rendant les concepts compréhensibles à un public plus large. Weaver a précisé que dans la théorie de la communication, « l'information » ne concerne pas le contenu réellement transmis, mais l'éventail des messages potentiels. Par conséquent, l’information quantifie le degré de choix dont dispose un expéditeur lors de la formulation d’un message. De plus, les théories de Shannon ont reçu une vulgarisation supplémentaire, sous sa direction personnelle, dans l'ouvrage de John Robinson Pierce, Symboles, signaux et bruit.

En 1951, l'article de Shannon « Prédiction et entropie de l'anglais imprimé » a solidifié le rôle fondamental de la théorie de l'information dans le traitement du langage naturel et la linguistique informatique. Ce travail a délimité les limites supérieures et inférieures de l'entropie pour les statistiques de la langue anglaise, fournissant ainsi un cadre statistique robuste pour l'analyse linguistique. De plus, il a démontré que considérer le caractère spatial comme le 27ème élément de l'alphabet réduit efficacement l'incertitude dans la communication écrite, établissant un lien distinct et quantifiable entre les conventions linguistiques culturelles et les processus cognitifs probabilistes.

En 1949, Shannon a publié un autre article important, « Théorie de la communication des systèmes secrets », une interprétation déclassifiée de ses recherches de guerre sur les fondements mathématiques de la cryptographie. Dans ce travail, il a rigoureusement démontré que tous les chiffres théoriquement incassables nécessitent les mêmes conditions que le tampon à usage unique. Shannon est également reconnu pour avoir introduit le théorème d'échantillonnage, un concept qu'il a développé dès 1940, qui aborde la reconstruction d'un signal en temps continu à partir d'un ensemble d'échantillons uniformément discrets. Ce cadre théorique s'est avéré indispensable pour la transition des télécommunications des systèmes de transmission analogiques vers les systèmes de transmission numériques, à partir des années 1960. De plus, en 1956, il est l'auteur d'un article sur le codage des canaux bruyants, qui a par la suite atteint un statut classique au sein de la théorie de l'information. Parallèlement, en 1956, il rédige un éditorial concis pour « IRE Transactions on Information Theory » intitulé « The Bandwagon ». Il a commencé cet article en notant : « La théorie de l'information est devenue, ces dernières années, une sorte de mouvement scientifique », et a conclu par une mise en garde : « Ce n'est qu'en maintenant une attitude totalement scientifique que nous pourrons réaliser de réels progrès dans la théorie de la communication et consolider notre position actuelle. »

L'impact de Claude Shannon sur le domaine a été profond ; par exemple, une compilation de 1973 d'articles fondateurs sur la théorie de l'information l'a révélé comme l'unique ou le co-auteur de 12 des 49 ouvrages cités, une fréquence inégalée par aucun autre chercheur, dont aucun n'est apparu plus de trois fois. Au-delà de sa publication fondamentale de 1948, il continue d'être reconnu comme le principal contributeur à la théorie après 1948.

En mai 1951, Mervin Kelly reçut une demande officielle du directeur général de la CIA, Walter Bedell Smith, concernant l'expertise de Shannon. Shannon était considéré, par « la meilleure autorité », comme le « scientifique le plus éminemment qualifié dans le domaine particulier concerné », soulignant la nécessité perçue de son implication. Par conséquent, cette demande a conduit à l'inclusion de Shannon dans le groupe consultatif spécial sur la cryptologie (SCAG) de la CIA.

Au cours de son mandat aux Bell Labs, Shannon a développé en collaboration la modulation par impulsions codées avec Bernard M. Oliver et John R. Pierce.

Intelligence artificielle

Thésée, la souris mécanique

En 1950, Shannon, assisté de sa femme Betty, a conçu et construit une machine d'apprentissage appelée Thésée. Ce dispositif comprenait un labyrinthe situé sur une surface, à l'intérieur duquel naviguait une souris mécanique. Sous cette surface, un circuit de relais électromécanique servait de capteurs, suivant la trajectoire de la souris mécanique à travers le labyrinthe. La souris était programmée pour explorer les couloirs jusqu'à ce qu'elle localise sa cible désignée. Après sa traversée initiale du labyrinthe, la souris pourrait être repositionnée vers n'importe quel endroit précédemment visité et, tirant parti de l'expérience acquise, elle se dirigerait directement vers la cible. Lorsqu'il est introduit dans une zone inconnue, il a été conçu pour rechercher jusqu'à rencontrer un point familier, puis avancer vers la cible tout en intégrant de nouvelles informations dans sa mémoire et en adaptant son comportement. Grâce à des essais et des erreurs itératifs, l'appareil a progressivement appris le chemin le plus court optimal à travers le labyrinthe, guidant la souris mécanique en conséquence. La configuration du labyrinthe était modifiable à tout moment en repositionnant ses cloisons mobiles. La souris mécanique de Shannon est largement considérée comme le dispositif d'apprentissage artificiel pionnier de ce type.

Mazin Gilbert a affirmé que Thésée « a inspiré tout le domaine de l'IA », précisant en outre que « ces essais et erreurs aléatoires sont le fondement de l'intelligence artificielle ».

Contributions supplémentaires à l'intelligence artificielle

Shannon est l'auteur de plusieurs articles fondateurs sur l'intelligence artificielle, notamment "Programming a Computer for Playing Chess" (1950) et "Computers and Automata" (1953). En collaboration avec John McCarthy, il a co-édité la publication de 1956 Automata Studies, dont les classifications d'articles étaient basées sur les vedettes-matières de Shannon dans son article de 1953. Tout en s'alignant sur l'objectif de McCarthy d'établir une science des machines intelligentes, Shannon a également adopté une perspective plus large sur les méthodologies réalisables dans les études sur les automates, englobant les réseaux neuronaux, les machines de Turing, les mécanismes cybernétiques et le traitement informatique symbolique.

En 1956, Shannon a co-organisé et participé à l'atelier de Dartmouth avec John McCarthy, Marvin Minsky et Nathaniel Rochester. Cet événement est largement reconnu comme le rassemblement fondateur du domaine de l'intelligence artificielle.

Titularité académique au MIT

Shannon a rejoint le corps professoral du MIT en 1956, où il a occupé une chaire dotée et mené des recherches au sein du Laboratoire de recherche en électronique (RLE). Son mandat au MIT s'est poursuivi jusqu'en 1978.

Années ultérieures

Shannon a reçu un diagnostic de maladie d'Alzheimer et a résidé dans une maison de retraite pendant ses dernières années. Il est décédé en 2001, laissant dans le deuil sa femme, un fils, une fille et deux petites-filles.

Intérêts personnels et innovations

Au-delà de ses efforts académiques, Shannon a développé un intérêt pour la jonglerie, le monocycle et les échecs. Il a également conçu de nombreuses inventions, telles que THROBAC, un ordinateur à chiffres romains et diverses machines de jonglerie. De plus, il a construit un mécanisme capable de résoudre le puzzle du Rubik's Cube.

Les autres inventions de Shannon comprenaient des trompettes lance-flammes, des frisbees propulsés par fusée et des chaussures en mousse plastique conçues pour la navigation sur les lacs. Lorsqu'elles étaient portées, ces chaussures créaient l'illusion pour les observateurs que Shannon marchait sur l'eau.

Shannon a conçu le Minivac 601, un entraîneur informatique numérique destiné à former les professionnels aux fonctionnalités informatiques. La société Scientific Development Corp a commencé sa vente en 1961.

Il est également reconnu comme le co-inventeur du premier ordinateur portable, aux côtés d'Edward O. Thorp. Cet appareil a été utilisé pour augmenter les chances à la roulette.

Détails biographiques

En janvier 1940, Shannon épousa Norma Levor, décrite comme une riche intellectuelle juive de gauche. Leur mariage s'est soldé par un divorce un an plus tard. Levor a ensuite épousé Ben Barzman.

Shannon a rencontré sa deuxième épouse, Mary Elizabeth Moore (Betty), alors qu'elle était employée comme analyste numérique aux Bell Labs. Ils se sont mariés en 1949. Betty a aidé Claude dans la construction de plusieurs de ses inventions notables, et ensemble ils ont eu trois enfants.

Shannon s'est identifiée comme apolitique et athée.

Commémorations et influence durable

Six statues de Shannon, sculptées par Eugene Daub, sont situées à divers endroits : l'Université du Michigan, le Laboratoire des systèmes d'information et de décision du MIT, Gaylord, Michigan, l'Université de Californie, San Diego, Bell Labs et AT&T Shannon Labs. La statue de Gaylord figure en bonne place dans le parc commémoratif Claude Shannon. Après la dissolution du système Bell, le segment des Bell Labs qui a continué sous AT&T Corporation a été désigné Shannon Labs en hommage à lui.

En juin 1954, le magazine Fortune a reconnu Shannon comme l'un des 20 scientifiques les plus importants d'Amérique. Par la suite, en 2013, Science News a identifié la théorie de l'information parmi les 10 principales théories scientifiques révolutionnaires.

Neil Sloane, membre d'AT&T et co-éditeur de la vaste collection d'articles de Shannon en 1993, a affirmé que le cadre établi par la théorie de la communication de Shannon (actuellement connue sous le nom de « théorie de l'information ») constitue le fondement de la révolution numérique. Sloane a en outre soutenu que tout appareil intégrant un microprocesseur ou un microcontrôleur descendait conceptuellement de la publication de Shannon de 1948, déclarant : « Il est l'un des grands hommes du siècle. Sans lui, aucune des choses que nous connaissons aujourd'hui n'existerait. Toute la révolution numérique a commencé avec lui. » De plus, l'unité de crypto-monnaie "shannon" (synonyme de "gwei") porte son nom.

De nombreux chercheurs attribuent à Shannon l'origine à lui seul de la théorie de l'information et l'établissement des principes fondamentaux de l'ère numérique.

Ses réalisations sont considérées comme à la mesure de celles d'Albert Einstein, Sir Isaac Newton et Charles Darwin.

A Mind at Play, une biographie de Shannon écrite par Jimmy Soni et Rob Goodman, a été publiée en 2017. Les auteurs ont décrit Shannon comme « le génie le plus important dont vous n'avez jamais entendu parler, un homme dont l'intellect était à égalité avec Albert Einstein et Isaac Newton ». Le consultant et écrivain Tom Rutledge, dans un article pour Boston Review, a affirmé que « Parmi les pionniers de l'informatique qui ont conduit la révolution des technologies de l'information au milieu du XXe siècle – un club d'hommes d'élite composé d'ingénieurs universitaires qui ont également aidé à déchiffrer les codes nazis et à identifier les trajectoires des missiles – Shannon a peut-être été le plus brillant de tous. » L'ingénieur électricien Robert Gallager a observé la remarquable clarté de vision de Shannon, déclarant : « Einstein l'avait aussi : cette capacité à s'attaquer à un problème compliqué et à trouver la bonne façon de l'aborder, de sorte que les choses deviennent très simples. » Dans une nécrologie, Neil Sloane et Robert Calderbank ont ​​affirmé que « Shannon doit se classer en tête de liste des figures majeures de la science du XXe siècle ». Ses contributions dans diverses disciplines lui ont également valu d'être reconnu comme un mathématicien universel.

L'historien James Gleick a souligné l'importance de Shannon, affirmant qu'« Einstein occupe une place importante, et à juste titre. Mais nous ne vivons pas à l'ère de la relativité, nous vivons à l'ère de l'information. monde qui, après la transformation, le vieux monde est oublié. » Gleick a également fait remarquer que Shannon "a créé tout un champ à partir de zéro, à partir du front de Zeus".

Le 30 avril 2016, un Google Doodle a commémoré la vie de Shannon, coïncidant avec ce qui aurait été son centenaire.

The Bit Player, un long métrage biographique réalisé par Mark Levinson, a fait ses débuts au Festival mondial de la science en 2019. Basé sur des entretiens menés avec Shannon dans sa résidence dans les années 1980, le film est ensuite devenu disponible sur Amazon Prime en août 2020.

Claude, le grand modèle de langage développé par la société de recherche en intelligence artificielle Anthropic, porte un hommage partiel à Shannon.

La théorie mathématique de la communication

Contribution de Weaver

L'ouvrage fondateur de Shannon, La théorie mathématique de la communication, commence par une préface interprétative de Warren Weaver. Alors que le traité de Shannon aborde fondamentalement la communication, la contribution de Weaver a rendu ses principes théoriques et mathématiques complexes accessibles à un public plus large. La synergie de leurs approches et concepts de communication distincts a conduit au développement du modèle Shannon-Weaver, même si les éléments mathématiques et théoriques fondamentaux proviennent exclusivement des travaux de Shannon, à la suite des remarques introductives de Weaver. L'introduction de Weaver explique efficacement La théorie mathématique de la communication pour un lectorat général ; cependant, la logique rigoureuse, les formulations mathématiques et l'articulation précise de Shannon ont joué un rôle déterminant dans la définition du problème central.

Autres travaux

Estimation de Shannon pour la complexité des échecs

En 1949, Shannon a finalisé un article, publié en mars 1950, qui estimait la complexité de l'arbre de jeu des échecs à environ 10120. Cette valeur, désormais connue sous le nom de « nombre de Shannon », reste une estimation précise et acceptée de la complexité inhérente du jeu. Il est fréquemment cité comme un obstacle important à la réalisation d'une solution complète pour les échecs grâce à une analyse exhaustive (c'est-à-dire par force brute).

Programme d'échecs informatiques de Shannon

Le 9 mars 1949, Shannon a présenté un article intitulé « Programmation d'un ordinateur pour jouer aux échecs ». Cette présentation a eu lieu à la Convention du National Institute for Radio Engineers à New York. Il a détaillé les méthodologies pour programmer un ordinateur pour jouer aux échecs, en utilisant les principes d'évaluation de position et de sélection de mouvements. De plus, il a avancé des stratégies fondamentales visant à limiter l’explosion combinatoire des possibilités au sein d’un jeu d’échecs. Publié dans Philosophical Magazine en mars 1950, cet ouvrage est reconnu comme l'un des premiers articles traitant de la programmation des ordinateurs pour le jeu d'échecs et de l'application de méthodes informatiques pour résoudre le jeu. Par la suite, en 1950, Shannon a écrit "A Chess-Playing Machine", un article publié dans Scientific American. Ces deux publications ont exercé une influence considérable, établissant les principes fondamentaux des efforts ultérieurs de programmation d'échecs.

Shannon a développé une procédure minimax pour les échecs informatiques, qui détermine les mouvements optimaux sur la base d'une fonction d'évaluation pour n'importe quelle position d'échecs donnée. Il a illustré cela avec un exemple où la valeur de la position noire a été soustraite de la position blanche. L'évaluation matérielle suivait les valeurs relatives standard des pièces d'échecs : un point pour un pion, trois pour un chevalier ou un fou, cinq pour une tour et neuf pour une reine. Des facteurs de position ont également été intégrés, avec une déduction d'un demi-point pour chaque pion doublé, reculé ou isolé, et la mobilité a été quantifiée en ajoutant 0,1 point pour chaque coup légal disponible.

La Maxime de Shannon

Shannon a articulé une variante du principe de Kerckhoffs, déclarant : « L'ennemi connaît le système », qui a ensuite été reconnue comme « la maxime de Shannon ».

Contributions diverses

Shannon a également apporté d'importantes contributions à la combinatoire et à la théorie de la détection. Sa publication de 1948 présente de nombreux outils adoptés par la suite en combinatoire. De plus, ses travaux de 1944 sur la théorie de la détection constituent l'une des premières explications complètes du principe du « filtre adapté ».

Shannon était reconnu comme un investisseur très prospère qui a également donné des conférences sur les stratégies d'investissement. Un rapport publié dans Barron's le 11 août 1986 analysait la performance récente de 1 026 fonds communs de placement, révélant que les rendements de Shannon dépassaient ceux de 1 025 d'entre eux. Une analyse comparative du portefeuille de Shannon de la fin des années 1950 à 1986 par rapport à celui de Warren Buffett de 1965 à 1995 a indiqué que Shannon a réalisé un rendement d'environ 28 %, dépassant légèrement les 27 % de Buffett. L'une des techniques d'investissement notables de Shannon, appelée Le démon de Shannon, consistait à construire un portefeuille avec des proportions égales de liquidités et d'une seule action, puis à le rééquilibrer régulièrement pour capitaliser sur les fluctuations des prix de l'action. Bien que Shannon aurait envisagé de publier ses idées en matière d'investissement, il s'est finalement abstenu, malgré de nombreuses conférences sur le sujet. Il a été l'un des investisseurs pionniers à télécharger les cours des actions, et un instantané de son portefeuille datant de 1981 montrait une valeur de 582 717,50 $, ce qui représenterait environ 1,5 million de dollars en 2015, sans compter une détention d'actions supplémentaire.

Commémorations

Centenaire de Shannon

Le centenaire de Shannon en 2016 a commémoré la vie et la profonde influence de Claude Elwood Shannon à l'occasion du centième anniversaire de sa naissance, le 30 avril 1916. Cette célébration a été en partie inspirée par l'année Alan Turing. Un comité ad hoc de l'IEEE Information Theory Society, composé de Christina Fragouli, Rüdiger Urbanke, Michelle Effros, Lav Varshney et Sergio Verdú, a orchestré des événements mondiaux. L'initiative a été initialement annoncée lors du panel historique lors de l'atelier de théorie de l'information de l'IEEE 2015 à Jérusalem, puis dans le bulletin d'information de l'IEEE Information Theory Society.

Les activités notables comprenaient :

Certaines des activités comprenaient :

Prix et distinctions

Le prix Claude E. Shannon a été institué en son honneur, Shannon lui-même en étant le premier récipiendaire en 1973.

Œuvres sélectionnées

Références

Références

Pulikkoonattu, Rethnakaran et Eric W. Weisstein. «Shannon, Claude Elwood (1916-2001).» MathWorld : une ressource Web Wolfram. Extrait du Monde de la biographie scientifique d'Eric Weisstein.

Çavkanî: Arşîva TORÎma Akademî

À propos de cet article

Informations sur Claude Shannon

Un court guide sur la vie, les recherches, les découvertes et l’importance scientifique de Claude Shannon.

Étiquettes de sujet

Informations sur Claude Shannon Qui était Claude Shannon Vie de Claude Shannon Recherches de Claude Shannon Découvertes de Claude Shannon Contributions scientifiques

Recherches fréquentes sur ce sujet

  • Qui était Claude Shannon ?
  • Qu’a découvert Claude Shannon ?
  • Quelles contributions Claude Shannon a-t-il apportées ?
  • Pourquoi Claude Shannon est-il important ?

Archive de catégorie

Torima Akademi Neverok : Archive Science

Explorez notre collection d'articles dédiés à la science. Découvrez des notions clés, des explications détaillées et des analyses approfondies couvrant un large éventail de disciplines, de la biologie à la physique, en

Accueil Retour à Sciences