Il est né le à Chicago[1], dans l'Illinois, du physicien polonais John Joseph Hopfield et de la physicienne Helen Hopfield[2]. Helen est la deuxième épouse de Hopfield, l'aîné. Il est le sixième enfant de John Joseph Hopfield et a lui-même trois enfants et six petits-enfants.
Parmi ses anciens doctorants figurent Bertrand Halperin (doctorat en 1965), Steven Girvin (1977), Terry Sejnowski (1978), Erik Winfree (1998), José Onuchic (1987) et David J. C. MacKay (1991)[8].
Prix Nobel de physique en 2024
Le , il est lauréat du prix Nobel de physique avec le chercheur britanno-canadien Geoffrey Hinton pour « leur découvertes et interventions fondamentales qui permettent l'apprentissage automatique avec des réseaux de neurones artificiels »[9],[10]. « Les deux lauréats du prix Nobel de physique de cette année ont utilisé des outils de la physique pour développer des méthodes qui sont à la base des puissants systèmes d’apprentissage automatique d’aujourd’hui » indique le jury dans son communiqué[11],[12]. Pour l’Académie des sciences suédoise, John Joseph Hopfield a « inventé un réseau utilisant une méthode pour retenir et recréer des modèles » en s’inspirant du spin[13].
Hopfield, avec Hinton, a appelé à intensifier les recherches en sécurité de l'IA afin de mieux comprendre son fonctionnement interne, ses limites et ses risques, avant que ses capacités ne dépassent celles de l'humain et échappent à son contrôle[14].
Travaux
Dans sa thèse de doctorat de 1958, il a écrit sur l'interaction des excitons dans les cristaux, en introduisant le terme de polariton pour désigner une quasi-particule qui apparaît en physique du solide[15],[16]. Il a écrit : « Les « particules » du champ de polarisation analogues aux photons seront appelées « polaritons » »[16]. Son modèle de polariton est parfois connu sous le nom de diélectrique de Hopfield[17].
Le physicien de la matière condensée Philip Warren Anderson a rapporté que John Hopfield était son « collaborateur caché » pour ses travaux de 1961 à 1970 sur le modèle d'impureté d'Anderson qui expliquait l'effet Kondo. Hopfield n'a pas été inclus comme co-auteur des articles, mais Anderson a reconnu l'importance de la contribution de Hopfield dans divers écrits[18].
En 1974, il a introduit un mécanisme de correction d'erreurs dans les réactions biochimiques, connu sous le nom de relecture cinétique, pour expliquer la précision de la réplication de l'ADN[19],[20].
Hopfield a publié son premier article en neurosciences en 1982, intitulé « Neural networks and physical systems with emergent collective computational abilities ». Il y a présenté ce qui est maintenant connu sous le nom de réseau de Hopfield, un type de réseau de neurones artificiels qui peut servir de mémoire adressable par contenu, composé de neurones binaires qui peuvent être activés ou désactivés[21],[2]. Hopfield a déclaré que l'inspiration lui était venue de ses connaissances sur les verres de spin acquises lors de ses collaborations avec Philip Warren Anderson[22].
Avec David W. Tank, Hopfield a développé une méthode en 1985–1986[23],[24] pour résoudre des problèmes d'optimisation discrète en se basant sur la dynamique en temps continu et en utilisant un réseau de Hopfield avec une fonction d'activation continue. Le problème d'optimisation était encodé dans les paramètres d'interaction (poids) du réseau. La température effective du système analogique était progressivement réduite, comme dans l'optimisation globale par recuit simulé[25].
Les réseaux de Hopfield originaux avaient une mémoire limitée, un problème qui a été résolu par Hopfield et Dimitry Krotov en 2016[25],[26]. Les réseaux de Hopfield à grande capacité de stockage sont maintenant connus sous le nom de réseaux de Hopfield modernes[27].
1969 : prix Oliver-E.-Buckley avec David Gilbert Thomas « pour leur travail conjoint alliant théorie et expérience, qui a fait progresser la compréhension de l'interaction de la lumière avec les solides »[6]
↑ a et b(en) Grace Lindsay, Models of the Mind: How Physics, Engineering and Mathematics Have Shaped Our Understanding of the Brain, Bloomsbury Publishing, (ISBN978-1-4729-6645-2, lire en ligne), p. 90
↑(en) J. J. Hopfield, « Kinetic Proofreading: A New Mechanism for Reducing Errors in Biosynthetic Processes Requiring High Specificity », Proceedings of the National Academy of Sciences of the United States of America, vol. 71, no 10, , p. 4135–4139 (ISSN0027-8424, PMID4530290, lire en ligne, consulté le )
↑(en) « Nobel winner John Hopfield warns of ‘catastrophe’ if AI advances are not ‘controlled’ », Hindustan Times, (lire en ligne)
↑(en) J. J. Hopfield, « Theory of the Contribution of Excitons to the Complex Dielectric Constant of Crystals », Physical Review, vol. 112, no 5, , p. 1555–1567 (ISSN0031-899X, DOI10.1103/PhysRev.112.1555, lire en ligne, consulté le )
↑(en) Andrew Zangwill, A Mind Over Matter: Philip Anderson and the Physics of the Very Many, Oxford University Press, (ISBN978-0-19-264055-0, lire en ligne)
↑(en) Henrik Flyvbjerg, Frank Jülicher, Pal Ormos et Francois David, Physics of Bio-Molecules and Cells: Les Houches Session LXXV, 2-27 July 2001, Springer Science & Business Media, (ISBN978-3-540-45701-5, lire en ligne)
↑(en) J J Hopfield, « Neural networks and physical systems with emergent collective computational abilities. », Proceedings of the National Academy of Sciences of the United States of America, vol. 79, no 8, , p. 2554–2558 (ISSN0027-8424, PMID6953413, lire en ligne, consulté le )
↑(en) J. J. Hopfield et D. W. Tank, « “Neural” computation of decisions in optimization problems », Biological Cybernetics, vol. 52, no 3, , p. 141–152 (ISSN1432-0770, DOI10.1007/BF00339943, lire en ligne, consulté le )
↑(en) Dmitry Krotov et John J. Hopfield, « Dense Associative Memory for Pattern Recognition », Advances in Neural Information Processing Systems, Curran Associates, Inc., vol. 29, (lire en ligne, consulté le )
↑(en) Michael J. Kahana et Anthony D. Wagner, The Oxford Handbook of Human Memory, Two Volume Pack: Foundations and Applications, Oxford University Press, (ISBN978-0-19-774614-1, lire en ligne)