Er besuchte als Atheist eine christliche Schule.[3] Angetrieben durch sein Vorhaben, den menschlichen Verstand zu begreifen, studierte er von 1967 bis 1970 Experimentalpsychologie an der Universität Cambridge (England), wechselte jedoch aus Unzufriedenheit mit den Lehrinhalten zwischenzeitlich zur Physiologie und Philosophie. Auch von diesen Disziplinen enttäuscht, beendete er schließlich doch sein Studium mit einem Abschluss in Psychologie. Erst als Doktorand wurden seine Studien der damals unpopulären neuronalen Netze von seinen Betreuern toleriert. Hinton war fest davon überzeugt, dass neuronale Systeme für die Erklärung und Nachbildung von Intelligenz hinreichend und notwendig seien. Im Jahre 1978 erhielt er seinen PhD in Künstlicher Intelligenz von der Universität Edinburgh (Schottland).[4]
Im Jahr 2012 verkaufte Hinton sein damaliges Start-up und seine eigene Arbeitskraft für 44 Millionen US-Dollar an Google, wo er neben seiner Arbeit an der Universität Toronto bis April 2023 als Vizepräsident und Engineering Fellow blieb.[5][6][7] Seine Kündigung bei Google im Jahr 2023 begründete er mit dem Anliegen, offen über das existenzielle Risiko durch künstliche Intelligenz und weitere Risiken der Künstlichen Intelligenz sprechen zu können.[6][8]
Im Jahr 2023 äußerte sich Hinton besorgt über den raschen Fortschritt der KI.[9][8] Zuvor war Hinton der Meinung, dass die allgemeine künstliche Intelligenz (AGI) noch „30 bis 50 Jahre oder sogar noch länger entfernt“ sei.[8] In einem Interview mit CBS im März 2023 erklärte er jedoch, dass die „allgemeine KI“ weniger als 20 Jahre entfernt sein könnte und Veränderungen bewirken könnte, „die in ihrem Ausmaß mit der industriellen Revolution oder der Elektrizität vergleichbar sind“.[9]
In einem Interview mit der New York Times, das am 1. Mai 2023 veröffentlicht wurde,[8] kündigte Hinton seinen Rücktritt von Google an, „damit er über die Gefahren der KI sprechen kann, ohne zu bedenken, wie sich dies auf Google auswirkt.“[10] Er merkte an, dass „ein Teil von ihm jetzt sein Lebenswerk bereut“ aufgrund seiner Bedenken und er äußerte Befürchtungen über einen Wettlauf zwischen Google und Microsoft.[8] Anfang Mai 2023 erklärte Hinton in einem Interview mit der BBC, dass die KI bald die Informationskapazität des menschlichen Gehirns übertreffen könnte. Einige der von diesen Chatbots ausgehenden Risiken bezeichnete er als „ziemlich beängstigend“. Hinton erklärte, dass Chatbots die Fähigkeit haben, selbstständig zu lernen und Wissen zu teilen. Das bedeutet, dass jedes Mal, wenn ein Exemplar neue Informationen erhält, diese automatisch an die gesamte Gruppe weitergegeben werden. Dadurch sind KI-Chatbots in der Lage, Wissen anzuhäufen, das weit über die Fähigkeiten eines Einzelnen hinausgeht.[11]
Hintons Sorge gilt vor allem einer KI, die mit der Möglichkeit ausgestattet ist, eigene Teilziele zu definieren, da bestimmte Teilziele – zum Beispiel mehr Energie, eine höhere Replikation oder mehr Kontrolle – zu größerem Erfolg führen würden und somit bevorzugt würden. Eine solche KI könnte leicht außer Kontrolle geraten.[12][13]
Ehrungen
2001 Rumelhart-Preis für „theoretische Beiträge in den Grundlagen menschlicher Erkenntnis“
G. E. Hinton, T. J. Sejnowski, D. H. Ackley: Boltzmann machines: Constraint satisfaction networks that learn. Carnegie-Mellon University, Department of Computer Science, Pittsburgh, PA 1984.
David E. Rumelhart, Geoffrey E. Hinton, Ronald J. Williams: Learning representations by back-propagating errors. In: Nature. Band323, Nr.6088, Oktober 1986, ISSN0028-0836, S.533–536, doi:10.1038/323533a0.
Geoffrey E. Hinton: How Neural Networks Learn from Experience. In: Scientific American Special Issue: Mind And Brain. Band267, Nr.3, September 1992, S.144–151, JSTOR:24939221.
Geoffrey E. Hinton, David C. Plaut, Tim Shallice: Simulating Brain Damage. In: Scientific American. Band269, Nr.4, Oktober 1993, S.76–82, JSTOR:24941651.
G. E. Hinton, R. R. Salakhutdinov: Reducing the Dimensionality of Data with Neural Networks. In: Science. Band313, Nr.5786, 28. Juli 2006, ISSN0036-8075, S.504–507, doi:10.1126/science.1127647.
G. Hinton: Learning multiple layers of representation. In: Trends in Cognitive Science. Band 11, Nr. 10, 2007, S. 428–434.
Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton: ImageNet classification with deep convolutional neural networks. In: Proceedings of the 25th International Conference on Neural Information Processing Systems - Volume 1 (= NIPS'12). Curran Associates Inc., Red Hook, NY, USA 3. Dezember 2012, S.1097–1105, doi:10.5555/2999134.2999257.
Yann LeCun, Yoshua Bengio, Geoffrey Hinton: Deep learning. In: Nature. Band521, Nr.7553, 28. Mai 2015, ISSN0028-0836, S.436–444, doi:10.1038/nature14539.
↑Ruth Fulterer: Pate der künstlichen Intelligenz: Geoffrey Hintons Weg zum Nobelpreis. In: Neue Zürcher Zeitung. 8. Oktober 2024, ISSN0376-6829 (nzz.ch [abgerufen am 9. Oktober 2024]).
↑Geoffrey Hinton im Interview mit Sara Brown: Why neural net pioneer Geoffrey Hinton is sounding the alarm on AI. In: mitsloan.mit.edu. MIT Sloan School of Management, 23. Mai 2023, abgerufen am 13. Oktober 2024 (englisch): „I think it’ll very quickly realize that getting more control is a very good subgoal because it helps you achieve other goals. And if these things get carried away with getting more control, we’re in trouble.“
↑Geoffrey Hinton im Interview mit Will Douglas Heaven: Geoffrey Hinton tells us why he’s now scared of the tech he helped build. 2. Mai 2023, abgerufen am 13. Oktober 2024 (englisch): „Well, here’s a subgoal that almost always helps in biology: get more energy. So the first thing that could happen is these robots are going to say, ‘Let’s get more power. Let’s reroute all the electricity to my chips.’ Another great subgoal would be to make more copies of yourself. Does that sound good?“