Geoffrey Hinton

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Geoffrey Hinton spricht 2024 in Toronto

Geoffrey Everest Hinton, CC FRS FRSC (* 6. Dezember 1947 in Wimbledon, Vereinigtes Königreich) ist ein britisch-kanadischer Informatiker und Kognitionspsychologe, der vor allem für seine Beiträge zur Theorie künstlicher neuronaler Netze bekannt ist. Im Jahr 2024 wurde ihm der Nobelpreis für Physik zugesprochen.

Geoffrey Hinton wurde als Sohn des Insektenkundlers Howard Hinton (1912–1977) und als Ururenkel des Logikers George Boole und der Mathematikerin Mary Everest Boole geboren. Sein Urururgroßonkel war der Landvermesser George Everest, nach dem er den Namen Everest trägt.[1][2]

Er besuchte als Atheist eine christliche Schule.[3] Angetrieben durch sein Vorhaben, den menschlichen Verstand zu begreifen, studierte er von 1967 bis 1970 Experimentalpsychologie an der Universität Cambridge (England), wechselte jedoch aus Unzufriedenheit mit den Lehrinhalten zwischenzeitlich zur Physiologie und Philosophie. Auch von diesen Disziplinen enttäuscht, beendete er schließlich doch sein Studium mit einem Abschluss in Psychologie. Erst als Doktorand wurden seine Studien der damals unpopulären neuronalen Netze von seinen Betreuern toleriert. Hinton war fest davon überzeugt, dass neuronale Systeme für die Erklärung und Nachbildung von Intelligenz hinreichend und notwendig seien. Im Jahre 1978 erhielt er seinen PhD in Künstlicher Intelligenz von der Universität Edinburgh (Schottland).[4]

Nach Aufenthalten an der Universität Sussex (England), der University of California, San Diego (USA) und der Carnegie-Mellon Universität (Pittsburgh, USA) wurde er 1987 Professor am Computer Science Department der Universität Toronto (Kanada). Von 1998 bis 2001 entstand unter seiner Leitung die Gatsby Computational Neuroscience Unit am University College London, seitdem arbeitet er weiter als Professor an der Universität Toronto, seit 2014 als University Professor Emeritus.[5]

Im Jahr 2012 verkaufte Hinton sein damaliges Start-up und seine eigene Arbeitskraft für 44 Millionen US-Dollar an Google, wo er neben seiner Arbeit an der Universität Toronto bis April 2023 als Vizepräsident und Engineering Fellow blieb.[5][6][7] Seine Kündigung bei Google im Jahr 2023 begründete er mit dem Anliegen, offen über das existenzielle Risiko durch künstliche Intelligenz und weitere Risiken der Künstlichen Intelligenz sprechen zu können.[6][8]

Geoffrey Hinton untersucht die Anwendung von künstlichen neuronalen Netzen in den Bereichen Lernen, Gedächtnis, Wahrnehmung und Symbolverarbeitung. Er gehörte zu den Wissenschaftlern, die den Backpropagation-Algorithmus einführten (in einem Nature-Aufsatz von 1986 mit David Rumelhart und Ronald J. Williams) und entwickelte unter anderem die Konzepte der Boltzmann-Maschine und der Helmholtz-Maschine. Leicht verständliche Einführungen in seine wissenschaftliche Arbeit finden sich in seinen Artikeln im Scientific American von 1992 und 1993.

Ansichten zu Risiken der künstlichen Intelligenz

[Bearbeiten | Quelltext bearbeiten]

Im Jahr 2023 äußerte sich Hinton besorgt über den raschen Fortschritt der KI.[9][8] Zuvor war Hinton der Meinung, dass die allgemeine künstliche Intelligenz (AGI) noch „30 bis 50 Jahre oder sogar noch länger entfernt“ sei.[8] In einem Interview mit CBS im März 2023 erklärte er jedoch, dass die „allgemeine KI“ weniger als 20 Jahre entfernt sein könnte und Veränderungen bewirken könnte, „die in ihrem Ausmaß mit der industriellen Revolution oder der Elektrizität vergleichbar sind“.[9]

In einem Interview mit der New York Times, das am 1. Mai 2023 veröffentlicht wurde,[8] kündigte Hinton seinen Rücktritt von Google an, „damit er über die Gefahren der KI sprechen kann, ohne zu bedenken, wie sich dies auf Google auswirkt.“[10] Er merkte an, dass „ein Teil von ihm jetzt sein Lebenswerk bereut“ aufgrund seiner Bedenken und er äußerte Befürchtungen über einen Wettlauf zwischen Google und Microsoft.[8] Anfang Mai 2023 erklärte Hinton in einem Interview mit der BBC, dass die KI bald die Informationskapazität des menschlichen Gehirns übertreffen könnte. Einige der von diesen Chatbots ausgehenden Risiken bezeichnete er als „ziemlich beängstigend“. Hinton erklärte, dass Chatbots die Fähigkeit haben, selbstständig zu lernen und Wissen zu teilen. Das bedeutet, dass jedes Mal, wenn ein Exemplar neue Informationen erhält, diese automatisch an die gesamte Gruppe weitergegeben werden. Dadurch sind KI-Chatbots in der Lage, Wissen anzuhäufen, das weit über die Fähigkeiten eines Einzelnen hinausgeht.[11]

Hintons Sorge gilt vor allem einer KI, die mit der Möglichkeit ausgestattet ist, eigene Teilziele zu definieren, da bestimmte Teilziele – zum Beispiel mehr Energie, eine höhere Replikation oder mehr Kontrolle – zu größerem Erfolg führen würden und somit bevorzugt würden. Eine solche KI könnte leicht außer Kontrolle geraten.[12][13]

Mitgliedschaften

[Bearbeiten | Quelltext bearbeiten]
  • Dana H. Ballard, Geoffrey E. Hinton, Terrence J. Sejnowski: Parallel visual computation. In: Nature. Band 306, Nr. 5938, November 1983, ISSN 0028-0836, S. 21–26, doi:10.1038/306021a0.
  • G. E. Hinton, T. J. Sejnowski, D. H. Ackley: Boltzmann machines: Constraint satisfaction networks that learn. Carnegie-Mellon University, Department of Computer Science, Pittsburgh, PA 1984.
  • David E. Rumelhart, Geoffrey E. Hinton, Ronald J. Williams: Learning representations by back-propagating errors. In: Nature. Band 323, Nr. 6088, Oktober 1986, ISSN 0028-0836, S. 533–536, doi:10.1038/323533a0.
  • Geoffrey E. Hinton: How Neural Networks Learn from Experience. In: Scientific American Special Issue: Mind And Brain. Band 267, Nr. 3, September 1992, S. 144–151, JSTOR:24939221.
  • Geoffrey E. Hinton, David C. Plaut, Tim Shallice: Simulating Brain Damage. In: Scientific American. Band 269, Nr. 4, Oktober 1993, S. 76–82, JSTOR:24941651.
  • G. E. Hinton, R. R. Salakhutdinov: Reducing the Dimensionality of Data with Neural Networks. In: Science. Band 313, Nr. 5786, 28. Juli 2006, ISSN 0036-8075, S. 504–507, doi:10.1126/science.1127647.
  • G. Hinton: Learning multiple layers of representation. In: Trends in Cognitive Science. Band 11, Nr. 10, 2007, S. 428–434.
  • Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton: ImageNet classification with deep convolutional neural networks. In: Proceedings of the 25th International Conference on Neural Information Processing Systems - Volume 1 (= NIPS'12). Curran Associates Inc., Red Hook, NY, USA 3. Dezember 2012, S. 1097–1105, doi:10.5555/2999134.2999257.
  • Yann LeCun, Yoshua Bengio, Geoffrey Hinton: Deep learning. In: Nature. Band 521, Nr. 7553, 28. Mai 2015, ISSN 0028-0836, S. 436–444, doi:10.1038/nature14539.

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. http://www.cse.buffalo.edu/~rapaport/111F04/boole.html
  2. Ruth Fulterer: Pate der künstlichen Intelligenz: Geoffrey Hintons Weg zum Nobelpreis. In: Neue Zürcher Zeitung. 8. Oktober 2024, ISSN 0376-6829 (nzz.ch [abgerufen am 9. Oktober 2024]).
  3. Archivierte Kopie (Memento vom 20. Juni 2015 im Internet Archive)
  4. Kate Allen: How a Toronto professor’s research revolutionized artificial intelligence. In: Toronto Star. 17. April 2015, abgerufen am 8. Oktober 2024 (englisch).
  5. a b Geoffrey E. Hinton: Curriculum Vitae. 4. Juli 2024, abgerufen am 8. Oktober 2024 (englisch).
  6. a b Patrick Beuth: KI-Pionier Geoffrey Hinton warnt vor seiner eigenen Schöpfung. In: Der Spiegel. 2. Mai 2023, abgerufen am 2. Mai 2023.
  7. Wired: Google Hires Brains that Helped Supercharge Machine Learning
  8. a b c d e Cade Metz: ‘The Godfather of A.I.’ Leaves Google and Warns of Danger Ahead. In: The New York Times. 1. Mai 2023, abgerufen am 18. März 2024 (englisch).
  9. a b "Godfather of artificial intelligence" talks impact and potential of new AI. In: CBS News. Abgerufen am 18. März 2024 (englisch).
  10. Hinton, Geoffrey [@geoffreyhinton] (1 May 2023).: Tweet. Abgerufen am 18. März 2024 (englisch).
  11. AI 'godfather' Geoffrey Hinton warns of dangers as he quits Google. In: BBC. 2. Mai 2023, abgerufen am 18. März 2024 (englisch).
  12. Geoffrey Hinton im Interview mit Sara Brown: Why neural net pioneer Geoffrey Hinton is sounding the alarm on AI. In: mitsloan.mit.edu. MIT Sloan School of Management, 23. Mai 2023, abgerufen am 13. Oktober 2024 (englisch): „I think it’ll very quickly realize that getting more control is a very good subgoal because it helps you achieve other goals. And if these things get carried away with getting more control, we’re in trouble.“
  13. Geoffrey Hinton im Interview mit Will Douglas Heaven: Geoffrey Hinton tells us why he’s now scared of the tech he helped build. 2. Mai 2023, abgerufen am 13. Oktober 2024 (englisch): „Well, here’s a subgoal that almost always helps in biology: get more energy. So the first thing that could happen is these robots are going to say, ‘Let’s get more power. Let’s reroute all the electricity to my chips.’ Another great subgoal would be to make more copies of yourself. Does that sound good?“
  14. James Vincent: ‘Godfathers of AI’ honored with Turing Award, the Nobel Prize of computing. In: The Verge. 27. März 2019, abgerufen am 8. Oktober 2024 (englisch).
  15. Stefan Betschon: Ehre für die «Deep Learning Mafia». In: Neue Zürcher Zeitung. 4. April 2019, abgerufen am 8. Oktober 2024.
  16. Prinzessin-von-Asturien-Preis 2022
  17. Physik-Nobelpreis an KI-Grundlagenforscher Hinton und Hopfield. In: faz.net. 8. Oktober 2024, abgerufen am 8. Oktober 2024.