Future of Humanity Institute

aus Wikipedia, der freien Enzyklopädie
Logo des Future of Humanity Institute

Das Future of Humanity Institute (FHI) ist ein interdisziplinäres Forschungszentrum an der University of Oxford, das sich mit den großen Fragen der Menschheit und ihren zukünftigen Perspektiven und Risiken beschäftigt. Es wurde 2005 als Teil der Philosophischen Fakultät der Universität und der Oxford Martin School gegründet. Sein Direktor ist der schwedische Philosoph Nick Bostrom, und zu seinen wissenschaftlichen Mitarbeitern und Partnern gehören der Futurist Anders Sandberg, der Ingenieur K. Eric Drexler, der Wirtschaftswissenschaftler Robin Hanson und der australische Philosoph Toby Ord.[1]

Das Institut teilt sich ein Büro und arbeitet eng mit dem Centre for Effective Altruism zusammen. Erklärtes Ziel des Instituts ist es, die Forschung dort zu konzentrieren, wo sie langfristig den größten positiven Nutzen für die Menschheit bewirken kann und Lösungsansätze für existenzielle Risiken und Probleme zu finden. Zu den Tätigkeiten des Instituts gehören Forschung, Öffentlichkeitsarbeit und Beratung.[2]

Überblick

Nick Bostrom gründete das Institut im November 2005 als Teil der Oxford Martin School, damals James Martin 21st Century School. Das Institut wurde mehr als 5000 mal in verschiedenen Medien erwähnt und hat bereits das Weltwirtschaftsforum, die Weltgesundheitsorganisation und verschiedene Regierungen und Regierungseinrichtungen (Vereinigte Staaten, Singapur, Vereinigtes Königreich) beraten.[3]

Ein großes Thema, mit dem sich das FHI beschäftigt, ist das Risiko globaler Katastrophen und sonstige existenzielle Risiken. In einem Aufsatz aus dem Jahr 2002 definierte Bostrom ein "existenzielles Risiko" als eines, "bei dem ein ungünstiger Ausgang intelligentes Leben, das von der Erde ausgeht, entweder auslöschen oder sein Potenzial dauerhaft und drastisch einschränken würde". Dies schließt Szenarien ein, in denen die Menschheit zwar nicht direkt geschädigt wird, es ihr aber nicht gelingt, den Weltraum zu kolonisieren und die verfügbaren Ressourcen des beobachtbaren Universums für menschlich wertvolle Projekte zu nutzen.[4]

Die Gefahr synthetischer Pandemien durch biologische Waffen werden vom FHI beobachtet. Zu den weiteren Risikokategorien, an denen das Institut besonders interessiert ist, gehören der anthropogene Klimawandel, die nukleare Kriegsführung zwischen Staaten, möglicher Terrorismus mit Kernwaffen, die molekulare Nanotechnologie und allgemeine künstliche Intelligenz. In der Erwartung, dass die größten Risiken von zukünftigen Technologien und insbesondere von fortgeschrittener künstlicher Intelligenz ausgehen werden. FHI-Forscher haben auch die Auswirkungen des technologischen Fortschritts auf soziale und institutionelle Risiken untersucht, wie z. B. Totalitarismus oder durch technologische Automatisierung ausgelöste Arbeitslosigkeit.[5]

Weitere Themen, mit denen sich das Institut beschäftigt, sind das Anthropische Prinzip, das Doomsday-Argument, das Fermi-Paradoxon und die mögliche Veränderung des Menschen durch Gentherapie, Lebensverlängerung, Gehirnimplantate und Mind uploading.

Weblink

Einzelnachweise

  1. Future of Humanity Institute - FHI: Future of Humanity Institute. Abgerufen am 29. Juni 2021 (britisches Englisch).
  2. About. Abgerufen am 29. Juni 2021 (englisch).
  3. Achievements Report: 2008-2010. 21. Dezember 2012, abgerufen am 29. Juni 2021.
  4. Existential Risks. Abgerufen am 29. Juni 2021.
  5. Cambridge University study centre focuses on risks that could annihilate mankind. 16. März 2014, abgerufen am 29. Juni 2021 (englisch).