Concilium

Benedikt Paul Göcke

« Die Ideale der Menschheit im Lichte von synthetischer Biologie und künstlicher Intelligenz »

Linda Hogan, João J. Vila Chã, Michelle Becka

Concilium 2019-3. Technologie – Fluch oder Segen?
Concilium 2019-3. Technology: between Apocalypse and Integration
Concilium 2019-3. Tecnología?
Concilium 2019-3. Tecnologia: tra apocalisse e integrazione
Concilium 2019-3. Technologie: entre apocalypse et intégration
Concilium 2019-3. Tecnologia: entre o apocalipse e a integração


1. Das Potential künstlicher Intelligenz und synthetischer Biologie

Die Entwicklungen der theoretischen und praktischen Wissenschaften haben in den vergangenen Jahrzehnten zu Erkenntnissen geführt, die es uns zum ersten Mal in der Geschichte der Menschheit ermöglichen, nicht nur das individuelle und gesellschaftliche Leben durch den Einsatz künstlicher Intelligenz auf eine bis dato ungesehene Art und Weise zu gestalten, sondern darüber hinaus auch den Körper des Menschen sowie seine Umwelt aufgrund der neuen Erkenntnisse der Naturwissenschaften, besonders derjenigen der synthetischen Biologie, genetisch und kybernetisch zu verändern.[1]

1.1. Das Potential künstlicher Intelligenz

Um zu verstehen, warum künstliche Intelligenz über das Potential zur radikalen Umgestaltung des individuellen und gesellschaftlichen Lebens verfügt, muss zunächst der Begriff der künstlichen Intelligenz skizziert werden. Eine künstliche Intelligenz ist eine virtuelle Maschine, deren Existenz das Produkt menschlicher Kunstfertigkeit ist. Wie jede andere Maschine werden künstliche Intelligenzen entwickelt, um eine bestimmte Aufgabe zu erfüllen: „Künstliche Intelligenz ist ein Teil der Computerwissenschaft und wie in jeder Ingenieurswissenschaft ist es unser Ziel, nützliche Maschinen zu bauen.“[2] Der Unterschied zu klassischen Maschinen wie einer Lokomotive besteht darin, dass sie die Aufgaben, für die sie konstruiert sind, auf eine Art und Weise lösen, die im Falle des Menschen Bewusstsein und Intelligenz voraussetzen würde. Versteht man Intelligenz als die Fähigkeit, komplexe Ziele eigenständig zu erreichen, beschreibt künstliche Intelligenz daher eine vom Menschen entwickelte virtuelle Maschine, die eigenständig komplexe Ziele erreichen kann.[3]

Um eine solche virtuelle Maschine zu entwickeln, muss zunächst das Ziel festgelegt werden, das die künstliche Intelligenz erreichen soll. Dies geschieht in der sogenannten computational theory, die eine abstrakte Definition der Aufgabe der künstlichen Intelligenz vorgibt, die beispielsweise darin bestehen kann, individuelle Gesichter zu erkennen oder einen Roboter eigenständig durch einen Hindernisparcours zu steuern. Nachdem das Ziel festgelegt worden ist, muss geregelt werden, wie der für die Aufgabe relevante Input identifiziert und in eine maschinenlesbare Sprache übersetzt werden kann. Je nach Aufgabe muss der Output der künstlichen Intelligenz in eine Sprache rückübersetzt werden, die es ihr ermöglicht, ihre Aufgabe zu erfüllen. Dies geschieht in der representational theory. Anhand von Algorithmen generiert die virtuelle Maschine, wie jedes Computerprogramm, einen spezifischen Output auf der Basis eines bestimmten Inputs. Es müssen also Algorithmen definiert werden, anhand derer die künstliche Intelligenz ihre Aufgabe erfüllt.[4] Die Algorithmen sind somit das Herzstück einer jeden künstlichen Intelligenz. Schlussendlich muss geregelt werden, wie und auf welcher physikalischen Hardware die virtuelle Maschine implementiert werden soll.[5]

In der Forschung lassen sich verschiedene Ansätze identifizieren, wie Computerprogramme anhand des genannten Schemas entwickelt und dazu gebracht werden können, komplexe Ziele eigenständig zu erreichen: Neben den sogenannten Expertensystemen, die unter Rückgriff auf ihre Datenbanken mithilfe logischer Schlussregeln auf einen spezifischen Input einen genau bestimmten Output generieren, und neben evolutionären Verfahren der Identifizierung der für eine Aufgabe geeigneten Algorithmen, finden sich Ansätze, die virtuelle Maschinen konstruieren, die an die Funktionsweise des menschlichen Gehirns angelehnt sind und daher als künstliche neuronale Netzwerke bezeichnet werden. 

Die Unterschiede zwischen den einzelnen Ansätzen betreffen im Wesentlichen das Verfahren, mit denen der für die Aufgabe der künstlichen Intelligenz notwendige Input systemimmanent verarbeitet wird, und damit das Verfahren, wie der Output generiert wird: Künstliche neuronale Netzwerke operieren häufig mit Wahrscheinlichkeiten und kommen daher auf andere Art und Weise zu ihren Ergebnisse als regelbasierte Expertensysteme, woraus folgt, dass künstliche neuronale Netzwerke in der Regel für andere Aufgaben geeignet sind als Expertensysteme.[6]

Das Gemeinsame der unterschiedlichen Ansätze der KI-Forschung besteht darin, dass sie prinzipiell in der Lage sind, eine für das Erreichen komplexer Ziele notwendige Fähigkeit zu implementieren: die Fähigkeit, aus vergangenem Verhalten zu lernen. Das langfristige Ziel der KI-Forschung besteht vor diesem Hintergrund darin, künstliche Intelligenz zu entwickeln, die lernt, sich nicht nur völlig eigenständig in der Welt zu bewegen, sondern von den Menschen auch als eigenständig denkendes Wesen wahrgenommen wird. Wie Rodney A. Brooks es beschreibt, besteht das Ziel der KI-Forschung darin „vollständig autonome mobile Agenten zu bauen, die in der Welt mit den Menschen koexistieren und von diesen als intelligente Wesen eigener Art wahrgenommen werden.“[7]

Die Idee lernfähiger Maschinen wurde bereits von Alan Turing in den 50er Jahren des letzten Jahrhunderts diskutiert und ist seitdem trotz einiger Rückschläge immer wieder diskutiert und weiterentwickelt worden.[8] Doch wesentliche Fortschritte der Lernfähigkeit von virtuellen Maschinen, die unter dem Namen machine learning diskutiert wird, konnten erst in den letzten Jahrzehnten erreicht werden. Sie ist zurückzuführen auf die verbesserte Leistungsfähigkeit der zur Verfügung stehenden Prozessoren und der für einige Formen maschinellen Lernens notwendigen großen Datenmengen – big data –, die durch die sich steigernde Vernetzung der Menschheit und durch den steigenden Gebrauch ‚smarter‘ Technologien in Hülle und Fülle geliefert werden. 

Es gibt mindestens drei aus der Entwicklungspsychologie bekannte Arten, wie eine künstliche Intelligenz lernen kann, ihre Aufgabe anhand vorgegebener Parameter bis zum Erreichen ihrer maximalen Leistungsfähigkeit immer besser zu erfüllen: das überwachte, das unüberwachte und das verstärkende Lernen. Im überwachten Lernen werden der künstlichen Intelligenz positive Beispiele für den anzustrebenden Output und kontinuierliches Feedback darüber gegeben, ob die künstliche Intelligenz ihre Aufgabe erfüllt hat. Wenn beispielsweise die Aufgabe darin besteht, Fahrräder zu erkennen, dann werden ihr zunächst Bilder von Fahrrädern gezeigt mit der Information, dass auf den gezeigten Bildern Fahrräder zu sehen sind, bevor die künstliche Intelligenz eigenständig neue Bilder daraufhin überprüft, ob auf ihnen Fahrräder abgebildet sind. Durch kontinuierliches menschliches Feedback wird dann der Erkennungsprozess immer weiter optimiert.

Im unüberwachten Lernen wird kein anzustrebender Output vorgegeben und die Aufgabe der künstlichen Intelligenz wird basierend auf optimistischer Metainduktion nur so weit spezifiziert, dass unterschiedliche Merkmale des Inputs, die in der Vergangenheit gemeinsam aufgetreten sind, auch in Zukunft gemeinsam auftreten werden. Der primäre Zweck unüberwachten maschinellen Lernens besteht also darin, dass die künstliche Intelligenz Korrelationen in der ihr zur Verfügung gestellten Datenmenge erkennt und eine Wahrscheinlichkeit dafür angibt, dass ein bestimmtes Merkmal dieser Datenmenge mit einem bestimmten anderen Merkmal korreliert. So kann eine künstliche Intelligenz – vorausgesetzt sie hat Zugriff auf die notwendigen Daten – beispielsweise basierend auf dem Einkaufsverhalten einer Frau die Wahrscheinlichkeit angeben, dass diese Frau schwanger ist, wenn in der Vergangenheit schwangere Frauen das gleiche Einkaufsverhalten zeigten. 

Das verstärkende Lernen wiederum gibt der künstlichen Intelligenz zunächst die Anweisung, negatives Feedback zu vermeiden und positives Feedback anzustreben, und beurteilt dann die Leistungen des Systems durch positives und negatives Feedback, um auf diese Weise die virtuelle Maschine zu trainieren, ihre Aufgabe optimal zu erfüllen. Durch verstärkendes Lernen kann künstliche Intelligenz beispielsweise in die Lage versetzt werden, bestimmte Bewegungsabläufe einzuüben, die für die Erfüllung ihrer Aufgabe notwendig oder hinreichend sind.

Es ist die Lernfähigkeit der künstlichen Intelligenz, welche sie von allen bisherigen Technologien unterscheidet und ihr enormes Potential zur Veränderung der Lebenswirklichkeit des Menschen konstituiert. Je nach Aufgabe kann eine lernfähige künstliche Intelligenz als virtuelle Maschine auf einem Computer implementiert und auf Datenanalyse spezialisiert sein oder in cyberphysischer Form als Steuerungseinheit die physikalischen Bewegungen einer Maschine übernehmen, die über Sensoren mit der Umwelt verbunden ist. Das prinzipielle Einsatzgebiet lernender künstlicher Intelligenz tangiert daher jeden Bereich individueller und gesellschaftlicher menschlicher Lebenswirklichkeit. Da lernfähige künstliche Intelligenz in der Lage ist, aufgrund großer Datenmengen und aufgrund parallel geschalteter Prozessoren in einer Geschwindigkeit zu lernen, die bei Weitem die Grenzen und Leistungsfähigkeit des Menschen übersteigt, können die potentiellen Auswirkungen dieser Technologie auf das individuelle und gesellschaftliche Leben kaum unterschätzt werden. 

1.2. Das Potential synthetischer Biologie

Die synthetische Biologie ist „ein neues Gebiet der Biologie im Grenzbereich zu Chemie, Informatik und Ingenieurswissenschaften mit dem Ziel, künstlich neuartige biologische Funktionen und Organismen zu erzeugen.“[9] Die Erforschung künstlicher Intelligenz ist primär auf das Entwickeln virtueller Maschinen gerichtet, die lernen können komplexe Aufgaben zu lösen, und die  diese Weise Einfluss nehmen auf das individuelle und gesellschaftliche Leben. Demgegenüber ermöglichen die Erkenntnisse der synthetischen Biologie, nicht nur den biologischen Körper des Menschen auf genetische und kybernetische Weise zu verändern, sondern sie stellen unter Verwendung geologischer und ökologischer Erkenntnisse im Prinzip auch Möglichkeiten an die Hand, die Umwelt des Menschen zielgerichtet im Rahmen des so-genannten geoengineerings zu verändern. 

Die Möglichkeiten der synthetischen Biologie unterscheiden sich, ähnlich den Möglichkeiten der künstlichen Intelligenz, radikal von bisherigen Technologien: Zum ersten Mal in der Geschichte der Menschheit kann die natürliche Evolution des Menschen und seine Umwelt jenseits kultureller und wirtschaftlicher Einflüsse zielgerichtet und nachhaltig auf biologischer Ebene verändert werden. Dadurch wird der weitere Verlauf der Entwicklung der Menschheit der bisherigen biologischen und kosmologischen Kontingenz entzogen und zu einem Gegenstand menschlicher Planung. 

Auf biologischer Ebene können wir durch pharmazeutische Produkte und durch den Einsatz moderner Gentechnologien körperliche und geistige Eigenschaften eines geborenen oder ungeborenen Individuums kurzzeitig oder permanent verändern. Und durch Eingriffe in die Keimbahn des Menschen mittels der „Genschere“ CRISPR-cas9 können wir, zumindest prinzipiell, das Erbgut des Menschen dauerhaft so verändern, dass die Änderungen an den natürlichen Nachwuchs weitergegeben werden. Jüngst wurden in China scheinbar die ersten beiden Menschen geboren, die durch den Einsatz moderner Gentechnologie nicht nur gegen das HI-Virus resistent sein sollen, sondern diese Resistenz auch an ihre Nachfahren weitergeben könnten. Auf kybernetischer Ebene können wir, zumindest prinzipiell, Prothesen konstruieren, die die Funktionen ihrer natürlichen Gegenstücke besser erfüllen als diese selbst. Und Nanosonden werden entwickelt, die in den Blutkreislauf eingeführt werden, um dort die Körperfunktionen zu unterstützen, und so zu einer erhöhten Resistenz gegen Krankheiten und Alterungsprozesse führen. Mittel- bis langfristig wird es auf diese Weise möglich sein, so eine oft gehörte Einschätzung, die natürlichen Funktionen des biologischen Körpers nicht nur zu unterstützen, sondern durch technologische Artefakte zu ersetzen. 

Das übergeordnete Ziel der Entwicklung der synthetischen Biologie und der mit ihr verschränkten Erforschung künstlicher Intelligenz sehen einige Forscherinnen und Forscher daher konsequenterweise darin, den biologischen Körper des Menschen vollständig zu transzendieren, um den Menschen in einen Cyborg zu transformieren. Dessen Bewusstsein, verstanden als eine Reihe verschiedener Algorithmen, könnte dann prinzipiell auch auf einem leistungsstarken Computer operieren. Durch das sogenannte mind uploading wäre es der Idee nach möglich, ein beinahe unbegrenztes Leben als Software auf einem Computer zu führen. Vorausgesetzt, dass es in der Tat möglich ist, individuelles menschliches Bewusstsein durch ein Computerprogramm zu generieren, hält es beispielsweise Kurzweil für möglich, dass im Jahr 2099 die Existenzform unserer Nachfahren diejenige einer virtuellen oder rein kybernetischen Existenz ist: „[Man wird sich] in einem oder mehreren virtuellen Körpern auf unterschiedlichen Ebenen der virtuellen Realität sowie in nanotechnisch hergestellten physischen Körpern [manifestieren], die sich aus in Sekundenbruchteilen rekonfigurierbaren Nanobot-Schwärmen zusammensetzen.“[10]

2. Zurück zur Geschichtsphilosophie!

Sowohl die Forschung im Bereich künstlicher Intelligenz als auch im Feld der synthetischen Biologie stellt der instrumentellen Vernunft Technologien an die Seite, die sich von den bisher entwickelten Technologien qualitativ unterscheiden: Maschinen, die eigenständig lernen können, ihre Aufgaben besser zu erfüllen, als ein Mensch es könnte, und die Möglichkeit, die menschliche Natur genetisch und kybernetisch als Designobjekt zu verstehen und entsprechend den eigenen Vorstellungen zu verändern, waren vor einigen Jahrzehnten außerhalb von Mythen, Märchen und Science-Fiction nicht denkbar. 

2.1. Chancen und Probleme der neuen Technologien

Obwohl sie sich qualitativ von bisherigen Technologien unterscheiden und eine neue Stufe der angewandten Wissenschaften konstituieren, haben künstliche Intelligenz und synthetische Biologie eines mit jeder anderen Technologie gemeinsam: sie können je nach Ideal für verschiedene Zwecke eingesetzt werden. Da es die neuen Technologien ermöglichen, das individuelle und gesellschaftliche Leben radikal und permanent zu verändern und von Grund auf neu zu gestalten, könnten sie daher sowohl zur größten Gefahr als auch zur größten Chance der weiteren Entwicklung der Menschheit werden. 

Die größten Gefahren künstlicher Intelligenz bestehen darin, dass wir moralisch relevante Entscheidungsprozesse einer künstlichen Intelligenz überlassen, die zu weitreichenden Schlussfolgerungen für das Leben des Individuums und der Gesellschaft gelangt, die der Mensch nicht nachvollziehen oder als moralisch falsch bezeichnen würde. Hier sind neben autonomen Waffensystemen primär die Gefahren einer auf big data gestützten Analyse des Lebens einzelner Menschen oder einzelner gesellschaftlicher Gruppen zu nennen. Die größte Gefahr der synthetischen Biologie besteht wiederum darin, dass wir den Menschen als reine Verfügungsmasse behandeln könnten und damit Gefahr laufen, gegen die unveräußerliche Würde des Menschen zu verstoßen: Wer weiß, wie er bestimmte Merkmale des Menschen genetisch verändern kann, der wird in der Regel auch wissen, wie er diese Merkmale auslöschen kann. 

Den genannten unmittelbaren Gefahren der neuen Technologien stehen die möglichen Chancen gegenüber: Mit Hilfe künstlicher Intelligenz könnten wir nicht nur die globale Gesellschaft so gestalten, dass niemand mehr gezwungen ist, zu arbeiten – Roboter können in Zukunft wohl die meisten menschlichen Arbeiten übernehmen[11] –, sondern wir könnten durch den gezielten Einsatz der Erkenntnisse der neuen Technologien dafür sorgen, dass jeder Mensch über eine möglichst lange Gesundheitsspanne verfügt und immun gegenüber tödlichen Krankheiten ist. Wir könnten also mit Hilfe der neuen Technologien im Geiste der sogenannten transhumanistischen Agenda dafür sorgen, dass jeder Mensch die Chance erhält, ein gutes Leben zu führen, das frei von äußeren Zwängen ist und jeden Menschen in die Lage versetzt, sich frei den eigenen Zwecken zu widmen. Stefan L. Sorgner argumentiert: „Transhumanisten teilen ausschließlich die inhaltlich ständig gemäß den neuesten philosophischen, naturwissenschaftlichen und technologischen Einsichten zu adaptierende Grundhaltung, dass der Gebrauch von Techniken in der Regel im menschlichen Interesse war und deshalb davon auszugehen ist, dass dies auch in Zukunft der Fall sein wird, und dass der angemessene Einsatz von Techniken auch die Wahrscheinlichkeit erhöht, die Grenzen des Menschseins zu erweitern, was in unserem Interesse wäre, da auf diese Weise auch die Wahrscheinlichkeit, ein gutes Leben zu führen, gefördert wird.“[12]

2.2. Was sollen wir tun? Zurück zur Geschichtsphilosophie!

Angesichts der möglichen Gefahren und Chancen stellt sich der Menschheit also dringender denn je die Frage, wie künstliche Intelligenz und synthetische Biologie philosophisch und theologisch verantwortungsvoll zur Gestaltung des zukünftigen individuellen und gesellschaftlichen Lebens des Menschen und der Menschheit verwendet werden sollten. Um diese Frage zu beantworten, müssen metaphysische, ethische und theologische Ideale spezifiziert und gerechtfertigt werden, anhand derer der Einsatz der neuen Technologien als Mittel, diese Ideale zu erreichen, normativ bewertet werden kann. Dies geschieht in der Geschichtsphilosophie und Geschichtstheologie.[13]

Im Unterschied zur empirisch arbeitenden Geschichtswissenschaft, die sich darauf beschränkt, die vergangene Historie der Menschheit aus den zur Verfügung stehenden Quellen zu rekonstruieren, geht es der Geschichtsphilosophie und -theologie um metaphysische und ethische Erkenntnisse darüber, woraufhin sich das Universum im Allgemeinen und die Menschheit im Besonderen entwickeln soll. Obwohl geschichtsphilosophische Theorien zu Zeiten der verifikationistischen Kritik an Metaphysik und Theologie und in Teilen einer konstruktivistischen Postmoderne als nicht länger tragbar erschienen, zeigt ein Blick in die gegenwärtigen Debatten schnell, dass in Bezug auf künstliche Intelligenz und synthetische Biologie zumindest implizit bereits wieder geschichtsphilosophisch und -theologisch argumentiert wird: Ein Großteil der Debatte zwischen Kritikern und Befürwortern der Verwendung der neuen Technologien ist im Kern nichts anderes als eine Neuauflage der geschichtsphilosophischen Debatten über das Wesen, die Stellung und die Zukunft der Menschheit in einem sich entwickelnden Universum, die anhand verschiedener Ideale der Protagonistinnen und Protagonisten geführt wird.[14]

Um den Chancen und Gefahren der neuen Technologien verantwortungsvoll zu begegnen, wird es auf Dauer nicht reichen, ihren Einsatz auf politischer Ebene nur negativ zu reglementieren, da dadurch die weitere Entwicklung der Menschheit wohl nicht hinreichend gesteuert werden kann. Ein verantworteter Gebrauch wird langfristig vielmehr nur dann möglich sein, wenn wir wieder Debatten über das große Ganze der Stellung und Entwicklung des Menschen im Universum führen, alte philosophisch-theologische Fragen nach dem guten und gelingenden Leben neu stellen und dadurch die Ideale spezifizieren, die bestimmen, welcher Gebrauch der Technologien dem Erreichen dieser Ideale der Menschheit zuträglich ist, und welcher nicht. Tun wir dies nicht, dann nehmen wir uns die Möglichkeit, ihren Gebrauch überhaupt sinnvoll regeln zu können.[15] Der Weg vorwärts ist daher auch ein Weg zurück zur Geschichtsphilosophie.


Notes

[1] Vgl. Benedikt Paul Göcke, Frank Meier-Hamidi (Hg), Designobjekt Mensch. Der Transhumanismus auf dem Prüfstand, Freiburg im Breisgau 2018 und Manuela Lenzen, Künstliche Intelligenz. Was sie kann & was uns erwartet, München 2018 für weitere Analysen der Probleme und Chancen der neuen Technologien.

[2] Ethem Alpaydin, Machine Learning, London 2016, 19.

[3] Vgl. Margaret A. Boden, Introduction, in: Margaret A. Boden (Hg.), The Philosophy of Artificial Intelligence, Oxford 2005, 1-21, 1.

[4] Die Aufgabe kann auch darin bestehen, neue Algorithmen für Aufgaben zu entdecken und diese in das eigene Programm zu integrieren. 

[5] Vgl. Alpaydin, Machine Learning, 20.

[6] Die unterschiedlichen Ansätze können auch miteinander kombiniert werden.

[7] Rodney A. Brooks, Intelligence without Representation, in: John Haugeland (Hg), Mind Design II: Philosophy, Psychology, Artificial Intelligence, London 1997, 401. Die Frage, ob wir in der Lage sein werden, eine künstliche Intelligenz zu entwickeln, die nicht nur einzelne Aufgaben besser erledigen kann als der Mensch, sondern die allgemeine Intelligenz des Menschen bei Weitem übersteigt, kann an dieser Stelle nicht diskutiert werden, siehe aber Nick Bostrom, Superintelligence. Paths, Dangers, Strategies, Oxford 2014, für eine Analyse der mit der möglichen Existenz einer Superintelligenz verbundenen Probleme und Chancen für die weitere Entwicklung der Menschheit.

[8] Vgl. Alan Turing, Computing Machinery and Intelligence, in: Margaret A. Boden (Hg.), The Philosophy of Artificial Intelligence, Oxford 2005, 40-66, für eine klassische Analyse der Leistungs- und Lernfähigkeit künstlicher Intelligenz.

[9] Peter Gruss, Bio, Nano, Info, Neuro – Ein Panoptikum, in: Tobias Hülswitt, Roman Brinzak (Hg.), Werden wir ewig leben? Gespräche über die Zukunft von Mensch und Technologie, Frankfurt 2010, 35-56, 51.

[10] Ray Kurzweil, Homo Sapiens. Leben im 21. Jahrhundert – Was bleibt vom Menschen?, Köln 2000, 359.

[11] Vgl. Jerry Kaplan, Artificial Intelligence. What Everyone Needs to Know, Oxford 2016, 114-115.

[12] Stefan L. Sorgner, Transhumanismus. Die gefährlichste Idee der Welt!?, Freiburg 2016, 9-10. 

[13] Vgl. zur Theologie der Geschichte die Beiträge in Georg Essen, Christian Frevel (Hg.), Theologie der Geschichte – Geschichte der Theologie, Freiburg 2018. 

[14] Vgl. Max Tegmark, Life 3.0. Being Human in the Age of Artificial Intelligence, Penguin Books 2016, und Francis Fukuyama, Our Posthuman Future: Consequences of the Biotechnology Revolution. New York 2002, für unterschiedlich gelagerte Analysen der neuen Technologien, die sich implizit auf geschichtsphilosophische und -theologische Überlegungen stützen. 

[15] Vgl. hierzu H. Tristram Engelhard, Jr., Die menschliche Natur: Kann sie Leitfaden menschlichen Handels sein? Reflexionen über die gentechnische Veränderung des Menschen, in: Kurt Bayertz (Hg.), Die menschliche Natur. Welchen und wieviel Wert hat sie? Paderborn 2005, 32-51.


Auctor

Benedikt Paul Göcke ist Professor für Religionsphilosophie und Wissenschaftstheorie an der Katholisch-Theologischen Fakultät der Ruhr-Universität Bochum. Er forscht zur Philosophie Karl Christian Friedrich Krauses (1781-1832), zur Wissenschaftstheorie sowie zur digitalen Anthropologie. Göcke ist Autor von The Panentheism of Karl Christian Friedrich Krause, New York 2018 und A Theory of the Absolute, Basingstoke 2014. Er ist Herausgeber von Die Wissenschaftlichkeit der Theologie, Münster 2018, und After Physicalism, Indianapolis 2012. Zudem publizierte er zahlreiche Artikel in verschiedenen Fachzeitschriften.

Address: Lehrstuhl für Religionsphilosophie und Wissenschaftstheorie, Katholisch-Theologische Fakultät, Ruhr-Universität Bochum.

Related Posts