Concilium

Dominik Burkard

« Naturwissenschaft und Kirche – in unversöhnbarem Gegensatz? Ein Blick aus kirchenhistorischer Perspektive »

Linda Hogan, João J. Vila Chã, Michelle Becka

Concilium 2019-3. Technologie – Fluch oder Segen?
Concilium 2019-3. Technology: between Apocalypse and Integration
Concilium 2019-3. Tecnología?
Concilium 2019-3. Tecnologia: tra apocalisse e integrazione
Concilium 2019-3. Technologie: entre apocalypse et intégration
Concilium 2019-3. Tecnologia: entre o apocalipse e a integração


In den 1960er Jahren erregte das Schlagwort vom „katholischen Bildungsdefizit“ Aufsehen: Der Jesuit Karl Erlinghagen war bei einer Untersuchung der Fächerwahl von Studierenden unter konfessionsspezifischer Fragestellung zu dem Ergebnis gekommen, dass die Katholiken in sämtlichen Studienbereichen – außer der Theologie – weniger Studenten stellten, als sie dem Bevölkerungsproporz nach sollten. Völlig unterrepräsentiert aber waren sie mit 9,7 % in den technischen Fachrichtungen und mit 11,1 % in den Naturwissenschaften. Die Studie wies erstmals empirisch nach, was nicht zuletzt in den Kulturkämpfen des 19. Jahrhunderts allenthalben proklamiert worden war: Die konfessionsspezifische „Rückständigkeit“, ja „Inferiorität“ der Katholiken in Bezug auf Bildung und Wissenschaft, letztlich die Inkompatibilität von Katholizismus und „Moderne“. 

Die Erklärungsversuche für diesen Befund reichen von wirtschaftlich-sozialen oder bildungspolitischen Ansätzen bis hin zur Benennung von Ursachen, die in der Theologie selbst zu finden sind. Die lange Beheimatung des Katholizismus in vorwiegend bäuerlich-ländlichen Strukturen, die Wertschätzung des „Heiligen“ in Verbindung mit einer ausgedehnten (arbeitsverhindernden) Feiertagskultur, ein defizitäres Bildungssystem, traditionell a-literale katholische Mechanismen der Wissensvermittlung (Symbolik, Ritus, Kult) im Gegensatz zum protestantischen „sola scriptura“-Verständnis, die wirtschaftliche Langzeitfolge eines unterschiedlichen Rechtfertigungsverständnisses (Max Webers „calvinistische Wirtschaftsethik“).

Zeigte Erlinghagen am Beispiel des deutschen Katholizismus noch für das 20. Jahrhundert eine deutliche Distanz zur Technik und zu den Naturwissenschaften, so scheint dieser Befund ganz zur sogenannten „leyenda negra“ zu passen, die im 18. Jahrhundert in der spanischen Geschichtsschreibung aufkam und auch in Portugal und Italien rezipiert wurde: Nach ihr habe die katholische Kirche, um ihr Deutungsmonopol zu sichern, neu aufkommende konkurrierende Deutungssysteme – und so eben auch die (Natur-) Wissenschaften – mit Hilfe repressiver Normierungsmechanismen (Zensur und Inquisition) bekämpft. Infolge dieser systemimmanenten Wissenschaftsfeindlichkeit der Kirche seien die katholischen Länder in ihrer weiteren kulturellen und wirtschaftlichen Entwicklung hinter protestantisch geprägten Ländern zurückgeblieben. 

Doch: Wie belastbar ist die „leyenda negra“? Lässt sich die These einer Dichotomie von Kirche und Naturwissenschaft tatsächlich erhärten? Im Folgenden soll – auf der Basis der Inquisitionsforschung der zurückliegenden 25 Jahre – exemplarisch gezeigt werden, wie Römische Inquisition und kirchliche Zensur (als Organe des kirchlichen „Lehramts“) in der Neuzeit mit dem naturwissenschaftlichen Fortschritt umgingen. 

1. Physik: Der „Fall Galileo Galilei“ und die Folgen

Als bekanntestes Beispiel kirchlicher „Wissenschaftsfeindlichkeit“ gilt der Fall des italienischen Universalgelehrten Galileo Galilei (1564-1642). Im Zusammenhang mit ungedruckten Briefen, die nach der Erfindung des Fernrohrs in Rom zirkulierten, ließ die Inquisition 1616 erstmals die kopernikanische Lehre durch ein Dekret der Indexkongregation verbieten. Gleichzeitig wurde die Papst Paul III. gewidmete Schrift „De revolutionibus orbium coelestium“ (1543) des Frauenburger Domherrn, Theologen und Arztes Nikolaus Kopernikus (1473-1543) sowie die „Lettera sopra l’opinione della mobilità della Terra“ des Theologen und Astronomen aus dem Karmeliterorden, Paolo Antonio Foscarini (1565-1616), auf den Index der verbotenen Bücher gesetzt. Interessanterweise verurteilte die Inquisition die kopernikanische Lehre jedoch nicht als häretisch (also als hartnäckige Leugnung einer definierten Wahrheit), sondern lediglich als „falsch“ und „der Heiligen Schrift widersprechend“. Auch wurde „De revolutionibus orbium coelestium“ mit dem Zusatz „donec corrigatur“ verboten, womit die Möglichkeit der Beseitigung anstößiger Stellen eingeräumt wurde. 

Ähnliches gilt für das Verfahren, das die Römische Inquisition 1632 gegen Galilei einleitete, weil er es gewagt hatte, in seinem „Dialogo sopra i due massimi sistemi del mondo“ das heliozentrische Weltbild zu verteidigen. Das Verfahren endete bekanntlich mit dem Widerruf Galileis. In seiner langen Wirkungsgeschichte wurde der „Fall Galilei“ zum Signum der Wissenschaftsfeindlichkeit der Kirche und zum Fanal des Auseinanderdriftens von Glaube und (Natur-)Wissenschaft. Doch zurecht? 

Noch die allgemeinen Regeln des Tridentinischen Index hatten sich damit begnügt, generell solche Bücher zu verbieten, die astrologische oder magische Aussagen machten – eine Maßregel, die in durchaus „aufklärerischem“ Sinne zu verstehen ist, sollte damit doch einem grassierenden Aberglauben begegnet werden. 

Mit dem Verbot des kopernikanischen Weltbilds wagte sich die Inquisition dann allerdings auf ein neues Gebiet, das der Naturwissenschaften. Das Verbot war durchaus differenziert. Denn Galilei beanspruchte, eine unumstößliche Wahrheit zu lehren. Gegen diese gab es (im Rahmen der damaligen Diskussion) jedoch ernstzunehmende Argumente, denn das geozentrische Weltbild beruhte auf der alltäglichen Beobachtung der Himmelskörper. Zudem schien Galileis Lehre im Widerspruch zu biblischen Aussagen – und damit zur göttlich geoffenbarten Wahrheit – zu stehen (Jos 10, 12-14; Dan 10, 13). 

Mehrfach postulierte die Inquisition deshalb, das heliozentrische Weltbild könne nicht als feststehende Tatsache, sondern nur als Hypothese formuliert werden. Auch dürften daraus keine weiterreichenden Folgen für die Interpretation der Hl. Schrift gezogen werden. Damit anerkannte man die mathematisch-physikalischen Berechnungen an sich also durchaus, lehnte aber weitergehende Schlüsse vor allem theologischer Art ab. Dass es genau darum ging, keine Gegensätze zu konstruieren, zeigt die Haltung des Kontroverstheologen Robert Bellarmin (1542-1621), der 1616 als Vorsitzender der Indexkongregation die Ansicht vertrat, eine mathematische Naturlehre könne keine absolute Gültigkeit für sich in Anspruch nehmen, weil sie sich nur auf akzidentelle Verhältnisse stütze, also auf sinnliche, jederzeit veränderliche Phänomene. Ob die theologischen Zensoren aber auch bereits die Konsequenz der Heliozentrik sahen: die Verdrängung des Menschen aus seiner angestammten, durch die biblische Schöpfungsgeschichte begründeten Stellung als Krone der Schöpfung? Und dass in einer rein mechanisch erklärten Welt auch Gott als der aristotelisch begründete „unbewegte Beweger“ fraglich werden musste?  

Die Spannung zwischen physikalischer Weltkonstruktion und religiöser Überzeugung besaß im 16. Jahrhundert freilich längst noch nicht jene Schärfe eines prinzipiellen Gegensatzes, wie sie später zwischen physikalischer Weltkonstruktion und religiöser Überzeugung konstruiert wurde. Obwohl Galilei in seinen „Discorsi e dimostrazioni matematiche“ (1638) die Welt als ein rein mechanischer Zusammenhang beschrieb, zog er, dem der Glaube Selbstverständlichkeit war, aus diesem Sachverhalt keine atheistischen Schlüsse. 

In der Folge konnten die Erfahrungsargumente der Geozentrik durch eine verbesserte Beobachtung der Sternbewegungen zwar nur schrittweise und manche auch erst sehr spät entkräftet werden, doch das heliozentrische Weltbild setzte sich rasch durch. Es kam zu einem tiefgreifenden Paradigmenwechsel: Quelle wissenschaftlicher Erkenntnis und also Norm der Wahrheit wurde immer ausschließlicher das Experiment allein, das mathematisch Quantifizierbare, während andere Weisen der Erkenntnis – die philosophische und theologische Reflexion – immer mehr das Odium der Spekulation und Unwissenschaftlichkeit erhielten.

Gegen diese Verabsolutierung der physikalischen Welterklärung hielt die Kirche an der metaphysischen Weltordnung fest – und damit auch an ihrem Urteil von 1616 und 1632. Erst Benedikt XIV. (1675-1758) suchte dem zunehmenden Odium der Wissenschaftsfeindlichkeit der Inquisition den Boden zu entziehen, indem er nicht nur eine Reform der Institution in Angriff nahm – zu zensierenden Autoren sollten angehört werden und einen Verteidiger zur Seite gestellt bekommen – sondern auch die Weisung gab, jenes Verbotsdekret für Schriften, die das heliozentrische Weltbild verteidigten, zu eliminieren. Zu einer Zeit, in der die Heliozentrik zur allgemein akzeptierten naturwissenschaftlichen Erkenntnis geworden war, zeigte sich das Lehramt also durchaus zustimmungsbereit. Zensoren sollten nicht mehr gezwungen sein, gegen etwas vorzugehen, das zur wissenschaftlichen opinio communis geworden war. Doch erst 1992 wurde Galilei durch Johannes Paul II. auch öffentlich rehabilitiert. 

2. Medizin: Eine römische Hexenprozess-Instruktion als „Modernisierung“

Im Zusammenhang mit der „Rückständigkeit“ der Römischen Inquisition wird meist auch ein anderer Punkt genannt: das Phänomen der neuzeitlichen Hexenverfolgungen. Auch für diese – und also für Aberglauben und irrationale Methoden der Wahrheitsfindung – wird immer wieder die Inquisition verantwortlich gemacht. 

Dem unterstellten Zusammenhang stehen allerdings zwei einfache Beobachtungen entgegen: Zum einen haben viele regionale Studien gezeigt, dass es sich bei dem verbreiteten Hexenwahn um kein konfessionsspezifisches Phänomen handelte. Zum anderen: Dort wo es neuzeitliche Inquisitionen gab, also in den romanischen Ländern, wurden nur wenige Menschen als Hexen umgebracht. Weshalb?

Eine Erklärung bietet der Vergleich der zu Beginn des 17. Jahrhunderts von der Römischen Inquisition herausgegebenen Hexeninstruktion mit dem in Deutschland üblichen Verfahren. Er zeigt, dass das letztere ganz auf Denunziation und Folter als wesentliche Teile des Prozesses aufgebaut war. Dies hängt zusammen mit der in Nordeuropa verbreiteten Vorstellung, dass sich die Hexen alle vom „Hexensabbat“ her kannten. Die Folge: Hatte man eine Hexe überführt, so konnte man aus ihr die Namen anderer Hexen herauspressen. 

Zwar hielt auch die römische Inquisition schwarze Magie und Schadenzauber materialrechtlich für grundsätzlich möglich. Formalrechtlich überwog jedoch die Skepsis gegenüber dem zu erbringenden praktischen Nachweis. Deshalb stellte die Inquisition erhöhte Anforderungen an die Beweisführung. Sie forderte nicht nur eine ausgiebige Prüfung aller Indizien, sondern sah vielmehr im Verfahren – und dies ist entscheidend – zweimal die Hinzuziehung eines erfahrenen Arztes vor. Während man also in Nordeuropa an Verschwörung und an eine kollektive Schuld glaubte, ging die Römische Inquisition von krankhaften Erscheinungen und Einzelfällen aus. Um diesen Umständen gerecht zu werden, integrierte sie die Medizin als Naturwissenschaft in ihr Handlungssystem und versuchte auf diese Weise, zum einen das Phänomen „Hexe“ zu rationalisieren, zum anderen aber dessen Auswüchse mit Hilfe naturwissenschaftlichen Wissens einzudämmen. 

3. Evolution: Ein zweiter Sündenfall wider die Naturwissenschaft?

„Eben hatte Kopernikus den Blick der Menschheit in unermessliche Fernen des Weltalls erweitert, und in dem Augenblick, da unsere Universität gegründet wurde, sah sich die Theologie in einen Entscheidungskampf, einen der größten und folgenschwersten ihrer Geschichte, gestellt. Es schien, wie im 19. Jahrhundert Feuerbach es blasphemisch ausdrückte, da in überwältigender Majestät der Tempel der Natur sich öffnete, für den alten Gott Wohnungsnot eingetreten zu sein. Und doch brauchte es noch 3 Jahrhunderte, bis das neue Weltbild in seinen Konsequenzen sich auswirkte. […] Zum Blick ins unendlich Große kam der Blick ins unendlich Kleine, zum Teleskop das Mikroskop […] Dazu öffnete der bis dahin verschlossene Erdball seine Archive und schien eine andere Schöpfungsgeschichte zu erzählen als Bibel und Theologie. Darüber erschrak die Theologie“. 

Mit diesen Worten begann 1909 der Würzburger Dogmatiker Franz Xaver Kiefl (1869-1928) seine offizielle Rede als Rektor der Universität. Kiefl machte zwei Gründe namhaft, weshalb die Theologie allen Versuchen, „mit mechanistischen Methoden in die Rätsel des Lebendigen einzudringen“, Misstrauen entgegengebracht habe: Zum einen müsse die mechanische Auffassung oft für „seichte, materialistische Versuche“ herhalten, die das Geheimnisvolle, das Inkommensurable in der Natur wegdeuteten und den transzendenten Charakter der Dinge sowie alle „vor und über der Entwicklung stehenden idealen Lebenswerte“ leugneten. Zum anderen scheine der Mechanismus „auf den blinden Zufall als das A und O des Weltgeschehens zu führen“. 

Tatsächlich war es im 19. Jahrhundert – vor allem mit der Entdeckung der Evolution – zur Herausbildung der modernen, immer stärker spezialisierten Naturwissenschaften gekommen, infolgedessen aber zu einer Explosion des Wissens und damit zu einem neuen Paradigmenwechsel. Und tatsächlich wurde aufs Neue, nun aber in der ganzen Schärfe des Kampfs um Welterklärung und Weltanschauung, die Frage nach der Vereinbarkeit biblisch-religiös tradierter Schöpfungsvorstellungen mit den Erkenntnissen dieser „moderner“ Wissenschaft gestellt. 

Es waren vor allem die Popularisierer und „Designer“ des neuen Wissens, die einen schroffen Gegensatz konstruierten. Ernst Haeckel (1834-1919) etwa, der den religiösen Glauben nur mehr als Begleiterscheinung einer noch nicht zu vollem Denken befähigten tierischen Organisationsstufe ansah und in seinem Bestseller „Welträtsel“ (1899) einen „unversöhnlichen Widerspruch“ zwischen dem „Wunderglauben“ an eine göttliche Offenbarung und dem „natürlichen Glauben der Vernunft“ proklamierte. „Die wahre Offenbarung, d.h. die wahre Quelle vernünftiger Erkenntnis, ist nur in der Natur zu finden. […] Jeder vernünftige Mensch mit normalem Gehirn und normalen Sinnen schöpft bei unbefangener Betrachtung aus der Natur diese wahre Offenbarung und befreit sich damit von dem Aberglauben, welchen ihm die Offenbarungen der Religion aufgebürdet haben“.

Die Reaktion von Theologie und Kirche auf solche Schlüsse war freilich ablehnend. Und doch ließ man sich nicht dazu hinreißen, die Evolution an sich in Frage zu stellen. Dies zeigt wieder die Praxis der Römischen Inquisition. Die Schriften der führenden Vertreter der Evolutionstheorie wanderten nämlich keineswegs auf den „Index der verbotenen Bücher“. Nicht einmal Haeckel tat man – wahrscheinlich aufgrund der Offensichtlichkeit seiner Feindseligkeit – die Ehre einer amtlichen Verurteilung an. Gleichwohl setzte man sich mit der Evolutionstheorie selbst und ihren prominenten Vertretern auseinander, wenn auch nur indirekt über die Beschäftigung mit katholischen „Evolutionisten“, die zwischen den naturwissenschaftlichen Erkenntnissen und dem christlichen Glauben bzw. den biblischen Schöpfungsaussagen zu vermitteln suchten. 

Ins Visier der Glaubenshüter gerieten etliche Werke, unter anderem eines des französischen Dominikaners Dalmas Leroy (1828-1905). Dieser vertrat die Auffassung die Bibel erklärte zwar dass, aber nicht wie Gott die verschiedenen Arten produziert habe; deshalb könne das Modell, das die Evolutionstheorie hierfür anbiete, auch nicht im Gegensatz zur Hl. Schrift stehen. Die Annahme fester Arten sei nichts anderes als eine volkstümliche, aus dem Anschein entstandene Überzeugung. Als Zeuge der „Tradition“ schien – mit seiner allegorischen Auslegung der Schöpfungsgeschichte, der Lehre von den „rationes seminales“ und seinen Überlegungen zum Ursprung der menschlichen Seele – noch am ehesten Augustinus mit der Evolutionstheorie verknüpfbar zu sein.  

Der amerikanische Spiritaner und Physiker John Zahm (1851-1921) vertrat in seiner Schrift „Evolution and Dogma“ (1896) die Ansicht, das Leben habe sich in der Materie mittels der Wirksamkeit allein chemischer und mechanischer Kräfte entwickelt, der Ur-Einzeller sich aufgrund günstiger Bedingungen vervollkommnet und nach vielen zehntausend Jahren vom pflanzlichen Zustand zum tierischen gewechselt. Die gleichen Phasen einer fortwährenden Verbesserung hätten den Organismus des ersten Tieres begleitet, sodass das Tier von den untersten Formen des empfindsamen Lebens zu einer Form aufstieg, die mehr oder weniger der des Menschen ähnelte. Dieser aber sei von Gott nicht in seiner Körperlichkeit neu geschaffen worden, sondern durch die Beseelung des Körpers eines menschenförmigen Tieres, das mittels Evolution aus der anorganischen Materie entstanden war.

Demgegenüber verteidigte Henry de Dorlodot (1855-1929), Theologe und Geologe an der Katholischen Universität Löwen, eine „absolute natürliche Evolution“, die jedes spezielle Eingreifen Gottes, nicht nur zu Beginn des vegetativen, sondern auch zu Beginn des sensitiven und menschlichen Lebens, verneinte. 

Gerade im Fall Dorlodots votierten die römischen Konsultoren und Kardinäle – angesichts der Komplexität des Themas – dafür, vor einer endgültigen Entscheidung die Haltung der Kirche zu den Fragen der Evolution zu überprüfen. Dazu kam es allerdings nicht. Rafael Merry del Val (1865-1930), der Chef der päpstlichen Behörde, gab wenig später gegenüber dem Mechelner Bischof Désiré Kardinal Mercier (1851-1926) die Erklärung ab, das Sanctum Officium beabsichtige nicht, sich vom wissenschaftlichen Standpunkt aus über den Evolutionismus zu äußern. Und auch die Bibelkommission werde das wissenschaftliche Problem der Transformation der pflanzlichen Arten oder der niedrigen tierischen Arten zum Leib des Menschen nicht beurteilen. 

Damit war angedeutet, wo das eigentliche Problem der Theologie mit der Evolution lag: auf dem exegetischem Gebiet. Zurecht wies Mercier darauf hin, der „Transformismus“ sei, als Theorie oder auch nur als wissenschaftliche Hypothese, von den meisten Gelehrten in seinem Grundsatz akzeptiert. Sein Vorschlag, angesichts der Bedeutung der Sache eine kompetente Kommission aus Gelehrten, Philosophen, Theologen und Exegeten einzusetzen, um die Fragen der Entstehung der Lebewesen und der Differenzierung der Organismen in ihren möglichen Beziehungen zur geoffenbarten Lehre zu studieren, wurde allerdings nicht aufgegriffen. Das Lehramt war offenkundig gewillt, sich strikt auf seinen genuinen Kompetenzbereich zu beschränken und sich nur dort einzumischen, wo die Naturwissenschaft ihrerseits ihre Grenzen überschritt und ins theologische Gebiet wechselte. Hatte man also aus dem Fall Galilei gelernt?

4. Quantitativer Ansatz:  Ernüchternder Befund und Versuch einer Erklärung

Die Frage, ob der Römischen Inquisition als einer der wichtigsten Instanzen kirchlicher Zensur die Verantwortlichkeit für eine erschwerte Entwicklung der Naturwissenschaft zuzuschreiben ist, lässt sich auch durch eine quantitative Analyse untersuchen. So stellte Ugo Baldini auf der Basis des Index librorum prohibitorum von 1819 alle „naturwissenschaftlichen“ Werke zusammen, die von der päpstlichen Zensur im Laufe von 250 Jahren verurteilt wurden, wobei er einen sehr weiten Begriff von „Naturwissenschaft“ zugrunde legte und alle Werke berücksichtigte, die in thematischer oder methodischer Hinsicht der heutigen Bedeutung irgendwie nahe kamen. Fachliteratur über Astronomie, Kosmologie, mathematische Physik, physikalische Geographie, Anatomie, Medizin, Zoologie, Chemie und Alchemie ebenso wie Schriften zur Astrologie mit astronomischen, experimentell-physikalischen oder chemischen Anteilen, aber auch Schriften zur Theologie, in denen kosmologische und wissenschaftliche Probleme besonders hervorgehoben wurden, sowie Enzyklopädien, denen bei der Verbreitung moderner Vorstellungen von der Natur eine besondere Funktion zukam.  

Das Ergebnis: Indiziert wurden zwischen 1559 und 1819 lediglich 124 Bücher „naturwissenschaftlichen“ Inhalts – gemessen an der Buchproduktion eine nur sehr geringe Anzahl. Von diesem Befund ausgehend, stellt sich die grundsätzliche Frage, ob eine signifikante Korrelation zwischen publizierten naturwissenschaftlichen Erkenntnissen und kirchlicher Zensur überhaupt vorliegt. 

Gewisse Beobachtungen relativieren den Befund: So war der „Index librorum prohibitorum“ trotz seines universalkirchlichen Anspruchs zumindest partiell „italozentriert“ (ca. 30 %). Dazu kommt, dass den kurialen Behörden eine gewisse Unprofessionalität unterstellt werden muss – obwohl unter den Mitgliedern der Kongregationen teils so bedeutende Wissenschaftler waren wie der von Galilei beeinflusste Mathematiker Michelangelo Ricci (1619-1682) oder François Jacquier OFM (1711-1788) und Thomas Le Seur OFM (1703-1770), deren Kommentare über Newtons „Principia“ zu den besten zählen. 

Nicht zuletzt lässt der Befund aber nach den Auswahlkriterien fragen: Weshalb und wann wurde eine Schrift überhaupt von Inquisition oder Indexkongregation überprüft? Die vorschnelle Antwort, die „Bedeutung“ einer Schrift müsse wohl ein ausschlaggebendes Kriterium gewesen sein, scheint zweifelhaft. Trat die Relevanz einer Theorie doch meist nicht unmittelbar sondern erst im weiteren Verlauf der wissenschaftlichen Entwicklung zutage. Sie eignete sich also kaum als Maßstab für die Indizierungspraxis der kurialen Behörden. 

Es lassen sich jedoch andere Kriterien für die Zensur einer Schrift oder Theorie dingfest machen: 

a) Das Kriterium der theologischen Relevanz. Die gängige Schlussfolgerung, naturwissenschaftliche Werke seien wegen ihrer wissenschaftlichen Theorien verboten worden, ist in vielen Fällen falsch. Vielmehr lässt sich zeigen, dass diese Schriften abgelehnt wurden, weil sie – manchmal auch nur ganz am Rande (in Einführung oder Widmung) – religiös inopportune Ansichten beinhalteten. Oder weil anatomische Bücher etwa als moralisch bedenklich galten; weil physikalische Werke vielleicht Abschnitte enthielten, in denen es um Astrologie und Magie ging. Meist hatten die Zensoren gegen die rein physikalische Bedeutung gewisser Theorien oder Disziplinen überhaupt nichts einzuwenden, doch betrachtete man deren historische oder konzeptuelle Verknüpfung mit religiösen und ethischen Thesen als bedenklich oder gefährlich. Die Verbote solcher Schriften hatten im Grunde also mit ihren naturwissenschaftlichen Inhalten im modernen Sinn wenig zu tun. 

Nicht immer war übrigens für die Nichtspezialisten – und dies dürften die meisten Zensoren auf den Gebieten naturwissenschaftlichen Forschens tatsächlich gewesen sein – der Widerspruch einer Theorie zur traditionellen Kosmologie offensichtlich. So stellte etwa die Mechanik Newtons, abgesehen von ihren Implikationen in Bezug auf die Struktur des Sonnensystems, viele Grundvoraussetzungen der traditionellen Kosmologie auf den Kopf; aus theologischer Sicht aber blieb sie eine scheinbar „neutrale“ Theorie. Erstaunlich auch, dass von den mehreren Hundert Veröffentlichungen, die seit der zweiten Hälfte des 17. Jahrhunderts den Grundstein für die geologische Zeitrechnung und die Paläontologie legten, nahezu keine beanstandet wurde, obwohl sie Auswirkungen auf die biblische Chronologie hatten und dem Text der Genesis allmählich seine physikalische und historische Wahrheit auch aberkannt wurde. Die Schriften blieben unbehelligt, weil hier eben nur die Phänomene untersucht wurden, unabhängig von ihren anthropologischen, philosophischen oder religiösen Implikationen.

Unterschieden wurde also offenbar zwischen Schriften, die rein naturwissenschaftlich waren, und solchen, die darüber hinausgingen und mit „ideologischen“ Thesen die Religion selbst tangierten. Tendenziell schritten die Kongregationen beim Organischen eher ein als beim Anorganischen (Geologischen), bei der Anthropologie eher als bei der Zoologie, und innerhalb dieser wieder eher bei der Kulturanthropologie mit ihren Vorstellungen über menschliches Verhalten und ethische Werte als bei dem, was man heute als medizinische Anthropologie bezeichnen würde. Insgesamt lässt sich festhalten: Die Zensur wandte sich nicht gegen jede beliebige wissenschaftliche Neuerung, gegen die wissenschaftliche Erkenntnis im Allgemeinen oder gegen ein experimentelles Wissenschaftsmodell. Beanstandet wurden vielmehr jene Teile und Aspekte des wissenschaftlichen Denkens, die eine direkte und ausdrückliche Herausforderung des traditionellen christlichen Weltbilds darstellten.

b) Neben dem Kriterium der theologischen Relevanz spielte auch das Kriterium der Öffentlichkeit eine Rolle. In einem System, das der Geltendmachung bzw. Umsetzung theologischer und prozessualer Normen einen relativ großen Ermessensspielraum zugestand, wurden Zweckmäßigkeit und Folgen einer Entscheidung durchaus in Betracht gezogen. Dazu passt die Beobachtung, dass oft nicht die für eine Theorie zentralen Werke auf dem Index landeten, sondern solche, die zur Verbreitung der Thesen auf eher populäre Art beitrugen. Auch im Bereich „Kosmologie, Struktur des Universums und Himmelsmechanik“ wurden – mit den oben genannten Ausnahmen – fast nur populärwissenschaftliche Werke indiziert. 

c) Durchaus berücksichtigt wurde im Übrigen auch das wissensinterne Kriterium der Wahrscheinlichkeit. Erinnern wir uns: Kopernikus‘ Schrift „De revolutionibus orbium coelestium“ wurde nicht „absolute“, sondern „donec corrigatur“ verboten. Kopernikus wurde also die Möglichkeit der Beseitigung anstößiger Stellen eingeräumt. Dies war möglich, weil sein technischer Apparat als eine Reihe „mathematischer“ Aussagen betrachtet wurde, die an sich richtig waren und mit deren Hilfe die Himmelsphänomene beschrieben und vorhergesehen werden konnten. Die Grundthese des Werks aber, also die einer bestimmten Anordnung der Sonne und der Planeten im Weltraum hielt man für eine physikalische Behauptung. Eine Korrektur brauchte folglich nur die (wenigen) Sätze des Werks betreffen, in denen diese These für eine Beschreibung des realen Kosmos ausgegeben wurde.

Schluss

Die jüngere Inquisitionsforschung konnte die These der „leyenda negra“ vom Zusammenhang zwischen Inquisition und wissenschaftlicher Rückständigkeit nicht erhärten. Von einer grundsätzlichen Feindlichkeit des Katholizismus der Naturwissenschaft und der Technik gegenüber kann aber auch sonst kaum gesprochen werden. Erinnert sei in diesem Zusammenhang an die über Jahrhunderte in Klöstern aufgebauten und gehüteten Naturalienkabinette sowie an die Sammlungen naturphilosophischer Spezialliteratur, die erst im 19. Jahrhundert in staatlichen Besitz übergingen. Erinnert sei an die „Gregorianische“ Kalenderreform, die der Papst 1582 unter allein astronomischen Gesichtspunkten – und in praktischer Nutzung der Heliozentrik – im vatikanischen „Torre dei Venti“ (der päpstlichen Sternwarte) durchführen ließ, die aber von nichtkatholischen Staaten nur sehr verzögert rezipiert wurde (Preußen: 1612; Großbritannien 1752; Sowjetrussland: 1918). Erinnert sei schließlich an die zahlreichen Theologen, die sich – obwohl Priester – als Naturforscher, Entdecker, Mediziner und technische Erfinder einen Namen machten – Nils Stensen (1638-1686), Gregor Mendel OSA (1822-1894), Erich Wasmann SJ (1859-1931) oder Theilhard de Jardin SJ (1881-1955) sind nur einige der bekannteren Namen. Auf dem Gebiet der Astronomie hatten – bis ins 20. Jahrhundert hinein – vor allem Mitglieder des Jesuitenordens wesentlichen Anteil. 

Fraglich erscheint die behauptete systemimmanente Rückständigkeit des Katholizismus im Übrigen auch im Licht des Konfessionalisierungsdiskurses, hatten am Zentralvorgang der Modernisierung doch alle Konfessionen Anteil. Während der Protestantismus die Autonomie der Sachbereiche rascher anerkannte, scheint wiederum das nachtridentinische Menschenbild des Katholizismus mit der Moderne doch viel besser vereinbar gewesen zu sein als Luthers Vorstellung von der völligen Verderbtheit des Menschen. Ob sich von daher erklärt, dass gerade der Jesuitenorden, der dieses „moderne“ Menschenbild propagierte, technikaffiner war und gegenüber den Naturwissenschaften so wenige Berührungsängste hatte? 

Gleichwohl: Die Skepsis, ja Geringschätzung, die viele Katholiken bis ins 20. Jahrhundert und vielleicht bis heute den Naturwissenschaften und der Technik entgegenbringen, bleibt erklärungsbedürftig. Möglicherweise wird man hier den Erfolg einer Pastoral in Anschlag bringen müssen, die lange eine deutlich transzendenzorientierte Wertehierarchie im Bewusstsein hielt: Ist Gott letzter Seins- und Sinngrund, dann muss es dem Menschen zuvorderst um die Realisierung seiner Qualitäten im Hier und Jetzt gehen („Reich Gottes“-Botschaft Jesu, Mt 25), nicht jedoch darum, den Turmbau zu Babel (Gen 11) zu vollenden. Zwar sind geschenkte Talente und Fähigkeiten nicht zu vergraben, sondern gewinnbringend einzusetzen – von daher hat der Glaube durchaus eine materiale Seite. Doch darf dieses „Materiale“ nicht Selbstzweck werden, ohne die gottgeschenkten Talente – und damit die Bestimmung des Menschen – zu korrumpieren. 


Literatur

  • Mariano Artigas/Thomas F. Glick/Rafael A. Martínez (Ed.), Negotiating Darwin. The Vatican confronts evolution 1877-1902, Baltimore 2006. 
  • Ugo Baldini, Die römischen Kongregationen der Inquisition und des Index und der wissenschaftliche Fortschritt im 16. bis 18. Jahrhundert: Anmerkungen zur Chronologie und zur Logik ihres Verhältnisses, in: Hubert Wolf (Hg.), Inquisition, Index, Zensur. Wissenskulturen der Neuzeit im Widerstreit, Paderborn 2003, 229-278.
  • Ugo Baldini/Leen Spruit (Ed.), Catholic Church and modern science. Documents from the archives of the Roman congregations of the Holy Office and the index, Vol. 1: Sixteeenth-century documents, T. 1-4, Roma 2009.
  • Francesco Beretta, Galilée devant le Tribunal de l’Inquisition. Une relecture des sources, Fribourg 1998.
  • Francesco Beretta, Katholische Kirche und moderne Naturwissenschaft von Galilei bis Darwin. Die Voraussetzungen einer konfliktgeladenen Begegnung, in: Mariano Delgado (Hg.), Glaube und Vernunft – Theologie und Philosophie. Aspekte ihrer Wechselwirkung in Geschichte und Gegenwart, Fribourg 2003, 117-133.
  • Dominik Burkard, Augustinus – ein Kronzeuge für die Evolutionstheorie? (Gescheiterte) Versuche einer Versöhnung von Theologie und Naturwissenschaft, in: Cornelius Mayer/Christoph Müller/Guntram Förster (Hg.), Augustinus – Schöpfung und Zeit, Würzburg 2012, 109-141.
  • Rainer Decker, Die Päpste und die Hexen. Aus den geheimen Akten der Inquisition, Darmstadt 2003.
  • Peter Godman unter Mitwirkung von Jens Brandt, Weltliteratur auf dem Index. Die geheimen Gutachten des Vatikans, Berlin/München 2001, 43-49, 163-216.

Auktor

Dominik Burkard, Ordinarius für Kirchengeschichte des Mittelalters und der Neuzeit in Würzburg. Forschungsschwerpunkte: Wissenschafts- und Universitätsgeschichte, Römische Inquisition und Indexkongregation, Verhältnis von Staat und Kirche, Kirchliche Verfassungsgeschichte, Katholische Aufklärung, Katholizismus im 19. und 20. Jahrhundert, Kirche/Theologie im Nationalsozialismus.

Address: Lehrstuhl für Kirchengeschichte des Mittelalters und der Neuzeit, Julius-Maximilians-Universität Würzburg, Sanderring 2, D-97070 Würzburg.

Related Posts

Paolo Benanti

« Intelligenze artificiali, robots, bio-ingegneria e cyborgs: nuove sfide teologiche? »

Linda Hogan, João J. Vila Chã, Michelle Becka

Concilium 2019-3. Technologie – Fluch oder Segen?
Concilium 2019-3. Technology: between Apocalypse and Integration
Concilium 2019-3. Tecnología?
Concilium 2019-3. Tecnologia: tra apocalisse e integrazione
Concilium 2019-3. Technologie: entre apocalypse et intégration
Concilium 2019-3. Tecnologia: entre o apocalipse e a integração


L’evoluzione del computer e la diffusione dell’informatica ha influenzato profondamente tutto il mondo della tecnologia trasformando il nostro modo di progettare, produrre e utilizzare gli artefatti tecnologici. All’inizio, negli anni Cinquanta del secolo scorso, sembrava uno strumento riservato alle grandi organizzazioni e amministrazioni, alla ricerca scientifica e ai comandi militari. La tecnologia dei microprocessori a partire dagli anni Settanta, il costante sviluppo di software facili da usare e, negli anni Novanta, la rapida espansione della rete hanno invece trasformato il computer in una macchina accessibile a tutti, proprio come un qualsiasi altro elettrodomestico. Per comprendere questo cambiamento bisogna soffermarci sulla caratteristica principale di questa nuova forma di comunicazione: il digitale.

In informatica ed elettronica con digitale ci si riferisce al fatto che tutte le informazioni vengono rappresentate con numeri o che si opera su queste manipolando numeri (il termine deriva dall’inglese digit, che significa cifra). Un determinato insieme di informazioni viene rappresentato in forma digitale cioè come sequenza di numeri presi da un insieme di valori discreti, ovvero appartenenti a uno stesso insieme ben definito e circoscritto. Attualmente digitale può essere considerato come sinonimo di numerico, e si contrappone invece alla forma di rappresentazione dell’informazione detta analogica. L’informazione, la sua espressione digitale e gli artefatti che da questa ne deriva ci permettono di realizzare artefatti e biotecnologie impensabili fino a pochi decenni fa.

Guardando alle grandi trasformazioni che questa nuova stagione tecnologica sta producendo vogliamo chiederci se questi nuovi artefatti siano semplicemente strumenti o non siano anche dei “luoghi” del nostro vivere che chiedono una riflessione antropologica e teologica. La gestione dell’innovazione è solamente una questione ingegneristica che al più interroga l’etica professionale o invece il mondo delle (bio)tecnologie interroga anche la teologia?

Per fare questo dapprima introdurremmo alcuni nuovi artefatti che sembrano mostrarsi come elementi chiave di queste trasformazioni e in un secondo momento cercheremo di far emergere alcune domande o questioni che la realizzazione di queste tecnologie fa sorgere alla riflessione filosofica e teologica.

1. Nuovi artefatti

1.1. Machina sapiens?

L’evoluzione tecnologica dell’informazione e del mondo compreso come una serie di dati si concretizza nelle intelligenze artificiali (AI) e nei robot: siamo in grado di costruire macchine che possono prendere decisioni autonome e coesistere con l’uomo. Si pensi alle macchine a guida autonoma che Uber, il noto servizio di trasporto automobilistico privato, già utilizza in alcune città come Pittsburgh, o a sistemi di radio chirurgia come il Cyberknife o i robot destinati al lavoro affianco all’uomo nei processi produttivi in fabbrica. Le AI, queste nuove tecnologie, sono pervasive. Stanno insinuandosi in ogni ambito della nostra esistenza. Tanto nei sistemi di produzione, incarnandosi in robot, quanto nei sistemi di gestione sostituendo i server degli analisti. Ma anche nella vita quotidiana i sistemi di AI sono sempre più pervasivi. Gli smartphone di ultima generazione sono tutti venduti con un assistente dotato di intelligenza artificiale, CortanaSiri o Google Hello – per citare solo i principali –, che trasforma il telefono da un hub di servizi e applicazioni a un vero e proprio partner che interagisce in maniera cognitiva con l’utente. Sono in fase di sviluppo sistemi di intelligenza artificiale, i bot, che saranno disponibili come partner virtuali da interrogare via voce o in chat che sono in grado di fornire servizi e prestazioni che primano erano esclusiva di particolari professioni: avvocati, medici e psicologi sono sempre più efficientemente sostituibili da bot dotati intelligenza artificiale.

Il mondo del lavoro conosce oggi una nova frontiera: le interazioni e la coesistenza tra uomini e intelligenze artificiali. Prima di addentrarci ulteriormente nel significato di questa trasformazione dobbiamo considerare un implicito culturale che rischia di sviare la nostra comprensione del tema. Nello sviluppo delle intelligenze artificiali (AI) la divulgazione dei successi ottenuti da queste macchine è sempre stata presentata secondo un modello competitivo rispetto all’uomo. Per fare un esempio IBM ha presentato Deep Blue come l’intelligenza artificiale che nel 1996 riuscì a sconfiggere a scacchi il campione del mondo in carica, Garry Kasparov e sempre IBM nel 2011 ha realizzato Watson che ha sconfitto i campioni di un noto gioco televisivo sulla cultura generale Jeopardy!. Queste comparse mediatiche delle AI potrebbero farci pensare che questi sono sistemi che competono con l’uomo e che tra Homo sapiens e questa nuova macchina sapiens si sia instaurata una rivalità di natura evolutiva che vedrà un solo vincitore e condannerà lo sconfitto a una inesorabile estinzione. In realtà queste macchine non sono mai state costruite per competere con l’uomo ma per realizzare una nuova simbiosi tra l’uomo e i suoi artefatti: (homo+machinasapiens[1]. Non sono le AI la minaccia di estinzione dell’uomo anche se la tecnologia può essere pericolosa per la nostra sopravvivenza come specie: l’uomo ha già rischiato di estinguersi perché battuto da una macchina molto stupida come la bomba atomica. Tuttavia esistono sfide estremamente delicate nella società contemporanea in cui la variabile più importante non è l’intelligenza ma il poco tempo a disposizione per decidere e le macchine cognitive trovano qui grande interesse applicativo. 

Si aprono a questo livello tutta una serie di problematiche etiche su come validare la cognizione della macchina alla luce proprio della velocità della risposta che si cerca di implementare e ottenere. Tuttavia il pericolo maggiore non viene dalle AI in se stesse ma dal non conoscere queste tecnologie e dal lasciare decidere sul loro impiego a una classe dirigente assolutamente non preparata a gestire il tema.

1.2. Vita sintetica?

Più di duecento giornalisti il 5 agosto 2013 hanno affollato i Riverside Studios di Londra non per il lancio di un nuovo telefonino o di un altro apparecchio elettronico bensì di un panino: un hamburger, per la precisione, che però era non meno stupefacente di un computer da un punto di vista tecnologico. 

Il panino in questione era una creazione del professor Mark Post, un docente di biotecnologia dell’università di Maastricht, che ha realizzato il piatto utilizzando carne sintetica (o carne artificiale o carne in vitro). La carne, cucinata dal cuoco Richard McGeown del Couch’s Great House Restaurant di Polperro, in Cornovaglia, venne assaggiata dal critico culinario Hanni Ruetzler, studioso di alimentazione del Future Food Studio, e da Josh Schonwald[2].

Cerchiamo a capire la natura di questo prodotto innaturale. La squadra di biotecnologi olandesi aveva realizzato un prodotto di carne animale che non era mai stato parte di un animale vivo. In realtà questa affermazione, volutamente provocatoria, era vera se si esclude il siero fetale di un vitello utilizzato come base biologica. Il siero fetale bovino, indicato con la sigla FBS o FCS dall’inglese Fetal Calf Serum, è un liquido costituito dalla frazione del plasma sanguigno che rimane dopo la coagulazione del sangue, cioè utilizzando i termini tecnici propri, dalla conversione di fibrinogeno in fibrina. Il siero fetale bovino è di fatto un prodotto secondario dell’industria della carne, ottenuto dal sangue che viene raccolto dal feto di bovine gravide durante il processo di macellazione tramite un sistema chiuso di collettori che ne garantiscono la sterilità. L’equipe olandese è ricorsa al FBS perché questo è considerato uno strumento standard per il mantenimento di linee cellulari in vitro: il FBS contiene proteine plasmatiche, fattori di crescita, fattori di adesione, sali minerali, chelanti, vitamine, elettroliti e altre sostanze che favoriscono la sopravvivenza e la proliferazione di cellule mantenute in coltura. Il tessuto per la dimostrazione era il risultato di un processo di coltura in vitro condotto a maggio 2013, utilizzando almeno 20.000 strisce sottili di tessuto muscolare prodotto in laboratorio e fatte moltiplicare in un bioreattore. Il team olandese spiegò che una volta innescato il processo, teoricamente è possibile continuare a produrre carne all’infinito senza aggiungere nuove cellule da un organismo vivente. Si è stimato che, in condizioni ideali, due mesi di produzione di carne in vitro potrebbero generare 50.000 tonnellate di carne da dieci cellule muscolari di maiale.

Nel corso della presentazione alla stampa i due assaggiatori raccontarono che, a parte l’essere un po’ meno saporito di un tradizionale hamburger – cosa peraltro incidentale e superabile –, il prodotto artificiale era in tutto e per tutto uguale agli hamburger tradizionali. La stampa rispose dando enorme rilievo al fatto e coniò una serie di epiteti per questo nuovo hamburger: in provetta, di laboratorio, coltivato, in vitro, prova di principio, senza crudeltà e persino il fantasioso Frankenburger[3].

La produzione dell’hamburger di Post era costata 331.400 dollari, cifra raggiunta grazie a una donazione anonima di circa 250.000 euro. In seguito si è risaliti al donatore, Sergey Brin, uno dei due fondatori del colosso informatico Google. 

La realizzazione di questo alimento in laboratorio ha rafforzato il dibattito che diversi accademici stanno portando avanti sulla natura della tecnologia e sul suo significato per l’esistenza umana[4]. Una prima domanda a cui sembra necessario rispondere è se la carne in questione sia da considerarsi viva o morta: il tessuto di cui è composto l’hamburger cresce e si moltiplica ma non sembra avere le caratteristiche fondamentali per definirlo come vivo[5]. Infatti sebbene le cellule crescano e si moltiplichino secondo dei sub-processi che appartengono anche ai viventi, tuttavia le strisce di tessuto non godono di quelle caratteristiche come l’irritabilità e l’assimilazione che ci aiutano a distinguere le dinamiche di un vivente da quelle di un essere inanimato. La carne dell’IVM nel bioreattore accresce ma non si riproduce o gode di quella natura finalistica che caratterizza i viventi.

1.3. Superumani?

In questi anni molte malattie neuropsichiatriche hanno trovato beneficio dalla psicofarmacologia: un settore della farmaceutica che studia l’effetto dei farmaci sul comportamento e sulle funzioni psichiche superiori permettendo di creare nuovi farmaci utili in vari disturbi psichiatrici, sia nella cura dei sintomi che nel trattamento delle cause dei disturbi stessi, in particolare per quanto riguarda le disfunzioni dei neurotrasmettori[6]. Dal punto di vista della prassi medica, la consapevolezza che numerosi disturbi si verificano alterando uno spettro che comprende livelli di funzionamento della persona ritenuti normali, ha sollevato una questione che ha aperto la strada all’idea di enhancement: se i farmaci possono, ad esempio, migliorare la cognizione nelle persone con deficit cognitivo, che cosa possono fare per le persone in normale condizione di salute?

La possibilità di intervenire sulla cosiddetta normalità per ottenere l’enhancement si fonda sulla convinzione, almeno implicita, che se la pienezza (salute) è divenuta ormai solo normalità, l’uomo necessita di strumenti esterni per raggiungere una pienezza di felicità e realizzazione che da sola non può garantire. Il miglioramento cognitivo è, nella sua radice antropologica più profonda, un tentativo di conquistare questa pienezza di vita perduta nel vivere dei nostri contemporanei.

Due sistemi cognitivi principali sono stati presi di mira dagli scienziati, negli ultimi anni, per ottenere il miglioramento farmacologico: l’attenzione e la memoria[7]. Per fare qualche esempio basti pensare che farmaci stimolanti come il metilfenidato (MPH), commercialmente conosciuto come Ritalin, e le anfetamine, commercializzate in composti con le destroanfetamine con il nome di Adderall, sono capaci di migliorare l’attenzione delle persone con sindrome da deficit di attenzione e iperattività (ADHD) ma possono anche migliorare l’attenzione in persone sane. Anche se questi farmaci sono apparentemente prescritti principalmente per il trattamento dell’ADHD, i dati di vendita indicano che essi non sono raramente utilizzati per l’enhancement cognitivo. Sondaggi nei campus universitari confermano questa conclusione. Stimolanti, soggetti a prescrizione medica, sono attualmente ampiamente utilizzati da studenti universitari, molti dei quali li ottengono da amici o da spacciatori come sostanze per l’aiuto allo studio[8].

Inoltre ultimamente viene rivolto un enorme sforzo di ricerca per lo sviluppo di farmaci per stimolare la memoria. I farmaci in oggetto hanno come obiettivo svariati stadi all’interno di quella cascata molecolare che sottende, nel cervello, alla formazione della memoria, compresa l’induzione iniziale di un potenziamento a lungo termine e le fasi successive di consolidamento della memoria. Anche se queste ricerche sono finalizzate, ufficialmente, a trovare cure per la demenza, non vi è ragione di credere che alcuni dei prodotti in fase di sviluppo potrebbe migliorare la memoria normale e, in particolare potrebbero trovare utilizzo dopo la mezza età e negli anziani, quando un certo grado di aumento della perdita di memoria è normale[9]. Di contro la possibilità di indebolire i ricordi indesiderati è un altro tipo di trattamento della memoria, in fase di sviluppo, per una serie di sindromi come il disordine post-traumatico da stress (PTSD) che possono contribuire all’enhancement in individui sani: teoricamente potrebbe essere usato come prevenzione psicologica, per esempio, per permettere ai soldati di andare in battaglia o ai soccorritori di operare in una situazione di emergenza senza effetti collaterali sul loro sistema nervoso[10].

2. Inedite sfide

2.1. Una nuova realtà?

La prima serie di questioni[11] che sorgono da questi nuovi artefatti e che interrogano tanto la filosofia che la teologia riguardano la realtà, la sua conoscenza e la differenza tra naturale e artificiale. 

Da quando non solo abbiamo imparato a vedere la realtà come un insieme di dati ma abbiamo anche imparato a collezionarli, i big data, ci siamo dotati di un nuovo strumento di indagine. Tre secoli fa con le lenti concave abbiamo realizzato il telescopio e il microscopio, imparando a vedere il mondo in modo diverso. Microscopio e telescopio costituirono gli strumenti tecnologici con cui la rivoluzione scientifica del 600 e del 700 ha ottenuto le sue scoperte. Abbiamo reso visibile l’estremamente lontano, telescopio − e l’estremamente piccolo, microscopio. Oggi con i dati abbiamo realizzato un nuovo “strumento” il macroscopio. Con i big data noi riusciamo a vedere in maniera nuova e sorprendente l’estremamente complesso delle relazioni sociali individuando relazioni e connessioni dove prima non vedevamo nulla. Le intelligenze artificiali applicati a questi enormi set di dati sono il macroscopio con cui studiare meccanicisticamente l’estremamente complesso. Spetta a noi capire che tipo di conoscenza stiamo generando. Se questa forma di conoscenza sia scientifica e in che senso sia deterministica o predittiva è tutto da capire. Tuttavia la rivoluzione conoscitiva, come con il telescopio e il microscopio, è già in atto. Assistiamo al sorgere di nuove sfide: la sfida di cominciare a concepire l’uomo come animale informazionale al fianco di altri, inserito all’interno dell’infosfera; la sfida di farsi carico di una nuova società, la società dell’informazione, cresciuta molto più rapidamente della capacità dell’uomo di sviluppare solide radici concettuali, etiche e culturali in grado di comprenderla, gestirla e orientarla verso il bene comune e lo sviluppo.

In altri termini appare urgente trovare risposte su cosa sia l’informazione, sulla sua natura multiforme, sui ruoli che gioca in diversi contesti scientifici e sulle questioni sociali ed etiche sollevate dalla sua crescente importanza. Nella nostra società l’informazione si manifesta sotto più forme e possiede molti significati. Questo è il motivo per cui oggi molto studiosi trovano assai difficile riconoscere un punto di partenza univoco e incontroverso, infatti sono stati suggeriti vari significati della parola informazione da autori differenti nell’ambito generale della teoria dell’informazione ma è difficile trovare un concetto unico di informazione che renda conto in modo soddisfacente delle sue numerose possibili applicazioni cui oggi ci riferiamo. 

Dobbiamo riconoscere che da un punto di vista concettuale l’analisi del concetto di informazione versa ancora in quello stadio deplorevole in cui il disaccordo investe il modo stesso in cui i problemi sono provvisoriamente formulati e contestualizzati entro le rispettive cornici teoriche. La novità che rappresenta il concetto di informazione nella comprensione che l’uomo ha di se stesso e del mondo è così espressa da Floridi:

non vi è un termine per indicare questa nuova forma radicale di costruzione, cosicché possiamo usare il neologismo riontologizzare per fare riferimento al fatto che tale forma non si limita solamente a configurare, costruire o strutturare un sistema (come una società, un’auto o un artefatto) in modo nuovo, ma fondamentalmente comporta la trasformazione della sua natura intrinseca, vale a dire della sua ontologia. In tal senso, le ICT non stanno soltanto ricostruendo il nostro mondo: lo stanno riontologizzando[12]

Tale passaggio sta a significare che oggetti e processi perdono la propria connotazione fisica nel senso che sono considerati come indipendenti dal proprio supporto − si pensi a un file musicale in formato mp3 che è diventato nel nostro modo di comprendere in toto la musica[13]. Gli oggetti sono tipizzati, nel senso che l’esemplare di un oggetto − la mia copia di un file musicale per rimanere nell’esempio introdotto pocanzi ­− conta quanto il suo tipo − il file musicale in possesso di un terzo di cui la mia copia è un esemplare. Infine il criterio di esistenza, cioè il criterio che cerca di definire che cosa significhi esistere per qualcosa, non è più l’essere immutabile nella propria realtà, come il pensiero greco ci aveva indotto a comprendere, secondo cui solo ciò che non muta ha piena esistenza, o l’essere potenzialmente oggetto di percezione, seguendo una certa filosofia moderna che ha insistito sull’idea che qualcosa, per qualificarsi come esistente, debba essere empiricamente percepibile dai sensi, ma l’essere potenzialmente soggetto a interazione, seppure intangibile: essere è essere interagibile, anche se l’interazione è solo indiretta.

Lo sviluppo delle biotecnologie, che iniziano a capire la vita stessa come un processo informazionale espresso dal DNA, mettono in crisi il significato stesso di una distinzione tradizionale con cui comprendevamo la realtà: quella tra naturale ed artificiale.  I prodigi della biologia sintetica sembrano far emergere l’incertezza, se non addirittura l’impossibilità, di definire un qualsivoglia limite. I confini tra naturale e artificiale stanno sfumando, rendendosi indistinguibili. L’avvento del cyborg, cioè la fusione tra uomo e macchina, la nascita della biologia sintetica e lo sviluppo della carne in provetta mostrano come tutto sia divenuto manipolabile e dominabile: gli artefatti che produciamo non sono meramente artificiali, né sono naturali.

Si pensi al diamante sintetico, indistinguibile da un diamante vero se non per due dettagli: possiede per legge un numero seriale al proprio interno, inciso al laser e non visibile a occhio nudo, ed è privo di qualsiasi imperfezione. Sorge un interrogativo ineludibile per la filosofia, per le scienze umane e per la teologia: ci stiamo avviando verso una realtà in cui la distinzione tra naturale e artificiale è destinata a scomparire? Se è così, quali saranno le conseguenze di questa nuova comprensione della realtà? E quali prospettive si apriranno? 

2.2. Una nuova umanità?

I profondi cambiamenti indotti dall’irruzione dell’informazione e dagli artefatti biotecnologici suscita nuove domande sull’uomo e sulla sua identità: la questione antropologica diventa un luogo chiave dove la filosofia e la teologia si devono confrontare con nuove visioni e inedite sfide. Le nuove frontiere proposte dalla medicina e dalla sua traduzione biotecnologica si inseriscono in un clima culturale particolarmente fertile e desideroso di questo tipo di manipolazioni. Fin dalla fine dello scorso secolo si è infatti generata una corrente di pensiero favorevole alla vita umana tecnologicamente modificata: la filosofia post-umana trans-umana.

La visione dell’uomo come di un essere malleabile è uno dei principali cardini del pensiero post-umano trans-umano. Tutta una serie di aspetti che contribuiscono a creare della nostra vita un qualcosa di mai completamente definito e comunque suscettibile di innumerevoli trasformazioni, cioè che fanno della nostra esistenza una vita liquida[14], hanno una forte attinenza con queste modalità di comprendere l’uomo ponendo particolare attenzione al fatto che proprio il corpo umano sia dotato di una certa malleabilità[15]. La costituzione biologica del nostro corpo non solo si evolve ma può essere modificata. I fautori dell’enhancement umano sottolineano come già numerose prassi comunemente accettate e diffuse nell’ambito medico siano di fatto enhancements: i vaccini, a loro dire, sono l’esempio lampante che gli enhancements sono da sempre accettati e utilizzati all’interno dalla nostra società[16].

Poiché l’uomo e l’universo sono caratterizzati, per i postumanisti transumanisti, da una totale malleabilità, la capacità di controllo si costituisce come la prerogativa indispensabile per garantire alla nostra specie la capacità di sopravvivere. 

Il valore dell’umano non è più la persona ma le informazioni che abitano il suo corpo biologico: ogni uomo è visto come un insieme di informazioni contenute in un medium che è il suo corpo. Il valore dell’uomo è espresso in termini di informazioni e la sua essenza diviene un qualcosa di computabile e gestibile come un flusso di informazioni. La vita stessa diviene la capacità di conservare ed elaborare informazioni. La malleabilità dell’uomo si trasforma, quindi, in una sostanziale svalutazione del corpo e della corporeità visti come accidens dell’esistenza. 

Cosa ci renda unici come uomini, come dire, oggi, la dignità dell’essere umano, quale è il valore della corporeità sono tutte domande che chiedono di essere affrontate con nuove modalità: le verità di fede devono poter illuminare anche le sfide che i nuovi artefatti pongono al nostro comprendere e comprenderci.

Se questa riduzione della persona umana all’informazione è di fatto una nuova forma di dualismo, tra informazione e il medium che la trasmette, che può essere fronteggiato solo con una comprensione antropologicamente corretta del corpo e della corporeità umana. Il discernimento etico sull’enhancement cognitivo potrà prendere il via solo da un confronto antropologico che ponga le parti in causa in grado di cogliere il valore del corpo e della corporeità per l’esistenza umana. In questo confronto la tecnologia per l’enhancement cognitivo, quindi, non può essere proposta come un elemento antropologicamente neutro, cioè come un qualcosa che si ponga a valle delle discussioni antropologiche ma deve essere recuperata in tutta la sua valenza e complessità sapendo che mediante la tecnica-tecnologia non si può

penetrare il mistero dell’uomo, ma solamente indagare diffusamente sul “fenomeno” uomo nel mondo. La riflessione teologica può al contrario aprire l’uomo al suo oltre e vedere in Gesù di Nazareth l’uomo esemplare, l’unico che può svelare l’uomo all’uomo. Egli è infatti l’ultimo uomo, l’eschaton Adám, in quanto introduce l’uomo nel suo futuro[17].

L’essere umano è dotato di un telos, è orientato a un oltre che supera il tempo e lo spazio: la teologia ricorda all’uomo questa sua chiamata escatologica. Nel confronto con il pensiero post-umano trans-umano bisogna saper decodificare quelle istanze che trasformano l’enhancement cognitivo in una sorta di escatologia impropria: bisogna fronteggiare e negare quella deriva immanentista che strappa l’uomo dal suo avvenire, cioè dalla vita eterna escatologica, per relegarlo in un sogno, anzi in una illusione, di immortalità tecnologicamente realizzata.

Uno sguardo conclusivo

Alla luce di quanto emerso appare evidente come il fenomeno tecnologico sia anzitutto un “luogo” filosofico e teologico che interroga la nostra comprensione del mondo e dell’umano. Per comprendere la tecnologia bisogna partire dalla consapevolezza di una singolarità che si manifesta parlando della nostra specie: siamo, in quanto appartenenti alla specie Homo sapiens, esseri simbolici, dotati di linguaggio duttile e flessibile. Questa caratteristica ci ha permesso di avere la capacità senza precedenti di cooperare tra grandi numeri di individui. Siamo così in grado di evidenziare una caratteristica peculiare e irriducibile che distacca l’uomo da ogni altra specie esistente. Grazie a questa condizione cognitiva l’uomo può rivedere e modificare il proprio comportamento con rapidità, conformandosi al mutare delle necessità. Quello che ad oggi siamo in grado di stabilire come accaduto è che una speciale forma di evoluzione caratterizza la specie umana di fronte ad ogni altra specie esistente: l’evoluzione culturale soppianta la lenta e imprevedibile evoluzione genetica. Grazie a questa caratteristica la nostra specie ha iniziato un cammino che mostra nei segni archeologici della storia una distanza sempre più marcata da tutte le altre specie. 

Non vogliamo lasciar intendere che parlando di condizione cognitiva la costituzione biologica dell’uomo sia divenuta ininfluente; ma dobbiamo riconoscere che solo per l’uomo si può parlare di un qualcosa che trascende significativamente il mero dato biologico e genetico. Possiamo sintetizzare il rapporto che c’è tra biologia e cultura notando che per l’uomo la biologia stabilisce i parametri basilari per il comportamento, e per le sue capacità e l’intera storia umana ha luogo entro i confini di tale arena biologica. Tuttavia è innegabile come questo scenario sia straordinariamente ampio, consentendoci di mutare comportamento e capacità sociali così da adattarci a tutti i climi della terra e a costruire vasti gruppi sociali che sono impensabili per ogni altra specie. 

All’interno di questa unica condizione cognitiva che consente alla nostra specie di interagire con la realtà in maniera unica – una modalità costituita da linguaggio e cultura – l’uomo si specializza e dà alle sue azioni delle finalità particolari. L’uomo si relaziona al mondo mediante delle creazioni delle sue mani: gli artefatti.  L’artefatto tecnologico, l’elemento base della tecnologia, è coesistente all’uomo ed è traccia della sua unica condizione esistenziale: la condizione umana, possiamo dire, è una condizione tecno-umana

Alla luce di queste evidenze, allora, sembra delinearsi, per poter vivere le sfide che la tecnologia ci pone, la necessità di guardare alla tecnologia non solo come strumento ma anche come “luogo” teologico. Per vivere l’oggi siamo chiamati a ridire le verità di fede in modo che possano illuminare e dare senso ai “nuovi artefatti” e alle sfide che questi presentano. Siamo chiamati a pensare teologicamente la tecnologia anche per poter approfondire il mistero di Dio e la vocazione dell’uomo. Inoltre lo sviluppo tecnologico, giunto a queste inedite frontiere, necessita mai come oggi di confronti e contributi interdisciplinari, compresi fra questi quelli teologici, per poter trovare fini adeguati agli innumerevoli mezzi di cui dispone.


Notes

[1] Cf. J. E. Kelly – S. Hamm, Macchine intelligenti. Watson e l’era del cognitive computing, Egea, Milano 2016, 5-42.

[2] Cf. W. Galusky, «Technology as Responsibility: Failure, Food Animals, and Lab-grown Meat», Journal of Agricultural & Environmental Ethics27, 6 (2014), 931–948.

[3] Cf. L. Petetin, «Frankenburgers, Risks and Approval», European Journal of Risk Regulation 5, 2(2014), 168–186.

[4] Cf. P. Benanti, La condizione tecno-umana. Domande di senso nell’era della tecnologia, Bologna, EDB, 2016.

[5] Cf. P. Benanti, Ti esti? Prima lezione di bioetica, Assisi, Cittadella, 2016.

[6] In medicina con la definizione di psicofarmaci si identificano tutti quei farmaci che agiscono sul sistema nervoso centrale. Si possono classificare in base al tipo di molecole (classi farmaceutiche) o all’effetto terapeutico. Fra essi i più utilizzati sono: gli ansiolitici, gli antidepressivi e i neurolettici (o antipsicotici); che a loro volta includono molecole appartenenti a classi diverse. A questi possiamo aggiungere i sali di litio e gli antiepilettici usati come stabilizzatori dell’umore e gli psicofarmaci ipnotici.

[7] Per un’approfondita disanima dello sviluppo dell’idea di enhancement si veda: P. Benanti, The Cyborg. Corpo e corporeità nell’epoca del postumano, Assisi, Cittadella, 2012, 81-142 e Neuropharmacology 64(2013), 1-596 (un volume monografico della prestigiosa rivista interamente dedicato al miglioramento cognitivo).

[8] Cf. C.I. Ragan, I. Bard, I. Singh, “What Should We Do about Student Use of Cognitive Enhancers? An Analysis of Current Evidence” in Neuropharmacology 64(2013), 588-596.

[9] Si assiste oggi, per la prima volta, allo sviluppo di farmaci direttamente per l’ehancement. È questo il caso, per esempio, del MEM 1003 e del MEM 1414 dei preparati farmaceutici attualmente sotto esame finale da parte della Food and Drug Administration, l’ente governativo statunitense che si occupa della regolamentazione dei prodotti alimentari e farmaceutici. Queste sostanze sono state sintetizzate e studiate per effettuare l’enhancement della memoria umana e dai primi test sembrano garantire risultati sorprendenti e se la Food and Drug Administration darà parere favorevole verranno commercializzati in brevissimo tempo. Tuttavia il MEM 1003 e il MEM 1414 non si stanno rivelando efficaci solo per migliorare la memoria umana, rendendola pressoché indefettibile, ma riescono a sopprimere uno dei sintomi peggiori del morbo di Alzheimer: la perdita della memoria causata da questa forma di demenza degenerativa invalidante (cf. O. Lev, F.G. Miller, E.J. Emanuel, “The Ethics of Research on Enhancement Interventions”, in Kennedy Institute of Ethics Journal 20(2010), 101-114).

[10] Cf. R.M. de Bitencourt, F.A. Pamplona, R.N. Takahashi, “A Current Overview of Cannabinoids and Glucocorticoids in Facilitating Extinction of Aversive Memories: Potential Extinction Enhancers” in Neuropharmacology 64(2013), 389-395.

[11] Le considerazioni che seguono ricalcano le direttrici della ricerca teologica di chi scrive che sono state approfondite negli ultimi anni. Questi temi sono argomento di indagine, tra le altre, nelle seguenti mie pubblicazioni: Realtà sintetica. Dall’aspirina alla vita: come ricreare il mondo?, Roma, Castelvecchi, 2018; Le macchine sapienti, Bologna, Marietti, 2018; L’hamburger di Frankenstein. La rivoluzione della carne sintetica, Bologna, EDB, 2017; Ti esti? Prima lezione di bioetica, Assisi, Cittadella, 2016; La condizione tecno-umana. Domande di senso nell’era della tecnologia, Bologna, EDB, 2016; The Cyborg: corpo e corporeità nell’epoca del postumano, Assisi, Cittadella, 2012.

[12] L. Floridi, La rivoluzione dell’informazione, Codice, Torino 2012, 13.

[13] La sigla mp3 indica un algoritmo di compressione audio di tipo lossy, cioè in grado di diminuire le dimensioni in cambio della perdita di dettagli del suono, sviluppato dal gruppo MPEG, in grado di ridurre drasticamente la quantità di dati richiesti per memorizzare un suono, rimanendo comunque una riproduzione accettabilmente fedele del file originale non compresso. La musica non ha più nulla di materiale ma è tuttanell’informazione digitale contenuta e scritta in questo file. Per sua natura il file mp3 approssima la realtà, è un algoritmo di compressione che prevede una soglia di dettaglio − indicata come bitrate − oltre la quale il suono e le sue variazioni vengono ignorate. Nonostante tecnicamente si sia consapevoli di questo nel nostro modo di comprendere e percepire, la digitalizzazione è la musica e null’altro. 

[14] Si veda a tal proposito l’analisi che propone Zygmunt Bauman (cf. Z. Bauman, Vita liquida, Laterza, Bari-Roma 2008).

[15] In proposito rimandiamo ai seguenti contributi  specifici: R. Pepperell, The Posthuman Condition Consciousness Beyond the Brain, Intellect, Bristol-Portland (OR) 2003, IV; R.H. Roberts, “‘Nature’, Post/Modernity and the Migration of the Sublime”, in Ecotheology: Journal of Religion, Nature & the Environment 9(2004), 315-337 e J. Huer, The Post-Human Society, Frederick (MD), PublishAmerica, 2004, 11.

[16] Cf. C.C. Hook, “Transhumanism and Posthumanism”, in Encyclopedia of Bioethics, Vol. 5, New York (NY), Mac Millan, 1995, 2517-2520.

[17] F. Brancato, “Creazione ed evoluzione. Il pensiero di Joseph Ratzinger“, in Synaxis 3(2008), 17.


Autore

Paolo Benanti, francescano del TOR, ha acquisito la sua formazione etico-teologica presso la Pontificia Università Gregoriana e ha perfezionato il suo curriculum presso la Georgetown University a Washington D.C. (USA) dove ha potuto completare le ricerche sul mondo delle biotecnologie. Svolge attività accademica come docente di etica delle tecnologie, neuroetica, bioetica e teologia morale presso la Pontificia Università Gregoriana a Roma.

Address: Dipartimento di Teologia morale, Facoltà di Teologia, Pontificia Università Gregoriana, Piazza della Pilotta, 4, 00187 Roma – Italia.

Related Posts