Wissenschaftsethik

IST VERNUNFT MESSBAR ?

Ethik, wissenschaftlicher Fortschritt und technischer Wandel mit Anwendungen aus Physik, Informatik und Politik

Vortrag im Rahmen eines Kolloquiums des Forschungsinstitutes für anwendungsorientierte Wissensverarbeitung (FAW) am 1.08.1995 in Ulm
überarbeitet am 14.08.95


"Liebe Nachwelt! Wenn ihr nicht gerechter, friedlicher und überhaupt vernünftiger sein werdet, als wir sind, bzw. gewesen sind, so soll euch der Teufel holen."

Albert Einstein (1)



Inhalt


0. Zur Vernunft der Staaten und ihrer Bürger
1. Von der philosophischen zur wissenschaftlichen Ethik
2. Gesinnungsethik versus Verantwortungsethik
3. Lineare Ethik: Gesinnungsethik
4. Nichtlineare Ethik: Verantwortungsethik
5. Ethik und gesellschaftliche Verantwortung in der Physik
6. Ethik und gesellschaftliche Verantwortung in der Informatik
7. Beispiele relevanter Normenkonflikte in der Informatik
8. Individuelle und gemeinschaftlich getragene Verantwortung in den Naturwissenschaften und der Informatik
9. Zusammenfassung


 

0. Zur Vernunft der Staaten und ihrer Bürger
Würde es nicht der Vernunft eines jeden Staates und gleichermaßen der Vernunft aller seiner Bürger hervorragend anstehen, wenn weder Staat noch Bürger physische oder psychische Gewalt anwenden würden? Könnten folglich nicht allein schon die Werte der beiden "Meßgrößen": "Null durch physische Gewalt Getötete" und "Null durch physische oder psychische Gewalt Verletzte oder Unterdrückte" Staat wie Staatsbürger als wahrhaft vernünftig kennzeichnen?

Um eine systematische Darstellung der Vernunft der Staaten und - in Demokratien - ihren Zusammenhang mit der Handlungsvernunft jedes einzelnen Staatsbürgers geht es im folgenden. Henry Kissinger beschränkt sich in seinem Werk "Diplomacy", das unter dem Titel "Die Vernunft der Nationen" (2) deutsch publiziert wurde, auf eine historische Analyse.

Quantitative Begriffe sind allemal nützlicher als qualitative oder komparative. Dies zeigt sich etwa in Technik und Wirtschaft. Die Frage der Meßbarkeit von Handlungsvernunft, stellt sich unter zwei Aspekten. Einmal sollen Größen gewonnen werden, durch die sich die Vernunft eines beliebigen Sozialsystems beschreiben, genauer messen läßt. Zum anderen sollen diese Meßgrößen auch als Normen (3) anwendbar sein, also Staaten wie Bürgern richtiges Handeln vorschreiben.

Auf die zweckmäßige Einführung des "richtigen Handelns" kommt es an: Eine richtige Handlung minimiere Schaden und Handelnde mögen um so vernünftiger heißen, je häufiger sie richtig handeln.

Die Wissenschaft vom richtigen Handeln und dem Grad der Vernunft Handelnder sei die Ethik. Recht, Politik, Wirtschaft und Technik müssen sich an den aus der Ethik abzuleitenden richtigen Normen orientieren.

Richtiges Handeln und handelnde soziale System verknüpft folgende Definition: Eine Gesellschaft ist ein sich selbst frei organisierendes Sozialsystem zum Zweck der Schadensbegrenzung. Die Gesellschaft selbst und alle ihre sozialen Subsysteme - bis hin zu den handelnden Personen - sind so um so vernünftiger, je häufiger sie richtig handeln. Im Zentrum alles folgenden stehen so Erklärung und Messung von Schaden.

Nur Fortschritte der Erfahrungswissenschaften lassen Schaden besser erkennen, nur technischer Wandel erhöht die Chancen, Schaden tatsächlich besser begrenzen zu können: Ethik wird zur Erfahrungswissen-schaft: Je besser sie Schaden beschreibt, desto wirksamer kann sie vorschreiben, wie Schaden tatsächlich zu minimieren ist.

Zunächst werden die qualitativen Grundlagen einer universell anwendbaren, empirisch gehaltvollen Ethik der Schadenserkennung und -begrenzung entwickelt und daraus richtige Normen und Größen zu statistischen Messung der Vernunft abgeleitet. Einzelne heuristische Beispiele aus Politik, Physik und Informatik veranschaulichen ethische Anwendungen.

Ethik besteht aus einer Folge ethischer Theorien mit wachsendem empirischen Gehalt: Eine ethische Theorie erweist sich als empirisch ge-haltvoller als ihre Vorgängerin, wenn sie mehr Normen zu richtigem Handeln, bessere Strategien zur Beherrschung von Normenkonflikten und mehr Größen zur Messung der Vernunft von Gesellschaften ableiten kann.

Normen und Maßstäbe gelten so objektiv, wie die Gesetze der Physik, wenn Schadensbegrenzung das ethische Grundprinzip darstellt.

1. Von der philosophischen zur wissenschaftlichen Ethik
In allen Gemeinwesen lernen in der Regel bereits die Kinder, daß sie nicht alles dürfen, was sie können; sie orientieren sich dabei zu-nächst an moralischen Verboten und Geboten, die sie unter dem Einfluß von Erziehung und sozialer Umwelt einüben. Jede moralische Vorschrift, beansprucht unbedingte Geltung. Moralische Vorschriften mit dem Anspruch unbedingter Geltung heißen moralische Normen. Wer immer eine solche Norm übertritt, erfährt, wird die verbotene Handlung entdeckt, in einer Gesellschaft, die durch ihren moralischen Grundkonsens über die Generationen hinweg freiwillig zusammenhält, soziale Sanktionen.

Die Gesamtheit aller im Sinne des moralischen Grundkonsenses akzeptierten moralischen Normen heiße die Moral einer Gesellschaft.

Die Rechtfertigung der Moral ist eine der Aufgaben der Ethik. Es gibt ethische Theorien mit oder ohne Metaphysik (4).

Die älteste und bis heute von vielen akzeptierte Begründung der Moral leistet die metaphysische theologischen Ethik: "Es ist dir gesagt Mensch, was gut ist, und was der Herr von dir fordert (Micha 6.8)."

Erstmals von philosophischen Ethik (5) gesprochen hat Aristoteles (6): Die Vernunft hilft, im tugendhaften Handeln die rechte Mitte zwischen den jeweiligen Extremen, etwa zwischen Feigheit und Tollkühnheit oder zwischen Geiz und Verschwendungssucht, zu finden.

Einen Höhepunkt der philosophischen Ethik - oft Moralphilosophie ge-nannt - bildet die Vernunftethik Immanuel Kants. Kant appelliert in seinem "kategorischen Imperativ" an das autonome Individuum: "Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, daß sie ein allgemeines Gesetz werde (7)".

Nach der bereits zu Lebzeiten Kants aufkommenden utilitaristischen Ethik (8) muß moralisch fundiertes Handeln mit der Maximierung des Nutzens für die größtmögliche Anzahl von Menschen verträglich sein, deren Nutzen die handelnden Personen (mit-)bestimmen können.

Jeremy Bentham (9) wie John Stuart Mill (10), Begründer des Utilita-rismus, deuten Nutzenmaximierung und Schadensminimierung als den selben letzten Zweck, als zwei Seiten einer und derselben Medaille.

Neu in der Geschichte der Ethik war, daß Bentham wie Mill Nutzen und Schaden als empirisch-statistische Meßgrößen verstehen.

Mill fordert, diesen "letzten Zweck" nicht nur für die gesamte Menschheit in größtmöglichen Umfange anzustreben, sondern auch, "soweit es die Umstände erlauben, für die gesamte fühlende Natur": Der Utilitarismus ist die erste global anwendbare ethische Theorie.

Weiter erklärte Mill in seinem Werk "Der Utilitarismus" (10): "Die Moralvorschriften, die es den Menschen verbieten, einander Schaden zuzufügen (....), sind von größerer Bedeutung für das menschliche Wohlergehen als alle Maximen, so wichtig sie auch sein mögen, die jeweils nur für einen Teilbereich des Lebens gelten."

Erst Karl Popper aber erhebt das Prinzip der Schadensminimierung zum eigentlichen ethischen Grundprinzip.

Popper spricht nicht von der Minimierung von Schaden, sondern von "minimize suffering" (11). Nur die Minimierung von Leid, so Popper, verträgt sich mit unserem intuitiven Verständnis von Moral. In gewisser Weise operationalisiert Popper so Albert Schweitzers bekanntes ethisches Grundprinzip "Ehrfurcht vor dem Leben" (12).

Weder Mill noch Popper oder die Philosophen ihrer Schulen haben diese vielversprechenden Ansätze zu empirisch gehaltvollen ethischen Theorien systematisch weiterverfolgt und ausgebaut.

Was immer Lebewesen leiden läßt, heiße Schaden. Im einzelnen besteht Schaden für Menschen, Schichten, Staaten oder für die Natur stets aus empirisch nachweisbaren, statistisch verteilten, oft korrelierten isolierbaren Schadensereignissen wie Lüge, Gewalt, Unterdrückung, Unbildung, Armut, Unterernährung, Krankheit oder Umweltzerstörung.

Schaden läßt sich im allgemeinen nur statistisch messen. Deshalb sind ethische Theorien statistische Theorien.

Die deskriptive Komponente der Ethik beschreibt Schadenszustände realer Gesellschaften. Aus der zutreffenden Beschreibung lassen sich unbedingte Vorschriften durch Anwendung des ethischen Grundprinzips der Schadensminimierung gewinnen. Damit entsteht aus der beschreibenden die vorschreibende Komponente der Ethik. Die präskriptive Ethik konstruiert für jede Gesellschaft - abhängig von ihrer Sozialstruktur und ihrem wissenschaftlich-technischen Stand - eine richtige Moral.

Wie bei jeder konstruktiven Wissenschaft ist auch bei der Ethik ein Funktionstest möglich. Je höher der empirische Gehalt der Aerodynamik, desto besser das Flugzeug. Je höher der empirische Gehalt ethischer Theorien, desto besser begrenzt eine Gesellschaft, die sich den aus den ethischen Theorien ableitbaren Normen unterwirft, Schaden.

2. Gesinnungsethik versus Verantwortungsethik

2.1 Der technische Wandel

Bereits 1620 schrieb Francis Bacon (13):"Scientia et potentia humana in idem coincidunt, quia ignoratio causae destituit effectum."

Bacon hat also erkannt: Kausale Theorien zur Welterklärung erlauben die Ableitung empirisch bewährter Naturgesetze. Erst die erfolgreiche Anwendung dieser "richtigen Naturgesetze" verändert die Welt.



Während sich Fortschritte der Erfahrungswissenschaften nachweisen lassen, gibt es aufgrund der menschlichen Freiheit in der Technik nur einen Wandel, keinen Fortschritt.

Freie Menschen können Technik ambivalent anwenden: Ein Messer kann in der Hand des Gewalttäters Leben zerstören, in der des Chirurgen Leben retten. Es wäre unvernünftig, die Technik mit dem Messer abzuschaffen.

Neu sind heute die Ausmaße technischer Effekte in Raum und Zeit. Selbst die friedliche Anwendung der Kernkraft birgt große Risiken: Ein GAU mit großräumigen Auswirkungen läßt sich nie sicher ausschließen und strahlende Abfälle aus den Spaltungsreaktoren belasten die Erde auf Jahrtausende hinaus.

So droht gerade aus dem "übermaß des Erfolges" des Baconschen Programms - wie Hans Jonas feststellt - "die globale Katastrophe" (14).

"Ohne Zweifel: je mehr wir wissen, um so weniger davon dürfen wir anwenden. Gerade aus diesem Grunde müssen wir eben noch mehr wissen. Es ist notwendig, bei jedem Schritt, den wir tun, zu überlegen, welches Risiko wir eingehen. Doch eben so notwendig ist es zu fragen, was geschehen würde, wenn wir diesen Schritt nicht tun" (15).

Manfred Eigen beschreibt mit diesen Worten zutreffend den engen gegenseitigen Zusammenhang zwischen Ethik, wissenschaftlichem Fortschritt und technischem Wandel.

2.2 Gesinnungsethik
Alle zu einer bestimmten Zeit technisch möglichen Handlungen lassen sich moralisch einteilen in verbotene, gebotene und erlaubte (16).

Die kulturspezifischen Moralsysteme fordern, die beiden ersten Handlungstypen stets an überlieferten moralischen Normen auszurichten. Das Gebotene wird als das Gute, das Verbotene als das Böse bezeichnet.

Der Staat schränkt die Freiheit seiner Bürger auch durch Rechtsnormen ein, deren Mißachtung er durch Bestrafung zu minimieren sucht. Auch das vom Staat gesetzte Recht bedarf einer ethischen Rechtfertigung.

Wer Normen mißachtet, gilt als schuldig. Moralisch Schuldige verlieren jeden Vertrauensvorschuß, wem rechtliche Schuld nachgewiesen wird, wird bestraft.

Gehorsam gegenüber jahrhundertealten moralischen Normen kann in der technisch veränderten Welt zu absurden Konsequenzen führen.

So trägt das religiös begründete Verbot der künstlichen Geburtenkon-trolle zusammen mit den medizinischen Erfolgen beim Kampf gegen Krankheiten zur gefährlichen globalen Bevölkerungsexplosion bei.

Absurditäten bei der Befolgung weniger tradierter Normen entwerten in den Augen Vieler alle überkommenen Normen. Weltweit verfällt so der moralische Grundkonsens.

2.3 Verantwortungsethik
Erstmals Max Weber (17) forderte, die Gesinnungsethik in der modernen Welt durch eine Verantwortungsethik zu ersetzen.

Verantwortung (18) tragen Personen und soziale Subsysteme

  • für "Verantwortungsbereiche", die in Raum und Zeit so weit reichen, wie Macht oder (exklusives) Wissen, sie frei zu gestalten oder mitzugestalten
  • für betroffene Menschen und alles sonst betroffene Leben
  • vor einer Instanz
  • vor einem
    • moralischen
      oder
    • rechtlichen Normensystem


In der Verantwortungsethik werden nicht Handlungen, sondern ihre absehbaren Folgen moralisch oder rechtlich bewertet.

Nur die Verantwortungsethik berücksichtigt die Existenz von Normenkon-flikten: Verantwortliche können nicht immer alle Normen erfüllen.

Qualitativ hat Hans Jonas in seinem vielbeachteten Werk "Das Prinzip Verantwortung" (14) absehbare Folgen des technischen Wandels heuristisch analysiert und ethisch bewertet.

Aber nur empirisch gehaltvolle, breit angelegte ethische Forschungsprogramme können Ergebnisse liefern, welche die empirisch gehaltvol-len Natur-, Technik- und Gesellschaftswissenschaften "zähmen" können.

Solange solche Programme fehlen, gibt es nur heuristische Anwendungen, auch diese Arbeit muß sich notgedrungen darauf beschränken.

3. Lineare Ethik: Gesinnungsethik

3.1 Schaden
Schaden schränkt Lebenschancen von Menschen (19) sowie Lebensräume von Tieren und Pflanzen ein: Ein Leben ganz ohne Schaden wäre für Menschen ein Leben in schrankenloser Freiheit.

Was Schaden im einzelnen ist, kann nur das aus Vernunft und Erfahrung entspringende Wissen lehren. Nicht was Menschen für Schaden halten, sondern nur was sich durch Erfahrung als Schaden objektiv nachweisen läßt, gilt als Schaden.

Grundlage jeder Ethik der Schadensbegrenzung ist das Zusammenleben in einer Gesellschaft. Jede Gesellschaft besteht aus Subsystemen bis hin zu einzelnen Personen, deren Zusammenwirken die Stabilität der Gesellschaft in Raum und Zeit ausmacht. Konstituierender Zweck jeder realen Gesellschaft ist die Schadensbegrenzung.

Reale Gesellschaften können weitere Zwecke verfolgen, doch es gibt keine reale Gesellschaft ohne Elemente der Schadensbegrenzung.

Die Wechselwirkung mit der natürlichen Umwelt gehört stets zu einer Gesellschaft, denn Menschen als die "Atome" der Gesellschaft sind den Gesetzen der Natur und dadurch bedingten Beschränkungen unterworfen.

Gäbe es eine schadenfreie Gesellschaft, böte diese die größtmöglichen Freiheiten. Doch die Freiheit des einen endet notwendig, wo die Freiheit des anderen beginnt. So beschränkt die Gesellschaft notwendig in aller Interesse die Freiheit aller.

Es gibt es drei Klassen schädlicher Ereignisse: vermeidbare, begrenzbare und unbegrenzbare.

3.2 Vermeidbarer Schaden und starke Normen
Paarweise Interaktionen - sie können durch zweistellige Relationen beschrieben werden - mögen genau dann schädlich heißen, wenn sie, von allen Paaren einer Gesellschaft praktiziert, zwischen denen sie erklärt sind, deren sozialen Zusammenhalt ausschließen. Diesen Sachverhalt faßt die bekannte "goldene Regel" zusammen: Was würde geschehen, wenn dies alle machten?

Beispiele vermeidbarer und eindeutig schädlicher Interaktionen. Alle Paare, bei denen die jeweilige Interaktion erklärt ist: treiben ihre Kinder ab, bilden kinderlose oder gleichgeschlechtliche Lebensgemein-schaften, wenden gegeneinander physische oder psychische Gewalt an.

Jeder schädlichen Interaktion in einer Gesellschaft ist eine starke Norm zugeordnet: Wird die Norm von allen Paaren befolgt, für welche die schädlichen Interaktion erklärt ist, kommt sie nicht vor, d.h. in der Gesellschaft treten die zugeordneten Schadensereignisse nicht auf.

Beispiele: Der schädlichen Interaktion des Totschlags ist die starke Norm "Töte nicht!" , der schädlichen Interaktion der Lüge die starke Norm "Lüge nicht!" zugeordnet. Werden diese Normen stets befolgt, existieren in der fraglichen Gesellschaft weder Totschlag noch Lüge.

Mehrere Normen lassen sich auch zu Familien zusammenzufassen. Die Normfamilie der Gewaltlosigkeit schließt die speziellere Norm, nicht zu töten, ein.

Eine streng erhaltene starke Norm ist eine notwendige und zugleich hinreichende Bedingung, daß das entsprechende Sozialsystem von der schädlichen Interaktion frei ist, welche die Norm verbietet.

Korrelationen zwischen verschiedenen schädlichen Interaktionen bleiben zunächst außer Betracht (Lineare Näherung).

Je häufiger starke Normen in einer Gesellschaft von allen befolgt werden, desto schadensärmer und damit vernünftiger ist sie.

3.3 Begrenzbarer Schaden und schwache Normen
Wer einen Hilfsbedürftigen vor einem Sturz, sein Kind vor einer ansteckenden Krankheit bewahren will, kann, muß aber nicht Erfolg haben.

Erklärte Relationen zwischen Paaren, die ihren Zweck nicht durch bloße Unterlassungen erreichen, sondern Handlungen erfordern, können Schadensereignisse nur statistisch signifikant begrenzen, nie streng vermeiden.

In einfachen Fällen hilft wieder die goldene Regel: Wie stünde es um die Zukunft einer wenig solidarischen Gesellschaft, in der also niemand ein Kind, einen Alten oder einen Armen unterstützte?

Unterlassungen, die keinen paarweisen Interaktionen zugeordnet sind, erfüllen ihren Zweck ebenfalls nicht notwendig sicher: Selbst wenn kein Mensch die Luft verunreinigt, kann ein Waldbrand durch Blitzschlag oder ein Vulkanausbruch die Atmosphäre verschmutzen.

Jeder solchen Unterlassung wie jeder paarweisen Interaktion zur Be-grenzung bestimmter erklärter Schadensereignisse ist eine schwache Norm zugeordnet. Sie beschreibt eine notwendige und zugleich hinreichende Bedingung dafür, daß bestimmte schädliche Ereignisse signifi-kant weniger häufig auftreten.

Wenn allen Hilfsbedürftigen geholfen wird, dann gibt es in einer Gesellschaft nur wenige Hilfsbedürftige - etwa unheilbar Kranke -, denen keine Hilfe zuteil wird und nur wenige Hilfsbedürftige, bei denen die Hilfe wegen der Ungeschicklichkeit der Helfer scheitert.

Begrenzbarer Schaden läßt sich im allgemeinen nicht durch alltägliche, sondern nur durch wissenschafte Erfahrung erklären: Die Schädlichkeit von Rauchen kann z.B. nur die Medizin streng nachweisen.

3.4 Schadenszustände
Der Schadenszustand einer jeden realen Gesellschaft oder jedes ihrer Subsysteme zu einer bestimmten Zeit t kann in linearer Näherung empirisch durch ein n-Tupel von Zustandsparametern beschrieben werden.

Die Zustandsparameter beschreiben die Wahrscheinlichkeit von Schadensereignissen in Schadensräumen, welche jeweils der Gesellschaft und ihren Subsystemen bis hinunter zu Personen zugeordnet sind.

Dabei sind starke Normen starken Zustandsparametern, schwache Normen schwachen Zustandsparametern zugeordnet.

Normen genügen einer eigenen Logik, der "deontischen Logik" (16), auf die hier aber nicht eingegangen wird.

Wenn alle Menschen in einer Gesellschaft die starke Norm, nicht zu töten, befolgen, dann besitzt das Schadensereignis Totschlag die Wahrscheinlichkeit Null, der Zustandsparameter den Wert Null. Wir sagen auch: der Zustandsparameter ist streng erhalten.

Wird die Meinungsfreiheit in einer Gesellschaft nicht unterdrückt, ist der starke Zustandsparameter Meinungsfreiheit streng erhalten.

Jeder starke Zusstandsparameter mißt die Vernunft einer Gesellschaft anteilig. Ist er erhalten, ist die Gesellschaft bezüglich des zugeordneten schädlichen Ereignisses optimal vernünftig.

Wenn alle Menschen eines Gesellschaft die schwache Norm, allen Hilfsbedürftigen zu helfen, befolgen, werden die meisten Hilfsbedürftigen erfolgreiche Hilfe erfahren, die Wahrscheinlichkeit eines Schadens ist signifikant niedrig, aber natürlich nicht Null. Der zuständige schwache Parameter ist nicht streng, aber statistisch signifikant erhalten.

Wird in einer fiktiven Gesellschaft kein einziges Gewässer durch Menschen verschmutzt, dann ist der schwache Zustandsparameter Wasserqualität statistisch signifikant erhalten.

Die Beschreibung durch einen erhaltenen starken Parameter ist deterministisch, die Beschreibung durch einen erhaltenen schwachen Parameter nur statistisch.

In allen realen Gesellschaften gibt es bestenfalls soziale Subsysteme, in denen viele oder die meisten erklärten starken Parameter wenigstens zeitweise erhalten sind. Denn keine reale Gesellschaft ist frei von Totschlag oder auch nur von Gewalt.

Im allgemeinen sind in realen Gesellschaften selbst starke Zustandsparameter bestenfalls signifikant erhalten.

Die Beschreibung eines Sozialsystems durch streng erhaltene starke Zustandsparameter ist deterministisch (Mikroethik).

Die allgemeinere Beschreibung durch erhaltene schwache Parameter oder durch nicht erhaltene starke oder schwache Parameter ist nichtdeterministisch, also grundsätzlich statistisch (Makroethik).

Je höher der wissenschaftlich-technische Stand, je komplexer die Sozialstruktur, desto größer die natürliche Zahl n der Zustandsparameter.

Allgemein läßt sich jede Gesellschaft und jedes soziale Subsystem als dynamisches komplexes System verstehen, dessen Zustand durch n-Tupel von starken oder schwachen Parametern beschrieben wird.

Der Grundzustand einer Gesellschaft konkreter Sozialstruktur wird durch ein n-Tupel von starken und schwachen Parametern beschrieben, die alle erhalten sind. Der Grundzustand beschreibt folglich den Zustand kleinst möglichen Schadens in linearer Näherung. Dieser Zustand ist praktisch so wenig erreichbar wie der thermische beim absoluten Nullpunkt der Temperatur. Er beschreibt den Zustand höchst möglicher Vernunft.

Sind alle starken und schwachen Parameter erhalten, erweisen sich Gesellschaft wie Subsysteme als statisch wie dynamisch stabil.

Da in jeder realen Gesellschaft Korrelationen zwischen vielen Schadenzuständen bestehen, bleiben die zugeordneten Parameter nur statistisch signifikant, nicht streng erhalten.

Der gewaltsame Umgang mit Menschen kann auch dann zur Tötung führen kann, wenn dies nicht beabsichtigt ist: Nur eine gewaltfreie Gesellschaft wäre vollkommen frei von Totschlag.

Ständige Aufgabe der Makroethik ist die Ermittlung geeigneter minimaler n-Tupel starker und schwacher Parameter, welche eine Gesellschaft und alle ihre wesentlichen sozialen Subsysteme jeweils beschreiben.

Beim heutigen Stand der Natur- und vor allem der Wirtschafts- und Sozialwissenschaft ist es schwierig, eine minimale Zahl schwacher Zustandsparameter zu finden, die den Schadenszustand von Deutschland, der deutschen Wirtschaft und aller anderen tragenden Subsysteme in linearer Näherung quantitativ zureichend beschreibt.

3.5 Gerechte Gesellschaften
Die fiktive Gesellschaft höchster sozialer Ordnung und Symmetrie, in der alle starken Zustandsparameter erhalten sind, heisse gerecht.

In der Gesellschaft höchst möglicher sozialer Ordnung und Symmetrie werden somit auf jeden Fall alle starken Normen befolgt.

Wenn eine starke Norm von allen befolgt wird, wird die Klasse von schädlichen Interaktionen, welche die Norm verbieten, vermieden.

Ist die Forderung, nur alle starken Zustandsparameter müßten erhalten bleiben, nicht zu schwach, um den Begriff gerecht so zu erklären, daß er mit unserem intuitiven Verständnis von Gerechtigkeit vereinbar ist?

Allein die in jeder Gesellschaft bestehenden Korrelationen zwischen schädlichen Ereignissen erzwingen die Erhaltung vieler schwacher Para-meter nur aufgrund der Erhaltung aller starken Zustandsparameter.

Eine unsoziale Gesellschaft wird etwa - dies lehrt bereits die All-tagserfahrung - nicht frei von Raub oder Diebstahl sein, d.h. die starken Parameter Abwesenheit von Raub oder Abwesenheit von Diebstahl wären nicht erhalten. Die gewaltsame Unterdrückung "zu kurz Gekommener" durch den Staat oder durch Stärkere wäre wiederum mit der Annahme strenger Gewaltfreiheit unvereinbar.

Vergleichbare Argumente lassen sich für die Erhaltung anderer starker Normen und deren Einfluß auf die Erhaltung schwacher Normen finden.

Es ist deshalb wirklich angemessen, von der Vernunft von Gesellschaften und nicht nur der von Personen zu sprechen. Denn wenn in einer Gesellschaft viele Verbrechen nachweisbar sind, liegt dies nicht nur an der mangelnden Vernunft einzelner Bürger, sondern auch an der mangelnden Vernunft der Gesellschaft, etwa einer totalitären oder einer rein "kapitalistischen" Gesellschaft, die nicht in der Lage ist, ihren Randgruppen tatsächlich einen ausreichenden Anteil an den politischen, materiellen, sozialen und kulturellen Erungenschaften der Gesellschaft - im Vergleich zu anderen Gesellschaften der selben historischen Zeit - zu gewähren.

Die Vernunft von Gesellschaften und der Vernunft ihrer Bürger bedingen sich stets gegenseitig. Dieser Sachverhalt ist insbesondere auch im Strafrecht zu berücksichtigen: Mangelnde Vernunft der Gesellschaft kann nicht durch härtere Strafen allein auf Kosten einzelner benachteiligter Schichten oder gar Bürger kompensiert werden.

Es gibt nur gerechtere und weniger gerechte, aber keine gerechten re-alen Gesellschaften. Denn keine reale Gesellschaft kann garantieren, daß alle ihre sozialen Subsysteme auch alle starken Normen einhalten.

Formal kann man Ungerechtigkeit als Störung der höchst möglichen sozialen Ordnung und Symmetrie einer Gesellschaft verstehen. Störungen können räumlich isoliert oder zusammenhängend, ganze Regionen wie Schichten umfassend, auftreten. Im letzten Falle gefährden sie bei dynamischer Betrachtungsweise die Stabilität einer Gesellschaft und ihrer Umgebung bis hin zur chaotischen Entartung (unprovozierter An-griffskrieg, Bürgerkrieg, mangelnde Beherrschung technischer Systeme, Zusammenbruch einer Volkswirtschaft, Gewalt gegen die Natur).

Die gerechte Gesellschaft läßt sich so ohne Rückgriff auf kodifizierte rechtliche Normensysteme erklären, wie sie heute im Völkerrecht oder der internationale Charta der Menschenrechte vorliegen.

Der Grundzustand jeder Gesellschaft beschreibt auch die - fiktive - gerechte Gesellschaft: Die fiktive vernünftige Gesellschaft ist erst recht gerecht.

Je vernünftiger eine Gesellschaft, desto größer ihrer überlebensfähigkeit im friedlichen Wettbewerb (20), desto größer die mittleren Lebenschancen aller ihrer Schichten oder aller ihrer Bürger.

Eine Gesellschaft ist gleichermaßen um so liberaler und sozialer, je vernünftiger sie ist.

"Eine Theorie der Gerechtigkeit" von John Rawls (21, 22), hat Gemeinsamkeiten mit der hier skizzierten ethischen Theorie; sie könnte so auch "Eine Theorie der Lebenschancen heißen".

Rawls Grundgedanke: Die universellen Verhaltensnormen einer Gesellschaft werden durch einen gedachten rationalen Diskurs freier und mündiger Bürger unter dem "Schleier der Ungewißheit" gewonnen.

Der Evaluierungsprozeß steht unter dem obersten Prinzip "Gerechtigkeit als Fairneß". Genau die Verhaltensnormen, die in dem gedachten Diskurs von allen als fair angenommen werden, weil eben niemand weiß, ob er einmal etwa reich oder arm, stark oder schwach, Frau oder Mann, klug oder dumm, gesund oder krank, gewandt oder behindert, schwarz oder weiß sein wird, gelten als ethisch gerechtfertigt.

Drei entscheidende Unterschiede bestehen zur präskriptiven Komponente der empirisch gehaltvollen Ethik.

Erstens: Fairneß ist als komparativer Begriff nicht meßbar.

Zweitens: Richtige Normen werden in der wissenschaftlichen Ethik nur durch Erfahrung, in komplexen Gesellschaften durch entsprechende em-pirische Forschungsprogramme, nicht aber - wie bei Rawls - durch Dis-kurse bestimmt.

Drittens: Die Anwendbarkeit richtiger Normen hängt vom sozialen Umfeld der Verantwortlichen ab. Sobald durch Nichtbefolgung von Normen - aus welchen Gründen auch immer - Normenkonflikte entstehen, lassen sich nicht mehr alle richtigen Normen befolgen. Die Anwendbarkeit des ethischen Grundprinzips erzwingt eine nichtlineare Ethik.

4. Nichtlineare Ethik: Verantwortungsethik

4.1 Freie und gebundene Zustandsparameter
Es gibt in allen Sozialsystemen zwei Klassen von Zustandsparametern: erhaltene und nichterhaltene.

Der Grundzustand jeder Gesellschaft zur Zeit t wird definitionsgemäß durch ein geeignetes n-Tupel von starken und schwachen Zustandsparametern beschrieben, die alle erhalten sind.

Der Grundzustand beschreibt die oben erklärte fiktive vernünftige Gesellschaft. Jeder Verantwortliche kann darauf vertrauen, daß jeder andere Verantwortliche richtig handelt, also alle richtigen starken und schwachen Normen einhält.

Zustandsparameter und Normen, die erhalten sind, werden als freie Parameter oder Normen bezeichnet.

Existiert nur ein einziger potentieller Totschläger, muß zur Erhaltung des Zustands einer von gewaltsamem Tod möglichst freien Gesellschaft, im Extremfall die Tötung des Gewalttäters in Kauf genommen werden. Es steht einem Verantwortlichen somit nicht mehr frei, die dem Zustandsparameter "Freiheit von Gewalt" zugeordnete Norm "Wende keine Gewalt an" einzuhalten. Denn würde er sie einhalten, könnte er nicht mehr sicher die Forderung der Schadensminimierung befolgen.

Zustandsparameter, die nicht mehr erhalten sind und Normen, die nicht mehr befolgt werden können, ohne den Zweck der Schadensminimierung zu gefährden, mögen gebundene Parameter oder Normen heißen.

4.2 Der Rang von Zustandsparametern
Der Rang eines Zustandsparameters ist das Maß für den mittleren Aufwand in einer Gesellschaft mit vorgegebenem wissenschaftlich-technischem Standard, den Schaden, der bei Nichterhaltung des Parameters entsteht, rückgängig zu machen oder näherungsweise zu kompensieren.

Im Falle etwa des starken Parameters "Freiheit von Totschlag" heißt Nichterhaltung bereits, daß die Wahrscheinlichkeit des Totschlags in dem fraglichen Sozialsystem verschieden von Null ist.

Im Falle des schwachen Parameters "Geringst mögliche Umweltverschmutzung" heißt Nichterhaltung, daß die bisher statistisch signifikant begrenzte Umweltverschmutzung durch menschliches Fehlverhalten (weit-gehend) außer Kontrolle gerät.

Gehört z.B. Menschen der Klasse der durch Gewalt Verletzten an, ist der Rang des gebundenen Zustandsparameters durch den mittleren (fi-nanziellen) Aufwand erklärt, der in der Gesellschaft aufgebracht werden muß, um alle Verletzten auszuheilen.

Beliebige Verfeinerung sind möglich: Das Opfer könnte etwa der Klasse junger oder der Klasse behinderter Menschen angehören. Behinderte zu verletzen wäre also verwerflicher als gesunde Menschen, was mit unserer moralischen Intuition übereinstimmt.

Künftig werde der Grundzustand jeder Gesellschaft oder jedes ihrer sozialen Subsysteme zur Zeit t jeweils durch ein geordnetes minimales n-Tupel aller erklärten Zustandsparameter beschrieben, beginnend mit den Parametern höchsten Ranges.

4.3 Normenkonflikte
Nach Verstößen gegen starke Normen treten starke Normenkonflikte, in der philosophischen Ethik auch moralische Dilemmata (23) genannt, auf. Je mehr Normenkonflikte, desto ungerechter die Gesellschaft. Normenkonflikte reduzieren Symmetrie und Ordnung einer Gesellschaft oder eines ihrer sozialen Subsysteme: Die Anzahl gebundener Zustandsparameter wächst.

Schon bei einem Notwehrfall ist, wie oben beschrieben, der starke Zustandsparameter der körperlichen Unverletztlichkeit nicht mehr erhalten.

In Normenkonflikten können nicht mehr alle starken Normen befolgt werden. Je mehr Schadenszustände der sozialen Subsysteme einer Gesellschaft gebunden sind, desto höher ist der Schadenszustand, die soziale Temperatur ("Fiebertemperatur") einer Gesellschaft und desto instabi-ler deren jeweilige dynamische Entwicklung. Wenn nicht mehr alle star-ken Normen erhalten sind, dann verschwinden nicht mehr alle zugehöri-gen übergangswahrscheinlichkeiten in höhere Schadenszustände.

Dabei kommt es auch auf die räumliche und schichtenspezifische Verteilung der Verstöße gegen starke Normen und der starken Normenkon-flikte an. Räumlich oder schichtenspezifisch isolierte Verstöße oder Konflikte gefährden die Stabilität einer Gesellschaft weniger als sol-che, die sich weder räumlich, noch schichtenspezifisch, noch zeitlich eingrenzen lassen.

In Grenzfällen, wo tragende Subsysteme einer Gesellschaft wegen des Verlusts des moralischen Grundkonsenses größere Räume, ganze Schichten oder ethnische Gruppen infizieren, droht chaotische Entartung.

Von allen zu einer bestimmten historischen Epoche existierenden realen Gesellschaften mögen die relativ vernünftigsten offene Bürgergesell-schaften, ihre zugehörigen Staaten offene Bürgerstaaten heißen; offen deshalb, weil beide sich in Richtung größerer Schadensarmut entwikkeln, also reformfähig sind.

Wenn z.B. Staatsorgane, ohne in einer inneren oder äußeren Notwehrsituation zu sein, das Recht haben, Menschen zu töten, dann kann es sich nicht um einen offenen Bürgerstaat handeln. Auch die Todesstrafe ist nicht statthaft, da Töten im Rahmen der Schadenminimierung nur in aku-ten Notwehrsituationen statthaft ist.

Schwache Normenkonflikte können selbst in optimal vernünftigen Gesell-schaften auftreten: Z.B. bei Ressourcenmangel oder wenn wegen hoch-korrelierter komplexer Schadensereignisse eine Schadensbegrenzung aufgrund mangelnder Kompetenz von Wissenschaft und Technik unmöglich ist.

Meist aber entstehen Normenkonflikte als Folge der Mißachtung richtiger Normen.

Offene Bürgerstaaten sollten keine Strafe als "Sühne" kennen. Strafen dienen ihrer Tendenz nach ausschließlich der "Wiedergutmachung" (Die Sicherheitsverwahrung ist keine Strafe).

Die richtige Ethik kann so vergleichbar große politische Auswirkungen haben, so wie die richtige Physik vergleichbar große technische Auswirkungen haben kann. Kann deshalb, weil Physik wie Ethik Angebote machen, die wegen der Freiheit des Menschen auch nicht genutzt werden können. Im Falle der Ethik spricht man dann von gesellschaftlich unverantwortlichem Verhalten. Im Falle der Physik kann es sich ähnlich verhalten, wenn die Ergebnisse der Physik nicht für den stetigen Prozeß der Schadenminimierung verwendet werden.

Zur Schadensminimierung in realen Subsystemen beliebiger Komplexität, läßt sich folgendes Grundprinzip richtigen Handelns, das universelle Handlungsprinzip "Duldung und Einmischung" einführen. Es tritt an die Stelle rein moralischen Verhaltens selbst dann, wenn es sich den moralische Normen um richtige Normen handelt. Wir sprechen deshalb von "gesellschaftlicher" anstelle von "moralischer" Verantwortung.

Seiner gesellschaftlichen Verantwortung wird nur gerecht, wer - notfalls durch Einmischung - in allen Subsystemen, in denen er Verantwortung trägt, die Zahl gebundener Zustandsparameter und Normen zu minimieren sucht (I).

Jedes Subsystem, das in allen seinen Verantwortungsbereichen die jeweiligen übergangswahrscheinlichkeiten in höhere Schadenszustände minimiert, handelt gesellschaftlich verantwortlich (II).

Personen oder dynamische komplexe Sozialsysteme, die in allen ihren Verantwortungsbereichen maximal zur internen wie externen Stabilität beitragen, handeln gesellschaftlich verantwortlich (III).

(I) ist die einfachere statische, (II) und (III) sind präzisere dynamische Formulierungen des Prinzips. Es gilt für individuell wie kollektiv Handelnde.

Jede Schadensminimierung erfolgt "top down", nicht "bottom up": Je größer der Verantwortungsbereich, desto größer die Zahl hoch korre-lierter Schadensereignisse im zugehörigen spezifischen Schadensraum. Deren Wahrscheinlichkeit muß minimiert werden muß, um die einzelnen Schadensräume aller dem Verantwortungsbereich angehörigen Menschen klassenweise und so die Stabilität des Gesamtsystems zu optimieren.

Der Verantwortungsbereich des US-Präsidenten ist größer und komplexer als der eines Familienvaters, sein Minimierungsproblem entsprechend schwieriger. Der US-Präsident hat in der Regel auf die Minimierung der Zahl gebundener Zustandsparameter zu achten, der Familienvater auf die Minimierung der Zahl gebunderer Normen.

Doch ist keine Lösung des Minimierungsproblems zulässig, bei dem nicht die mittleren Freiräume der Individuen aller Schichten und aller Schadensklassen maximiert werden. Dies bedeutet insbesondere, Ziele mit einem Minimum an Gewalt und Tod zu erreichen, wobei aus ethischer Sicht kein Unterschied zwischen den Toten des eigenen Volkes oder fremder Völker gemacht werden darf.

Von zwei Gesellschaften ungefähr gleichen Bildungsstandards und ungefähr gleichen wissenschaftlich-technischen Wissens gewährleistet diejenige für alle vergleichbaren sozialen Schichten faktisch relativ größere Freiräume, die ihren "Eliten", also denjenigen die von ihren Fähigkeiten her größere Verantwortung tragen, auch größere Freiräume zubilligt. Egalitärere Gesellschaften erkaufen ihren Status mit insgesamt niedrigeren individuellen Freiräumen.

Die Vernunft einer Gesellschaft läßt sich an den Freiräumen ihrer jeweiligen Randgruppen - etwa der Alten, Behinderten, Kranken, Einkommens- und Leistungsschwachen - messen: Je größer deren Freiräume im Vergleich zu den entsprechenden Freiräumen anderer Gesellschaften ungefähr gleicher wissenschaftlich-technischer Leistungsfähigkeit, desto höher die gesellschaftliche Vernunft.

Die Verantwortungsbereitschaft in realen Gesellschaften liegt um so höher, je mehr Personen sich dem Handlungsprinzip freiwillig unterwerfen, also auch dann danach handeln, wenn ein eventueller Verstoß un-entdeckt bliebe.

Die Häufigkeit von Normenkonflikten bestimmt das Ausmaß des Grades der Vernunft einer realen Gesellschaft. Die Befolgung der Regeln (I), (II) oder (III) trägt so zur Stabilisierung einer durch Konflikte bereits gestörten und damit instabileren Gesellschaft bei.

Je mehr starke Zustandsparameter in den einzelnen Subsystemen einer Gesellschaft gebunden sind, desto höher liegt der Schadenszustand, ist die "Schadenstemperatur".

Personen oder Subsysteme, die nicht den Willen haben, sich den Regeln (I), (II) oder (III) zu unterwerfen, müssen im eigenen Interesse hoffen, daß alle möglichen Partner es dann tun, wenn sie selbst in Not geraten. Sie fordern von Anderen, was sie selbst nicht leisten wollen.

Das Prinzip hat seinen Namen, weil - im Unterschied zur Gesinnungsethik - in der Ethik der Schadensminimierung "geduldet" werden muß, daß nach Normenverstößen anderer nicht mehr alle richtigen Normen erhalten bleiben können.

Gesinnungsethik und Verantwortungsethik sind meist komplementär. Dann handelt ein Verantwortlicher "nur moralisch", nimmt er in Kauf, daß absehbarer Schaden nicht minimiert wird (Gesinnungsethik). Minimiert er Schaden tatsächlich, handelt also gesellschaftlich verantwortlich, muß er zwangsläufig in dem einen oder anderen Verantwortungsbereich eigene oder fremde Verstöße gegen bestimmte richtige Normen in Kauf nehmen (Verantwortungsethik).

Aus dem Prinzip der Schadensminimierung folgt der Satz:

Bei Interaktionen zwischen zwei Subsystemen A und B, bei denen B zuerst gegen richtige Normen verstößt, werden die Ränge vergleichbarer Normen, die B schützen, gegenüber den Rängen der entsprechenden Normen vermindert, die A schützen.

In einer Notwehrsituation zwischen zwei Personen kann der sich Verteidigende nicht mehr der Norm der Gewaltfreiheit gehorchen, ohne in Kauf zu nehmen, selbst verletzt oder gar getötet zu werden. Dies widerspricht aber dem Prinzip der Schadensminimierung. Er muß also zu seiner eigenen Verteidigung oder zur Verteidigung eines Dritten notfalls den Angreifer - die diesen schützenden Normen werden im Vergleich zu den entsprechenden des Opfers oder des Verteidigers im Rang gesenkt - verletzen oder - im Extremfall - dessen Tod bewirken.

Analog ist gegenüber Staaten oder Bürgerkriegsgruppen zu verfahren, wenn diese Angriffshandlungen beginnen: Es gibt "gerechte Kriege"!

Der Pazifismus - eine historisch aus moralischer Verantwortung entstandene Verhaltensweise - war gegenüber Deutschland im zweiten Weltkrieg gesellschaftlich unverantwortlich.

Ein aktuelles Beispiel. Der Journalist Michael Thumann schrieb jüngst in "Die Zeit": "Der bosnische Krieg ist vor allem ein Kampf bewaffneter Krimineller gegen die unbewaffnete Zivilbevölkerung" (24). Im Sin-ne der Ethik der Schadensbegrenzung gibt es wie im Falle von Hitler-Deutschland nur eine verantwortbare Reaktion: Diesen Kriminellen auch mit militärischer Gewalt unverzüglich das Handwerk zu legen.

Das aus dem Prinzip Schadensminimierung abgeleitete Handlungsprinzip "Duldung und Einmischung" ersetzt den oben zitierten "kategorischen Imperativ" Kants :"Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, daß sie ein allgemeines Gesetz werde" (7).

Gesetze im Sinne Kants sind alle richtigen Normen. Diese können nach Normenverstößen durch andere vom den jeweils Verantwortlichen nur dann alle selbst eingehalten werden, wenn diese auf die Schadensminimierung verzichten. Die durch Alltagserfahrung ergänzte Vernunftethik Kants stellt so eine reine Gesinnungsethik dar.

Das für die neue Ethik notwendige Forschungsprogramm hat z.B. n-Tupel geordneter Zustandsparameter für die deutsche Gesellschaft in ihrer natürlichen und sozialen Umgebung (Europa, die Welt) sowie für tragende Subsysteme - etwa das Rechtssystem, die Wirtschaft, den Staat, die Technik oder die Wissenschaft - zu liefern. Die zugehörigen Familien richtiger Normen mit ihren Rängen benötigt man ebenfalls. Die gegenwärtigen internen übergangswahrscheinlichkeiten in höhere Scha-denszustände, abhängig von der sozialen Schichtung, der räumlichen Verteilung und der Zeit, müssen ermittelt und die jeweils Verantwortlichen ausgemacht werden. Endlich gilt es, mit Hilfe der bewerteten Normen Strategien (u.a. etwa unter Einsatz der Spieltheorie), bereit-zustellen, die mit hoher Wahrscheinlichkeit Schadensereignisse begren-zen können.

Ethische Erfolgsstrategien sind stets vom Grad der Vernunft der Ge-sellschaft, des Staates oder allgemeiner der sozialen Umgebung, in der sie angewandt werden sollen, abhängig. Je mehr miteinander korrelierte verschiedene Schadensereignisse durch das objektive Fehlverhalten von Personen und Institutionen entstehen, je größer also die tatsächlichen übergangswahrscheinlichkeiten in höhere Schadenszustände sind, desto weniger freie Zustandsparameter existieren noch. Die evolutionäre Ethik der Schadensbegrenzung ist - wie bereits erwähnt - eine nichtlineare Theorie, eine Theorie dynamischer komplexer Systeme; das vernünftige Verhalten jedes Verantwortungsträgers an das tatsächliche Verhalten der Verantwortungsträger in der sozialen Umgebung gekoppelt.

Der Kantsche kategorische Imperativ wird, will man Schaden minimieren, um so weniger anwendbar, je ungerechter die Gesellschaft oder die soziale Umgebung ist, in der Verantwortliche leben.

Bereits aus der Geschichtsschreibung und den Sozialwissenschaften ist bekannt (2, 25, 26), daß offene Bürgergesellschaften bzw. -staaten gerechter, vernünftiger und damit überlebensfähiger sind als anderen der gleichen Epoche.

In offenen Bürgerstaaten werden Familien starker Normen höchsten Ranges in Grundrechte, die Familien richtiger Normen höheren Ranges in Gesetze überführt, an die sich die überwiegende Mehrzahl der Bürger und Institutionen selbst dann hält, wenn ein eventueller Verstoß unentdeckt bleibt.

Eine der wichtigsten Aufgaben eines offenen Bürgerstaates besteht darin, diejenigen Bürger, die nicht den Willen haben, gesellschaftlich verantwortlich zu handeln, durch Strafandrohung und -verhängung dazu zu bringen, wenigstens rechtlich verantwortlich zu handeln.

Ein schwieriges Teilgebiet der Rechtsethik beschafft sich mit der Fra-ge der Abschreckung durch Strafen. Wenn empirisch nachgewiesen ist, daß eine relativ hohe Strafe abschreckende Wirkung besitzt, ist ihre Einführung grundsätzlich statthaft. Dabei sind jedoch zwei Randbedingungen zu beachten. Erstens: Die Einführung der Todesstrafe ist auch zur Abschreckung nicht statthaft. Zweitens: Vor der möglichen Einführung abschreckender Strafen müssen alle möglichen vorbeugenden Maßnahmen ausgeschöpft sein.

Grundrechte wie Gesetze werden in offenen Bürgergesellschaften durch Mehrheit und nicht aufgrund der wissenschaftlichen Richtigkeit gewonnen. Parlamentarische Mehrheit, selbst Konsens kann aber kein Ersatz für (wissenschaftliche) Richtigkeit sein.

Bis Ableitungen richtiger Normen durch empirische Ermittlung von präzise erklärten Schadensereignissen gewonnen sind, mag die Einigung auf die international gültigen Menschenrechte einen vertretbaren globalen Minimalkonsens der Vernunft beschreiben.

5. Ethik und Verantwortung in der Physik

5.1 Die Jahrhundertwissenschaft Physik
Seit Beginn dieses Jahrhunderts entscheidet sich die Zukunft der Völker sichtbar mehr in den Laboratorien als in Kriegen.

Im ersten Weltkrieg hat erstmals die chemische Forschung zu dessen Verlängerung beigetragen. Sonst wäre den Achsenmächten im wörtlichen Sinne des Wortes "das Pulver ausgegangen".

Im zweiten Weltkrieg war das aus ethischer Sicht bedeutendste Ereignis die Entwicklung der Atombombe durch die in den USA befindliche Weltelite der theoretischen und der experimentellen Physik. Vor 50 Jahren, am 16. Juli 1945, erfolgte in Alamogordo die erste Testexplosion, am 6. August 1945 der erste Abwurf einer Atombombe auf Hiroschima.

Grundlagenforschung führte hier unmittelbar zur Anwendung, dazuhin zur kriegerischsten Anwendung, die damals überhaupt möglich war. Die Entwicklung war nur möglich aufgrund der ungeheueren wirtschaftlichen Leistungsfähigkeit der amerikanischen Volkswirtschaft. Die Physik wur-de zur "Jahrhundertwissenschaft" (27) des 20. Jahrhunderts.

Heute mögen die wissenschaftlich-technischen, vor allem aber auch gesellschaftlichen und kulturellen Auswirkungen der Informatik, die zur Informationsgesellschaft führen, die absehbaren friedlichen Auswirkungen der Anwendungen der Physik in ihrer Breitenwirkung weit übertreffen. Deshalb sollen im nächsten Kapitel die Besonderheiten der gesellschaftliche Verantwortung in der Informatik näher untersucht werden. Dies um so mehr, als Informatik wissenschaftstheoretisch eine neuartige Wissenschaft darstellt.

Die hier entwickelte ethischen Theorie läßt sich auch auf die Medizin oder die Biologie und die biologische Technologien anwenden, die wahrscheinlich die Jahrhundertwissenschaften des 21. Jahrhunderts werden.

Wie bei den empirisch gehaltvollen physikalischen Theorien gibt es auch bei den empirisch gehaltvollen ethischen Theorien eine Theoriendynamik: Ethik ist wie die Physik eine evolutionäre Wissenschaft.

5.2 Zur Evolution der Physik
Abweichend von Kants Auffassung, wie er sie in seiner "Kritik der reinen Vernunft" (28) beschrieben hat, geht man heute bei der Begründung physikalischer Theorien nicht mehr von unabänderlichen Voraussetzungen "a priori" aus. Als a-priori-Voraussetzungen gelten vielmehr genau je-ne, oft nur intuitiv gewonnenen, nichtempirischen Voraussetzungen, welche eine bestimmte physikalische Theorie erst möglich machen.

Sowohl für die Newtonsche Physik wie für Relativitätstheorie oder Quantenmechanik bildet die Richtigkeit der eingesetzten mathematischen Methoden eine der a-priori-Voraussetzungen. In der Newtonschen Physik sind der absolute Raum oder die in den Newtonschen Grundgleichungen enthaltenen Kausalitätsannahmen a-priori-Voraussetzungen. Den absolu-ten Raum kennt die Relativitätstheorien nicht mehr, Kausalitätsbe-ziehungen in Quantenmechanik oder Quantenfeldtheorie werden in den Grundgleichungen beider Theorien statistisch formuliert, nicht deterministisch wie in der Newtonschen Mechanik. Soweit das "wechselnde" a priori in der modernen Physik.

Seit Thomas Kuhns Werk "Die Struktur wissenschaftlicher Revolutionen" (29) und dessen wissenschaftstheoretischer Vertiefung durch Wolfgang Stegmüller (30) hat sich auch außerhalb der Physik die Erkenntnis durchgesetzt, daß es eine "Theoriendynamik" gibt.

Bereits Heisenberg hat festgestellt, daß eine neue physikalische Theorie empirisch gehaltvoller ist als ihre Vorgängerin. Sie reproduziert die gesicherten Resultate der älteren Theorie und erlaubt zusätzlich die Ableitung neuer Prognosen, insbesondere neuer Naturgesetze.

Naturgesetze lassen sich einmal dadurch bestätigen, daß sie zu richtigen Prognosen führen. Zum anderen aber erlauben sie die Konstruktion technischer Systeme mit einer vorgegeben Zweckorientierung, für welche die ältere Theorie keine Grundlage bilden konnte. Ohne Quantenmechanik etwa keine Mikroelektronik.

Physikalische Theorien kann man nach ihrer Konsolidierung in eine ax-iomatische Gestalt bringen, aus der sich insbesondere alle richtigen alten und neuen Naturgesetze ableiten lassen.

Genau genommen sind physikalische Theorien keine fertigen Theorien, sondern Theoriegeneratoren.

Die Grundlagengleichungen einer Theorie, durch die bereits die spezi-fischen Kausalbeziehungen und Symmetrien festgelegt werden, werden ergänzt durch Naturkonstanten, die experimentell bestimmt werden, und durch Ansätze über erklärte Wechselwirkungen, aus denen sich dann erst die richtigen oder "wahren" Naturgesetze mathematisch ableiten lassen. Die mathematischen Symmetrien legen z.B. bestimmte Erhaltungssätze, wie etwa die Sätze der Impuls-, Energie- oder Ladungserhaltung fest.

Physikalische Grundlagenforschung zielt primär darauf ab, neue Theoriegeneratoren zu finden, durch welche die bisherigen abgelöst und in ihrem Geltungs- oder Anwendungsbereich deutlich erweitert werden.

Ein erster Schritt kann dazu sein, bisher empirisch gut bestätigte Theorien zu falsifizieren (31). Dabei muß geprüft werden, ob der alte Theoriegenerator falsch ist, oder nur die Zusatzannahmen.

Aufgabe theoretischer Physiker ist, die Grundlagen eines neuen Theo-riegenerators zu "erraten", also auch neue a-priori-Voraussetzungen, seien es solche der Mathematik, oder neue physikalische Grundannah-men, wie im Falle der Relativitätstheorie das "Axiom", die Lichtge-schwindigkeit sei die höchste Signalgeschwindigkeit, in die Theorie einzuführen. Neue Theorien erlauben dann, neue richtige Naturgesetze abzuleiten, neue Elementarteilchen vorherzusagen oder neuartige technische Systeme - etwa Laser oder Supraleiter - zu entwickeln.

Die experimentelle Grundlagenforschung sucht, die Prognosen des vorgeschlagenen neuen Theoriegenerators empirisch zu bestätigen.

Wer eine empirisch gut bestätigte Theorie nicht zu widerlegen, sondern vielmehr dazu zu verwenden beabsichtigt, neue technische Systeme auf physikalischer Grundlage zu entwickeln, betreibt angewandte Forschung.

Physikalisch-technische Systeme dienen meist nichtphysikalischen Zwecken, wie etwa Atombomben, Fusionsreaktoren, der Konstruktion von Mikrochips oder Lasern, der Gewinnung supraleitender Materialien. Jede angewandte Forschung ist prinzipiell weltverändernde, "innovative Forschung".

Doch schafft angewandte Forschung und Entwicklung oft erst die not-wendige experimentelle Voraussetzung zu weiterer experimenteller Grundlagenforschung. Ohne die physikalisch-technischen Systeme der Teilchenbeschleuniger gibt es keine neue Theorie der Elementarteil-chen. Denn nur die Beschleuniger können sie bestätigen oder verwerfen. Deshalb gibt es kaum Grundlagenforschung ohne angewandte Forschung.

Vor der Entdeckung der Kernspaltung durch die Chemiker Otto Hahn und Fritz Straßmann hielten selbst die prominentesten Theoretiker die kernphysikalische Forschung kaum für praxisrelevant.

Nach Bekanntgabe der Einzelheiten änderte sich die Haltung der Fachleute "über Nacht": Die Nutzung der Kernspaltung zur Freisetzung größter Energiemengen in einer Bombe schien nur noch ein - im wesentlichen - großtechnisches Problem, kein Problem der Grundlagenforschung mehr.

Erstens: Was kann man aus der Evolution physikalischer Theorien für die Evolution empirisch gehaltvoller ethischer Theorien lernen?

Zweitens: Gibt es auch eine gesellschaftliche Verantwortung in der Grundlagenforschung?

Die zweite Frage wird im nächsten Abschnitt näher untersucht. Der ersten Frage wenden wir uns gleich zu.

5.3 Vergleich der Evolution der Physik mit der Evolution der Ethik
Physikalische Theorien beschreiben in der Natur vorkommende Systeme.

Die präskriptive Komponente ethischer Theorien sucht bestehenden Ge-sellschaften durch das Prinzip der Schadensminimierung neue Eigenschaften, insbesondere eine neue "richtige" Moral vorzuschreiben: Sie zeigt, auf welche Weise sich die Stabilität der dynamischen komplexen Sozialsysteme erhalten bzw. jeweils - wegen der Evolution von Naturwissenschaft und Technik - auf höherem Niveau besser erreichen läßt.

Sowohl bei physikalischen wie bei ethischen Theorien reproduziert die neuere alle richtigen Ergebnisse ihrer Vorgängerin, erlaubt aber zusätzlich die Erklärung neuer physikalischer wie ethischer Probleme.

So reproduziert die Theorie der Schadensbegrenzung auch die starken Normen, die sich etwa aus dem Kantschen kategorischen Imperativ ergeben. Zusätzlich aber erlaubt sie durch Einführung schwacher Normen eine noch wirksamere Schadensbegrenzung.

Außerdem "lernt" die Ethik der Schadenserkennung und -begrenzung aus den Ergebnissen aller Erfahrungswissenschaften; sie kann sich so auf neue Anforderungen einer technisch und sozial veränderten Gesellschaft einstellen.

Bis heute gibt es erst eine offen empirisch gehaltvolle ethische Theorie mit nachweisbarem Praxisbezug: die des Utilitarismus (8,9,10). Die hier vorgeschlagene neue wissenschaftliche Ethik versteht sich als un-mittelbare Nachfolgerin der empirisch gehaltvollen ethischen Theorie des Utilitarismus: Sie reproduziert Ergebnisse des Utilitarismus, vermag aber dort richtige Normen zu begründen und Normenkonflikte systematisch zu lösen, wo der Utilitarismus offenkundig versagt.

Wer z.B. in seiner Eigentumswohnung in einer sehr großen Anlage entgegen einem Beschluß der Eigentümerversammlung sich selbst nicht an eine Raumtemperatur von 20 hält, verletzt nicht das Prinzip der Nutzenmaximierung, weil sein isoliertes Handeln praktisch ohne Einfluß auf den Gesamtverbrauch an Energie ist. Da aber höherer Energieverbrauch durch reine Unterlassung vermeidbar ist, ist in der Ethik der Schadensminimierung jeder Eigentümer moralisch verpflichtet, die Raumtemperatur von 20 einzuhalten.

Während physikalische Theorien kausal sind und so zu Prognosen führen, deren Richtigkeit bestätigt oder falsifiziert werden kann, sind ethische Theorien nicht kausal, können sie nicht zu richtigen Prognosen führen. Sie beschreiben vielmehr nur die Chancen eines Sozialsystems, solange es sich relativ vernünftig verhält. Denn Freiheit erlaubt den Menschen, sich auch gegen die Minimierung von Schaden zu entscheiden.

Beide Theorien - physikalische und ethische - liefern aber zwingende Konstruktionsvorschriften für künstliche Systeme.

Im Falle technischer Systeme werden die zu ihrer Funktionsfähigkeit notwendigen physikalischen Theorien zusätzlich dadurch bestätigt, daß das technische System seinen vorgegebenen Zweck regelmäßig erfüllt. Wenn doch ein Flugzeug abstürzt, sucht man den Fehler nicht in den aerodynamischen Gesetzen, sondern in menschlichem Versagen, in Konstruktions- oder Materialfehlern.

Im Falle von Gesellschaften wird eine empirisch gehaltvolle ethische Theorie durch Beobachtungen, etwa wie in der Astronomie, nicht aber durch Experimente oder systematische Funktionstest, wie etwa bei Flugzeugen, überprüft.

Global gesehen gibt es stets verschiedene Gesellschaften mit ungefähr vergleichbar wissenschaftlich-technischem Standard, so daß vergleichende Beobachtungen, etwa über die Reformfähigkeit von Industriestaaten (32), möglich sind. Je vernünftiger eine Gesellschaft, desto lern- und damit reformfähiger ist sie und umgekehrt.

In einer Gesellschaft A mögen etwa ableitbare richtige Normen häufiger eingehalten werden als in einer Gesellschaft B, in A mögen die insgesamt selteneren ethischen Konflikte mit Hilfe bewerteter richtiger Normen rational gelöst werden, in B möge dies weniger häufig geschehen. Wenn dann A aufgrund von objektiven Meßgrößen - etwa Sozialindi-katoren (33) oder Statistiken der statistischen Jahrbücher - Schaden wirksamer begrenzt als B, dann ist die ethische Theorie durch Beobach-tung bestätigt.

5.4 Zur gesellschaftlichen Verantwortung in der Physik
Richtige Normen fordern alle Menschen zum richtigem Handeln auf. Ein Altphilologe trägt aber - im Gegensatz zu einem Arzt - beruflich keine Verantwortung für Menschenleben: Spezifische Berufe haben so spezifische schädliche Ereignisse zu minimieren und so sich auch nach spezi-fischen ethischen wie rechtlichen Normen auszurichten.

Wie weit trifft dies auch für die berufliche Arbeit der Physiker in der reinen Grundlagenforschung zu?

Sind Forscher wie Newton, Maxwell, Boltzmann, Planck, Curie, Rutherford oder andere stets für alle tatsächlichen Folgen ihrer Theorien oder Entdeckungen gesellschaftlich verantwortlich, auch wenn sie diese Folgen gar nicht absehen konnten?

Da bislang kein Forschungsprogramm Ethik existiert und weder qualitative noch quantitative ethischen Ergebnisse vorliegen, bleibt nur die etwas unbefriedigende heuristische Vorgehensweise.

Wir beschränken aus im folgenden auf die Problematik der Erhaltung der höchsten starken Norm, des Verbots zu töten.

Nicht Weltveränderung, sondern Welterkenntnis durch die zutreffende Beschreibung der Welt ist das Ziel von Physik, Chemie oder Biologie. Grundlagenforschung ist Teil der Kultur einer jeden Gesellschaft.

Im Gegensatz dazu ist von alters her das erklärte Ziel der Medizin die Weltveränderung, die Schadensminimierung: Mediziner wollen heilen.

Die kausale Beschreibung der Welt liefert aber auch - wie schon seit Bacon bekannt - die notwendige Grundlage jeder gezielten Weltveränderung. Die quantitativ-kausale Beschreibung durch evolutionäre physikalische Theorien führt so zu technischen Anwendungen von - wie wir erst heute wissen - immer größeren positiven wie negativen Ausmaßes.

Die meisten technischen Anwendungen vom Messer bis zum Flugzeug oder der Kernenergie sind aber ambivalent: Sie können zur Minimierung wie zur Maximierung von Schaden verwendet werden.

Natürlich wäre ohne die physikalische Grundlagenforschung ab Newton auch die Entwicklung der Atombombe unmöglich gewesen. Natürlich wären ohne die "reine Mathematik" - wie sie etwa Gauß, Riemann oder Hilbert erforschten - jene physikalischen Theorien, die zur Atombombe führten, niemals entstanden.

Doch setzt die gesellschaftliche Verantwortung in der Grundlagenforschung erst ein, wenn das Ausmaß des Schadens oder Nutzens neuer Theorien oder Entdeckungen erkennbar wird.

Unmittelbar nach Entdeckung der Kernspaltung durch chemische Methoden und der damit verbundenen Freisetzung von Neutronen war die theoreti-sche Deutung des Vorgangs bekannt: Mit der bloßen Möglichkeit der technischen Nutzung der Kernphysik zur Energieerzeugung, insbesondere auch in einer Bombe, deren Explosivkraft alle bisherigen Erfahrungen sprengen würde, setzte die Verantwortung der Vertreter der theoretischen Kernphysik ein. Der Chemiker Otto Hahn konnte hingegen die Tragweite seiner Entdeckung nicht absehen, trug somit keine gesellschaftliche Verantwortung dafür.

So sind die kausalen Theorien der physikalischen Grundlagenforschung - die ohne reine Mathematik nicht möglich gewesen wären - zwar ursächlich auch für die Entwicklung der Atombombe, die Verantwortung der "scientific world community of nuclear physics" hebt aber erst mit der Entdeckung und Erklärung der Kernspaltung an.

Nebenbei muß man aus der Sicht des Historikers fragen, ob die am Denken der Grundlagenforschung orientierten Physiker aufgrund ihrer Sozialisation und dem damaligen Stand der Moralphilosophie überhaupt in der Lage sein konnten, mit einem fachlichen Verantwortungsproblem dieser Größenordnung umzugehen.

Dies gilt besonders für das Jahr 1939, wo man mit der Hitlerherrschaft einen Kulminationspunkt der Unmenschlichkeit gekoppelt mit dem know-how des scheinbar weltweit bedeutendsten "Physik-Staates" vor sich hatte. Deutschlands Schwächung durch die Vertreibung jüdischer Physiker haben die Entwickler der Bombe kaum richtig eingeschätzen können.

Für die Frage der Ethik und der gesellschaftlichen Verantwortung in der Wissenschaft bildet jedenfalls die Geschichte der Atombombe ein hervorragendes Lehrstück.

Fachleute haben nur solange Macht, als ihr Wissen exklusiv bleibt. Wenig mehr als zwei Dutzend Physiker waren um 1940 weltweit fachlich überhaupt in der Lage, eine Kernspaltungsbombe zu entwickeln. Hätten diese wenigen Leute sich verschworen, keine Bombe zu bauen, hätte kein Politiker von der technischen Möglichkeit einer Bombe erfahren. Der Ausbruch des zweiten Weltkriegs unterband eine rechtzeitige weltweite Verständigung der verantwortlichen Physiker. Und wo eine persönliche Kommunikation noch möglich war - etwa im Falle Bohr-Heisenberg im besetzten Dänemark -, zerstörte das konkrete Mißtrauen selbst zwischen langjährigen Freunden die Grundlage für jede Verständigung.

Als dann 1945 in den USA die Bombe einsatzbereit war, ließ sich der Vorschlag von James Franck, sie zur Abschreckung über unbewohntem Gebiet explodieren zu lassen, in der Zeit des beginnenden Ost-West-Gegensatzes politisch nicht mehr durchsetzen, zumal der neue US-Präsident kaum über außenpolitische Erfahrungen verfügte.

Franck schrieb u.a.: "Wiederholt hat man den Wissenschaftlern den Vorwurf gemacht, die Nationen mit neuen Waffen zu ihrer wechselseitigen Vernichtung versorgt zu haben, anstatt zu ihrem Wohlergehen beizutragen (Schaden zu minimieren, d.V.).... In der Vergangenheit jedoch konnten die Wissenschaftler jede unmittelbare Verantwortung für den Gebrauch, den die Menschheit von ihren uneigennützigen Entdeckun-gen machte, ablehnen. Jetzt aber sind wir gezwungen, einen aktiven Standpunkt einzunehmen, weil die Erfolge, die wir auf dem Gebiet der Kernenergie errungen haben, mit unendlich viel größeren Gefahren ver-bunden sind, als bei den Erfindungen der Vergangenheit." (34)

Kaum verfügten die Politiker - auch die eines demokratischen Rechtsstaates, dessen Regierende sich traditionell dem Utilitarismus (2) verpflichtet fühlten! - über die Bombe, entschieden sie allein. Die Physiker haben "ihre Waffe" ein für allemal aus der Hand gegeben.

Die "friedliche Nutzung" der Kernspaltung mit der ungelöste Frage der Endlagerung stark strahlender Stoffe, welche die Erde auf Zeiträume hinaus belastet, die jedes Vorstellungsvermögen sprengen, mit der - wenn auch seltenen - äußerst unheilbringenden Möglichkeit des "GAU" bietet ein weiteres Beispiel für die Anwendung der neuen Ethik. Diese Problematik wird hier nicht weiter verfolgt, weil sie nur durch quantitative, empirisch-statistische Untersuchen gelöst werden kann.

Fazit: Mit dem Zeitpunkt, in dem Qualität wie Quantität eines möglichen Schadensereignisses erkannt wird, von dem aus also "technische Visionen" möglich sind, setzt die gesellschaftliche Verantwortung in der Grundlagenforschung ein. Die Verantwortung trägt die ganze Gruppe, die über das entsprechende Wissen verfügt. Ohne richtige Normen, ohne quantitative Ergebnisse einer empirisch gehaltvollen Ethik sind aber auch Fachleute überfordert. Die gegenwärtige öffentliche Diskussion über Ethik und Verantwortung in der Wissenschaft muß dies beachten.

Abschließend sei darauf hingewiesen, daß grundsätzlich in neuen physikalischen Technologien Risiken wie Chancen liegen. Die Vernachlässi-gung einer Chance ist nicht minder unverantwortlich im Sinne des Prin-zips der Schadenminimierung wie die Nichtberücksichtigung des Risikos. Hier läuft die rein qualitative Analyse von Hans Jonas (14) ins Leere.

6. Ethik und gesellschaftliche Verantwortung in der Informatik

6.1 Zur Verantwortung in innovativen Wissenschaften
Charakteristisch für die berufliche Verantwortung in innovativen, also weltverändernden Wissenschaften, sind zwei Aspekte.

Erstens sind Wissenschaftler außerhalb der auf die Formulierung neuer Theorien (neuer "Paradigmen" nach Kuhn) ausgerichteten Grundlagenforschung beruflich, mit Ausnahme der ärzte, keine Entscheider. Aufgrund ihres exklusiven Wissens kommt ihnen aber als Berater wie als Entwickler bei der Beschreibung und der möglichen Begrenzung einzelner Klassen von Schadensereignissen in allen Bereichen von Recht, Wirtschaft, Politik und Technik eine Schlüsselrolle zu. Diese Rolle ergänzt die mehr kulturell ausgerichtete und allgemeinere der Aufklärung. Beide Aufgaben seien unter dem Begriff der rechtzeitigen Informierung von Politik, Wirtschaft und öffentlichkeit zusammengefaßt.

Die Informationspflicht der Wissenschaft läßt sich als eine Familie intentional benachbarter richtiger Normen auffassen.

Zweitens arbeiten Wissenschaftler in Forschung wie Anwendung überwiegend in Gruppen. Sie tragen also - je nach Art und Rang ihres exklusiven Wissens, dem Einfluß ihrer Leitungsfunktion sowie ihres faktischen sozialen Einflusses - anteilig kollektive Verantwortung. Diesem wichtigen Sachverhalt berücksichtigen z.B. auch die "Ethischen Leitlinien" (35), welche die Mitglieder der Gesellschaft für Informatik 1994 ange-nommen haben.

Alle Wissenschaftler tragen ihren Anteil an der kompetenten Informierung der öffentlichkeit sowie der speziellen Beratung der jeweiligen Entscheider. Ihre gesellschaftliche Verantwortung ist um so höher, je größer die Beiträge der jeweiligen Wissenschaft zur Begrenzung von Schaden sind.

Die Natur- und Ingenieurwissenschaften, die Medizin, die Wirtschafts-, Rechts- und Sozialwissenschaften tragen jeweils große gesellschaftliche Verantwortung.

6.2 Das Sozialsystem Wissenschaft konstituierende Normen
Zentrale Bedeutung für die Wissenschaft haben Familien von starken Normen, die den Werten Richtigkeit oder "Wahrheit" zugeordnet werden können, also z.B. die Norm, Messungen nicht zu fälschen, oder die Norm, vorsätzlich falsches Rechnen zu unterlassen.

Richtigkeit als asymptotisch anzustrebendes Ziel, kann nur durch fairen Wettbewerb zwischen den verschiedenen Gruppen von Forschern oder zwischen verschiedenen Theorien näherungsweise erreicht werden.

Jedes soziale Subsystem Wissenschaft gehört einer bestimmten Kultur und einem bestimmten Staat an. Seinen Zweck aber kann es nur durch weltweite fachliche Kommunikation und Kooperation erreichen: Wissenschaft als "Zweckbetrieb" ist wie Kultur oder Sport stets weltbürgerlich orientiert. über die Zugehörigkeit zum Sozialsystem Wissenschaft insgesamt, zur globalen "scientific community", entscheidet nur fach-liche Kompetenz. Aus dieser Weltbürgerlichkeit folgt: Nicht Nation, Geschlecht, Religion oder soziale Position spielen eine Rolle, sondern nur der individuelle Beitrag für den Wettstreit zwischen den Theorien.

Vergleichbare überlegungen treffen für den Wettbewerb in den Anwen-dungsbereichen zu: Schadenminimierung setzt einen ständigen Wettbewerb der Innovationen voraus.

Vom Forscher wird beruflich verlangt: Wisse, was du sagst! Vom Ingenieur und auch vom Informatiker: Entwickle nur schadenmindernde Systeme! Technik ist stets dann sozialorientiert und somit verantwortbar, wenn sie zur immer besseren Schadensbegrenzung beiträgt.

Die dauernde Erhaltung, ja die Verbesserung der fachlichen Kompetenz durch Forschung und Anwendung steht somit im Mittelpunkt der beruflichen Arbeit auch der Informatiker. Dieser Aspekt wird in den Ethischen Leitlinien der Gesellschaft für Informatik genau behandelt (35).

Eine weitere Familie - diesmal schwacher - Normen ist die der Subsidiarität. In Forschung und Entwicklung ist Zentralismus innovationsfeindlich: Jeder Forscher und Entwickler soll den - aufgrund seiner Kenntnisse und Leistungsfähigkeit - maximalen Handlungsspielraum eingeräumt bekommen. Zentrale Entscheidungen müssen auf das notwendige Mindestmaß - etwa bei Großprojekten - beschränkt werden.

6.3 Gesellschaftliche Verantwortung in der Informatik
Informatiker tragen kaum ausschließliche Verantwortung für Erklärung und Begrenzung bestimmter Klassen von Schadensereignissen. Ihre Systeme können Elementarteilchenexperimente in der Hochenergiephysik auswerten, zivile wie militärische Flugzeuge einsatzfähiger machen, durch automatische Mustererkennung bei Luftvermessung in der Kartographie bessere Einsatzmöglichkeiten und den Nuklearraketen eine sicherere Zielfindung verschaffen. Doch ohne Hochenergiebeschleuniger und Elementarteilchendetektoren, ohne Verkehrsflugzeuge, Jäger, Bomber, ohne Luftvermessung oder Raketen vermögen Informatik-Systeme nichts.

In gewisser Weise ist also die Informatik mit der Mathematik zu vergleichen: Beide sind "Intelligenzverstärker" oder "Denkzeuge".

Die Anwendungsnähe der Informatik ist größer als die der Mathematik. Die Informatik hat zusätzlich die tägliche Praxis revolutioniert.

So, wie der Maschinenbau-Ingenieur der technische Leitberuf des letzten, der Elektroingenieur der Leitberuf der ersten Hälfte dieses Jahrhunderts ist, verkörpern die in der Informatik Tätigen den technischen Leitberuf des beginnenden Informationszeitalters: Informatik ist nicht alles, aber ohne Informatik ist (fast) alles nichts!

6.4 Charakteristische Sachverhalte für die Informatik
Erstens: Kein Informatik-System kann ein Anwendungsproblem lösen, wenn dafür nicht zuverlässige wissenschaftliche oder praktische Erfahrungen vorliegen: Die durch Informatik-Systeme gewonnenen Lösungen von Problemen, die letztlich durch Ziffern, also "digital", beschreibbar sein müssen, können nicht besser sein als die meist nicht dem Gegenstandsbereich der Informatik entstammenden Modelle sowie die Zuverlässigkeit der dafür benötigten Daten. Informatik trägt also zur Reduktion von Komplexität in vergleichbarem Maße wie - in ihren engeren Anwendungs-bereichen - die Mathematik bei.

Zweitens: Informatik-Systeme selbst bestehen aus mindestens vier Ebenen. Ebene 1 entspricht der Hardware, die physikalischen Gesetzen gehorcht. Ebene 2 setzt sich aus Modellen und Programmen - Betriebs- sowie Anwendungsprogrammen - zusammen, durch welche erst die Hardware in den Stand versetzt wird, das entsprechende Anwendungsproblem zu lösen. Dabei ist zu beachten, daß alle dynamischen Prozesse, deren Anfangswerte digital dargestellt und deren Zeitablauf durch dynamische Modelle abgebildet werden können, prinzipiell durch Algorithmen auf Datenstrukturen, also durch Rechnerprogramme, behandelt werden können. Ebene 3 besteht aus dem Zusammenwirken der beiden Ebenen 1 und 2 mit den Menschen, welche das Informatik-System tatsächlich einsetzen, und Ebene 4 umfaßt alle Lebewesen, die durch das Zusammenwirken der Ebenen 1 bis 3 betroffen sind.

Die Zuverlässigkeit der Ebene 1 ist hoch: Sie beruht auf der Zuverlässigkeit der ihr zugrundeliegenden physikalischen Gesetze.

Die Verläßlichkeit der Ebene 2 hängt grundsätzlich von vier Faktoren ab: Einmal der Richtigkeit des dem Programm zugrundeliegenden, in der Regeln nicht deduktiv-nomologischen Modells (dafür sind nicht die In-formatiker zuständig), zum zweiten der Zuverlässigkeit der Daten (auch hier sind die Informatiker nicht verantwortlich), zum dritten der korrekten eineindeutigen Abbildung des Modells auf das Programm, zum vierten der Verläßlichkeit des Programms selbst. Für die beiden letzten Punkte tragen die Informatiker die fachliche Verantwortung. Ohne genügend umfangreiche Tests keine Zuverlässigkeit auf Ebene 2!

Die Zuverlässigkeit der Ebene 3 wird beeinflußt von Hard- wie Soft-wareaspekten der Mensch-Maschine-Schnittstelle, der sogenannten Hard- und Softwareergonomie, sowie der Zuverlässigkeit und Kompetenz der das System einsetzenden Menschen.

Die Ebenen 3 und 4 werden von der Informatik-Forschung bisher nur am Rande behandelt, obwohl sie für die Schadensbegrenzung genau so wesentlich sind, wie die Hardware-Ebene 1 und die Software-Ebene 2.

Ebene 1 wird von technischen Informatikern, etwa Systemarchitekten, und Informationstechnikern gemeinsam verantwortet. Sie beinhaltet keine typischeren Verantwortungsproblemen als sonst in der Technik. Charakteristisch für die in der Informatik Tätigen ist die Ebene 2.

Dafür ein Beispiel: Vor einigen Jahren war die "Strategische Vertei-digungsinitiative (SDI)" des US-Präsidenten Reagan aktuell. Hier war allen sachkundigen Informatikern geboten, zur Sicherung des Lebens auf dieser Erde öffentlich darauf hinzuweisen, daß ein Programmsystem der Komplexität wie das im Rahmen von SDI vorgesehene, beim gegenwärtigen wie beim absehbaren Stand der Softwaretechnik nicht verläßlich genug ausgefallen wäre; dies um so mehr, als die methodisch notwendigen und ausreichenden Tests bei Gefahr des Untergangs der bewohnbaren Welt nicht hätten durchgeführt werden können.

Die Ebene 2 entspricht recht eigentlich dem "innovativen Kern" der Informatik. Bildlich könnte man sagen: Erst die Methoden der Informatik hauchen einem physikalisch-technischen System den "Geist" ein, machen aus ihm ein "Denkzeug". Dieses Denkzeug hat aber in der Regel nicht eine vergleichbar hohe Anwendungsicherheit wie das "Werkzeug" der klassischen Technik, das sich ausschließlich an Naturgesetzen orientiert. Auch die Verläßlichkeit mathematischer Theorien ist höher, weil sie beweisbar sind. Vergleichbar mächtige Methoden zur überprüfung der Zweckerfüllung und Zuverlässigkeit von Informatik-Systemen gibt es noch (?) nicht.

Nicht die Informationstechnik, nur die Informatik ist die neue "Jahr-hundertwissenschaft". In der öffentlichen Diskussion werden Informatik und Informationstechnik immer wieder unzulässig vermischt.

6.5 Zustandsparameter mit hoher Relevanz für die Informatik
Im Zusammenhang starker Zustandsparameter sind folgende Bereiche potentieller Schäden ohne zusätzliche Untersuchungen erkennbar, wo In-formatiker zur Minimierung von Schaden und damit zur Optimierung von Lebenschancen überwiegend zuständig sind: Die Beurteilung der Zuver-lässigkeit und Sicherheit von Informatik-Systemen, von Kriterien und Methoden des Datenschutzes in Information und Kommunikation.

Die Zuverlässigkeit von Informatik-Systemen ist um so wichtiger, je mehr Menschenleben - starke Zustandsparameter - von ihnen abhängen. Dies bedeutet, daß besondere Sorgfalt für Systeme im Verkehr, im Sicherheitsbereich - etwa von Kernkraftwerken -, in der Medizin oder im militärischen Bereich aufzuwenden ist.

Im Bereich der Minimierung sozialer Unsicherheit müssen Informatiker aufgrund des gegenwärtigen Informationsstandes darauf verweisen, daß auf der Basis unseres gegenwärtigen Sozialstandards nur eine vernünf-tige Informatikanwendungen extensiv nutzende Volkswirtschaft im inter-nationalen friedlichen Wettbewerb z.B. genügend wettbewerbsfähige Arbeitsplätze und ausreichende Sozialleistungen bereitstellen kann.

Um eine konkrete Zahl zu nennen: Laut Heinrich von Pierer (36) tragen Produkte mit Informatik-Komponenten bei der Siemens AG bereits zu 50% des Gesamtumsatzes bei.

Beratende Informatiker müssen berücksichtigen, daß Deutschland weltweit die kürzesten Arbeitszeiten hat, die deutsche Wirtschaft aber andererseits wenig innovativ ist: In der US-Exportpalette befinden sich 43% High-Tech-Produkte, in der Japans 28% und in der der Bundesrepublik 16%. Diese Zahlen stammen aus dem Hause Daimler-Benz. Es bedarf keiner besonderen Phantasie, um die kritische Situation der exportabhängigen deutsche Volkswirtschaft zu erkennen.

Eine letzte Bemerkung: Telearbeit globalisiert den Arbeitsmarkt in der Informatik-Branche; die Arbeit kann - gleichsam über Nacht - in die Länder abwandern, wo Arbeit bei gleicher Leistung billiger ist.

Für die Zukunftsfähigkeit unserer Gesellschaft erwarten Politiker wie öffentlichkeit mit Recht technische Visionen zur Rolle von Rechnern als "Denkzeug" wie als Medium - also etwa zu Problemen der "Info-Bah-nen", der "virtuellen Realitäten" oder gar "künstliche Welten. Technische Visionen sind für die Entwicklung des Bildungswesens, der Wirtschaft und der Wissenschaft wie der Kultur von kaum zu überschätzender Bedeutung, fehlen aber in der (deutschen?) Informatik weitgehend. Immerhin haben sich die deutschen Philosophen auf dem XVI. Kongreß für Philosophie 1993 in Berlin (37) bereits mit solchen Problemen befaßt.

Keine andere Schlüsseltechnologie beeinflußt die Zukunftschancen Deutschlands in so hohem Maße. Angefangen vom Bildungs- und Wissenschaftssystem über die Grundlagenforschung bis hin zu Anwendungen im Verkehr, der Telekommunikation, dem sparsamen Umgang mit nicht erneuerbaren Ressourcen, insbesondere mit Energie, im Gesundheitswesen, in der "Bewahrung des Friedens mit der Natur" (38), beim "schlanken Staat" und im Alltag.

Verläßliche, vor allem auch quantitative Antworten im einzelnen fehlen mangels verläßlicher empirischer Untersuchungen. Im Rahmen des folgenden Abschnitts werden einige Probleme heuristisch besprochen.

7. Beispiele relevanter Normenkonflikte in der Informatik

7.1 Maschinelle Entscheidungssysteme
Der Ersatz menschlicher durch maschinelle Intelligenz in dedizierten Informatik-Systemen kennt keine prinzipiellen technischen Grenzen.

So liegt der Versuch nahe, in bestimmten Grenzsituationen menschliche Entscheidungen an Informatik-Systeme zu delegieren: Wenn lebensrettende Maßnahmen in der Unfall-Medizin oder bei Angriffshandlungen im Kriegsfall so schnell getroffen werden müssen, daß ein Mensch wegen seiner psycho-physischen Grenzen weder die entscheidungsrelevanten Informationen rasch genug aufnehmen noch dem Zeitablauf entsprechend rasch auswerten kann.

Das Dilemma: bleibt die Entscheidung Menschen überlassen, können sie diese aus Zeitgründen nicht wahrnehmen, wird sie an das System delegiert, existiert keine für die konkrete Entscheidung verantwortliche Instanz.

7.2 Wettbewerb und Solidarität
Die klassische Technik hat körperliche Arbeit und Handarbeit durch Maschinenarbeit ersetzt, also - in einer statischen Wirtschaft - global viele Arbeitsplätze entbehrlich gemacht. Ein analoges Argument trifft für die Informatik zu: Immer mächtigere Klassen typisch geistiger Arbeit können Informatik-Systemen übertragen werden: Global wettbewerbsfähige bezahlbare Arbeitsplätze gehen uns aus!

In einem dynamischen Modell kann zwar regional ein Zuwachs wettbewerbsfähiger Arbeitsplätze erfolgen, global aber werden wir dank der Informatik auch wachsende Arbeit mit einer kleineren Zahl von Arbeits-plätzen bewältigen können.

Das Dilemma: Rationalisierung durch Informatik vermindert die Zahl der Arbeitsplätze - bezahlbare "einfachere" Arbeitsplätze fallen in der Industrie weg -, stabilisiert andererseits die Wettbewerbsfähigkeit der "schlankeren" Unternehmen und stabilisiert so die vorhandenen "modernen" Arbeitsplätze. Ein lenkender öffentlicher Eingriff in das Wettbewerbsverhalten müßte das Subsystem Wirtschaft destabilisieren, seinen Beitrag zur relativen Optimierung von Lebenschancen gefährden.

Der Konflikt besteht zwischen dem Wettbewerb als überlebensstrategie nach außen und der Solidarität als Stabilitätsforderung nach innen, wozu auch die Frage gehört, welchen Lebenssinn Menschen ohne bezahlte Berufsarbeit verfolgen sollen. Der Konflikt ist nur politisch zu lösen und muß der öffentlichkeit durch die Informatik bewußt gemacht werden.

übrigens ist die Festsetzung neuer Löhne mit Hilfe von Streik oder Aussperrung anachronistisch und gesellschaftlich unverantwortlich, wenngleich rechtlich noch legitim. In einem so sensiblen System wie dem einer modernen Volkswirtschaft entspricht dieses Vorgehen dem Versuch eines Chirurgen, mit einer Axt zu operieren! Mindestens müssen die wirtschaftswissenschaftlichen Institute, oder - wenn diese nicht kompetent genug sind - neu zu gründende Institutionen unter Aufsicht etwa der DFG über volkswirtschaftlich und branchenbezogen vertretbare Intervalle möglicher mittlerer Lohnerhöhungen entscheiden. Beim "in-telligenteren Umgang mit der Volkswirtschaft" sind neben Wirtschafts-wissenschaftlern auch Informatiker zur Einmischung verpflichtet.

7.3 Datenschutz
Der "gläserne Mensch" stellt eine Horrorvision dar. In offenen Bürger-gesellschaften darf die Selbstbestimmung über die eigenen Daten grund-sätzlich nicht angetastet werden.

Andererseits kann die rechtzeitige Verfügung über bestimmte Angaben bei Verdächtigen Leben und Gesundheit anderer Menschen bewahren. Entscheidungen über den Datenschutz sind politisch äußerst sensibel. Informatiker haben im Rahmen des Datenschutzes zwei außerordentlich wichtige Aufgaben. Einmal: Sie müssen versuchen, technische Methoden - etwa im Bereich des Kryptographie - zu entwickeln, die das Recht der Menschen auf "informationelle Selbstbestimmung" auch durch technische Einrichtungen stützt, es also nicht rein rechtlichen Bestimmungen überläßt. Zweitens: Sie müssen die öffentlichkeit darüber aufklären, welche Mißbrauchsmöglichkeiten bestehen und in welchem Umfange die Informatik in der Lage ist, einen Mißbrauch technisch zu unterbinden.

Auf der anderen Seite dürfen auch Chancen der Volkswirtschaft durch einen übertriebenen Datenschutz nicht unzulässig geschmälert werden.

b>7.4 Kommunikationsfreiheit und innere Sicherheit
Die weltweite Zugänglichkeit elektronischer Netze wie INTERNET ermöglicht auch Links- oder Rechtsradikalen, ihre Propaganda rasch zu verbreiten. Dazu gehören Aufforderungen oder Anleitungen zum Bau von Bomben für terroristische Anschläge oder für bürgerkriegsähnliches Vorgehen. Die Informatiker sind gehalten, technische Kontrollen auszuarbeiten, welche die Zugänglichkeit der Netze für Ideologen, Terroristen und Gewalttäter wenigstens erschweren.

Selbst wenn man nicht, wie der Bundespräsident (39), den Informatikern die Verantwortung auch für die Inhalte aufladen möchte, die durch ihre Systeme kommuniziert werden, dürfen Informatiker Sicherheitsfragen nicht nur den Juristen und Innenpolitikern überlassen.

7.5 Verteidigung
Selbst jeder Verteidigungskrieg zerstört Lebenschancen unumkehrbar, verletzt also Zustandsparameter oder richtige Normen höchsten Ranges. Bürgergesellschaften werden die richtige Norm "Frieden zu erhalten", seltener verletzen. Wenn freilich eine "pathologische Gesellschaft" offene Bürgergesellschaften angreift, besteht die Gefahr, daß der Angreifer bei einem potentiellen Sieg elementare Menschenrechte in der angegriffenen Gesellschaft unterdrückt; dies führt zu weiteren Normenkonflikten, muß also vermieden werden.

Bei der Bedeutung der Informatik-Komponente bei vielen modernen Waffen, müssen sich Informatiker oft entscheiden, ob sie sich an direkten militärischen Entwicklungen beteiligen sollen oder nicht. Prinzipieller Pazifismus ist jedenfalls gesellschaftlich unverantwortlich.

8. Individuelle und gemeinschaftlich getragene Verantwortung in Naturwissenschaft und Informatik
Die typische Verantwortung in den Natur- und Ingenieurwissenschaften sowie der Informatik besteht ausschließlich im bereitgestellten theoretischen und experimentellen Wissen über Methoden und Verfahren. über mögliche Anwendungen oder den Einsatz technischer Systeme oder von Informatik-Systemen entscheiden nicht Wissenschaftler.

Personen, die selbst einen geringen Entscheidungsspielraum haben, tragen allgemein nur begrenzt Verantwortung.

Dieser Sachverhalt gilt für die meisten Fachleute in abhängigen Stel-lungen in Staat und Wirtschaft. Nur die wissenschaftlichen Fachge-sellschaften haben, unter Nutzung der Kompetenz ihrer Mitglieder, Aussicht in der öffentlichkeit gehört zu werden, wenn sie mit dem notwen-digen Nachdruck auf nicht genutzte entscheidende Chancen oder aber auf Risiken hinweisen.

Für die erfolgreiche übernahme dieser Rolle ist aber die Erfüllung zweier Randbedingungen notwendig.

Erstens: Naturwissenschaften und Informatik müssen die Fachgebiete "Physik und Gesellschaft",...."Informatik und Gesellschaft" im Blick auf die von ihr induzierten technisch-sozialen Innovationen genau so erforschen wie rein fachwissenschaftliche Gebiete; ihre Forschungsergebnisse müssen verstärkt in Wirkungs- und Risikoforschung, in Technikbewertung und Technik-Folgenabschätzung eingehen, um Kriterien der ökologischen Verträglichkeit, der sozialen und kulturellen Verant-wortbarkeit in den potentiellen Entwicklungsprozeß von Anwendungssy-stemen aller Art einzubringen, ohne die heute wissenschaftlich-tech-nische Innovationen nicht mehr vernünftig begründet und verantwortet werden können. Die Sozialorientierung kommt nur durch die Schadensbe-grenzung in Naturwissenschaft und Informatik.

Zweitens: Die "scientific community" muß sich gesellschaftlich handlungsfähig durch geeignete Fachgesellschaften organisieren; dazu müssen sich Wissenschaftlerinnen und Wissenschaftler in repräsentativen nationalen Fachgesellschaften zusammenschließen.

Die nationalen Fachgesellschaften schließen sich dann zu europäische und internationalen Verbänden zusammen.

Regelmäßige geheime Wahlen in den nationalen Fachgesellschaften müssen zu Leitungsgremien aus kompetenten Fachleuten aller Fachgebiete führen; diese Gremien übernehmen zusätzlich zu ihrer bisherigen Aufgabe, fachliche Kommunikationsforen bereitzustellen, die Verantwortung für die kompetente Politikberatung, die fachliche Aufklärung der öffentlichkeit und die Aufarbeitung von beruflich bedingten Normenkonflikten, etwa durch Verabschiedung von "Ethischen Leitlinien" wie in der Gesellschaft für Informatik (35).

Wissenschaftlerinnen und Wissenschaftler delegieren so den Teil ihrer individuellen Verantwortung, den sie aufgrund ihres gegebenenfalls geringen beruflichen Ermessens nicht selbst wahrnehmen können, an die Leitungsgremien ihrer Fachgesellschaften.

Albert Einstein sagte in einem Vortrag vor Studenten: "Die Sorge um die Menschen und ihr Schicksal muß stets das Hauptinteresse allen technischen Strebens bilden, die großen ungelösten Fragen der Organisation der Arbeit und der Güterverteilung, damit die Erzeugnisse unseres Geistes dem Menschengeschlechte zum Segen gereichen und nicht zum Fluche. - Vergesst dies nie über Euren Zeichnungen und Gleichungen (1)". Prophetische Worte des geborenen Ulmers!



Literatur:

(1) Albrecht Fölsing: Albert Einstein; Frankfurt 1993
(2) Henry A. Kissinger: Die Vernunft der Nationen; Berlin 1994
(3) Norbert Hoerster: Norm; H. Seiffert, G. Radnitzky (Hrsg.): Handlexikon zur Wissenschaftstheorie
(4) Günther Patzig: Ethik ohne Metaphysik; Göttingen 1983
(5) Oswald Schwemmer: Ethik; J. Mittelstraß (Hrsg.): Enzyklopädie Philosophie und Wissenschaftstheorie; Mannheim 1980
(6) Aristoteles: Die Nikomachische Ethik; Zürich 1967
(7) Immanuel Kant: Kritik der Praktischen Vernunft, Analytik, 7. Grundgesetz der reinen praktischen Vernunft; Werke W. Weischedel (Hrsg.); Darmstadt 1983
(8) Ottfried Höffe: Einführung in die utilitaristische Ethik - Klassische und zeitgenössische Texte; Tübingen 1992
(9) Jeremy Bentham: Eine Einführung in die Prinzipien der Moral und der Gesetzgebung; O. Höffe (Hrsg): Einführung in die utilitaristische Ethik; Tübingen 1992
(10) John Stuart Mill: Der Utilitarismus; Stuttgart 1985
(11) Karl Popper, Die offene Gesellschaft und ihre Feinde; Tübingen 1992
(12) Albert Schweitzer: Die Ehrfurcht vor dem Leben - Grundtexte aus fünf Jahrzehnten, H.W. Bähr (Hrsg.); München 1984
(13) Francis Bacon: Novum Organum 1,3; London 1620
(14) Hans Jonas: Das Prinzip Verantwortung; Frankfurt 1979
(15) Manfred Eigen: Wir müssen wissen, wir werden wissen; H. Lenk (Hrsg.): Wissenschaft und Ethik; Stuttgart 1991
(16) Georg Henrik von Wright: Normen, Werte und Handlungen; Frankfurt 1994
(17) Max Weber: Politik als Beruf; M. Weber, Gesammelte Politi- sche Schriften, J. Winkelmann (Hrsg.); Tübingen 1971
(18) Hans Lenk: Zu einer praxisnahem Ethik der Verantwortung in den Wissenschaften; H. Lenk (Hrsg.): Wissenschaft und Ethik; Stuttgart 1991
(19) Ralf Dahrendorf: Lebenschancen; Frankfurt 1979
(20) Herbert A. Simon: Homo rationalis - Die Vernunft im mensch- lichen Leben; Frankfurt 1993
(21) John Rawls: Eine Theorie der Gerechtigkeit; Frankfurt 1979
(22) John Rawls: Die Idee des politischen Liberalismus; Frankfurt 1992
(23) Wilhelm Vossenkuhl: Moralische Dilemmata; O. Höffe (Hrsg.): Lexikon der Ethik; München 1992
(24) Michael Thumann: Volles Risiko; Die Zeit, Nr. 28, 28.07.95
(25) Paul Kennedy: Aufstieg und Fall der großen Mächte; Frankfurt 1991
(26) Ralf Dahrendorf: Der moderne soziale Konflikt; Stuttgart 1992
(27) Armin Hermann: Die Jahrhundertwissenschaft - Werner Heisenberg und die Geschichte der Atomphysik; Reinbek 1993
(28) Immanuel Kant: Kritik der reinen Vernunft; Werke in sechs Bänden; W. Weischedel (Hrsg.), Band III; Darmstadt 1983
(29) Thomas Kuhn: Die Struktur wissenschaftlicher Revolutionen; Frankfurt 1973
(30) Wolfgang Stegmüller: Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosophie; Band II: Theorie und Erfahrung; Berlin 1985
(31) Karl Popper: Logik der Forschung; Tübingen 1984
(32) K. Bentele, B. Reissert, R. Schettkat (Hrsg.): Die Reformfähigkeit von Industriestaaten; Frankfurt 1995
(33) Wolfgang Glatzer, Wolfgang Zapf (Hrsg.): Lebensqualität in der Bundesrepublik; Darmstadt 1984
(34) James Franck: Franck-Report; S. 204, loc. cit. 27
(35) K. H. Rödiger et. al.: Informatik-Spektrum (1993):239-240
(36) Heinrich von Pierer: Mit Informationstechnik Wirtschaft und Gesellschaft leistungsfähiger machen; Informatik-Spektrum (1994):342-343
(37) Hans Lenk, Hans Poser (Hrsg.): Neue Realitäten - Herausfor- derung der Philosophie; Berlin 1993
(38) Klaus Michael Meyer-Abich: Wege zum Frieden mit der Natur; München 1984
(39) Roman Herzog: Ansprache zur Eröffnung des 13. Weltomputer- Kongresses in Hamburg; Informatik-Spektrum (1994)17:277-280