Vom Technology zum Science Assessment: (Nicht-)Wissenskonflikte als konzeptionelle Herausforderung

TA-Konzepte und TA-Methoden

Vom Technology zum Science Assessment: (Nicht-)Wissenskonflikte als konzeptionelle Herausforderung

von Stefan Böschen, Universität Augsburg

Technikfolgenabschätzung als systematische Folgenreflexion war lange Zeit ein umstrittenes Unterfangen, hat sich in der Zwischenzeit aber als politisches, wissenschaftliches und auch gesellschaftliches Projekt etabliert. Die gesellschaftliche Thematisierung von Nichtwissen erfordert aber Anpassungen. Da hierbei die Folgenreflexion der Gesellschaft in die Wissenschaft eindringt und umgekehrt, soll diese Konzeption als „Science Assessment“ diskutiert werden. Zur Entfaltung dieser Konzeption wird nicht nur der Wandel von (Nicht-)Wissenskonflikten skizziert, sondern auch der Begriff der Gestaltungsöffentlichkeit als Ort gesellschaftlicher Aneignung realexperimenteller Settings eingeführt. Zur Gestaltung solcher Settings sind nicht nur zutreffende epistemische Randbedingungen festzulegen, sondern auch solche politischer Legitimität.

1     Erfolge und Grenzen expertenzentrierter Technikfolgenabschätzung

Technikfolgenabschätzung (TA) als systematische Folgenreflexion war von Anfang an ein umstrittenes Unterfangen. Ambitionen hinsichtlich umfassender Risikoabschätzung und Ängste bezüglich möglicher Innovationsblockaden erzeugten erhebliche Verwerfungen in diesem Diskurs (zum Überblick Petermann 1999). In der Zwischenzeit wird die Notwendigkeit von TA kaum mehr angezweifelt. Dies lässt sich an drei zentralen Erfolgen von TA aufweisen: (a) bezüglich der Politik ist es ihr in vielen Ländern gelungen, Institutionen der technologie- und wissenspolitischen Beratung am Parlament zu etablieren (vgl. Cruz-Castro, Sanz-Menéndez 2005); (b) bezüglich der Wissenschaft hat sie eine umfassende Expertise zu Möglichkeiten und Grenzen von Folgenreflexion zusammengetragen (vgl. jüngst Decker, Ladikas 2005) und schließlich hat sie (c) bezüglich der Öffentlichkeit dazu beitragen können, Verfahren partizipativer TA zur Mobilisierung zivilgesellschaftlicher Akteure zu erproben (vgl. Joss, Bellucci 2002). Diese Erfolge verdanken sich wesentlich der Tatsache, dass TA als „Vermittlungsinstrument“ (Zwick 1993) bei der Bearbeitung gesellschaftlicher Probleme eingesetzt werden kann.

Diese Positionierung von TA ist professionspolitisch jedoch alles andere als unproblematisch, denn sie stellt sehr heterogene Anforderungen an die von ihr erzeugte Expertise. Aus diesem Grund muss TA dauerhaft ihr eigenes Expertiseverständnis reflektieren (z. B. Saretzki 2005). Diese Situation wird gegenwärtig dadurch weiter verschärft, dass in gesellschaftlichen Wissenskonflikten zunehmend die Bedeutung wissenschaftlichen Nichtwissens adressiert wird (vgl. Wehling 2004). In diesem Beitrag sollen deshalb zwei Argumente entfaltet werden: a) Gesellschaftliche Such- und Lernprozesse verändern sich wesentlich mit der wachsenden Relevanz wissenschaftlichen Nichtwissens; b) TA muss auf diesen Wandel mit neuen kognitiven Strategien sowie institutionen- und demokratiepolitischer Sensibilität antworten. Da hierbei die Folgenreflexion der Gesellschaft in die Wissenschaft eindringt und umgekehrt, es also zu neuen Grenzziehungsprozessen und -problemen zwischen Wissenschaft und Gesellschaft kommt, soll diese Konzeption als „Science Assessment“ diskutiert werden (vgl. Böschen 2004). Gleich vorneweg möchte ich jedoch darauf hinweisen, dass es mir nicht auf die „Etikette“ (Technology Assessment hier – Science Assessment dort) ankommt, sondern auf die Suche nach weiter führenden Fragen.

Die folgenden Überlegungen reihen sich damit in die jüngsten Debatten zum Problem der Expertisebildung ein, die nicht nur die Bedeutung unterschiedlicher Wissensformen in Entscheidungsprozessen herausstellen (etwa Bogner, Torgersen 2005), sondern auch die sozialen Erzeugungsprozesse von Wissen unter dem Stichwort der „Demokratisierung von Expertise“ kritisch beleuchten (Maasen, Weingart 2005). Die hierbei erstellten Befunde legen nahe, dass TA als analytisch-deliberativer Prozess begriffen werden muss (Saretzki 2005, S. 354), bei dem die dynamische Verschränkung gilt: „Deliberation frames analysis, analysis informs deliberation“ (Stern, Fineberg 1996, S. 163). Diese beiden Pole sind als zwei gegenüberliegende Ausgangspunkte für Prozesse von Folgenreflexion zu betrachten, die jedoch praktisch und konzeptionell unhintergehbar miteinander verknüpft sind. Science Assessment muss für die Analyse und Gestaltung solcher Konstellationen eine systematisch begründbare Perspektive anbieten. Um dies zu entwickeln wird zunächst – gleichsam als Präludium – der Wandel von Wissenskonflikten diskutiert und in diesem Kontext das Konzept „Gestaltungsöffentlichkeiten“ eingeführt (Kap. 2). Daran anschließend lassen sich präziser die vielfältigen Anforderungen zur Bearbeitung der Seite „analysis informs deliberation“ umreißen (Kap. 3) und die demokratie- und institutionenpolitischen „Hausaufgaben“ („deliberation frames analysis“) aufzeigen (Kap. 4).

2     Gestaltungsöffentlichkeiten: Lernen als experimentelle gesellschaftliche Suchprozesse

Der Wandel von Wissenskonflikten lässt sich nicht nur empirisch an einer Vielzahl von Innovationsprozessen und ihrer gesellschaftlichen Einbettung nachzeichnen (wie etwa den verschiedenen Sparten der Gentechnik), sondern auch theoretisch an einer intensiven Modelldiskussion. In diesem Zusammenhang soll auf zwei Modelle verwiesen werden, die das Problem der Wissensgenese unter Ungewissheitsbedingungen behandeln. Es handelt sich hierbei um die Arbeiten von David Collingridge zum Modell fallibilistischer Entscheidungsrationalität (vgl. Collingridge 1980) und Arbeiten zum Konzept „Realexperimente“ (vgl. Groß et al. 2005). Aus der kritischen Diskussion lässt sich einerseits ein empirisches Beobachtungsmodell entwickeln, andererseits aber auch das Anforderungsprofil für Science Assessment präzisieren.

Die besondere Pointe der Überlegungen von Collingridge besteht darin, dass seiner Auffassung nach zwar Entscheidungen unter Nichtwissen (aufgrund mangelnden Tatsachenwissens) eigentlich nicht gerechtfertigt werden können, sie aber dennoch in einer vernünftigen Weise getroffen werden können. Ausgangspunkt ist hierfür eine fallibilistische Haltung im Anschluss an Popper, wobei Collingridge das Problem begrenzten Wissens letztlich in ein Problem der Schaffung entscheidungsoffener Strukturen transformiert. Da nämlich beim Einstieg in einen gesellschaftlichen Suchprozess nicht alles Nichtwissen bekannt sei, es sich also erst im Laufe einer Implementation abzeichne, müsse dafür Sorge getragen werden, dass Entscheidungen korrigiert werden können. Dafür formuliert er zwei essentielle Voraussetzungen: „(…) the ability to discover information which would show the decision to be wrong and the ability to react to this information if it ever comes to light.“ (Collingridge 1980, S. 31) Ungeachtet der problematischen Annahme, dass Wissenskonflikte letztlich unter Rekurs auf Fakten gelöst werden können, macht uns Collingridge auf den bedeutenden Befund aufmerksam, dass Entscheidungen unter Nichtwissen ganz wesentlich auf Suchstrategien zur gezielten Aufklärung unseres Nichtwissens angewiesen sind – ohne schon dessen Konturen genau zu kennen.

Genau in diese Richtung (und zugleich weit darüber hinaus) gehen die Überlegungen von Matthias Groß, Holger Hoffmann-Riem und Wolfgang Krohn (2005) bei der weiteren Ausformulierung des Konzeptes der „Realexperimente“. Unter wissensgesellschaftlichen Bedingungen plädieren sie für eine gezielte Organisierung wissensgenetischer Prozesse, die sich am Modell rekursiven Lernens orientieren lassen (Groß et al. 2005, S. 15), aber aufgrund ihrer gesellschaftlichen Voraussetzungen im Rahmen eines „erweiterten Gestaltungszyklus“ begriffen werden müssen (dies., S. 21). Dies verbinden sie mit der weiter reichenden Annahme, dass der „soziale Wandel in modernen Gesellschaften zunehmend experimentelle Züge trägt“ (dies., S. 76), so dass sich moderne Gesellschafen in steigendem Maße als „Experimentierraum“ konstituieren. Die Stärke dieses Konzeptes liegt in zweierlei: zum einen wird (im Gegensatz zu Collingridge) nicht allein auf das Erzeugen von Fakten zur Revision von Entscheidungen gesetzt, sondern auf die Chance, zunächst unerkanntes Nichtwissen, in spezifiziertes Nichtwissen und dann Wissen zu überführen; zum andern wird in diesem Konzept auf die nicht ausräumbare Möglichkeit von „Überraschungen“ aufmerksam gemacht. Nichtwissen entsteht also immer wieder neu, Lernprozesse sind unauflösbar offen.

Allerdings ergeben sich in der bisherigen Formulierung von Groß et al. auch zwei Leerstellen: Zum einen ist unklar, unter welchen Bedingungen Realexperimente erlaubt sein können, welches sind also die Kriterien für die Entscheidung für den Einstieg in ein Realexperiment und wer entscheidet? Zum anderen verengen die räumlich gut eingrenzbaren Modellfälle [1] tendenziell den Blick auf die gesellschaftlichen Randbedingungen. So bleiben die institutionellen Rahmenbedingungen unterbelichtet, die insbesondere bei solchen Realexperimenten von Relevanz sind, die sich gerade nicht mehr räumlich eingrenzen lassen und in der Summe ganze Gesellschaften betreffen. An dieser Stelle schlage ich deshalb einer Erweiterung des Konzepts der Realexperimente vor, indem es mit der Idee der „Gestaltungsöffentlichkeiten“ verbunden wird.

Unter Gestaltungsöffentlichkeiten lassen sich themenzentrierte Netzwerke von Akteuren und Diskursen verstehen, die im Spannungs- und Konfliktfeld von Politik, Wissenschaft, Wirtschaft und Öffentlichkeit gesellschaftliche Such- und Lernprozesse strukturieren. Denn gerade die hoch politisierten Auseinandersetzungen um die Gestaltung des realexperimentellen Settings „grüner Gentechnik“ zeigen, dass die schützenden Mauern des Labors entfallen und die Wissenserzeugung im Minenfeld gesellschaftlicher Diskurse stattfindet. Dabei werden grundlegende Unterscheidungen wie die zwischen Experten und Laien, Fakten und Werten oder Wissen und Nichtwissen zum Gegenstand öffentlicher Debatten und politischer Entscheidungen. Gestaltungsöffentlichkeiten sind also der Rahmen, indem die Randbedingungen für die Lernschritte und ihre Einhaltung im Prozess gesellschaftlicher „Selbst-Experimentation“ (Krohn) diskursiv ausgehandelt und institutionell stabilisiert werden. Auf diese Weise organisieren Gestaltungsöffentlichkeiten „kollektives Problemlösungshandeln“ (Dewey) und versuchen, eine gesellschaftlich strittige Implementation in eine legitime Experimentalsituation zu überführen (Böschen 2005). Was sind dann aber die Grenzen des Labors und wie lassen sich sinnvoll Rahmenbedingungen für „Realexperimente“ festlegen? Analytisch zeigen sich zwei Leitprobleme. Zum einen geht es um die epistemischen Randbedingungen von solchen „Realexperimenten“, zum anderen um die Randbedingungen politischer Legitimation.

Zur Zuspitzung soll vor der Diskussion dieser Randbedingungen exkursartig das Problem gesellschaftlicher Lernstrategien unter Nichtwissensbedingungen diskutiert werden. Idealtypisch kann man zwei Varianten des Lernens unterscheiden: erfahrungsgesättigtes Lernen auf der einen und nichtwissensorientiertes Lernen auf der anderen Seite. Beim erfahrungsgesättigten Lernen setzen die Lernstrategien an konkreten, unumstrittenen Erfahrungen (etwa an Schäden) an. Beim nichtwissensorientierten Lernen geht es darum, trotz fehlender Eindeutigkeit der Erfahrungen (etwa in Form von erwartbaren aber umstrittenen Gefährdungen) Lernstrategien zu entwickeln. Bei der ersten Variante ist der Aufmerksamkeitshorizont gut fokussierbar, bei der zweiten ist er eher diffus, wodurch die zweite Variante auch um einiges aufwendiger zu organisieren ist.

Zunächst einmal ist festzuhalten: Weder das erfahrungsgesättigte noch das nichtwissensorientierte Lernen sind per se immer richtig oder immer falsch. Vielmehr muss es um eine problemspezifische Differenzierung und Aushandlung der jeweils produktivsten Lernform gehen. Dabei lassen sich im Wesentlichen zwei Typen von Fehlern unterscheiden: In dem einen Fall wird erfahrungsgesättigtes Lernen gewählt, obwohl nichtwissensorientiertes Lernen angezeigt gewesen wäre. In dem anderen wird umgekehrt auf nichtwissensorientiertes Lernen gesetzt, obwohl erfahrungsgesättigtes Lernen ausreichend gewesen wäre. Tabelle 1 zeigt die mit den jeweiligen angemessenen Reaktionen sowie Fehlentscheidungen einhergehenden Effekte. Wichtig ist, dass die Beurteilung der Angemessenheit ein Prozess dauernder Überprüfung ist. Mit Blick auf die beiden idealtypischen Lernstrategien lassen sich die beiden genannten Herausforderungen epistemisch zutreffender und politisch legitimer Randbedingungen im Folgenden weiter konkretisieren.

3     „Analysis informs deliberation“: die Vielfalt kognitiver Herausforderungen für Science Assessment

Systematische Folgenreflexion betrifft also zunächst die Frage epistemisch zutreffender Randbedingungen für Realexperimente und darauf aufbauend: Was ist die spezifische Expertise der Assessment-Community hierbei? Die Unterscheidung zwischen erfahrungsbasiertem und nichtwissensorientiertem Lernen markiert sehr verschiedene Aufgabenprofile für „Science Assessment“. Bei erfahrungsbasiertem Lernen sind die Rahmenbedingungen für die Implementation vielfach bekannt und sind auch wissenschaftlich mehr oder minder eindeutig an eine Disziplin bzw. bestimmte Wissensakteure delegiert. Hierbei existieren also recht klar formulierte „Problemmuster“ (Schetsche 1996, S. 65 ff.) mit entsprechenden angemessenen „Identifizierungsschemata“ (ders., S. 70). Dies lässt sich z. B. für die Arbeitsmedizin feststellen. In diesem Kontext kann die Aufgabe der Assessment-Community im Grunde nur darin bestehen, die Wachsamkeit für mögliche Fehler I (s. Tab. 1) zu steigern.

Tab. 1: Lernstrategien und Fehlertypen 

Hypothetisch angemessene Lernform Faktisch gewählte Lernform
Erfahrungsgesättigtes Lernen Nichtwissensorientiertes Lernen
Erfahrungsgesättigtes Lernen Angemessene Reaktion:
Problemlage wird als lösbar mit dem direkt verfügbaren Fundus an kognitiven und strukturellen Ressourcen erkannt.
Fehler II:
Übersteigerung der Komplexität einer Problemlage. In der Folge werden (institutionelle) Innovationen initiiert, obgleich die effektive Nutzung von vorhandenen Ressourcen ausreichend gewesen wäre.
Nichtwissensorientiertes Lernen Fehler I:
Verkennung der Komplexität einer Problemlage. In der Folge wird wertvolle Zeit bei der Reaktion auf das Problem verschenkt, die zu einer krisenhaften Zuspitzung führen kann.
Angemessene Reaktion:
Problemlage wird in ihrer Komplexität gewürdigt und als Herausforderung für (institutionelle) Innovationen angesehen.

Quelle: Eigene Darstellung

Komplizierter wird das Aufgabenprofil im Fall nichtwissensorientierten Lernens. Denn hier existieren weder ein wohl umrissenes Problemmuster noch damit eindeutig verbundene Identifizierungsschemata. Vielmehr ist gerade umstritten, welche Definitionsperspektive und damit welcher Problemhorizont für relevant angesehen werden soll. Dabei kommt es zu einem Streit zwischen unterschiedlichen Disziplinen und es steht oftmals im Zweifel, ob eine allein den entscheidenden Problemhorizont formulieren kann oder nicht vielmehr eine transdisziplinäre Integration notwendig ist – oder gar (und damit noch verstörender) ob überhaupt aus dem bestehenden Angebot an Problemhorizonten ein Problemmuster erschlossen werden kann. Was ist also zu tun, wenn mögliche Identifizierungsschemata von Problemen an Spekulation grenzen? Vor diesem Hintergrund scheinen sich zumindest die folgenden vier zentralen Aufgaben zur Bestimmbarkeit und Bestimmung von epistemisch zutreffenden Randbedingungen zu stellen:

4     Die Erwartung des Unerwarteten:

Science Assessment als Prozessexpertise zur Anleitung gesellschaftlicher Suchprozesse

„Deliberation frames analysis“. Die Betonung der wissenschaftlich-analytischen Möglichkeiten der Folgenreflexion stellt allzu leicht die Bedeutung der politischen Seite des Projektes der Folgenreflexion in den Hintergrund. Die politisch legitimen Randbedingungen dürften aber für Realexperimente mindestens genauso entscheidend sein. Science Assessment muss demnach auch hier Antwortmöglichkeiten formulieren. Dabei gilt es zunächst zu beachten, dass die Expertise der Folgenreflexion ihr „objektivistisches Selbstverständnis“ aufgeben und ihre Studien als „Beiträge zur öffentlichen Argumentation“ verstehen sollte (Saretzki 2005, S. 363). D. h. entgegen dem ursprünglichen Selbstverständnis bestünde ihre Aufgabe darin, die Legitimationsbedingungen von Entscheidungen unter Nichtwissen zu überprüfen und hierfür Verfahren zur Verfügung zu stellen. Dabei können von solchen Verfahren etwa Antworten auf Kriterienfragen oder relevante Problemhorizonte gefunden werden, die der weiteren Gestaltung realexperimenteller Settings dienen.

Nun lassen sich bei schon etablierten Gestaltungsöffentlichkeiten insbesondere zwei Strategien beobachten. Die eine zielt auf eine Temporalisierung realexperimenteller Settings, die zweite auf deren Prozeduralisierung. Temporalisierung ist eine Strategie, welche dezidiert Zeiträume der Forschung organisiert – etwa um Nebenfolgen zu beobachten (10a-Regelung beim Nachzulassungsmonitoring nach der Freisetzungsrichtlinie 2001/18) oder erlaubte von unerlaubten Forschungsgegenständen zu trennen (Stichtagsregelung im Stammzellimportgesetz). Die Strategie der Prozeduralisierung zielt auf die nicht allein politisch initiierte Einbindung unterschiedlicher Wissensakteure in den Prozess der Wissensgenese, um Legitimität und Effektivität der Problemmuster zu steigern.

Bei allen Möglichkeiten, konkrete, d. h. auf bestimmte Problembereiche zugeschnittene Strategien zu entwerfen, sollte nicht übersehen werden, dass Science Assessment und damit gesellschaftliches Lernen unter Bedingungen des Nichtwissens ein Projekt der Demokratieentwicklung darstellt. Denn neben die beiden schon genannten Formen des Lernens, die sich im Wesentlichen auf die kognitive Bewältigung von Problemlagen beziehen, müsste noch eine dritte Form des Lernens gestellt werden: „strukturelles Lernen“. Zielpunkt dessen wäre die Entwicklung demokratisch legitimierter Selbstbeobachtungs- und Selbsteinwirkungsmöglichkeiten von Gesellschaften. In diesem Sinne müsste sich die Assessment-Community als Promotor der Demokratieentwicklung selbst weiter entwickeln.

Anmerkung

[1] Als überzeugenden Modellfälle werden hier eine Abfalldeponie (Groß et al. 2005, S. 173 ff.) und der Sempacher See (dies., S. 135 ff.) eingeführt.

Literatur

Bogner, A.; Torgersen, H. (Hrsg.), 2005:
Wozu Experten? Wiesbaden: VS

Böschen, S., 2004:
Science Assessment: Eine Perspektive der Demokratisierung von Wissenschaft. In: Böschen, S.; Wehling, P., Wissenschaft zwischen Folgenverantwortung und Nichtwissen. Aktuelle Perspektiven der Wissenschaftsforschung. Wiesbaden: VS, S. 107-182

Böschen, S., 2005:
Reflexive Wissenspolitik: Zur Formierung und Strukturierung von Gestaltungsöffentlichkeiten. In: Bogner, A., Torgersen, H. 2005, S. 241-263

Collingridge, D., 1980:
The Social Control of Technology. New York: St. Martin's Press

Cruz-Castro, L.; Sanz-Menéndez, L., 2005:
Shaping the Impact: the Institutional Conext of Technology Assessment. In: Decker, M., Ladikas, M., S. 101-127

Decker, M.; Ladikas, M. (Hrsg.), 2005:
Bridges between Science, Society and Policy. Technology Assessment – Methods and Impacts. Berlin u. a.: Springer

Groß, M.; Hoffmann-Riem, H.; Krohn, W., 2005:
Realexperimente. Ökologische Gestaltungsprozesse in der Wissensgesellschaft. Bielefeld: transcript

Joss, S.; Bellucci, S. (Hrsg.), 2002:
Participatory Technology Assessment. European Perspectives. London: Centre for the Study of Democracy

Krohn, W., 2005:
Deliberative Constructivism. In: Science, Technology and Innovation Studies (im Erscheinen)

Maasen, S.; Weingart, P. (Hrsg.), 2005:
Democratization of Expertise? Exploring Novel Forms of Scientific Advice in Political Decision-Making. Berlin: Springer

Petermann, Th., 1999:
Technikfolgen-Abschätzung – Konstituierung und Ausdifferenzierung eines Leitbilds – Einführung. In: Bröchler, S.; Simonis, G.; Sundermann, K. (Hrsg.): Handbuch Technikfolgenabschätzung, Bd. 1. Berlin: edition sigma, S. 17-49

Saretzki, Th., 2005:
Welches Wissen – wessen Entscheidung? Kontroverse Expertise im Spannungsfeld von Wissenschaft, Öffentlichkeit und Politik. In: Bogner, A., Torgersen, H., S: 345-369

Scheringer, M., 2004:
Das Reichweiten-Konzept – eine Methode zum Umgang mit Unsicherheit und Nichtwissen in der Chemikalienbewertung. In: Böschen, S.; Schneider, M.; Lerf, A. (Hrsg.): Handeln trotz Nichtwissen. Frankfurt/Main: Campus, S. 63-78

Schetsche, M., 1996:
Die Karriere sozialer Probleme. Soziologische Einführung. München: Oldenbourg

Schulze, H., 2005:
Heuristik. Theorie der intentionalen Werkgenese. Bielefeld: transcript

Stern, P.C.; Fineberg, H.V. (Hrsg.), 1996:
Understanding Risk. Informing Decisions in a Democratic Society. Washington, DC: National Academy Press

Wehling, P., 2004:
Weshalb weiß die Wissenschaft nicht, was sie nicht weiß? Perspektiven einer Soziologie des wissenschaftlichen Nichtwissens. In: Böschen, S.; Wehling, P.: Wissenschaft zwischen Folgenverantwortung und Nichtwissen. Aktuelle Perspektiven der Wissenschaftsforschung. Wiesbaden: VS, S. 35-105

Zwick, A., 1993:
Die Entwicklung der Technikfolgenabschätzung zum gesellschaftlichen Vermittlungsinstrument. Opladen: Westdeutscher Verlag

Kontakt

Dr. Stefan Böschen
Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
Karlsruher Institut für Technologie (KIT)
Karlstr. 11, 76133 Karlsruhe
Tel.: +49 721 608-26280
E-Mail: stefan.boeschen∂kit.edu