(Alain Desrosières) Die Politik Der Großen Zahle (BookFi)
(Alain Desrosières) Die Politik Der Großen Zahle (BookFi)
(Alain Desrosières) Die Politik Der Großen Zahle (BookFi)
Alain Desrosières
Die Politik
der großen Zahlen
Eine Geschichte der statistischen Denkweise
123
Alain Desrosières
Institut National de la Statistique et des Études Économiques
INSEE-Timbre D 005
Boulevard Adolphe Pinard 18
75014 Paris, France
Übersetzer:
Manfred Stern
Kiefernweg 8
06120 Halle, Germany
e-mail: [email protected]
springer-online.com
STADER: ... Hören Sie mich an: Mein Institut arbeitet mit den neu-
zeitlichen Mitteln der Wissenschaft. Mit Graphologik, Pathographik,
hereditärer Belastung, Wahrscheinlichkeitslehre, Statistik, Psychoana-
lyse, Experimentalpsychologik und so weiter. Wir suchen die wis-
senschaftlichen Elemente der Tat auf; denn alles, was in der Welt
geschieht, geschieht nach Gesetzen. Nach ewigen Gesetzen! Auf ih-
nen ruht der Ruf meines Instituts. Ungezählte junge Gelehrte und
Studenten arbeiten in meinen Diensten. Ich frage nicht nach läppi-
schen Einzelheiten eines Falls; man liefert mir die gesetzlichen Be-
stimmungsstücke eines Menschen und ich weiß, was er unter gege-
benen Umständen getan haben muß! Die moderne Wissenschaft und
Detektivik engt den Bereich des Zufälligen, Ordnungslosen, angeblich
Persönlichen immer mehr ein. Es gibt keinen Zufall! Es gibt keine
Tatsachen! Jawohl! Es gibt nur wissenschaftliche Zusammenhänge ...
Gerade in wissenschaftlichen Kreisen erfreut sich mein Institut noch
nicht des Verständnisses, das es verdient. Wofür Ihre Hilfe daher ganz
unersetzlich wäre, ist: Die Ausbildung der Detektivik als der Lehre
vom Leben des überlegenen wissenschaftlichen Menschen. Es ist nur
ein Detektivinstitut, aber auch sein Ziel ist die wissenschaftliche Ge-
staltung des Weltbildes. Wir entdecken Zusammenhänge, wir stellen
Tatsachen fest, wir drängen auf die Beobachtung der Gesetze ... Meine
große Hoffnung ist: die statistische und methodische Betrachtung der
menschlichen Zustände, die aus unsrer Arbeit folgt ...
THOMAS: Mein lieber Freund, Sie sind entschieden zu früh auf die
Welt gekommen. Und mich überschätzen Sie. Ich bin ein Kind dieser
Zeit. Ich muß mich damit begnügen, mich zwischen die beiden Stühle
Wissen und Nichtwissen auf die Erde zu setzen.
Bei der Übersetzung dieses Buches traten Probleme auf, die hin und
wieder kleinere Abweichungen und Zusätze erforderlich machten. Zum Bei-
spiel verwendet der Autor an mehreren Stellen ganz spezifische französische
Wortschöpfungen, die einem uneingeweihten Leser kaum etwas sagen, und
über deren Herkunft man auch in größeren Wörterbüchern und Nachschla-
gewerken nichts findet. Stellvertretend seien hier die folgenden drei Begriffe
genannt: adunation, bottin und barème.
Unter adunation, einem von Emmanuel Joseph Sieyès (1748–1836) ge-
prägten Wort, ist die gewollte Vereinheitlichung der Bezugssysteme zu verste-
hen, wie sie nach der Französischen Revolution verwirklicht worden ist, um die
eine und unteilbare Nation zu errichten. Diese Adunation“ hatte juristische,
”
metrologische und taxonomische Aspekte und schloß die Aufteilung des Ter-
ritoriums in Departements sowie die Einführung des metrischen Systems der
Maße und Gewichte ein. Die beiden anderen Begriffe leiten sich von Personen
ab, die durch das Wirken statistischer Prozesse sogar in Frankreich weitgehend
der Vergessenheit anheimgefallen sind. Unter bottin versteht man jetzt u.a. ein
Telefonbuch oder Fernsprechverzeichnis. Diese Bezeichnung wurde zu Ehren
von Sébastien Bottin geprägt, der 1799 ein politisch-wirtschaftliches Jahrbuch
( Verzeichnis“) herausgab. Das Wort barème bedeutet heute u.a. Tabelle und
”
leitet sich von François Barème ab, einem französischen Rechenmeister des
17. Jahrhunderts.
Bei derartigen Begriffen habe ich zur Erläuterung zusätzliche Fußnoten
eingearbeitet. Ähnlicherweise habe ich bei einer Reihe von historischen Be-
griffen ergänzende Fußnoten und Bemerkungen eingefügt, zum Beispiel bei
Ancien Régime, intendant, brumaire, germinal, l’un portant l’autre.
Bei den Erläuterungen zur Herkunft des Wortes probabilité bezieht sich
der Verfasser naturgemäß auf den früheren und auf den jetzigen französischen
Bedeutungsinhalt dieses Wortes, das lateinischen Ursprungs ist. Im Gegen-
satz hierzu hat die deutsche Übersetzung Wahrscheinlichkeit des französischen
Wortes probabilité einen ganz anderen, nichtlateinischen Ursprung. Diese Tat-
sache mußte in die deutsche Übersetzung eingearbeitet werden.
Das Buch ist 1993 erschienen, die hier übersetzte zweite französische Aus-
gabe im Jahr 2000. Wie der Verfasser in seinem Nachwort schreibt, enthält
das ursprüngliche Literaturverzeichnis die zitierten und bis 1992 veröffentlich-
ten Arbeiten. In einem zusätzlichen Literaturverzeichnis zur zweiten französi-
schen Auflage hat der Autor weitere Arbeiten angegeben, die in den Jahren
1992–2000 verfaßt worden sind; im Nachwort geht er kurz auf den Inhalt
dieser Arbeiten ein. Im dritten Teil des Literaturverzeichnisses habe ich wei-
tere Titel aufgeführt, die für den deutschsprachigen Leser von Interesse sind.
Außerdem habe ich ständig wiederkehrende Abkürzungen in einem Anhang
zusammengefaßt.
VIII
Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
Namensverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
Einleitung: Soziale Tatbestände als Dinge
schichten zu erzählen, als wenn wir eine Erzählungsform gewählt hätten, die
den einen oder den anderen Standpunkt bevorzugt.
Als Untersuchungsobjekt nehmen wir uns diejenigen Praktiken vor, die Wis-
senschaft und Handeln in besonders spezifischer Weise miteinander verbinden.
Dabei werden wir nicht aufzeigen, wie diese Interaktion beschaffen sein sollte,
sondern wie sie – historisch und sozial – gewesen ist. Zu diesem Zweck müssen
wir Debattenkontexte und alternative oder konkurrierende Sprech- und Ver-
fahrensweisen rekonstruieren. Darüber hinaus müssen wir in den sich mit der
Zeit ändernden Kontexten auch Bedeutungsverschiebungen und Neuinterpre-
tationen von Objekten verfolgen. Auf diesem Untersuchungsgebiet geht es um
die Interaktion zwischen der Welt des Wissens und der Welt der Macht, zwi-
schen Beschreibung und Entscheidung, zwischen es gibt“ und wir müssen“ –
” ”
und genau aus diesem Grund besteht eine besondere Beziehung zur Geschich-
te, eine Beziehung, die der Forschungstätigkeit zeitlich vorausgeht. Man kann
sich auf die Geschichte berufen, um eine Tradition Wurzeln schlagen zu lassen,
um die Schilderung der Gründung einer Gemeinschaft zu pflegen und um die
Identität dieser Gemeinschaft zu bekräftigen. Die Geschichte kann aber auch
zu polemischen Zwecken in Momenten oder Situationen eines Konflikts oder
einer Krise angerufen werden, um irgendeinen verborgenen Aspekt zu denun-
zieren. Diese beiden Möglichkeiten, sich auf die Geschichte zu berufen, können
als einseitig oder partiell bezeichnet werden, denn sie sind an den jeweiligen
Intentionen ausgerichtet und werden in diesem Sinne geformt – im vorliegen-
den Fall durch die Absicht, eine Identität zu bestätigen oder zu denunzieren.
Dennoch ist es nicht möglich, die betreffenden Darstellungen in umfassender
Weise zu behandeln, denn sie sind immer viel zahlreicher und vielgestaltiger,
als wir es uns vorstellen können.
Andererseits können wir die Debattenräume und die Spannungslinien re-
konstruieren, an denen sich unterschiedliche Ansichten positionierten und mit-
einander vermischten. Das schließt die Rekonstruktion dieser Ansichten mit
Hilfe eines Vokabulars ein, das der Terminologie der Akteure ähnelt, wobei
dieses Vokabular gleichzeitig objektiviert, das heißt zum Vorschein gebracht
wird. Beispielsweise erwähnen wir, wie sich eine um ihre Tradition bemühte
Gemeinschaft auf die Geschichte beruft. Man hätte auch von Selbstzelebrie-
”
rung“ oder von einem apologetischen Diskurs“ sprechen können. Ich habe
”
jedoch den Begriff Identitätsbestätigung“ bevorzugt, denn das ist die Bedeu-
”
tung, welche die Akteure diesem historischen Brauch gegeben haben. Diese
Verwendungsweise bildet – ebenso wie der polemische Sprachgebrauch – das
Material für die gewünschte anthropologische Rekonstruktion. Es geht nicht
mehr darum, ob eine Schilderung wahr ist, sondern es geht um den Platz, den
diese Schilderung unter zahlreichen anderen einnimmt.
Eine anthropologische Sicht auf die Wissenschaften 5
Die Spannung zwischen diesen beiden Standpunkten, das heißt zwischen dem
deskriptiven und dem präskriptiven Standpunkt, kann in einer Geschichte
der Wahrscheinlichkeitsrechnung und der statistischen Techniken als Triebfe-
der der Schilderung verwendet werden. Die Rationalität einer Entscheidung
– ganz gleich, ob sie individuell oder kollektiv getroffen wird – hängt mit der
Fähigkeit zusammen, auf Dingen aufzubauen, die eine stabile Bedeutung ha-
ben: dadurch wird es möglich, Vergleiche durchzuführen und Äquivalenzen
aufzustellen. Diese Forderung gilt gleichermaßen für jemanden, der die zeit-
liche Kontinuität seiner Identität garantieren möchte (zum Beispiel bei der
Übernahme von Risiken, beim Verleihen von Geld gegen Zinsen, bei Versiche-
rungen und bei Wetten), wie auch für Personen, die – ausgehend vom gesunden
Menschenverstand und von objektiven Gegebenheiten – all das konstruieren
möchten, was die Garantie einer sozialen Existenz ermöglicht, die über die
individuellen Kontingenzen hinausgeht. Eine Beschreibung läßt sich also mit
einer Geschichte vergleichen, die von einer Person oder von einer Gruppe von
Personen erzählt wird – mit einer hinreichend stabilen und objektivierten Ge-
schichte, die sich unter anderen Umständen erneut und insbesondere dazu
verwenden läßt, Entscheidungen zu untermauern, die man für sich selbst oder
für andere trifft.
Das galt bereits für Beschreibungsformen, die allgemeiner waren als die-
jenigen, die sich seit dem späten 17. Jahrhundert aus den Techniken der
Wahrscheinlichkeitsrechnung und der Statistik entwickelt hatten: zum Bei-
spiel für Beschreibungen, die auf einem theologischen Fundament ruhten. Mit
der Gründung wissenschaftlicher Akademien, mit dem Auftreten professionel-
ler Gelehrter und mit der Durchführung von reproduzierbaren – und somit
vom Experimentator unabhängigen – Versuchen entstand im 17. Jahrhundert
eine neue Art von Objektivität. Diese Objektivität hing mit der sozialen und
argumentativen Autonomie eines neuen Beschreibungsraumes zusammen, den
die Wissenschaft liefert. Die Sprache der Wissenschaft stützt ihre Originalität
auf ihre Unabhängigkeit von anderen Sprachen – den Sprachen der Religion,
des Rechts, der Philosophie und der Politik – und hat deswegen eine wi-
dersprüchliche Beziehung zu diesen Sprachen. Die Sprache der Wissenschaft
macht einerseits eine Objektivität und somit eine Universalität geltend, die –
falls dieser Anspruch erfolgreich durchgesetzt wird – auch Anhaltspunkte und
allgemeine Bezugspunkte für die Debatte über andere Räume bereitstellt: das
6
Aber nicht alle Forscher treffen diese Wahl. Zum Beispiel ist das ungemein nütz-
liche Werk von Stephen Stigler (1986, [267]) zur Geschichte der mathematischen
Statistik des 19. Jahrhunderts hauptsächlich internalistisch angelegt.
8 Einleitung: Soziale Tatbestände als Dinge
bringt. Beide Vorgänge, das heißt die Definition von Äquivalenzklassen und die
Kodierung, sind die konstituierenden Schritte der statistischen Arbeit (Kapitel
8). Diese Arbeit ist nicht nur ein Nebenprodukt der Verwaltungstätigkeit zum
Zweck des Wissenserwerbs, sondern wird auch direkt durch diese Tätigkeit
konditioniert, wie man anhand der Geschichte der Zählungen, Stichprobener-
hebungen (Kapitel 7), Indizes und der volkswirtschaftlichen Gesamtrechnung
erkennt – alles untrennbar miteinander verbundene Erkenntnis- und Entschei-
dungsinstrumente.
Der Zusammenhang zwischen Beschreibung und Verwaltung kommt deut-
lich zum Vorschein, wenn mehrere Staaten – wie es heute in der Europäischen
Union der Fall ist – ihre Steuergesetzgebung, Sozialgesetzgebung und Wirt-
schaftsgesetzgebung harmonisieren, um den freien Verkehr von Menschen,
Gütern und Kapital zu ermöglichen. Ein Vergleich der statistischen Systeme
bringt zahlreiche Unterschiede an den Tag, deren Harmonisierung eine gewal-
tige Arbeit bedeutet, die mit dem Aufwand zur Vereinheitlichung der Ge-
setzesvorschriften, Normen und Standards verglichen werden kann. Die Kon-
struktion eines politischen Raumes impliziert und ermöglicht die Schaffung
eines einheitlichen Meßraumes, in dem man die Dinge vergleichen kann, weil
die Kategorien und die Kodierungsverfahren identisch sind. So war die Arbeit
an der Standardisierung des Territoriums eine der wesentlichen Aufgaben der
Französischen Revolution von 1789 mit ihrem einheitlichen System der Maße
und Gewichte, mit der Aufteilung des Territoriums in Departements, mit der
Schaffung eines säkularen Zivilstaates und eines Bürgerlichen Gesetzbuches.
ten blieb bestehen und trug dazu bei, die Spannung zwischen dem administra-
tiven und dem wissenschaftlichen Aspekt dieser Berufe aufrecht zu erhalten.
Das Ziel der Statistik besteht darin, die Vielfalt der Situationen zu reduzieren
und deren zusammenfassende Beschreibung zu liefern – eine Beschreibung,
die aufgezeichnet und als Grundlage des Handelns verwendet werden kann.
Das impliziert einerseits die Konstruktion eines politischen Äquivalenz- und
Kodierungsraumes und andererseits eine mathematische Behandlung, die sich
häufig auf die Wahrscheinlichkeitsrechnung stützt. Aber diese beiden Aspekte
der Statistik werden im Allgemeinen als zwei gesonderte Tätigkeiten angese-
hen und die Forschungsarbeiten zu deren Geschichte werden ebenfalls getrennt
voneinander durchgeführt.
Ich habe mich im vorliegenden Buch dazu entschlossen, diese beiden roten
Fäden gleichzeitig zu verfolgen, um ihre Wechselwirkungen und Verbindun-
gen genau zu untersuchen. Die Vereinigung der beiden Linien erfolgte erst
in den 1930er und 1940er Jahren. In meiner Darstellung verwende ich zwei
Kategorien der historischen Forschung. Die erste Kategorie bezieht sich auf
die statistischen Institutionen und die statistischen Systeme. Abgesehen von
den vom Institut national de la statistique et des études économiques (INSEE)
im Jahre 1987 veröffentlichten zwei Bänden Pour une histoire de la statisti-
que sind für Frankreich die wichtigsten Werke diejenigen von J. C. Perrot
(1992, [227]) und Bourguet (1988, [27]) über das 18. Jahrhundert und den
Beginn des 19. Jahrhunderts, von Armatte (1991, [5]), Brian (1989, [35]) und
Lécuyer (1982, [173]) über das 19. Jahrhundert sowie von Fourquet (1980,
[95]) und Volle (1982, [284]) über das 20. Jahrhundert. In Großbritannien
behandeln die Forschungsarbeiten von Szreter (1984 [270], 1991 [271]) das
General Register Office (GRO) und die Public Health Movement. In den Ver-
einigten Staaten beschreiben Anderson (1988, [4]) sowie Duncan und Shelton
(1978, [74]) die allmähliche Zunahme der Verwaltungsstatistik und deren an-
schließende Transformation in den 1930er Jahren. Diese Transformation führte
zu den gegenwärtigen Organisationen, die auf vier bedeutenden Innovationen
beruhen: Koordinierung durch Nomenklatur; Stichprobenerhebungen; volks-
wirtschaftliche Gesamtrechnung; maschinelle Datenverarbeitung und später
die Informatik.
Die zweite Kategorie von Arbeiten bezieht sich auf die Wahrscheinlich-
keitsrechnung und die mathematische Statistik. Dieses Gebiet der historischen
Forschung zeichnete sich in den 1980er Jahren durch eine starke Aktivität aus
– zuerst in Frankreich mit dem originellen, aber isolierten Buch von Benzécri
(1982, [12]) und dann in England im Anschluß an eine kollektive Arbeit, die
1982–1983 in Bielefeld von Forschern mehrerer Länder durchgeführt wurde.
Dem Buch The Probabilistic Revolution (Band 1, herausgegeben von Krüger,
Daston, Heidelberger, 1987 [158], und Band 2, herausgegeben von Krüger,
Gigerenzer, Morgan, 1987 [159]) folgten einige weitere Werke: Stigler (1986,
[267]), Porter (1986, [240]), Daston (1988, [54]), Gigerenzer et al. (1989, [107])
und Hacking (1990, [119]). Parallel hierzu wurde die Geschichte der Ökono-
16 Einleitung: Soziale Tatbestände als Dinge
metrie von Epstein (1987, [85]) und Morgan (1990, [204]) untersucht und in
einem Sammelband der Oxford Economic Papers (1989) herausgegeben.
Das Aufblühen der Forschungen zur Geschichte der Statistik (Verwaltungs-
statistik und mathematische Statistik), der Wahrscheinlichkeitsrechnung und
der Ökonometrie ermöglicht eine Gesamtinterpretation aus der Sicht der Wis-
senschaftssoziologie. Diese Interpretation ist gleichzeitig historisch und verglei-
chend. Dabei betrachte ich vier Länder: Frankreich, Großbritannien, Deutsch-
land und die Vereinigten Staaten. Ich habe diese Länder gewählt, weil eine
einschlägige Dokumentation vorhanden ist und weil sich die signifikantesten
Ereignisse in diesen Ländern abgespielt haben. Die historische Schilderung
wird bis zu den 1940er Jahren geführt. Um diese Zeit traten Institutionen
und Technologien auf den Plan, deren Charakter dem der heutigen Institutio-
nen und Technologien ähnelt. Die Interpretation der seither stattgefundenen
Entwicklungen dieser Institutionen und Technologien erfordert historische Un-
tersuchungen ganz anderer Art. Statistische Methoden werden jetzt in vielen
verschiedenen Bereichen angewendet und sind Bestandteil der unterschied-
lichsten wissenschaftlichen, sozialen und politischen Konstrukte. Die neuere
Geschichte der statistischen Ämter ist noch kaum untersucht worden, aber
in Bezug auf Frankreich wurde entsprechendes Material in Pour une histoire
de la statistique (INSEE, 1987, [136]) gesammelt. Mathematische Statistik,
Wahrscheinlichkeitsrechnung und Ökonometrie haben sich in so zahlreichen
und unterschiedlichen Richtungen entwickelt, daß es schwierig geworden ist,
sich eine synthetische Darstellung vorzustellen, die sich mit der von Stigler
für das 18. und 19. Jahrhundert gegebenen Darstellung vergleichen läßt.
In diesem Buch verfolgen wir die Entwicklungen der beiden Aspekte der
Statistik, das heißt des wissenschaftlichen und des administrativen Aspekts.
Wir untersuchen in den Kapiteln einige Zweige des Stammbaums der Stati-
stik und der modernen Ökonometrie. Am Anfang von Kapitel 9 findet der
Leser eine skizzenhafte Darstellung dieses Stammbaums mit einer Zusam-
menfassung der verschiedenen Wege, die wir zurückverfolgt haben. Das erste
Kapitel beschreibt die Entstehung der Verwaltungsstatistik in Deutschland,
England und Frankreich. Im zweiten Kapitel schildern wir das Auftreten der
Wahrscheinlichkeitsrechnung im 17. und 18. Jahrhundert, ihre Anwendung
auf Meßprobleme in der Astronomie, sowie die Formulierung des Normal-
verteilungsgesetzes und der Methode der kleinsten Quadrate. Im dritten und
vierten Kapitel geht es hauptsächlich um die Begriffe des Mittelwertes und der
Korrelation, wobei wir uns an den Arbeiten von Quetelet, Galton und Pearson
orientieren. Im fünften und sechsten Kapitel analysieren wir die Beziehungen
zwischen Statistik und Staat an den Beispielen Frankreichs, Großbritanniens,
Deutschlands und der USA. Das siebente Kapitel beschreibt die sozialen Be-
dingungen, unter denen die Techniken der Stichprobenerhebung entstanden
sind.11 Das achte Kapitel behandelt Probleme der Nomenklatur und der Ko-
11
Dieses Kapitel greift in geänderter Form einen Text auf, der in einer von Mairesse
(1988, [184]) herausgegebenen Kollektivarbeit veröffentlicht wurde.
Zwei Arten der historischen Forschung 17
sehr wertvoll erwiesen – insbesondere gilt das für die kritischen Bemerkun-
gen von Francis Kramarz. Ebenso danke ich Elisabeth Garcia und Dominique
d’Humières für die sorgfältige Arbeit bei der Aufbereitung des Textes für den
Druck.
1
Präfekten und Vermessungsingenieure
Welche Gemeinsamkeiten haben die Statistik – das heißt eine Gesamtheit von
Verwaltungsroutinen, die zur Beschreibung eines Staates und seiner Bevölke-
rung erforderlich sind –, die um 1660 von Huygens und Pascal geschaffene
Wahrscheinlichkeitsrechnung – eine subtile Entscheidungshilfe in Fällen von
Ungewißheit – und die gegen 1750 auf der Grundlage disparater empirischer
Beobachtungen durchgeführten Schätzungen physikalischer und astronomi-
scher Konstanten? Erst im 19. Jahrhundert, nachdem eine Reihe von Hin- und
Rückübersetzungen der Werkzeuge und Fragestellungen durchgeführt worden
waren, kam es zu Überschneidungen und dann zu Verbindungen dieser unter-
schiedlichen Traditionen. Die Überschneidungen und Verbindungen entstan-
den durch den wechselseitigen Austausch von Techniken der Verwaltung, der
(damals als Moralwissenschaften“ bezeichneten) Humanwissenschaften und
”
der Naturwissenschaften.
Die Notwendigkeit, eine Nation zu kennen, um sie zu verwalten, führte –
ausgehend von den äußerst unterschiedlichen Sprachen der englischen politi-
schen Arithmetik und der deutschen Statistik – zum Aufbau der sogenannten
statistischen Bureaus“ im ersten Drittel des 19. Jahrhunderts.1 Andererseits
”
entwickelte sich der Prozeß des Nachdenkens über die Gerechtigkeit und die
Rationalität der menschlichen Verhaltensweisen auf der Grundlage der Begrif-
fe Erwartung und Wahrscheinlichkeit. Und schließlich führte das Streben nach
der Formulierung von Naturgesetzen, bei denen differierende empirische Auf-
zeichnungen berücksichtigt werden, zu einer zunehmend präziseren Herausar-
beitung des Begriffes Mittelwert und der Methode der kleinsten Quadrate. In
den ersten beiden Kapiteln dieses Buches beschreiben wir diese drei Traditio-
nen, die sich – trotz ihrer scheinbaren Heterogenität – mit der Erstellung von
1
Diese Verwaltungsdienstellen wurden zunächst mit der Aufgabe betraut, eine
Generalstatistik“ zu erstellen. Für Deutschland wurde 1871 die Errichtung eines
”
Statistischen Amtes beschlossen. Der Zuständigkeitsbereich dieses Kaiserlichen
”
Statistischen Amtes“ wurde 1872 festgelegt. Von daher rührt die Benennung die-
ser Sparte der administrativen Statistik als amtliche“ Statistik.
”
20 1 Präfekten und Vermessungsingenieure
Formen befassen, die jeder akzeptieren kann: Es handelt sich um Objekte, die
dem Allgemeinwissen zugänglich sind. Jedoch ignorierten die Bureaus für amt-
liche Statistik lange Zeit hindurch die Forschungen zur Wahrscheinlichkeits-
rechnung und zur Fehlerrechnung. Die Untersuchungen zur Wahrscheinlich-
keitsrechnung sind Gegenstand von Kapitel 1 ( Präfekten und Vermessungs-
”
ingenieure“), während die Untersuchungen zur Fehlerrechnung im Kapitel 2
( Richter und Astronomen“) behandelt werden.
”
In der Einleitung habe ich die Idee betont, daß die soziale Welt ein Kon-
strukt ist. Damit wollte ich nicht suggerieren, daß die von der Statistik geliefer-
ten Beschreibungen dieser Welt bloße Artefakte sind. Ganz im Gegenteil: diese
Beschreibungen haben nur dann Gültigkeit, wenn die von ihnen beschriebenen
Objekte konsistent sind. Aber diese Konsistenz ist nicht im Voraus gegeben.
Sie wird geschaffen. Das Ziel von statistischen Erhebungen besteht in der Ana-
lyse dessen, was den Dingen Zusammenhalt verleiht – einen Zusammenhalt in
dem Sinne, daß es in Bezug auf diese Dinge gemeinsam genutzte Darstellun-
gen gibt, die durch Handlungen von allgemeiner Bedeutung beeinflußt werden
können. Ein wichtiger Bestandteil dieser – zur Beschreibung und Schaffung
von Gesellschaften erforderlichen – Sprache ist die moderne Statistik, denn sie
hat einen besonderen Ruf aufgrund ihrer Faktizität, ihrer Objektivität und
ihrer Fähigkeit, Bezugsrahmen und Ansatzpunkte zu liefern.
Wie ist es nun zu dem besonderen Ruf gekommen, den die Statistik unter
den Erkenntnisformen genießt? Diese Ehre ist das Ergebnis einer eigenartigen,
von der Geschichte gewobenen Interaktion zwischen zwei ansonsten deutlich
verschiedenen Autoritätsformen – zwischen der Autoritätsform der Wissen-
schaft und derjenigen des Staates. Im 17. und im 18. Jahrhundert bildete
sich ein begrifflicher Rahmen heraus, in dem man über zweierlei nachdenken
konnte: erstens über die Denkansätze zur Untermauerung zukunftsbezogener
Entscheidungen und zweitens – mit Hilfe der Fehlerrechnung – über die Grade
der Sicherheit wissenschaftlicher Erkenntnisse. Die Autorität der Naturphi-
”
losophie“ (der Wissenschaft von einst) sonderte sich allmählich von der Auto-
rität der Religion und der Autorität der Fürsten ab. Die Trennung zwischen
der Konstitution der Dinge und der Konstitution der Menschen wurde immer
deutlicher, wobei die Konstitution der Dinge ihre Autonomie mit Nachdruck
bekräftigte (Latour, 1991, [168]).
Gleichzeitig entwickelten sich jedoch die Formen der fürstlichen Auto-
ritätsausübung – auf unterschiedliche Weise in den einzelnen Ländern und
in Abhängigkeit davon, wie sich die Beziehungen zwischen Staat und Gesell-
schaft änderten. So bildeten sich spezifische Wissensgebiete heraus, die sowohl
für die Fürsten als auch für deren Verwaltungen nützlich waren und ein Pro-
dukt ihrer Aktivitäten darstellten. Im Übrigen nahmen in dem Maße, wie
eine vom Staat verschiedene Zivilgesellschaft ihre Autonomie erlangte und
sich öffentliche Räume bildeten (wobei Form und Tempo von Staat zu Staat
unterschiedlich waren), auch andere spezifische Wissensgebiete der betreffen-
den Gesellschaft Gestalt an. Alle diese Konstrukte gingen (im Wesentlichen,
aber nicht ausschließlich) aus der Arbeit des Staates hervor und sollten die
1 Präfekten und Vermessungsingenieure 21
zweite Quelle für das ungewöhnliche Ansehen bilden, das die moderne Stati-
stik genießt – zumindest in der mehr oder weniger einheitlichen Bedeutung,
den der Begriff im Laufe des 19. Jahrhunderts erlangt hatte: nämlich als ko-
gnitiver Äquivalenzraum, der zu praktischen Zwecken konstruiert wurde, um
menschliche Gesellschaften zu beschreiben, zu verwalten und um sie umzuge-
stalten.
Aber diese Wissensgebiete hatten ihrerseits Ursprünge und Formen, die
von Staat zu Staat unterschiedlich waren und davon abhingen, wie diese Staa-
ten errichtet wurden und mit der Gesellschaft verbunden waren. Wir nennen
hier Deutschland, das uns das Wort Statistik und eine Tradition der globalen
Beschreibung der Staaten vererbt hat. Wir nennen England, das uns durch
seine politische Arithmetik die Zählungen kirchlicher und verwaltungstechni-
scher Aufzeichnungen, aber auch Rechentechniken hinterlassen hat, mit denen
diese Zählungen analysiert und extrapoliert werden konnten. In Frankreich
schließlich lieferten die Zentralisierung und Vereinheitlichung – zuerst in der
absoluten Monarchie und dann während der Revolution und im Ersten Kai-
serreich – einen politischen Rahmen für die Konzipierung und Errichtung ei-
nes Modells des Bureaus für allgemeine Statistik“ im Jahre 1800 (in einigen
”
Staaten erfolgte das bereits früher, wie zum Beispiel in Schweden im Jah-
re 1756). Auf höherer Ebene führten Zentralisierung und Vereinheitlichung in
Frankreich zu einer ursprünglichen Form der Staatswissenschaften“ mit ihren
”
Ingenieur-Korps“, die nicht aus den Universitäten, sondern aus den grandes
” 2
écoles hervorgingen.
Der Gegensatz zwischen der deutschen deskriptiven Statistik und der eng-
lischen politischen Arithmetik ist ein klassisches Thema von Arbeiten, deren
Gegenstand die Geschichte der Statistik oder der Demographie ist. Einige
Autoren heben insbesondere das Scheitern und den Schiffbruch hervor, den
die deskriptive Statistik zu Beginn des 19. Jahrhunderts erlitten hatte. Diese
Autoren betonen auch die Tatsache, daß die politische Arithmetik, die zu die-
sem Zeitpunkt lediglich den Namen ihrer Rivalin ( Statistik“) geerbt hatte,
”
die wahre Vorläuferin der heutigen Methoden war (Westergaard, 1932, [286];
Hecht, 1977, [125]; Dupaquier, 1985, [75]). Andere Autoren sehen dagegen in
den Methoden der deutschen Statistik einen interessanten Vorgriff auf gewisse
Fragen der modernen Soziologie (Lazarsfeld, 1970, [170]) und einen bedeut-
samen Versuch, die territoriale Diversität eines Nationalstaates gedanklich zu
erfassen und zu beschreiben (Perrot, 1977, [226]; Bourguet, 1988, [27]). Wir
unternehmen in diesem Buch den Versuch einer Rekonstruktion der Verbin-
dungsstellen, auf deren Grundlage sich die betreffenden Beschreibungsmetho-
2
Das höhere Bildungswesen Frankreichs ist durch die scharfe Trennung und Kon-
kurrenz zwischen Universitäten und grandes écoles geprägt. Die Anfänge die-
ser grandes écoles gehen auf Gründungen ingenieurwissenschaftlicher Ausbil-
dungsstätten gegen Ende des Ancien Régime zurück. Zu ihnen gehören einige
der noch heute renommiertesten Ingenieurhochschulen. Genauere Ausführungen
zum französischen Hochschulsystem findet man bei Schwibs (1988, [435]) und bei
Grattan-Guinness (1990, [392]).
22 1 Präfekten und Vermessungsingenieure
rigkeiten ab, denn sie ging mit dem Zwang einher, Komparabilitätsräume,
allgemeine Bezugsräume und Kriterien zu konstruieren. Das wiederum führte
zu der weitverbreiteten Kritik, daß die beschriebenen Objekte reduziert“ und
”
ihrer Singularität beraubt würden. Nun handelte es sich hierbei um genau die-
selbe Art von Einwänden, die gegen die Methode der Kreuztabellen ins Feld
geführt wurden – um so mehr, da diese Darstellung dazu ermunterte, auch
Zahlen in den Tabellenzeilen auftreten zu lassen. Und diese Zahlen konnten
direkt miteinander verglichen werden, während die zu klassifizierenden Infor-
mationen anfänglich noch in verbaler Umschreibung gegeben waren. Es war
demnach die Tabellenform selbst, die zur Suche nach Zahlen und zu deren
Vergleich anregte. Es war im buchstäblichen Sinne diese Form, die den zur
quantitativen Statistik führenden Begriff des Äquivalenzraumes schuf.
Die Tatsache, daß zur Durchführung von Vergleichen zwischen Ländern
oder zwischen Personen gewisse Merkmale ausgewählt werden müssen, kann
immer zu einer Art holistischer Kritik führen, denn ein bestimmtes Land oder
eine einzelne Person lassen sich nicht auf ausgewählte Vergleichsmerkmale
reduzieren. Diese Form der Kritik an der Aufstellung von Äquivalenzen hat
einen hohen Allgemeinheitsgrad und der rote Faden des vorliegenden Buches
besteht darin, die wiederholt auftretenden Modalitäten dieser Art von Debat-
te zurückzuverfolgen und die Gemeinsamkeiten der Protagonisten der einen
oder anderen Position aufzudecken. Ein bezeichnendes Beispiel ist die Kon-
troverse um die Tabellenknechte“, die aus dieser statistischen Schule hervor-
”
gingen. Die Befürworter der Tabellen vertraten die Position eines allgemeinen
Überblicks, wie man ihn von einem Felsvorsprung aus hat. Diese Aussichts-
position ermöglichte es ihnen, die verschiedenen Länder gleichzeitig durch ein
und dasselbe Raster zu sehen. Die Gegner dieser Position unterschieden zwi-
schen subtiler und distinguierter“ Statistik und vulgärer“ Statistik. Ihrer
” ”
Meinung nach hat die letztere
... die große Kunst zu einer stupiden Arbeit degradiert ...“ Diese
” ”
armen Narren verbreiten die verrückte Idee, daß man die Macht eines
Staates durch die Kenntnis seiner Fläche, seiner Bevölkerung, seines
Nationaleinkommens und der Anzahl der Tiere erfassen kann, die seine
Weiden ringsumher abgrasen“. Die Machenschaften, in denen sich
”
diese kriminellen politischen Statistiker in ihrem Bestreben ergehen,
alles durch Zahlen auszudrücken ... sind verachtenswert und über alle
Maßen lächerlich. (Göttingische gelehrte Anzeigen um 1807; vgl. John
(1884, [139]).)
Später findet sich dieselbe Kontroverse in den Positionen wieder, die von
der historischen Schule“ der deutschen Statistiker im 19. Jahrhundert vertre-
”
ten wurde und die im Gegensatz zu den verschiedenen Formen des abstrakten
ökonomischen Universalismus (der Engländer) oder des politischen Universa-
lismus (der Franzosen) stand. Diese Kontroverse war auch für die Debatten
charakteristisch, die durch die Anwendung der numerischen Methode“ in der
”
Medizin (um 1835) sowie durch die Nutzung der Statistik in der Psychologie
26 1 Präfekten und Vermessungsingenieure
Im englischen Kontext, in dem der Staat zu einem Teil der Gesellschaft wur-
de und nicht – wie in Deutschland – deren Gesamtheit darstellte, entstand in
den Jahren nach 1660 unter der Bezeichnung politische Arithmetik“ (poli-
”
tical arithmetic) eine Reihe von Aufzeichnungs- und Rechentechniken. Diese
durch die Arbeit von Graunt (1620–1674) über Sterbezettel5 angeregten Me-
5
Im damaligen Englisch als bill of mortality“ bezeichnet; im Deutschen auch To-
” ”
tenzettel“ oder Totenliste“ genannt. Der Titel der Grauntschen Schrift lautet in
”
Englische politische Arithmetik: Entstehung der Expertise 27
thoden wurden zuerst von Petty (1623–1687) und dann von Davenant (1656–
1714) systematisiert und theoretisch untermauert. Vom Standpunkt unserer
Untersuchung zur Genese der materiellen Objektivierungsverfahren implizie-
ren diese Methoden drei wichtige Momente: erstens das Führen schriftlicher
Aufzeichnungen, zweitens deren Auswertung und Totalisierung gemäß einem
vorher festgelegten Schema und drittens ihre Interpretation durch Zahlen,
”
Maße und Gewichte“.
Die Eintragungen in Register, welche die Spuren von Taufen, Heiraten und
Beerdigungen bewahrten, hingen mit dem Bemühen zusammen, die Identität
einer Person zu juristischen oder verwaltungstechnischen Zwecken zu bestim-
men. Das war der Gründungsakt aller statistischen Arbeit (im modernen Sin-
ne), bei der definierte, identifizierte und stabile Einheiten vorausgesetzt wer-
den. Die Funktion des Aufschreibens bestand darin, die Existenz und Perma-
nenz einer Person und deren Bindungen zu einer Mutter, einem Vater, einem
Ehepartner und zu Kindern zu verstetigen und (im Rahmen eines notariel-
len Aktes) zu beweisen. Ebenso wie die Ermittlung von Wahrscheinlichkeiten
mit dem Bemühen zusammenhing, Glaubensgründe“ und Grade der Sicher-
”
heit festzuhalten und zu bescheinigen (das heißt sie zu objektivieren), zielten
auch die Eintragungen in den Kirchenbüchern darauf ab, die Existenz von
Individuen und deren familiäre Bindungen zu registrieren und zu bezeugen:
Es ist ganz und gar wahrscheinlich, daß das Auftreten und die Ver-
breitung von Registern in eine Zeit fiel, als – und auf die Tatsache
zurückzuführen war, daß – in der Rechtsprechung des späten Mittel-
alters das Gewicht des schriftlichen Beweises gegenüber dem münd-
lichen zugenommen hatte und die alte juristische Maxime Zeugen
”
gehen vor Buchstaben“ 6 nun durch eine neue ersetzt wurde, die da
lautete Buchstaben gehen vor Zeugen.“ (Mols, 1954, [201], zitiert
”
von Dupaquier, 1985, [75].)
... die von mir zu diesem Zweck genutzte Methode ist noch nicht sehr
verbreitet, denn anstatt der ausschließlichen Verwendung von Begrif-
fen im Komparativ und im Superlativ sowie anstelle rein rationaler
Argumente, habe ich (als Muster für die politische Arithmetik, die
mir schon lange vorschwebte) die Methode verwendet, bei der man
sich durch Zahlen, Maße und Gewichte ausdrückt. (Petty, 1690, zi-
tiert von Hecht, 1977, [126].)
7
Man verwendet für Vollerhebung auch den Begriff Totalerhebung. Im Gegensatz
zur Stichprobenuntersuchung wird bei einer Vollerhebung die komplette Grund-
gesamtheit untersucht.
8
Das französische Wort enquête bedeutet in der Statistik u.a. Erhebung, Unter-
suchung. Eine Enquete ist ein Untersuchungsverfahren, das sich im Gegensatz
zur Vollerhebung auf die schriftliche Befragung oder mündliche Vernehmung von
Sachverständigen, Fachleuten usw. beschränkt, um auf diese Weise ein zutref-
fendes Bild über soziale und wirtschaftliche Tatbestände sowie deren Zusam-
menhänge zu gewinnen.
9
Departement (département), Verwaltungsbezirk in Frankreich.
30 1 Präfekten und Vermessungsingenieure
Auf dem Gebiet der Statistik hat das Frankreich der absoluten Monarchie
keine stereotype, in speziellen Abhandlungen niedergeschriebene intellektuelle
Tradition hinterlassen, die später von der akademischen Kultur weitergeführt
werden konnte, wie es in Deutschland mit Conring, Achenwall und Schlözer
und in England mit Graunt, Petty und Davenant der Fall war. Aber das
Frankreich der absoluten Monarchie vermachte den nachfolgenden Zeiten –
vor allem der Revolution und dem Ersten Kaiserreich (Empire)– zwei wichtige
Dinge: zum einen eine sehr lebendige Verwaltungstradition von Denkschriften
(mémoires) und Enqueten, die in den 1780er Jahren beinahe zur Gründung
einer spezifischen statistischen Institution geführt hätte (was dann im Jahre
1800 tatsächlich erfolgte), und zum anderen eine brodelnde Atmosphäre der
wissenschaftlichen Bildung und der Gelehrsamkeit, die außerhalb des eigent-
lichen Staates anzutreffen war und sich auf empirische Beschreibungen sowie
auf Systeme zur Organisierung dieser Beschreibungen bezog. Die faktische
Umsetzung unterschiedlicher Anforderungen, die Bestandteil der deutschen
und der englischen Tradition waren (globale Beschreibung und taxonomische
Logik im einen Fall, Quantifizierung und Mathematisierung im anderen), eb-
nete den Weg für die späteren Synthesen.
Zur Schilderung dieses Gärungsprozesses verfolgen wir hier den Auf-
bau eines starken, zentralisierten Staates und die verschiedenen Beschrei-
bungsmöglichkeiten des Staates und der Gesellschaft. Dabei betrachten wir
einerseits die Entwicklung vor 1789 und andererseits die Zeit zwischen 1789
und 1815 (Bourguet, 1988, [27]). Seitens der königlichen Macht waren Be-
schreibungen des Landes dazu bestimmt, dem Fürsten Bildung zu vermitteln.
Administrative Enqueten, die mit der Führung von Prozessen zu tun hatten,
schlossen bereits quantitative Analysen ein. Außerhalb des Staates verfaßten
Reisende, Ärzte, lokal ansässige Gelehrte, Wissenschaftler und Philosophen
Forschungsarbeiten, die noch nicht auf der Grundlage präzise festgelegter Dis-
ziplinen kodifiziert waren. Für die nachrevolutionäre Zeit zeigt jedoch eine
Gegenüberstellung der während des Konsulats und in der Zeit des Ersten
Kaiserreiches durchgeführten statistischen Versuche, wie das Wort Statistik“
”
in Frankreich von seiner deutschen Bedeutung im 18. Jahrhundert auf seine
moderne Bedeutung als quantifiziertes Beschreibungssystem umschwenkte.
Die Besonderheit Frankreichs im Vergleich zu Deutschland und England
bestand darin, daß seit etwa 1660 die Königsmacht sehr stark war und über
eine verhältnismäßig zentralisierte Verwaltung verfügte – auch wenn es in den
Provinzen immer noch Disparitäten in Bezug auf Recht und Bräuche gab. Die-
se Disparitäten wurden denunziert und 1789 abgeschafft. Tocqueville (1856,
10
Ancien Régime“ ist die Bezeichnung für die absolutistische Monarchie vor 1789,
”
Intendant“ die Bezeichnung eines hohen Verwaltungsbeamten im damaligen
”
Frankreich.
Französische Statistik des Ancien Régime: Intendanten und Gelehrte 31
len12 inspiriert worden waren. Auf der Grundlage dieser Theorien ließen sich
Krankheiten entsprechend der geographischen Umgebung interpretieren. Das
ermunterte diese Ärzte dazu, detaillierte lokale Enqueten zu organisieren, bei
denen die pathologischen Erscheinungen in Beziehung zu den verschiedenen
natürlichen, ökonomischen und sozialen Merkmalen der betreffenden Orte ge-
setzt wurden. So führte im Jahre 1776 Vicq d’Azyr, der Generalsekretär der
Société royale de médicine eine Enquete bei allen französischen Ärzten mit
dem Ziel durch,
... einen topographischen und medizinischen Plan Frankreichs (zu er-
stellen), in dem das Temperament, die Konstitution und die Krank-
heiten der Einwohner aller Provinzen oder Kantone unter Bezugnah-
me auf die Natur und die Bodennutzung erfaßt werden. (Zitiert nach
Bourguet, 1988, [27].)
Das Geheimnis, das die Ergebnisse der administrativen Enqueten umgab,
regte diese Gelehrten zu Schätzungen an, die – ausgehend von Stichproben
und Rechenumwegen, wie es bei der Anwendung des Bevölkerungsmultiplika-
tors der Fall war – auf partiellen Informationen beruhten und in ihren Me-
thoden der englischen politischen Arithmetik nahestanden. Aber diese alge-
”
braischen“ Kunstgriffe, die auf das Fehlen empirischer Daten zurückzuführen
waren, hatten in beiden Ländern jeweils andere Gründe. In England war die-
ser Mangel das Zeichen einer liberalen Orientierung der Macht. In Frankreich
dagegen resultierte er aus den Geheimhaltungsbestrebungen des königlichen
Absolutismus, der die Informationen für sich behielt. Es standen sich somit
zwei konträre Methoden der Staatsführung gegenüber.
Parallel zur Staatsmacht entwickelte sich die optimistische Vorstellung,
daß eine auf Mathematik und empirischen Beobachtungen beruhende Ratio-
nalität zu einer Objektivität und somit zu einer Transparenz führen kann,
die gleichermaßen auf Beschreibungen und Entscheidungen zutrifft. Das erst-
genannte, beschreibende Element wurde durch die Werke von Laplace zur
Theorie der Beobachtungsfehler in der Physik und zum Bevölkerungsmultipli-
kator repräsentiert. Das zweite, sich auf Entscheidungen beziehende Element,
trat in den Untersuchungen von Condorcet13 auf, der eine Algebra des Men-
”
schen“ in der Gesellschaft anstrebte, eine soziale Mathematik“, welche mit
”
Hilfe der Wahrscheinlichkeitsrechnung die Entscheidungen von Geschworenen
oder gewählten Volksvertretungen zum Ausdruck bringt.
Die Formalisierungen bezogen sich in manchen Fällen auf spezielle Schätz-
oder Entscheidungsprobleme und lieferten präzise Lösungen dieser Probleme.
sogenannten klassischen Probleme der griechischen Mathematik (Kreisquadratur,
Würfelverdoppelung, Winkeldreiteilung) berühmt wurde.
12
Galen (Galenos) lebte von ca. 130 bis 200 in Pergamon.
13
Marquis de Condorcet, Marie-Jean-Antoine-Nicolas Caritat (1743–1794). Fran-
zösischer Adliger, der durch seine Verbindung zum Minister Turgot politischen
Einfluß hatte; nahm aktiv an der Französischen Revolution auf der Seite der
Girondisten teil.
34 1 Präfekten und Vermessungsingenieure
Es konnte aber auch vorkommen, daß die Formalisierungen der Ausdruck ei-
nes umfassenderen, systematischeren Bestrebens waren und in dieser Hinsicht
der deutschen Statistik nahestanden, wobei jedoch andere Werkzeuge ver-
wendet wurden. So verhielt es sich zum Beispiel im Fall der Physiokraten, die
eine allzu leichte Versuchung zum Rechnen“ denunzierten. Im Unterschied
”
zu den oben erwähnten traditionellen deutschen Statistikern kritisierten sie
jedoch weniger die Tatsache, daß auf Rechnungen zurückgegriffen wurde, son-
dern vielmehr die Auswahl der berechneten Größen und die Tatsache, daß
sich diese Größen – ihrer Meinung nach – in kein relevantes globales Kon-
strukt einfügten. So machte etwa Dupont de Nemours in einem Brief zur
”
Notwendigkeit, die Vorratsberechnungen mit den Volkszählungen in Überein-
stimmung zu bringen“ (1766) folgende ironische Bemerkung über
... alle diejenigen Schreiber, die sich in ihren Arbeitszimmern penibel
damit befassen, die Eintragungen in den Geburten- oder Sterberegi-
stern zu addieren und willkürliche Multiplikationen durchführen, um
die Menschen zu zählen ..., die sich einbilden, durch ihre Berechnun-
gen – die überhaupt nichts mit den Berechnungen von Reichtümern
zu tun haben – die Macht und die Prosperität der Nation beurtei-
len zu können ..., und die es als Gefangene dieser ihrer Vorstellung
vernachlässigen, ihren Eifer und ihre mühevolle Tätigkeit darauf zu
verwenden, den Zustand des Fortschritts und der Arbeiten auf dem
Gebiet der Kultur, den Zustand der Produkte und vor allem den Zu-
stand des Nettoproduktes kennenzulernen (Dupont de Nemours, zi-
tiert von Bourguet, (1988), [27].)
Mit Quesnay kam die Idee der allgemeinen Konstruktion einer Menge auf,
die nicht nur ein formales logisches System bildete, wie bei den Deutschen in
Göttingen, sondern einen deskriptiven Rahmen darstellte, der die verschiede-
nen Schätzungen durch das berühmte tableau économique“ 14 ( Wirtschafts-
” ”
tableau“) miteinander verknüpfte. (Schumpeter, 1983, [254].) Diese Idee – die
in vielerlei Hinsicht dem ähnelte, was die Kalkulatoren“ der volkswirtschaft-
”
lichen Gesamtrechnung seit Beginn der 1940er Jahre behaupteten – vereinigte
die Forderung nach einer zumindest potentiellen Totalität der von der deut-
schen Scholastik stammenden Systeme mit der Forderung der Arithmetiker
nach Messungen. Nun bedeutet die Messung eines Dings auch eine Prüfung
der Konsistenz dieses Dings, denn es wird mit der Eigenschaft der Exterio-
rität und der Unabhängigkeit von seinem Erfinder oder seinem Beobachter
14
Das tableau économique“ beinhaltet die zahlenmäßige und grafische Darstellung
”
des makroökonomischen Prozesses. In einem enthusiastischen zeitgenössischen
Kommentar heißt es: Ich habe mir gestattet, diese Figuren mit dem Einverständ-
”
nis des großen Meisters gesondert anzuführen, dessen schöpferischer Genius die
wunderbare Idee dieses Schaubildes erfand, das allen Augen das Ergebnis der
höchsten Wissenschaft vorführt und das diese Wissenschaft in ganz Europa zum
ewigen Ruhm seiner Erfindung und zum Wohl des Menschengeschlechts dauernd
lebendig halten wird.“
Französische Statistik des Ancien Régime: Intendanten und Gelehrte 35
die kollektiv gewählten Vertreter der ganzen Nation und nicht Delegierte ih-
rer Provinz waren. Durch diese nationale Vorschrift waren die Volksvertreter
gezwungen, den betreffenden Forderungen zu widerstehen und genau dieser
Umstand ermöglichte es überhaupt erst, die Arbeit innerhalb einer so kur-
zen Frist durchzuführen. Das allgemeine Prinzip bestand darin, tabula rasa
mit einer Gesellschaft zu machen, die zuvor durch Privilegien, provinzbezo-
gene Steuergesetzgebungen und lokalen Aberglauben charakterisiert war. Die
Departements (im Jahre 1789) und die Präfekten (die 1800 eingesetzt wur-
den) sollten die Instrumente“ dieser Adunation sein, das heißt der politisch-
”
kognitiven Konstruktion eines gemeinsamen Meßraumes mit der Skala der
einen und unteilbaren Nation. Der Vorgang der Adunation wurde durch eine
monumentale statistische Erhebung in Gang gesetzt, für die exakt die neuen
Präfekten verantwortlich zeichneten.
Zwischen 1789 und 1800 durchlebte Frankreich eine Zeit, in der die Be-
strebungen zur Neugründung der Gesellschaft mit ausgeprägten politischen,
ökonomischen und militärischen Krisensituationen einhergingen. Diese Kri-
sen entfachten das heftige Verlangen, die Gesellschaft in allen ihren Aspekten
zu beschreiben, um sie umzugestalten. Deswegen gab es zahlreiche Pläne für
Volkszählungen und detaillierte Enqueten – insbesondere sollte dem neuen
Rahmen der Departements auch ein Inhalt gegeben werden. Die Dringlich-
keiten der Krisen führten jedoch dazu, daß die Informationsanforderungen
der Zentralregierung in unzusammenhängender Aufeinanderfolge am Bestim-
mungsort eintrafen, kaum kontrolliert wurden und im Allgemeinen folgenlos
blieben (Gille, 1964, [108]).
Der 18. Brumaire17 (9. November 1799) führte zur Installation einer star-
ken und autoritären Macht, welche die früheren ehrgeizigen Pläne umsetz-
te, Gesetze erließ und effiziente Einrichtungen gründete. Hierzu gehörten das
Bürgerliche Gesetzbuch ebenso wie Universitäten, Lyzeen, Präfektorialver-
waltungen, statistische Bureaus und Zählungen. Aber in der Statistik folg-
ten zwei ziemlich unterschiedliche Momente aufeinander, die in einem signi-
fikanten Gegensatz zueinander standen: Erhebungen nach deutschem Vor-
bild und eingeschränkte, direkt anwendbare Statistiken. Die unterschiedlichen
Beschreibungs- und Formalisierungsweisen der sozialen Welt, über die gerade
erst in philosophischen Zirkeln und außerhalb der königlichen Verwaltung de-
battiert worden war, konnten jetzt von denjenigen mobilisiert werden, die – in
erster Linie im Innenministerium – für die dringlichsten Bedürfnisse Abhilfe
schaffen sollten und gleichzeitig die Grundlagen für ein umfassendes Beschrei-
bungsmodell der französischen Gesellschaft schaffen mußten. Das war bereits
bei François de Neufchâteau der Fall, der als Minister zwischen 1797 und
17
Der brumaire war die historische Bezeichnung des zweiten Monats des republi-
kanischen Kalenders (vom 22.-24. Oktober bis zum 20.-22. November). Journée
du 18 Brumaire bezeichnet den 9. November 1799 (Jahr VIII der Republik), der
Tag, an dem Bonaparte durch einen Staatsstreich das Direktorium stürzte und
den Rat der 500 auflöste.
Revolution und Erstes Kaiserreich: Die Adunation“ Frankreichs 39
”
1799 regelmäßig an die Städte und Departements Rundschreiben verschickte,
in denen er Informationen aller Art anforderte.
Auf Anforderung der neuen Administration sammelte man also sämtliche
Arbeiten, die von lokal ansässigen Gelehrten, wissenschaftlichen Gesellschaf-
ten, Ärzten und Philanthropen verfaßt worden waren, die früher in allen Win-
keln des Königreiches unkoordiniert wirkten. Der Wissensdurst der sozialen
Gruppen, die zwischen 1789 und 1795 die Revolution getragen hatten, wurde
auf diese Weise für den Staatsdienst requiriert. Diese Gruppen waren es, an die
sich François de Neufchâteau und später, nach 1800, Chaptal gewandt hatten.
Ein wichtiger Aspekt dieser neuen Art, Statistik zu betreiben, bestand im Un-
terschied zur Verwaltungsarbeit des Ancien Régime darin, daß die Statistiken
zur Veröffentlichung vorgesehen waren. Der erste, der das tat, war Sébastien
Bottin, der 1799 das Jahrbuch Annuaire politique et économique du Bas-Rhin
herausgab, bevor er ein Almanach-Unternehmen gründete, das später von Di-
dot gekauft wurde, dem Herausgeber der unter dem Namen Bottins“ bekannt
”
gewordenen Verzeichnisse (Marietti, 1947, [191]). De Neufchâteau begrüßte
diese Verzeichnisse als das erste wahrhaft statistische Werk dieser Art, das
”
wir in Frankreich haben“ und machte folgende Voraussage: Ich gebe die Hoff-
”
nung nicht auf, daß sein Name mit dieser Art von Werk verbunden sein wird
und daß man eines Tages unter dem Begriff bottin eines Departements ein
instruktives und vollständiges statistisches Jahrbuch verstehen wird – so wie
man im Zusammenhang mit Berechnungstafeln von einem barème 18 spricht.“
Die Einigung der Nation ging einher mit einer umfassenden Verbreitung
der Kenntnisse über die Regionen, aus denen diese Nation bestand, über die
neuen landwirtschaftlichen und industriellen Produktionstechniken und über
die potentiellen Märkte. In dieser Zeit erfolgte der Übergang der Statistik von
– in Verwaltungsarchiven eingeschlossenen – Manuskripten zu Drucksachen,
die prinzipiell für eine große Öffentlichkeit bestimmt waren. Diese Verschie-
bung hing mit der Tatsache zusammen, daß der republikanische Staat, der
18
Das französische Wort barème bezeichnete zunächst Rechenbücher und später
auch Tabellen. Das Wort bedeutet heute u.a. Berechnungstafel, Tabelle, Tarif und
kommt zum Beispiel in der Zusammensetzung barème des salaires“ (Lohntabelle)
”
vor. Der Vergleich zwischen bottin und barème ist aufschlußreich. Es handelt sich
in beiden Fällen um die Bezeichnungen von Standardisierungswerkzeugen. Die
Personen, von denen sich diese Bezeichnungen ableiten, sind durch die Launen des
Schicksals in der Anonymität verschwunden. Über François Barème (Franciscus
Barreme), den französischen Adam Ries“, heißt es in dem Werk Fortsetzung
” ”
und Ergänzungen zu Christian Gottlieb Joechers allgemeinem Gelehrten-Lexico,
worin die Schriftsteller aller Staende nach ihren vornehmsten Lebensumstaenden
und Schriften beschrieben werden“ (Leipzig 1784): Ein nützlicher Rechenmeister
”
zu Paris, welcher von Lyon gebürtig war, und 1703 zu Paris starb. Man hat von
ihm Les Tarifs et Comptes faits du grand Commerce, Paris 1670; worauf es sehr
oft wieder aufgelegt worden“.
40 1 Präfekten und Vermessungsingenieure
zur öffentlichen Sache ( res publica“ 19 ) geworden war, die ganze Gesellschaft
”
repräsentierte – über den Umweg der durch Wahlen erfolgenden Vertretung,
aber auch durch die Statistik, die zum Spiegel der Nation“ wurde und nicht
”
mehr lediglich ein Fürstenspiegel“ war. Das Bestreben, der Gesellschaft mit
”
Hilfe eines Netzes von Präfekten-Enqueten“ ihr eigenes Spiegelbild vor Augen
”
zu halten, war die primäre Orientierung des neuen Bureau de statistique de la
République. Dieses Bureau wurde 1800 vom Innenminister Lucien Bonaparte
gegründet, den man bald danach durch Chaptal ersetzte.
De Ferrière und Peuchet – bis zum Jahre 1805 die beiden obersten Leiter
dieses Bureaus – gehörten der geisteswissenschaftlichen Kultur an; sie fühl-
ten sich zur deutschen Statistik hingezogen (die Abhandlung Schlözers war
von Donnant ins Französische übersetzt worden) und verhielten sich zurück-
haltend zur Algebra“ der englischen politischen Arithmetiker. Beide wurden
”
jedoch innerhalb des eigenen Bureaus von Duvillard herausgefordert, einem
Mathematiker, der auf Sterbetafeln und deren Anwendung zur Berechnung
von Leibrenten spezialisiert war. Zwei Kulturen, zwei Erkenntnisweisen und
zwei Anforderungskataloge prallten in wechselseitigem Unverständnis in einer
Zeit aufeinander, als die Humanwissenschaften“ noch nicht in voneinander
”
abgegrenzte akademische Disziplinen unterteilt waren und die – sich eben erst
herausbildenden – Fachsprachen in direkter Konkurrenz zueinander standen.
Wenn wir die Methode gerügt haben, welche die Statistik dadurch
verfälscht, daß man deren Lehre fremdes oder unnützes Wissen bei-
mengt und dadurch nur Konfusion verursacht, dann ist es unserer
Meinung nach um so mehr berechtigt, diejenigen zurückzuweisen, die
durch enigmatische Formeln, algebraische Berechnungen oder geome-
trische Figuren etwas präsentieren oder analysieren möchten, das man
viel einfacher auf natürliche Weise und ohne Ungereimtheiten zum
Ausdruck bringen kann ... Diese unsere Bemerkungen treffen um so
mehr zu, weil im Übrigen aufgeklärte Personen im guten Glauben ge-
dacht haben, daß sie zum Fortschritt der politischen Ökonomie und
zur Stärkung ihrer Grundsätze beitragen, wenn sie diese mit alge-
braischen Rechnungen gehörig aufplustern. Dabei läßt sich unmöglich
erfassen, wie sich die Berechnungen auf diese von sich aus komplizierte
Wissenschaft anwenden lassen – eine Wissenschaft, die man tunlichst
nicht noch obskurer machen sollte, indem man obendrein noch Schwie-
rigkeiten und metaphysische Abstraktionen einbaut ... (Peuchet, 1805,
[230].)
20
Mit den Algebraikern“ sind hier die (politischen) Arithmetiker gemeint, die mit
”
Zahlen hantierten“.
”
42 1 Präfekten und Vermessungsingenieure
Man könnte vermuten, daß Peuchet mit den Methoden der Arithmetiker
nur wenig vertraut war und sich bei diesen Methoden auch nicht besonders
wohl fühlte. Wichtig ist jedoch, daß er seinem Publikum, das er gut kannte,
einen lesbaren und einprägsamen Diskurs anbot, dessen Teile in ihrer Darstel-
lung durch einen roten Faden zusammengehalten wurden und auf einem ver-
einheitlichenden Plan aufbauten, nämlich auf der Analyse der Macht des Em-
”
pire“ durch eine sukzessive Beschreibung des Territoriums, der Bevölkerung,
der Landwirtschaft, der Industrie, des Handels, der Schifffahrt, des Staats-
haushalts und der Armee. Ansonsten versagte er es sich nicht, ausführlichen
Gebrauch von den Werken der Algebraiker“ zu machen, die er an anderer
”
Stelle denunzierte. Aber er hatte diese Werke gründlich studiert. Zum Bei-
spiel erwähnte er eine Ermittlung des Gesamtverbrauchs auf der Grundlage
”
des geschätzten Verbrauchs eines jeden Individuums“ und verglich die drei
Rechenverfahren, die für die Algebraiker typisch waren. Peuchets vehemente
Ausfälle gegen die Algebraiker können dahingehend aufgefaßt werden, daß er
vor sein Publikum trat und dessen vermutete Zurückhaltung gegenüber den
trockenen Tabellen“ zum Ausdruck bringen wollte. Er spielte demnach eher
”
die Rolle eines Vermittlers und Übersetzers (Callon, 1989, [42]) zwischen den
Formalisierungen der Arithmetiker und den Fragen, die sich die Administra-
”
toren“ stellten. Die heftigen Seitenhiebe auf die Arithmetiker waren jedoch
ohne Zweifel ungeschickt und verhinderten die Formierung einer Allianz mit
ihnen. Als schließlich Peuchets Lager zu den Verlierern gehörte, mußte De
Ferrière das Statistische Bureau im Januar 1806 verlassen.
Duvillard, der ihn anschließend für einige Zeit ersetzte, verfolgte eine ganz
andere Strategie. Von der Ausbildung her war er Mathematiker und er arbei-
tete vor 1789 beim Allgemeinen Buchprüfungsamt und beim Schatzamt. Er
hatte Sterbetafeln aufgestellt (die von den Versicherungsgesellschaften noch
bis zum Jahre 1880 verwendet wurden) und war Spezialist für die Anwendung
dieser Tafeln auf Probleme der Zahlung von Leibrenten, für die Berechnung
von Altersruhegeldern und für die Tilgung der Staatsverschuldung geworden.
Im Jahre 1791 wurde Duvillard zum Direktor des Bureau d’arithmétique po-
litique ernannt, das von der verfassunggebenden Versammlung auf Veran-
lassung von Condorcet und Lavoisier gegründet worden war. Während der
gesamten Zeit der Revolution und des Konsulats hatte er bei zahlreichen Ge-
legenheiten unter Beweis stellen können, daß seine Techniken bei der Lösung
von Problemen des Schatzamtes unentbehrlich waren. Im Jahre 1805 wurde
Duvillard von De Gérando, dem Staatssekretär des Innenministeriums, zum
stellvertretenden Leiter des Statistischen Bureaus berufen. De Gérando er-
teilte Duvillard die Aufgabe, die von De Ferrière und dessen Untergebenen
durchgeführte Arbeit zu beurteilen. Duvillard nahm Anstoß an dem, was ihm
als vollständiger Mangel an Strenge bei der Kompilation der Tabellen erschien
– vor allem bemängelte er, daß diese Tabellen auf der Grundlage der unvoll-
ständigen und unzusammenhängenden Antworten erstellt worden waren, die
in den im Jahre 1800 durchgeführten Präfekten-Enqueten auftraten. Er gab
seiner Entrüstung am 13. Januar 1806 in einer Denkschrift zur Arbeit des
”
Peuchet und Duvillard: schreiben oder rechnen? 43
Niemand in diesem Bureau hat offenbar geahnt, daß man die Fak-
ten dazu verwenden kann, sie durch diese selbigen Fakten zu prüfen.
Jedoch stehen sämtliche Fakten in wesentlichen und notwendigen Be-
ziehungen zueinander. Dieselben Gründe, die zur Änderung gewisser
Fakten führen, verursachen auch bei den anderen Fakten Änderungen.
Sieht man sich ihre Beziehungen aufmerksam an, dann kann man die-
se und ihre Gesetze häufig durch Gleichungen darstellen. (Duvillard,
1806, [80].)
Er gab hiernach eine konkrete Beschreibung der beträchtlichen Investitio-
nen, die für eine noch kaum routinierte Administration zur Konstruktion von
Äquivalenzen erforderlich wäre, welche a priori gar nicht existierten. Zu die-
sen Investitionen gehörte der immense Briefwechsel mit den Präfekten und
die bei der mechanischen Arbeit des Bureaus erforderliche Sorgfalt:
... Die Hauptobliegenheit des Leiters dieses Bureaus hätte darin be-
standen: die von den Präfekten übermittelten Zusammenstellungen
aufmerksam zu untersuchen, zu diskutieren und zu vergleichen; die
Fakten zu prüfen und den Präfekten die Bemerkungen mitzuteilen,
die sie hätten machen sollen; die Präfekten aufzufordern, neue Be-
merkungen zu machen und nach den Ursachen von Ergebnissen zu
suchen, die absurd oder außergewöhnlich zu sein scheinen. Nun war
diese Funktion nicht nur nicht erfüllt worden, sondern auch die Form
der Zusammenstellungen, in denen die Fakten abgefragt wurden, er-
wies sich als mangelhaft: die vielen Fehler durch Weglassungen sowie
Additionsfehler in den unvollständigen und gedruckten Tabellen zum
Status der Manufakturen, der Bevölkerung und der Bevölkerungsbe-
wegung machen diese Tabellen zu einem nutzlosen Werkzeug und zei-
44 1 Präfekten und Vermessungsingenieure
gen, daß die mechanische Arbeit des Bureaus nicht mit hinreichender
Sorgfalt durchgeführt worden ist. (Duvillard, 1806, [80].)
Danach stellte er fest, daß die Präfekten nur dann strikte Antworten geben
können, wenn die Administration gewisse Register führt“, das heißt wenn es
”
eine vorher existierende Form der Aufzeichnung und der Kodierung gibt, deren
Prototyp der Personenstand ist. Fehlen diese Aufzeichnungen, dann müssen
die Statistiker auf Umwegen vorgehen und auf Überlegungen und Rechnungen
zurückgreifen (hierbei handelt es sich um die Art Algebra, die Peuchet zwar
denunziert hatte, selbst jedoch benutzte):
Man kann von den Präfekten nur erwarten, daß sie ein exaktes Fak-
tenwissen haben und daß diese Fakten von den öffentlichen und spezi-
ellen Verwaltungen aufgezeichnet werden. Es gibt eine Menge anderer
wichtiger Fakten und es wird immer schwierig sein, diese vollständig
mit Hilfe von Beobachtungen zu kennen. Beispiele hierfür sind: die
Dauer von Ehen oder Witwenschaften, der Bestand an beweglichen
Gütern, Industrieprodukten, Rohstoffen und bearbeiteten Materiali-
en sowie die entsprechenden Kenntnisse, die sich auf die Bestimmung
dieser Produkte beziehen. Aber häufig läßt sich mit Hilfe der erfor-
derlichen Daten das, was nicht unmittelbar gezählt oder gemessen
werden kann, durch Überlegung, Rechnung und durch eine metho-
dische Kombination der Fakten herausfinden. Hierfür gibt es in den
physikalisch-mathematischen Wissenschaften so manche Beispiele ...
(Duvillard, 1806, [80].)
Zum Schluß antwortete Duvillard Punkt für Punkt auf Peuchets Kritik an
den trockenen Tabellen“. Dabei betonte Duvillard, daß diese Form Verglei-
” ”
che und theoretische Vorstellungen fördert“ und gleichzeitig äußerte er sich
ironisch über Menschen, die durch den verführerischen Glanz eines eleganten
”
Stils“ in Erscheinung treten:
Isolierte Fakten, die man lediglich im Rahmen einer Zusammenfas-
sung erhält und die einer weiteren Erläuterung bedürfen, können nur
in Denkschriften vorgelegt werden; aber diejenigen Fakten, die mas-
senhaft und mit Detailangaben vorgelegt werden können und auf deren
Genauigkeit man sich verlassen kann, müssen in Tabellen angegeben
werden. Diese Form, welche die Fakten deutlich hervorhebt, erleichtert
Vergleiche, das Erkennen von Beziehungen und theoretische Vorstel-
lungen. Aber zu diesem Zweck sollte man Register führen, wie ich es
in Bezug auf die Bevölkerung getan habe und genau das ist noch nicht
geschehen ...
... In einem Land, in dem man mit Zusammenfassungen lebt und
sich die Menschen mehr mit der Form als mit dem Grund der Dinge
beschäftigen (denn Wissen führt nur selten zu Vermögen), mangelt
es nicht an Menschen mit dem verführerischen Glanz eines eleganten
Peuchet und Duvillard: schreiben oder rechnen? 45
Stils. Die Erfahrung lehrt jedoch, daß es für eine gute Statistik nicht
ausreicht, Pläne, Zusammenfassungen und Zusammenstellungen ma-
chen zu können ... Wie intelligent auch immer jemand sein mag – es ist
für den Betreffenden unmöglich, eine Wissenschaft zu improvisieren,
die Vorstudien und eine fast lebenslange Beschäftigung erfordert: be-
trachtet man den Umfang an Wissen in Ökonomie, politischer Arith-
metik, hervorragender Mathematik und Statistik sowie das Maß an
Scharfsinn, Talent und Genius in Kombination mit dem für eine sol-
che Position erforderlichen Ordnungssinn und Beharrungsvermögen,
dann hat es den Anschein, daß diese Position hinsichtlich der Nütz-
lichkeit und Schwierigkeit nicht allzuweit über den Fähigkeiten der-
jenigen Menschen liegt, die sich durch ihre Schriften in besonderer
Weise auszeichnen. (Duvillard, 1806, [80].)
Diese beiden Männer waren demnach weit komplexer, als es die stereoty-
pen Bilder nahelegen, welche die beiden von sich selbst zeichneten. Peuchet
verwendete die von den Algebraikern erzielten Ergebnisse, wenn sie für ihn
nützlich waren. Duvillard konnte gut schreiben und seinem Stil mangelte es
weder an Bissigkeit noch an Humor; hierauf deutet im obigen Zitat die Wen-
dung durch ihre Schriften“ in einem Satz hin, der offensichtlich auf Peuchet
”
gemünzt ist. Wenn einer von ihnen dem anderen seine trockenen Tabellen“
”
und undurchsichtigen Berechnungen“ vorwirft und dann im Gegenzug für
”
den verführerischen Glanz seines eleganten Stils“ verspottet wird, dann kann
”
man – jenseits des klassischen Gegensatzes zwischen literarischer und wissen-
schaftlicher Kultur – zwei periodisch wiederkehrende Methoden herauslesen,
mit denen die Statistiker versuchen, ihre Existenzberechtigung nachzuweisen.
In dem einen Fall besteht das Ziel darin, eine einfache und einprägsame Bot-
schaft zu vermitteln, um schlüsselfertig verwendbare Dinge zu produzieren,
auf denen sich Konstrukte einer anderen rhetorischen Natur – zum Beispiel
politischer oder administrativer Natur – aufbauen lassen: Peuchets Bemer-
kung über den Reichtum, die Kräfte und die Macht des Empire“ war von
”
dieser Art. Im anderen Fall liegt die Betonung jedoch auf Technizität und Pro-
fessionalität, die zur Produktion und Interpretation von Ergebnissen führen,
die weder unentgeltlich noch transparent sind. Im Laufe der Zeit artikulierten
sich diese beiden Diskurse in kultivierterer Form und die Konfrontation lief
weniger rüde ab, als der Gegensatz zwischen Peuchet und Duvillard. Jedoch
war diese Grundspannung ein inhärentes Merkmal der eigentlichen Situation
der Bureaus für Verwaltungsstatistik, deren Glaubwürdigkeit sowohl von der
Sichtbarkeit als auch von der Technizität dieser Bureaus abhing. Die Art und
Weise, in der man an diese Doppelanforderung in Abhängigkeit von der jewei-
ligen Zeitepoche und dem betreffenden Land heranging, zieht sich – ebenso
wie die Art und Weise der Rücktransformierung dieser Doppelanforderung –
wie ein roter Faden durch die Geschichte dieser Bureaus.
Im Falle des napoleonischen Statistischen Bureaus des Jahres 1806 ver-
teidigten beide Protagonisten ihre Standpunkte in einer allzu radikalen Wei-
46 1 Präfekten und Vermessungsingenieure
se und keiner von ihnen konnte sich durchsetzen. Leiter des Bureaus wurde
vielmehr Coquebert de Montbret, ein hoher Beamter, der den unmittelbaren
Bedürfnissen der Verwaltung nahestand. Die ökonomischen Folgen der Kon-
tinentalsperre gegen England führten zu einem Notstand und alle Anstren-
gungen waren darauf ausgerichtet, landwirtschaftliche und gewerbliche Pro-
duktionsreihen aufzustellen. Das Statistische Bureau wurde 1812 geschlossen
– vielleicht deswegen, weil es ihm nicht gelungen war, innerhalb der äußerst
kurz gesetzten Fristen der Forderung Napoleons nach detaillierten Informatio-
nen zur Gesamtheit des Produktionsapparates nachzukommen (Woolf, 1981,
[288]). Von dieser Zeit blieben zum einen die Denkschriften der Präfekten“
”
erhalten, die in Antwort auf Chaptals Enquete von 1800 verfaßt wurden und
deren Veröffentlichung 1806 eingestellt worden war. Zum anderen blieb auch
ein Versuch erhalten, wirtschaftsstatistische Reihen aufzustellen, aber auch
dieser Versuch wurde abgebrochen (Gille, 1964, [108]).
Die von den Präfekten in Antwort auf Chaptals Fragebogen verfaßten Departe-
ment-Denkschriften wurden vom Statistischen Bureau bis zum Jahre 1806
gesammelt und veröffentlicht. Private Verleger druckten später, bis zum Jah-
re 1830, weitere Denkschriften. Die Historiker hielten diese Unterlagen lange
Zeit für heteroklitische und unvollständige Dokumente, vor allem aber für
unbrauchbar als Quelle numerischer Daten. Das trifft für die quantitative
Wirtschafts- und Sozialgeschichte zu, die sich zwischen 1930 und 1960 im
Anschluß an die Arbeiten von Simiand und Labrousse entwickelte. Für die-
se Historiker setzte die Konstruktion von konsistenten statistischen Reihen –
zum Beispiel in Bezug auf die amtlichen Marktpreislisten und die Erzeugung
landwirtschaftlicher Produkte – voraus, daß strikte präexistente Bedingungen
erfüllt sind: daß nämlich die Registrierungsmodalitäten zeitlich und räumlich
konstant bleiben und auch die Identität der registrierten Objekte erhalten
bleibt. Die Aufgabe der Quellenkritik besteht genau darin, diese Bedingun-
gen zu überprüfen oder vielmehr vorauszusetzen, daß die Objekte und die
Umstände, unter denen sie registriert wurden, hinreichend äquivalent dafür
sind, daß sich deren Reduktion auf ein und dieselbe Klasse als relevant er-
weist. Die Reduktion erfolgt auf der Grundlage einer Debatte über den Zu-
sammenhang zwischen hinreichender Äquivalenz und Relevanz. Diese Frage
ist von grundlegender Wichtigkeit bei der Konstruktion von langen statisti-
schen Reihen in Bezug auf Berufe oder Wirtschaftssektoren. Die Frage ist auch
wichtig, wenn Daten zu den Regionen eines Staates gesammelt werden und
wenn die Registrierungsbedingungen nicht eindeutig kodifiziert worden sind.
Das war genau die Kritik, die Duvillard gegenüber seinen Vorgängern äußer-
te, obschon er einräumte, daß die Präfekten nur von denjenigen Fakten eine
”
exakte Kenntnis haben können, die von den Verwaltungen registriert worden
sind“.
Wie man Diversität durchdenkt 47
Aber die Bedeutung der Denkschriften der Präfekten ändert sich, wenn
man das eigentliche Vorhaben der Adunation zum Thema der historischen For-
schung wählt und dabei beachtet, daß es sich um einen der wichtigsten Aspek-
te der Französischen Revolution handelt, einen Aspekt, dessen Konsequenzen
sich – unabhängig vom Urteil, das man über ein derartiges Projekt fällt – als
äußerst nachhaltig erweisen. Aus dieser Sicht erscheint Chaptals Enquete als
enormer Kraftakt zur Beschreibung der Diversität Frankreichs im Jahre 1800.
Der Umfang dieser Aufgabe läßt erahnen, welche Anforderungen die Aduna-
tion stellte. Die Sicht der Präfekten auf ihre Departements liefert nicht nur
genaue Informationen über die jeweiligen Departements selbst, sondern zeigt
auch und vor allem, wie sich die Akteure dieses Vorhaben vorstellten, wie
sie die Diversität Frankreichs und die möglichen Hindernisse wahrgenommen
haben, die sich diesem politischen und kognitiven Unternehmen in den Weg
stellten. Die einschlägigen Dokumente, die im Buch von Marie-Noëlle Bour-
guet (1988, [27]) analysiert werden, stellen für den Historiker ein einzigartiges
Material dar.
Die Enquete läßt sich auf mehrere Weisen interpretieren. Erstens: Wie
war die Situation Frankreichs im Jahre 1801? In einer Art Reisebeschreibung
bringt die Enquete eine Vielzahl von Beobachtungen, die mehr von ethnologi-
schem als von statistischem Interesse – im modernen Sinne des Begriffes – sind.
Zweitens: Wie wurde diese Situation gesehen? Wie wählte man die angeblich
relevanten Merkmale aus? Drittens: Welche Hindernisse wurden wahrgenom-
men, die sich dem politischen Plan der Transformation und der Einigung des
Territoriums in den Weg stellten? Die Widerstände, auf die dieser Plan stieß,
enthüllen gesellschaftliche Aspekte, für deren explizite Formulierung es zu-
vor keinen Grund gegeben hatte. Jetzt aber wollte man aktiv auf die Dinge
einwirken und genau deswegen war es erforderlich geworden, die Dinge beim
Namen zu nennen und zu beschreiben. Genauer gesagt: der Übergang vom vor-
revolutionären zum nachrevolutionären Frankreich implizierte nicht nur eine
Änderung des Territoriums, sondern auch eine Änderung der Begriffe und der
Werkzeuge zur Beschreibung dieses Territoriums. Ein überraschender Aspekt
der von den Präfekten verfaßten Denkschriften war der Zusammenprall kon-
kurrierender Analyseschemata, die unter ihrer Feder hervorströmten und sich
miteinander vermengten. Wir nennen zwei Fälle, die für diese taxonomische
Konfusion exemplarisch sind: Wie war die Aufteilung der sozialen Gruppen
und deren Ordnung zu konzipieren? Wie ließ sich die Homogenität oder die
innere Heterogenität dieser Gruppen einschätzen?
Zur Beschreibung der sozialen Gruppen standen drei sehr unterschiedli-
che Schemata zur Verfügung. Das erste Schema war eine Hinterlassenschaft
des Frankreichs der Vergangenheit und wurde 1789 vermutlich vollständig ab-
geschafft: Adel, Klerus und Dritter Stand.21 Die Ständegesellschaft war ver-
21
Die Geistlichkeit war der Erste, der Adel der Zweite Stand in der feudalen
französischen Monarchie. Die Basis beider Stände bildete der feudale Grund-
besitz. Ihre Angehörigen genossen die verschiedensten Privilegien. Den Dritten
48 1 Präfekten und Vermessungsingenieure
schwunden und wurde durch eine egalitäre Gesellschaft ersetzt, in der die
”
Menschen frei und gleich an Rechten geboren werden und es bleiben“. Das
neue amtliche Schema beruhte auf dem Eigentum und der Einkommensquel-
le. Der Verkauf des verstaatlichten Eigentums und die Aufteilung des Landes
unter zahlreichen neuen Eigentümern verlieh dieser Gruppe eine große Be-
deutung. Die Unterscheidung zwischen Grundstückseigentümern“ und allen
”
anderen bildete das wesentliche Kriterium des Schemas im Rundschreiben
22
vom 19. Germinal des Jahres IX (9. April 1801). In diesem Rundschreiben
schickte Chaptal den Präfekten den Fragebogen zu, den sie ausfüllen mußten.
Die Präfekten hatten dabei den zahlenmäßigen Umfang der nachfolgenden
Personengruppen anzugeben:
1. Grundstückseigentümer;
2. Personen, die ausschließlich von den Erträgen ihrer Grundstücke leben;
3. Personen, die ausschließlich von Geldeinkommen leben;
4. Vom Staat beschäftigte oder bezahlte Personen;
5. Personen, die von ihrer mechanischen oder gewerblichen Arbeit leben;
6. Ungelernte Arbeiter oder Gelegenheitsarbeiter;
7. Bettler.
schwer objektivieren und die entsprechenden Grenzen konnten immer nur va-
ge angegeben werden. Der Widerspruch zwischen den beiden letztgenannten
Schemata wurde ebenfalls angesprochen. Bestimmte Grundstückseigentümer
(insbesondere auf dem Land) waren nicht sehr zivilisiert“ (und sie waren
”
mitunter ziemlich arm). Andererseits waren Personen mit Talent“ (Ärzte,
”
Lehrer) oft keine Grundstückseigentümer.
Dieser Unterscheidung zwischen aufgeklärten Personen und dem gewöhnli-
chen Volk entsprach eine signifikante Unschlüssigkeit bei der Analyse der inne-
ren Heterogenität der beiden Gruppen: Welche dieser großen Gruppen war die
homogenere? Oder besser gesagt: Wie ließ sich diese Homogenität schätzen?
Die Mehrdeutigkeit der auf diese Frage gegebenen Antworten spiegelte die
zahlreichen Möglichkeiten wider, Äquivalenzen aufzustellen. In einigen Fällen
wurden die aufgeklärten Eliten als überall gleich dargestellt: Es erübrigte sich,
sie im Detail zu beschreiben, da ihre zivilisierten Lebensgewohnheiten durch
ein und dieselben Ansprüche vereinheitlicht worden waren (Prozeß der Zi-
vilisierung der Lebensgewohnheiten, vgl. Elias, 1973, [84]). Im Gegensatz zu
diesen Eliten war die Lebensweise des Volkes in eine Vielzahl von lokalen
Sitten und Gebräuchen aufgesplittert, die sich durch Mundarten, Feste und
Rituale auszeichneten und nicht nur von Region zu Region, sondern sogar
von einer Kirchengemeinde zur anderen unterschiedlich waren. Jedoch inter-
pretierten die Präfekten in anderen Fällen die Realität ihrer Departements
auf entgegengesetzte Weise: Nur gebildete Menschen konnten eine markante
Persönlichkeit haben und eine individuelle Lebensweise führen, während die
Leute aus dem Volk als Gruppe in einer großen Masse definiert wurden und
alle gleich waren.
Dennoch erscheinen diese Interpretationen weniger widersprüchlich, wenn
wir – unter erneuter Verwendung der Terminologie von Dumont (1983) – be-
achten, daß die gewöhnlichen Menschen in beiden Fällen entsprechend einem
holistischen Schema auf der Grundlage der Gemeinschaft beschrieben wurden,
der sie angehörten. Im Gegensatz hierzu beschrieb man die Eliten gemäß einem
individualistischen Schema, das die Personen von ihrer Gruppe abstrahierte
und sie theoretisch gleich machte: das also ist das Individuum der Deklaration
der Menschenrechte und der modernen urbanen Gesellschaft. In dieser indi-
vidualistischen Vorstellung sind die Menschen voneinander verschieden, weil
sie frei sind, und alle Menschen sind gleich, weil sie vor dem Gesetz gleich
sind. Der Gegensatz zwischen holistischer und individualistischer Interpreta-
tion ist ein klassisches Schema der Soziologie, wie man es zum Beispiel bei
Tönnies findet, der zwischen Gemeinschaft und Gesellschaft unterscheidet.
Diese Unterscheidung ist vom Standpunkt der Geschichte der statistischen
Objektivierung interessant, denn man findet dementsprechend zwei Linien der
Nutzung und Interpretation von Sozialstatistiken. Die erste Linie erstreckt
sich von Quetelet und Durkheim bis hin zu einem Teil der modernen Makro-
soziologie. Die Vertreter dieser Linie diskutieren über Gruppen, die als mit
kollektiven Eigenschaften ausgestattete Gesamtheiten aufgefaßt und von der
Statistik mit Hilfe von Mittelwerten beschrieben werden. Die zweite Linie, die
50 1 Präfekten und Vermessungsingenieure
liges Attribut aufgefaßt wurde, das die Menschen niemals beherrschen würden
– außer wenn sie Gott zurate ziehen. Die thomistische Theologie erkannte in
sehr präzise bestimmten Notfällen die Möglichkeit an, eine Frage durch das
Ziehen eines Loses zu entscheiden, und unterschied zwischen konsultatorischen
Losen (sortes consultatoriae), divinatorischen Losen (sortes divinatoriae) und
divisorischen Losen (sortes divisoriae). Divisorische Lose konnten verwendet
werden um zu entscheiden, wem das betreffende Ding zufällt oder was den
”
betreffenden Personen zugesprochen werden soll – zum Beispiel Besitz, Ehren
oder Würden“.5 In jedem anderen Fall stellte der Rekurs auf Glücksspiele“
”
eine schwerwiegende Sünde“ dar.
”
Würfel und Lose sind bereits im Altertum nicht nur in Glücksspielen ver-
wendet worden; sie waren auch Mittel zur Divination, zur Erforschung des
göttlichen Willens, allenfalls der Zukunft. Das Anrufen einer Gottheit, das
sich im Ziehen von Losen ausdrückt, um besonders heikle Streitfälle zu ent-
scheiden, schien demnach eine gerechte Lösung gewesen zu sein: sie stützte sich
nämlich auf eine Abmachung, die über den prozeßführenden Parteien stand
und daher von ihnen akzeptiert werden konnte. Diese Art Lösung war bereits
vom hl. Augustin erwähnt worden. Für ihn war das Los kein Übel an sich,
sondern zeigte dem zweifelnden Menschen den Willen Gottes an:
Nimm zum Beispiel an, daß du eine überflüssige Sache hast. Du soll-
test sie jemandem geben, der sie nicht hat. Aber du kannst sie nicht
zwei Menschen geben. Erscheinen nun zwei Menschen, von denen kei-
ner über den anderen die Oberhand gewinnt – sei es durch Not, sei es
durch die Bande der Freundschaft zu dir – ist es dann nicht die gerech-
teste Lösung für dich, durch das Los entscheiden zu lassen, welcher
der beiden das erhalten soll, was du nicht beiden gleichzeitig geben
kannst? (Vgl. hl. Augustin, De la doctrine chrétienne 6 , zitiert von
Coumet, 1970, [50].)
Das Ziehen von Losen war für einen Richter eine Art und Weise, das aus-
zuführen, was für ihn auch heute noch eine unabdingbare Pflicht ist – die
Verpflichtung nämlich, ein Urteil zu fällen. Ein Richter kann auf der Grund-
lage eines im Gesetzbuch stehenden Artikels oder aufgrund seiner inneren
Überzeugung entscheiden – das einzige, was er nicht tun darf, besteht darin,
keine Entscheidung zu treffen. Man kann sich ohne weiteres vorstellen, daß
das Los – als Ausdruck eines über den Menschen stehenden Willens – lange
Zeit hindurch in dramatischen Fällen eine Möglichkeit zu bieten vermochte,
5
Gemäß der Doktrin der sortes divisoriae wurde die Aufteilung eines Gutes unter
mehreren Personen durch einen Zufallsmechanismus unter bestimmten Bedin-
gungen als legitim erachtet. Das lateinische Wort sors (Plural: sortes) hat u.a.
folgende Bedeutungen: Losstäbchen, Lostäfelchen, Weissagungstäfelchen; Losen,
Verlosung, Los, Orakelspruch; Teil, Anteil; Los = Schicksal, Geschick.
6
Augustinus, Aurelius (354-430): De doctrina christiana. Deutsch von P. Sigisbert
Mitterer; erschienen 1925 in: Bibliothek der Kirchenväter, Bd. 49, München, Kösel
und Pustet.
54 2 Richter und Astronomen
Während sich diese Mißbilligung vor allem auf Glücksspiele bezog, konnte
das für den Seehandel erforderliche Risikokapital dagegen – und zwar gera-
de aufgrund des Risikos – zu einem Gewinn führen. Für die mittelalterliche
Theologie war dieser Umstand sogar eine mögliche Rechtfertigung für Zins-
darlehen, die im Allgemeinen verboten waren und mit Wucher gleichgesetzt
wurden (Le Goff, 1962, [175]). Im Übrigen wurden Versicherungsverträge als
zulässig angesehen.
Aleatorische Verträge und faire Abmachungen 55
Auf diese Weise entstand ein ganzer Arbeitskomplex, der sich auf unter-
schiedliche Bereiche bezog (sortes divisoriae, risikobehaftete Darlehen, Ver-
sicherungsverträge, Glücksspiele), aber dazu tendierte, den Begriff einer fai-
ren Abmachung zu formalisieren. So konnte man etwa die sortes divisoriae
aus dem Bereich der Heiligen herausnehmen und als Grundlage für derartige
Abmachungen rechtfertigen. Ebenso erwies es sich im Interesse einer soliden
Rechtsgrundlage für Verträge, die zukunftsbezogene Risiken enthielten, oder
im Interesse der Rechtfertigung eines Glücksspiels als notwendig, daß die Ver-
tragspartner oder die Spieler in den Genuß gleicher Voraussetzungen“ kamen.
”
Diese Forderung nach Gleichheit, die sich vom Gerechtigkeitsgedanken lei-
ten ließ, eröffnete den Weg zur Konstruktion eines gemeinsamen begrifflichen
Rahmens für Aktivitäten, die im Übrigen vollkommen unterschiedlich waren:
Würfelspiele, Lebensversicherungen und Gewinne, die man von ungewissen
Handelsgeschäften erwartete. Die Glücksspiele sind nur ein Beispiel für aleato-
rische Verträge: derartige Verträge beruhten auf freiwilligen Abmachungen,
”
denen zufolge der Erwerb eines Vermögens eine ungewisse Glückssache war;
um legitim zu sein, mußten diese Abmachungen bestimmten Voraussetzungen
der Fairness7 genügen“ (Coumet, 1970, [50]). Das Problem der Fairness tauch-
te in der Praxis im Zusammenhang mit Aufteilungen auf, wenn ein Geschäft
oder ein Spiel unterbrochen werden mußte: Wie sind die Gewinne oder die
Einsätze aufzuteilen? Hierbei handelt es sich um einen Spezialfall des soge-
nannten Teilungsproblems. Eine ähnliche Frage, die der Chevalier de Méré an
Pascal gerichtet hatte, war die Grundlage der Pascalschen Wahrscheinlich-
keitsrechnung. Aber diese scheinbar harmlose Frage zur belanglosen Tätigkeit
eines Spielers hing tatsächlich mit den alten Debatten über das Problem der
Gerechtigkeit von Abmachungen zusammen, auf denen aleatorische Verträge
beruhten.
Bei der Einführung seiner neuen Formalisierung lieh sich Pascal natürlich
Ausdrücke aus der Sprache der Juristen, denn das war die Sprache, in der die
zeitgenössischen Debatten geführt wurden. Aber Pascal schuf auch eine neue
Art und Weise, die Rolle eines über den besonderen Interessen stehenden
Schiedsrichters zu spielen – eine Rolle, die früher den Theologen zugekommen
war:
lung der Moralisten ist: er ist der Schiedsrichter. (Vgl. Coumet, 1970,
[50].)
... die Regelung dessen, was ihnen gehören sollte, muß in angemessener
Weise dem entsprechen, was sie berechtigterweise vom Glück erwarten
konnten, so daß es für jeden von ihnen vollkommen gleichgültig ist,
ob sie das nehmen, was man ihnen zuteilt, oder ob sie das Abenteuer
des Spiels fortsetzen ... (Pascal, zitiert von Coumet, 1970, [50].)
Da die Größe der Konsequenz und die des Sukzedenten zwei hetero-
gene Betrachtungen sind (oder Betrachtungen, die nicht miteinander
58 2 Richter und Astronomen
den dogmatischen Fideisten – die sich auf die Gewißheiten des wahren Glau-
bens stützten – und den äußerst bissigen Skeptikern, eine Vorstellung von dem
zu definieren, was einfach wahrscheinlich“ war, eine Vorstellung vom Über-
” ”
zeugungsgrad, der ausreicht, einen besonnenen Geschäftsmann zum Handeln
zu ermuntern ..., wobei die Überzeugung von einer intuitiven Bewertung der
möglichen Pläne und der damit zusammenhängenden Risiken abhängt“ (Da-
ston, 1989, [55]).
Diese konstruktiven Skeptiker“ (um einen von Popkin 1964 [238] ge-
”
prägten Ausdruck zu verwenden) betrachteten demnach das Handeln als
Grundlage des Wissens (und nicht umgekehrt). Sie waren – anders als die
Juristen, von denen Pascal seine Inspirationen erhielt – weniger an Fairness
interessiert als am rationalen Glauben, der die Orientierung für eine Entschei-
dung vorgab. Doch auch sie nutzten die Doktrin der aleatorischen Verträge,
um daraus Beispiele zu entnehmen, die zeigten, daß es mitunter vernünftig
war, einen gegenwärtigen sicheren Besitz gegen einen unsicheren zukünfti-
gen Besitz einzutauschen. Diese Erkenntnisphilosohie wies der Wahrschein-
lichkeitsrechnung ein klare epistemische“ Rolle zu, denn sie orientierte sich
”
am Aspekt des unzulänglichen Wissens und nicht am Aspekt des Zufalls. Die
konstruktiven Skeptiker integrierten jedoch Glücksspiele, riskante Tätigkeiten
(Handel, Impfungen) und Entscheidungen von Geschworenen zur möglichen
Schuld eines Angeklagten in ein und dasselbe Modell und bereiteten dadurch
den Übergang von einem Aspekt zum anderen vor.
Es ist interessant, die philosophische Haltung dieser konstruktiven Skep-
tiker , die zwischen den Fideisten und den radikalen Skeptikern stehen, mit
der Position zu vergleichen, die ich in der Einleitung vorgeschlagen habe, das
heißt mit der Position einer modernen Wissenssoziologie, die sich sowohl vom
wissenschaftlichen Objektivismus – für den Fakten Fakten sind“ – als auch
”
vom Relativismus unterscheidet, für den Objekte und Niederschriften gänzlich
von kontingenten Situationen abhängen. Die beiden historischen Konfigura-
tionen des 17. und des 20. Jahrhunderts unterscheiden sich jedoch radikal
voneinander, und sei es nur, weil im ersteren Fall der Pol der Gewißheit durch
die Religion, im letzteren Fall aber durch die Wissenschaft verkörpert wird.
Von diesem Standpunkt ist die probabilistische Verfahrensweise – welche die
Ungewißheit durch Quantifizierung objektiviert – Bestandteil eines Säkulari-
sierungsprozesses. Das ist auch der Grund dafür, warum sich heute sowohl
religiöse Menschen als auch (religiöse und nichtreligiöse) Wissenschaftler glei-
chermaßen unwohl fühlen, wenn sie sich mit Pascals Wette befassen: Beide
Gruppen spüren, daß sich in diesem berühmten Text zwei Argumentations-
weisen überschneiden, die fortan getrennt voneinander verliefen.
Hinter der Distanz, welche die konstruktiven Skeptiker“ zur nihilistischen
”
Skepsis der Pyrrhoneer hielten (die man heute als radikale Relativisten be-
trachten würde), stand die Absicht, Objekte zu erzeugen, auf die man sich
beim Handeln stützen konnte. Diese Objekte waren Überzeugungsgrade“,
”
das heißt probabilisierte Glaubensakte. Wie Lorraine Daston sagt: Die Be-
”
tonung des Handelns als Grundlage des Glaubens – und nicht umgekehrt –
60 2 Richter und Astronomen
ist der Schlüssel zur Verteidigung gegen den Skeptizismus. Schriftsteller wie
Wilkins machten häufig die Bemerkung, daß auch der überzeugteste Skep-
tiker sein Abendessen so verspeist, als ob die Außenwelt wirklich existiert“.
(Wilkins führte das Beispiel eines Kaufmanns an, der die Risiken einer langen
Reise in der Hoffnung auf einen höheren Gewinn auf sich nimmt, und empfahl,
derartige Handlungsregeln auch in wissenschaftlichen und religiösen Fragen zu
befolgen). Die wichtigen Wörter in der Fabel vom skeptischen Abendessens-
gast sind so, als ob“. Dadurch bezieht man sich nicht auf ein Problem von
”
essentieller Realität (wie es ein Fideist oder ein heutiger Realist tun würde),
sondern auf das praktische Verhalten, auf eine Handlungslogik.
Die genannten Autoren konstruierten deswegen einen Rahmen, der eine
gemeinsame Konzeptualisierung von Gewißheitsformen gestattete, die zuvor
voneinander verschieden waren: die mathematische Gewißheit eines Beweises,
die physikalische Gewißheit der sensorischen Evidenz und die moralische Ge-
wißheit von Aussage und Vermutung. Sie ordneten die verschiedenen Formen
der Gewißheit auf einer Ordinalskala an und meinten, daß die meisten Dinge
nur auf der untersten Ebene, das heißt auf der Aussagenebene, gewiß sind. Auf
diese Weise erlangte in Frankreich das Wort probabilité“ 11 , das im Mittelal-
”
ter eine amtlich beglaubigte Stellungnahme“ bezeichnete, die Bedeutung von
”
Grad der Zustimmung entsprechend der Evidenz von Dingen und Zeugen“.
”
Dann fügten Leibniz und Niklaus Bernoulli, die beide Mathematiker und
Juristen waren, drei Ebenen der Gewißheit in ein Kontinuum ein, das jeden
Grad an Zustimmung einschloß12 – vom Unglauben bis hin zur vollständigen
Überzeugung.
Die drei Ebenen der Gewißheit entsprachen drei sehr verschiedenen Wei-
sen der Bewertung von Wahrscheinlichkeiten: (1) gleiche Möglichkeiten auf
11
Das französische Wort geht, ebenso wie das englische probability“, auf das la-
”
teinische probabilitas“ zurück, das sich vom Adjektiv probabilis“ (annehmbar,
” ”
glaublich, wahrscheinlich, tauglich) ableitet. Dieses Wort hängt seinerseits mit
dem lateinischen probare“ (prüfen, billigen, gutheißen, gelten lassen, anerken-
”
nen) zusammen. Das deutsche Wort Wahrscheinlichkeit“ leitet sich von wahr-
” ”
scheinlich“ (= mit ziemlicher Sicherheit“) ab und wurde im 17. Jahrhundert ver-
”
mutlich nach dem Vorbild des gleichbedeutenden niederländischen waarschijn-
”
lijk“ gebildet. Das niederländische Adjektiv ist wohl eine Lehnübertragung des
lateinischen verisimilis“ (wahrscheinlich), einer Zusammensetzung aus verus“
” ”
(wahr) und similis“ (ähnlich).
12 ”
Leibniz, 1705, [412]: ... wenn die Natur der Dinge nichts enthält, was für oder
”
gegen ein bestimmtes Faktum spricht, so wird es, sofern es durch das Zeugnis
unverdächtiger Leute bestätigt wird (z.B. daß Julius Caesar gelebt hat), mit ei-
nem festen Glauben aufgenommen. Wenn aber die Zeugnisse dem gewöhnlichen
Naturlauf widerstreiten oder untereinander widersprechend sind, so können die
Wahrscheinlichkeitsgrade sich bis Unendliche verschieden gestalten und daher
stammen alle jene Grade, welche wir Glauben, Vermutung, Ungewißheit, Miß-
trauen nennen; und daher ist denn strenge Prüfung nötig, um ein richtiges Urteil
zu bilden und unsere Zustimmung gemäß den Graden der Wahrscheinlichkeit zu
erteilen.“
Konstruktiver Skeptizismus und Überzeugungsgrad 61
die Frage der Verteilung dieser Zusammensetzungen, das heißt auf eine A-
”
priori-Wahrscheinlichkeit“ zurück, und genau das ist der Punkt, an dem der
Bayessche Ansatz am meisten kritisiert wird.
Durch die Schaffung des Begriffes der bedingten Wahrscheinlichkeit“
”
führt das Verfahren die Irreversibilität der Zeit in die Formulierung ein ( A
”
dann B“) und das ist die Ursache für den Doppelcharakter dieses Begriffes
(Clero, 1986, [48]). In der Tat läßt sich die Überlegung auf der Grundlage der
folgenden doppelten Gleichheit aufbauen:
Diese Formel wurde 1774 von Laplace in einem langen Satz ausgedrückt,
der heute schwer lesbar ist. Die Schwierigkeit läßt sich mit der andersartigen
Schwierigkeit der vorhergehenden mathematischen Formel vergleichen.
Läßt sich ein Ereignis durch eine Anzahl n von verschiedenen Ursachen
erzeugen, dann verhalten sich die Wahrscheinlichkeiten der Existenz
dieser Ursachen für das betreffende Ereignis wie die Wahrscheinlich-
keiten des Ereignisses für diese Ursachen, und die Wahrscheinlichkeit
für die Existenz einer jeden Ursache ist gleich der Wahrscheinlichkeit
des Ereignisses bei Vorliegen dieser Ursache, dividiert durch die Sum-
me aller Wahrscheinlichkeiten des Ereignisses bei Vorliegen aller dieser
Ursachen. (Laplace, 1774, Mémoire sur la probabilité des causes par
les événements. In: Oeuvres complètes, t. VIII, S. 28.)
Aber der entscheidende Punkt im Beweis von Bayes besteht darin, daß
die Symmetrie der doppelten Gleichheit, welche die bedingten Wahrschein-
lichkeiten P (A falls B) und P (B falls A) definiert, für ihn nicht existier-
te und daß beide Gleichheiten gesondert und unabhängig voneinander be-
wiesen werden (Stigler, 1986, [267]), und zwar mit Hilfe von zwei verschie-
denen Propositionen“. Diese Überlegungen stützen sich auf Zunahmen der
”
Gewinnerwartungswerte, die durch das Auftreten eines Anfangsereignisses A
eingeführt wurden. Jeder Beweis ist die Schilderung einer Folge von hypo-
thetischen Ereignissen und deren Konsequenzen in Bezug auf Gewinne. Aber
68 2 Richter und Astronomen
gab man mehr als 100000 englische Pfund zu diesem Zweck aus). Zwei Tech-
niken wurden damals entwickelt: die Präzision der Uhren, die an Bord von
Schiffen die Greenwich-Zeit anzeigen, und die Aufstellung von Tabellen, die
eine detaillierte Beschreibung der Mondpositionen lieferten.
Im zweitgenannten Fall besteht das Problem darin, daß sich der Mond ge-
genüber der Erde nicht immer unter ein und demselben Winkel zeigt und daß
leichte Schwankungen der Mondrotation (die Librationen“) die Berechnung
”
der Mondposition außerordentlich komplizieren. Der deutsche Astronom Tobi-
as Mayer (1723–1762) veröffentlichte hierzu eine geistreiche Lösung23 , indem
er die Beobachtungen in geeigneter Weise miteinander kombinierte. Berech-
nungen hatten ihn dazu geführt, zu verschiedenen Zeitpunkten die Position
eines gewissen Mondkraters präzise zu beobachten und diese Beobachtun-
gen führten zur Messung dreier unterschiedlicher astronomischer Größen, die
miteinander durch eine Gleichung der sphärischen Trigonometrie verknüpft
waren. Da er diese Beobachtungen insgesamt siebenundzwanzigmal gemacht
hatte, mußte er ein überbestimmtes System von siebenundzwanzig Gleichun-
gen in drei Unbekannten lösen.
Mayer verfügte über keine Regel zur Minimierung der Fehler zwischen
den Erwartungswerten und den durch zufällige Näherung berechneten Wer-
ten. Deswegen führte er eine gut durchdachte Umgruppierung seiner sieben-
undzwanzig Gleichungen in drei Gruppen zu je neun Gleichungen durch und
addierte dann gesondert jede der drei Gruppen. Auf diese Weise erhielt er
schließlich ein System von drei Gleichungen in drei Unbekannten, und die-
se Gleichungen lieferten ihm die gesuchten Abschätzungen. Die Richtigkeit
der Methode ist auf die scharfsinnige Auswahl dreier Teilwolken von Punk-
ten zurückzuführen, die durch ihre jeweiligen Schwerpunkte ersetzt wurden,
so daß der größtmögliche Anteil der ursprünglichen Informationen der sie-
benundzwanzig Beobachtungen erhalten blieb. Die Tatsache, daß Mayer die
Messungen selbst durchgeführt hatte und mit ihnen gründlich vertraut war,
verlieh ihm die Kühnheit, die Gleichungen umzugruppieren, und gab ihm die
erforderliche Intuition, diese Umgruppierung auf einfallsreiche Weise vorzu-
nehmen. Aber diese empirische Lösung stützte sich auf kein allgemeines Kri-
terium und konnte deswegen kaum auf andere Situationen übertragen werden.
Es handelte sich um eine Ad-hoc-Lösung, wie sie für einen Handwerker typisch
ist.
Ein allgemeines Kriterium dafür, eine Anpassung zu optimieren, wurde
wenig später im Jahre 1755 von Roger Joseph Boscovich24 in Bezug auf ein
anderes Problem vorgeschlagen, das ebenfalls viele Gelehrte des 18. Jahrhun-
23
Tobias Mayer, Abhandlungen über die Umwälzung des Mondes um seine Axe. In:
Kosmographische Nachrichten und Sammlungen, von den Mitgliedern der Kos-
mographischen Gesellschaft zusammengetragen, 1(1748), S. 52–148.
24
Ursprünglich: Rudjer Josip Bošcović (1711–1787). Kroatischer Jesuit, der seit
1740 als Professor für Mathematik am Collegium Romanum in Rom lehrte und
1764 Professor für Mathematik in Pavia wurde. Sein italianisierter Name ist Rug-
giero Guiseppe Boscovich.
Der goldene Mittelweg“: Mittelwerte und kleinste Quadrate 73
”
derts in Unruhe versetzt hatte: das Problem der Erdgestalt. Man vermutete,
daß die Erde keine vollkommene Kugel ist, sondern an den Polen leicht abge-
plattet25 , am Äquator dagegen verbreitert ist (einige Gelehrte vertraten übri-
gens die entgegengesetzte These). Die Überprüfung dieses Problems machte es
erforderlich, die Länge eines Meridianbogens an ganz unterschiedlichen Brei-
ten zu messen. Die Messungen wurden in Paris, Rom, Quito, Lappland und
am Kap der Guten Hoffnung durchgeführt. In diesem Fall erwies es sich als
notwendig, ein System von fünf Gleichungen in zwei Unbekannten zu lösen.
Boscovich argumentierte ganz anders als Mayer – möglicherweise weil er
eine kleinere Anzahl von Daten zur Verfügung hatte. Er erfand eine geome-
trische Technik zur Minimierung der Summe der absoluten Werte der Reste,
das heißt der Abweichungen zwischen den beobachteten Werten und den an-
gepaßten Werten. Als allgemeines Kriterium ließ sich diese Technik jedoch nur
sehr schwer handhaben und die geometrische“ Lösung war nur aufgrund der
”
kleinen Anzahl von Beobachtungen und unbekannten Größen möglich (Stigler,
1986, [267]). Laplace hatte versucht, die Summe der absoluten Werte mathe-
matisch zu behandeln, mußte aber wegen der Komplexität der damit verbun-
denen Berechnungen von seinem Vorhaben Abstand nehmen.
Die Lösung durch Minimierung der Summe der Quadrate der Abweichun-
gen scheint zuerst von Gauß bereits 1795 verwendet worden zu sein (zumindest
behauptete er das), aber er gab keine explizite Formulierung dafür an. Un-
abhängig von Gauß konzipierte, formulierte und veröffentlichte Legendre diese
Lösung im Jahre 1805, was einen lebhaften Prioritätsstreit zwischen beiden
zur Folge hatte (Plackett, 1972, [232]).26 Gauß behauptete, dieses Kriterium –
die Methode der kleinsten Quadrate – bereits 1795 benutzt zu haben, äußerte
aber später während der Kontroverse, ihm sei das Kriterium so trivial erschie-
nen, daß er es weder für nützlich befunden hätte, es zu veröffentlichen, noch
ihm einen Namen für die Nachwelt zu geben. Für Gauß war das Kriterium nur
ein Rechenmittel; das Wesentliche für ihn war das damit erzielte Forschungs-
resultat. Dagegen nutzten Legendre im Jahre 1805, vor allem aber Gauß selbst
im Jahre 1809 und Laplace im Jahre 1810 sehr spezielle Eigenschaften dieser
Methode. Insbesondere verwendeten Laplace und Gauß die Beziehungen, die
unter den Gesetzen der Wahrscheinlichkeitsrechnung als Gaußsches Fehler-
”
gesetz“ (der zukünftigen Normalverteilung“) etabliert wurden.
”
Wir müssen jetzt in unserer Darstellung noch einmal zurückgehen, um
kurz die andere Tradition zu verfolgen, die zur Synthese von Gauß-Laplace
25
Unter der Voraussetzung, daß die Erde wie eine homogene, mit gleichförmiger
Winkelgeschwindigkeit rotierende Flüssigkeit behandelt werden kann, hatte New-
ton in den Principia (1687) gezeigt, daß die Erde ein abgeplattetes Rotationsel-
lipsoid ist, wobei der Radius am Äquator um ca. 1/230 länger ist als der Radius
am Pol. Die Abplattung der Erde, das heißt der Längenunterschied zwischen der
Achse der Erdkugel und des Erdellipsoids, beträgt ca. 42 km.
26
Dieser Streit ist nicht nur von anekdotischem Interesse, denn er zeigt, wie sich ein
wissenschaftliches Werkzeug verfestigt, wie es übertragbar wird und sich in einen
anderen Kontext transportieren läßt.
74 2 Richter und Astronomen
führte. Es geht um die Tradition der Philosophen, die – ausgehend von pro-
babilistischen Beschreibungen – über den Grad der Sicherheit des Wissens
arbeiteten. Um ein Wahrscheinlichkeitsgesetz der statistischen Erwartung zu
formulieren, muß man sich zunächst über die entsprechenden Gesetze für ele-
mentare Beobachtungsfehler verständigen. Danach müssen diese elementaren
”
Gesetze“ mathematisch kombiniert“ werden, um daraus ein Gesetz für sta-
”
tistische Berechnungen abzuleiten. Für die Verteilungen der Elementarfehler
sind verschiedene Formen vorgeschlagen worden. Simpson (1757) versuchte es
mit einer Linearform, die zu einem gleichschenkligen Dreieck führt: −a|x| + b.
Laplace schlug 1774 zunächst eine exponentielle Form [ m 2e
−m|x|
] und 1777
1 a
einen Logarithmus [ 2a log( |x| )] vor. Laplace kam während seiner Arbeit zur
theoretischen Fehlerverteilung einer empirischen Verteilung darauf, das Pro-
blem der inversen Wahrscheinlichkeit oder Ursachenwahrscheinlichkeit aus
einer Sicht zu betrachten, die der Auffassung von Bayes nahe stand.
Nach der von Gauß und Laplace im Jahre 1810 durchgeführten Synthese
der empiristischen und der probabilistischen Auffassung setzte sich die Gauß-
2
sche Formel e−x aufgrund ihrer mathematischen Eigenschaften und ihrer
guten Übereinstimmung mit den Beobachtungen fast vollständig durch. Die
Frage der Verteilung der Elementarfehler hatte im Übrigen einen Teil ih-
rer Bedeutung verloren, nachdem Laplace 1810 den Zentralen Grenzwertsatz
bewiesen hatte. Dieser Satz zeigt, daß sogar dann, wenn die Wahrscheinlich-
keitsverteilung der Fehler keine Normalverteilung ist, die Verteilung der Mit-
telwerte der Fehler gegen eine solche Verteilung strebt, falls die Anzahl der
Beobachtungen unbegrenzt wächst.27 Dieser Umstand verlieh der Gaußschen
Form einen entscheidenden Vorteil, auf dem – seit Quetelet und seinem Durch-
schnittsmenschen – die gesamte Statistik des 19. Jahrhunderts beruhte.
Die Ergebnisse von Gauß und Laplace führten also zu einer außerordentlich
fundierten Synthese, auf der die Experimentalwissenschaften des 19. Jahrhun-
derts aufbauten. Diese Synthese vereinigte in sich einerseits die empirischen
Arbeiten, die zur Methode der kleinsten Quadrate führten, und andererseits
die wahrscheinlichkeitstheoretischen Formalismen, die im Normalverteilungs-
gesetz und dessen zahlreichen mathematischen Eigenschaften gipfelten. Je-
doch sollte es ein ganzes Jahrhundert dauern, bis diese Techniken in den
Sozialwissenschaften und insbesondere in den Wirtschaftswissenschaften ein-
gesetzt und formalisiert wurden. Die Gründe hierfür werden wir nachfolgend
präzisieren. Eine der möglichen Hypothesen zur Erklärung dieser Verschie-
bung besteht darin, daß es noch keine Datenaufzeichnungsverfahren gab, die
ihrerseits mit der Schaffung moderner Staaten und der Konstruktion der ent-
sprechenden institutionellen Äquivalenzräume zusammenhängen – das heißt
mit der Konstruktion von Äquivalenzklassen im institutionellen Bereich und
27
Genauer gesagt beinhaltet der Zentrale Grenzwertsatz, daß die Verteilungsfunk-
N
tion einer Summe X = n=1
Xn von unabhängigen oder hinreichend schwach
korrelierten Zufallsvariablen Xn nach geeigneter Normierung unter ziemlich all-
gemeinen Voraussetzungen für N → ∞ gegen die Normalverteilung strebt.
Messungsanpassungen als Grundlage für Übereinkünfte 75
29
Am Anfang von Kapitel 9 unterbreiten wir in einer schematischen Darstellung
einen Vorschlag für einen Stammbaum der Ökonometrie.
3
Mittelwerte und Aggregatrealismus
Wie kann man aus Vielem Eines machen? Und was macht man, wenn man
dieses Eine wieder zerlegen möchte, um erneut die Diversität herzustellen?
Und warum soll man das machen? Es handelt sich hierbei um drei verschie-
dene, aber untrennbar miteinander zusammenhängende Fragen. Diese Fragen
treten bei der Entwicklung und Ausarbeitung der statistischen Werkzeuge zur
Objektivierung der sozialen Welt immer wieder auf. Mit der Verwendung des
Verbs machen“ in den obigen Formulierungen möchten wir nicht suggerie-
”
ren, daß dieser Prozeß der Realitätsproduktion künstlich und somit unwahr“
”
ist. Vielmehr möchten wir an die Kontinuität erinnern, die zwischen den bei-
den Analyse-Aspekten besteht, das heißt an die Kontinuität zwischen dem
kognitiven und dem aktiven Aspekt. Diese innige Überschneidung, die für die
probabilistische und statistische Erkenntnisweise charakteristisch ist, erklärt
vielleicht, warum diese Techniken von der Wissenschaftsphilosophie nur selten
in subtiler Weise angeschnitten werden. Die offensichtliche Komplexität eines
Gebietes, dessen Technizität dieses relative Schweigen rechtfertigen könnte,
ist ihrerseits das Produkt dieser besonderen Situation, in der die Welten des
Handelns und des Wissens miteinander verknüpft sind.
Die Geschichte dieser Techniken besteht aus einer Reihe von intellektuellen
Destillationen und Läuterungsprozessen, die dazu bestimmt sind, schlüsselfer-
tige Werkzeuge herzustellen – Werkzeuge, die von den unterschiedlichen Kon-
tingenzen ihrer Entstehung befreit sind. Exemplarisch für diese Auffassung
sind die häufigen und lebhaften Debatten, die im 19. Jahrhundert zum Be-
griff des Mittelwertes, seines Status und seiner Interpretation geführt wurden.
Jenseits der scheinbaren Trivialität der Rechenweise dieses elementaren Werk-
zeugs der Statistik ging es jedoch um viel mehr: Die Debatten bezogen sich auf
die Natur des vom Kalkül bereitgestellten neuen Objekts und auf die Möglich-
keit, dieses Objekt mit einer autonomen Existenz auszustatten, die von den
elementaren Individuen unabhängig ist. Der Streit um den Durchschnitts-
menschen war lebhaft, denn es wurde ein ganz neues Werkzeug eingeführt –
einschließlich des binomischen Gesetzes“ der Verteilung der Meßfehler – um
”
78 3 Mittelwerte und Aggregatrealismus
eine sehr alte philosophische Frage zu behandeln, nämlich die Frage nach dem
Realismus der Aggregate von Dingen oder von Personen.
Das vorliegende Kapitel beschreibt einige Momente dieser Debatten über
den realen oder nominalen Charakter derartiger Aggregate und über die Werk-
zeuge – insbesondere die probabilistischen Werkzeuge – die bei dieser Gelegen-
heit verwendet wurden. So stellte etwa Quetelet tatsächlich drei – aus unter-
schiedlichen Denkhorizonten hervorgegangene – Möglichkeiten zusammen, die
Einheit des Diversen“ begrifflich zu erfassen. Mit Wilhelm von Ockham und
”
dem Gegensatz zwischen der nominalistischen und der realistischen Philoso-
phie hatte die mittelalterliche Theologie bereits die Frage nach dem Umfang
einer mehrelementigen Menge aufgeworfen. Diese Frage ist vom Standpunkt
des vorliegenden Buches wesentlich, in dem wir die Genese der Konventionen
untersuchen, die bei der Konstruktion von Äquivalenzen und bei der stati-
stischen Kodierung getroffen wurden. Die Ingenieure und Ökonomen des 17.
und 18. Jahrhunderts, zum Beispiel Vauban, hatten bereits Mittelwerte be-
rechnet, und zwar sowohl im Hinblick auf die Schätzung eines existierenden
Objekts als auch zur Schaffung neuer Entitäten. Und schließlich hatten die
im Kapitel 2 genannten Probabilisten des 18. Jahrhunderts im Ergebnis der
Fragen, die sie zu Meßfehlern und zu den hieraus geschlußfolgerten Ursachen-
wahrscheinlichkeiten stellten, leistungsstarke Werkzeuge geschaffen, um Äqui-
valenzen aufzustellen. Zu diesen Werkzeugen gehören das Gesetz der großen
Zahlen von Jakob Bernoulli und die Synthese von Gauß-Laplace, die zum
Zentralen Grenzwertsatz führte.
Quetelet stützte sich auf diese unterschiedlichen Traditionen und auf die
immer ergiebiger werdenden statistischen Aufzeichnungen der Institutionen,
deren Entstehung wir im Kapitel 1 beschrieben hatten. Durch die Nutzung
dieser Quellen schuf er eine neue Sprache, die es ermöglichte, neue Objek-
te anzubieten, die mit der Gesellschaft und deren Stabilität zu tun hatten.
Diese neue Sprache befaßte sich nicht mehr mit Individuen und der Ratio-
nalität ihrer Entscheidungen, wie es noch die Probabilisten bis hin zu La-
place und Poisson getan hatten. Die bei der Verwendung des Gesetzes der
großen Zahlen vorausgesetzten Homogenitätskonventionen wurden von Pois-
son, Bienaymé, Cournot und Lexis diskutiert und die Diskussionen führten zu
weiteren Werkzeugen, mit denen sich der Realismus der makrosozialen Objek-
te testen ließ und immer feinere Zerlegungen dieser Objekte konstruiert wer-
den konnten. Schließlich nahm die Durkheimsche Soziologie diese Werkzeuge
in ihren Besitz, um den Begriff der außerhalb der Individuen existierenden
sozialen Gruppe zu erschaffen. Diese Werkzeuge wurden später im Namen
einer Totalitätskonzeption verworfen, die nicht mehr den Berechnungen von
Mittelwerten verpflichtet war. Der in den modernen Sozialwissenschaften im-
mer wieder auftretende Gegensatz zwischen dem individualistischen und dem
holistischen Standpunkt läßt sich anhand der – in der zweiten Hälfte des 19.
Jahrhunderts äußerst lebhaften – Debatten über Statistiken und Mittelwer-
te verfolgen, wobei die Mittelwerte von beiden Gruppen mal verwendet und
dann wieder denunziert wurden.
Nominalismus, Realismus und statistische Magie 79
Warum eigentlich sollte man vor der Behandlung der Mittelwertdebatten des
19. Jahrhunderts auf die mittelalterlichen Kontroversen zwischen Realisten
und Nominalisten zu sprechen kommen und damit eine Verquickung von voll-
kommen unterschiedlichen intellektuellen Kontexten riskieren? Es stellt sich
heraus, daß dieses Moment aufschlußreich ist – einerseits wegen der damals
benutzten Denkschemata (logischer Vorrang des Ganzen oder der Individu-
en, aus denen es sich zusammensetzt) und andererseits deswegen, weil die
gleichen Denkschemata in einem Streit zwischen Papsttum und Franziskaner-
orden bemüht wurden, in dem es um das Eigentum der Güter der Franziskaner
ging (Villey, 1975, [282]).
Die Debatten über die Beziehungen zwischen universellen Ideen, Wörtern
von allgemeinem Charakter und individualisierten Dingen sind selbstverständ-
lich genauso alt wie die klassische Philosophie. So unterscheidet die klassische
Philosophie drei verschiedene Bezugnahmen des lateinischen Wortes homo
(Mensch): die beiden Silben, aus denen das Wort besteht, einen besonderen
Menschen und die Menschen im Allgemeinen (das heißt den Signifikanten und
die beiden Signifikat-Ebenen: Singulärität und Allgemeinheit). Im 14. Jahr-
hundert, zur Zeit der Kontroverse zwischen Realisten und Nominalisten (die
bildhaft im Roman Der Name der Rose von Umberto Eco gezeichnet wird),
behaupteten die Realisten, daß nur Ideen und allgemeine Konzepte eine reale
Existenz haben – eine Ansicht, die wie das Gegenteil von dem anmutet, was
wir heute als Realismus bezeichnen würden (Schumpeter, 1983, [254]). Dage-
gen behaupteten die Nominalisten, deren maßgeblicher Theoretiker Wilhelm
von Ockham (William Occam, ca. 1300–1350) war, daß es nur einzelne Indi-
viduen gibt und daß die Wörter, die zur Bezeichnung einer Gesamtheit von
Individuen oder zur Bezeichnung eines Konzeptes dienen, praktische Konven-
tionen sind, aber keine Realität bezeichnen, weswegen man diesen Wörtern
gegenüber mißtrauisch sein muß. Als exponierter Vertreter des Nominalismus
ließ sich Ockham von folgendem Prinzip leiten: Wesen soll man nicht über
”
Gebühr vermehren“ 1 – ein Sparsamkeitsprinzip, das oft als Ockhamsches
”
Rasiermesser“ (Occam’s razor) oder Ockhamsches Messer“ bezeichnet wird
”
(Largeault, 1971, [165]).
Die nominalistische Position ist bedeutsam, da sie den Niedergang der al-
ten Scholastik ankündigte und den Weg für ein subjektives Recht“ sowie
”
für die individualistischen und empiristischen Philosophien der nachfolgenden
Jahrhunderte freimachte. Selbstverständlich änderte sich der Bedeutungsin-
halt dieses Nominalismus in dem Maße, wie er die Abstraktionskraft betonte,
die der Benennung von Dingen innewohnt. So hat für Paul Vignaux (1991)
1
Nach Ockham besteht die Welt aus einzelnen Dingen und verborgenen Qua-
”
litäten“, die nirgends entdeckt wurden. In diesem Zusammenhang wendete er
sein Messer“ an, das die nichtexistenten Wesen abschnitt“: entia non sunt
” ” ”
multiplicanda praeter necessitatem“.
80 3 Mittelwerte und Aggregatrealismus
der Nominalismus der modernen Empiriker den Akzent auf die aktive Funkti-
”
on des Wortes gesetzt, das einen Faktor des mentalen Abstraktionsverhaltens
darstellt, indem es gewisse Eigenschaften des Dinges nicht erwähnt“. Diese
Formulierung beschreibt präzise die Operationen der Kriterienbildung und der
statistischen Kodierung, die es durch Weglassen gewisser Eigenschaften des
”
Dinges“ ermöglichen, die Abstraktionsweisen zu diversifizieren und dadurch
eine Vervielfachung der Standpunkte bezüglich dieses Dinges zuzulassen.
Auch die realistische Position entwickelte sich von ihrer ontologischen und
idealistischen mittelalterlichen Version (Ideenrealismus) weiter und nahm ma-
terialistischere und empirizistischere Formen an. Hierzu waren Werkzeuge er-
forderlich, mit deren Hilfe man die Dinge miteinander verknüpfen und sie
dadurch zu Realitäten einer höheren Ebene machen konnte: die Nomenkla-
turen der Naturalisten des 18. Jahrhunderts (Linné) und die statistischen
Mittelwerte des 19. Jahrhunderts (Quetelet). Dieser werkzeugmäßig gut aus-
gerüstete Realismus neuen Typus stand also zum individualistischen Nomi-
nalismus – der für die Aufzeichnung und Kodierung der einzelnen Elemente
unerläßlich war – in einem für die statistische Erkenntnisweise charakteristi-
schen Spannungsverhältnis. Diese Erkenntnisweise zielt darauf ab, auf einer
höheren Ebene Realitäten zu bilden und zu verfestigen, die dazu fähig sind,
als synthetische Substitute für viele Dinge zu zirkulieren (zum Beispiel als
der Preisindex für die Preissteigerungen von Produkten, als die Arbeitslo-
senquote für die Arbeitslosen usw.). Aus diesem Grund war es notwendig,
die statistische Erkenntnisweise in den nominalistischen und individualisti-
schen Konventionen zu verankern. Diese Spannung ist inhärenter Bestandteil
der magischen Transmutation der statistischen Arbeit: der Übergang von ei-
ner Realitätsebene zu einer anderen impliziert auch den Übergang von einer
Sprache zu einer anderen (zum Beispiel von den Arbeitslosen zur Arbeitslo-
sigkeit). Der seit Ockham beschrittene Weg zeigt den Realitätsstatus, der den
beiden Ebenen zugeordnet werden kann, wobei diese Ebenen ihr Dasein in
partieller Autonomie verbringen können.
Diese Vielfalt der möglichen Realitätsregister wird heute durch die Tat-
sache gerechtfertigt, daß jedes von ihnen in ein Konstrukt, einen Zusammen-
hang von Dingen eingebettet ist. Die verschiedenen Mechanismen verfügen
(zumindest partiell) über autonome innere Zusammenhänge. Die Statistiken
(im Sinne der Zusammenfassung einer großen Anzahl von Aufzeichnungen)
spielen oft eine wichtige Rolle bei der Herstellung von Zusammenhängen. Die-
se komplexen Konstrukte sind gleichzeitig kognitiv und aktiv: die nationale
Arbeitslosenquote wurde erst dann berechnet und veröffentlicht, nachdem ei-
ne nationale Politik des Kampfes gegen die Arbeitslosigkeit konzipiert und
umgesetzt worden war. Vorher half man den Arbeitslosen auf lokaler Ebene
(Salais, Baverez, Reynaud, 1986, [247]).
An dieser Stelle ist es verführerisch, die politische und philosophische Kon-
troverse zu erwähnen, bei deren Gelegenheit Ockham seine nominalistische
Position in so entschiedener Weise bekräftigt hatte (Villey, 1975, [282]). Das
Überraschungsmoment ist der scheinbar paradoxe Charakter der Situation
Das Ganze und seine Trugbilder 81
und somit auch der Argumentation. Ausgangspunkt hierfür war das im 13.
Jahrhundert vom hl. Franz von Assisi ausgesprochene Armutsgelübde, das als
Vorschrift in den Regeln des Franziskanerordens verankert war. Die Franzis-
kaner waren nun aber so erfolgreich, daß sie rasch an der Spitze zahlreicher
Klöster standen und über fruchtbare landwirtschaftliche Böden verfügten. Da-
mit die Franziskaner jedoch die Möglichkeit hatten, ihr Armutsgelübde wenig-
stens dem Buchstaben nach einzuhalten, erklärte sich der Papst damit einver-
standen, diese Güter als Eigentum zu übernehmen, gleichzeitig aber den Fran-
ziskanern zur Nutzung zu überlassen. Im 14. Jahrhundert war dieses subtile
Konstrukt jedoch heftigen Kritiken ausgesetzt. Der Papst war der mühseligen
Aufgaben überdrüssig geworden, die mit der Verwaltung dieser Güter ein-
hergingen und deswegen entschloß er sich, die Güter dem Franziskanerorden
zurückzugeben. Das hätte die Franziskaner selbstverständlich reicher gemacht,
aber es hätte auch zur Kritik innerhalb des Ordens geführt – ein rebellieren-
der Flügel hätte die Rückkehr zur ursprünglichen Reinheit des Gelübdes des
hl. Franz verlangt. Das also war der komplexe Kontext, der Ockham in seiner
Intervention veranlaßt hatte, die Position der Franziskaner gegenüber dem
Papst zu verteidigen. Er argumentierte, daß es nicht möglich sei, die betref-
fenden Güter dem Orden als Ganzem zurückzugeben, da Franziskanerorden“
”
lediglich ein Name war, mit dem individuelle Franziskaner bezeichnet wurden.
Demnach leugnete Ockham die Möglichkeit der Existenz kollektiver Per-
sonen, die sich von Einzelpersonen unterscheiden. Dieses Problem sollte eine
fruchtbare Zukunft haben. Mit dem logischen Individualismus des Nomina-
lismus ist demnach ein moralischer Individualismus verknüpft, der seinerseits
mit einer Auffassung der Freiheit des Individuums zusammenhängt, das allein
dem Schöpfer gegenübersteht (Dumont, 1983, [73]). Wir gehen hier nicht wei-
ter auf diese Analyse ein, die auf subtile theologische und juristische Konstruk-
te verweist, deren Aufbau und Sprache uns heute weitgehend fremd sind. Aus
diesem Grund wäre auch ein allzu direkter Vergleich zwischen scheinbar nahe-
stehenden Themen (hier der Gegensatz Realismus-Nominalismus) aus einem
Abstand von fünf Jahrhunderten reichlich unvorsichtig. Die obige kurze Ge-
schichte soll lediglich auf folgenden Umstand hinweisen: Begriffliche Schemata,
die zu einem gegebenen Zeitpunkt in ein sehr viel umfassenderes Gebäude ein-
gegliedert waren, können weitergegeben werden – wobei sie sich mitunter in
ihr Gegenteil verwandeln – und lassen sich dann erneut in andere, radikal
unterschiedliche Gebäude einbinden.
kommt aber auch in Briefen vor, die Lodewijk Huygens an seinen Bruder
Christiaan schrieb. In einem dieser Briefe legt Lodewijk seinen calcul des
”
âges“ ausführlich dar: Er rechnet alle in der Tabelle auftretenden Lebens-
dauern zu einem Mittel ineinander“ – l’un portant l’autre, wie er sagt – das
”
heißt er addiert die Lebensjahre aller hundert Personen in der Tabelle auf und
teilt ihre Summe durch hundert. Die Operation der Addition läßt die lokalen
Singularitäten verschwinden und führt zu einem neuen Objekt allgemeine-
rer Ordnung, wobei die unwesentlichen Kontingenzen eliminiert werden. Der
Sprung von einem Register zu einem anderen spiegelt sich auch im italieni-
schen Ausdruck in fin dei conti 3 ( alles in allem“) und in den französischen
”
Wendungen au bout du compte ( letzten Endes“) und tous comptes faits ( al-
” ”
les in allem“) wider.
Perrot hat (hauptsächlich auf der Grundlage des Wörterbuchs der Aka-
demie) die im 18. Jahrhundert existierenden Konnotationen der von Vauban
verwendeten Begriffe analysiert und auf die unterschiedlichen Logiken hin-
gewiesen, die in jedem der beiden Kalküle verwendet werden. Das Mittel be-
zeichnet das, was sich zwischen zwei Extremen befindet“. Eine Größe wird als
”
proportional bezeichnet, wenn sie in einem Verhältnis zu anderen Größen der
”
gleichen Art“ steht. Der Begriff Art wird in präziser Weise mit der Identität
assoziiert, das heißt mit dem, was die Permanenz ausmacht. Die Berechnung
des Mittelwertes setzte demnach voraus, daß die Größen in diesem einge-
schränkten Sinn gleichartig sind. Dagegen weist der Ausdruck gewöhnlich“
”
auf etwas übliches, abgedroschenes, universelles hin beziehungsweise auf et-
was, das nach Ablauf einer kontinuierlichen Folge von Okkurrenzen geändert
”
wird“ (gewöhnliches Jahr). In ihrem Kommentar zum Ausdruck l’un portant
l’autre führte die Akademie eine Formel ein, die bei Gegensätzen Ockhamscher
Art kaum vorstellbar war. Ein Resultat ergab sich, wenn man das Eine durch
”
das Andere kompensiert und eine Art Ganzes daraus zusammensetzt“ – eine
Redeweise, die Vauban bei der Untersuchung von Saaterträgen verwendete.
Diese Art Ganzes“ bezeichnete eine fließende Zone zwischen einem fest aufge-
”
stellten Objekt und der Diversität inkommensurabler Objekte. Die Kommen-
surabilität und die Möglichkeit der Berechnung eines gewöhnlichen Wertes“
”
gestatteten es, den Begriff einer Art Ganzes“ zu bilden. Noch aber war man
”
nicht dazu imstande, die Stabilität dieses gewöhnlichen Wertes“ zu beweisen.
”
Ebenso war es noch nicht möglich, die Ähnlichkeit der Fehlerabweichungen in
diesen beiden Fällen und im Falle des proportionalen Mittelwertes“ zu be-
”
weisen, um ein konsistentes Ganzes zu erzeugen: den Durchschnittsmenschen.
Diese Fragen führten zu einer vollständigen Neuformulierung des alten
Problems der Existenz einer allgemeinen Entität, die auf einer logisch höheren
Ebene steht als die Elemente, aus denen sich diese Entität zusammensetzt. Das
im Entstehen begriffene Ganze sollte auch noch für einige Zeit ein Trugbild
3
Wörtlich: am Ende der Rechnungen“. Das italienische conto“ (Rechnung, Kon-
” ”
to) geht ebenso wie das französische compte“ auf das spätlateinische computus“
” ”
(Berechnung) zurück.
84 3 Mittelwerte und Aggregatrealismus
des Ganzen bleiben. Dieses Trugbild tauchte zu einem Zeitpunkt auf, als Vau-
ban versuchte, die vorher verstreut auftretenden Elemente in einem einzigen
Kalkül zusammenzufassen, um die Produktionskapazitäten des Königreichs
zu verstehen und zu beschreiben. Darüber hinaus wollte er schätzen, was eine
neue Steuer aufbringen könnte, die sich aus diesen Kapazitäten ableitet. Die
neue Art und Weise der Aufstellung von Äquivalenzen, die mit wesentlichen
Eigenschaften der Addition im Einklang steht, wurde zur gleichen Zeit vorge-
schlagen, als eine neue Art von Staat im Entstehen begriffen war – ein Staat,
der den Ursprung und die Kreisläufe seines Steueraufkommens tiefgründig zu
überdenken versuchte. Aber das hierzu erforderliche begriffliche Werkzeug war
noch nicht formalisiert. Daher konnte dieses Werkzeug auch nicht zirkulieren
und mühelos in unterschiedlichen Kontexten wiederverwendet werden. Einer
der Gründe, warum diese Formalisierung noch kaum möglich war, ist in der
Abwesenheit eines zentralisierten Systems zum Sammeln der Aufzeichnungen
und im Fehlen eines elementaren Kalküls zu suchen, das heißt im Fehlen eines
– und sei es auch nur rudimentären – Apparates für eine nationale Statistik.
Die Dinge geschehen so, als ob die Schöpfungsursache, die das Modell
des Menschen geformt hat, ihr Modell anschließend wie ein mißgünsti-
ger Künstler zerbrach und schlechteren Künstlern die Reproduktion
des Modells überließ. (Quetelet, zitiert von Adolphe Bertillon, 1876,
[13].)
hieraus die Existenz eines idealen Durchschnittsmenschen ab, der in sich sämt-
liche Durchschnittsmerkmale vereinigt und das Ziel des Schöpfers verkörpert:
die Vollkommenheit. Diese Vollkommenheit resultierte demnach aus einem ur-
sprünglichen, entscheidenden Zusammenhang zwischen mehreren Messungen
eines einzigen Objekts und der Messung mehrerer Objekte.
Der zweite entscheidende Zusammenhang in dem von Quetelet geschaffe-
nen Konstrukt gestattete es ihm, die moralischen Verhaltensweisen mit den
zuvor untersuchten körperlichen Merkmalen zu vergleichen. Tatsächlich wei-
sen – wie wir gesehen hatten – sowohl die moralischen Verhaltensweisen als
auch die körperlichen Merkmale eine beträchtliche Regelmäßigkeit auf, sofern
man massenhafte Erscheinungen betrachtet. Die durchschnittlichen Größen
und die durchschnittlichen Formen des menschlichen Körpers variieren nur
geringfügig. Das erklärt sich durch das Gesetz der großen Zahlen, falls man die
Diversität der Einzelfälle – ausgedrückt durch Realisierungen, die in zufälli-
ger Weise von einem Modell abweichen – durch eine Gesamtheit von zahl-
reichen, kleinen und voneinander unabhängigen Ursachen interpretiert. Sind
also die Körpergrößen der einzelnen Menschen hinlänglich gestreut, dann sind
die Mittelwerte der Körpergrößen zweier oder mehrerer Gruppen von Men-
schen ziemlich benachbart, falls sich diese Gruppen nach dem Zufallsprinzip
zusammensetzen. Die Anzahlen der Heiraten, Verbrechen und Selbstmorde
weisen den gleichen Stabilitätstyp auf, obwohl jede der drei entsprechenden
Handlungen einen höchst individuellen und freien Charakter hat. Der Zusam-
menhang zwischen den beiden Typen von Regelmäßigkeiten, die sich nicht
auf Einzelfälle, sondern auf massenhafte Erscheinungen beziehen – die einen
auf körperliche und die anderen auf moralische Merkmale – ermöglicht es
uns, zum Ausgangspunkt der Überlegung zurückzukehren: Die Entscheidun-
gen moralischen Typs sind Manifestationen von Tendenzen, die zufällig um
Durchschnittstypen herum verteilt sind und deren Vereinigung die morali-
schen Merkmale des Durchschnittsmenschen ausmachen – eines vom Schöpfer
gewollten Ideals, das ein Symbol der Vollkommenheit ist.
Quetelet hatte die Grenze zwischen den beiden formal identischen, aber ganz
unterschiedlich interpretierten Berechnungen verschoben, die Vauban als Mit-
telwert beziehungsweise gewöhnlichen Wert bezeichnete. Von nun an gab es
einerseits die wahren Ganzen“, für welche die Berechnung des Mittelwertes
”
vollauf gerechtfertigt war. Andererseits gab es Gesamtheiten von Objekten,
deren Verteilung nicht Gaußsch war und die keine Arten von Ganzen“ bilde-
”
ten, wie man vor einem Jahrhundert sagte. Die Gleichsetzung der beiden Mit-
telwerte, die als objektiv und als subjektiv bezeichnet wurden, war durch die
Vorstellung von der konstanten Ursache gewährleistet. Diese Idee ermöglichte
es, ständig von einem Mittelwert zum anderen überzugehen. Demnach stell-
ten die aufeinanderfolgenden Messungen eines reellen Objekts eine Folge von
Konstante Ursache und freier Wille 89
Operationen dar, die einen Teil des unvorhersehbaren Zufalls in sich trugen
(akzidentielle Ursachen), aber diese Folge war vom Bemühen einer Anpassung
an das Objekt getragen, das die konstante Ursache bildete. Durch ihr Abwei-
chen von diesem Modell – das ein reales Objekt“ einschließt – implizieren
”
die Einschläge einer Folge von Schüssen, die auf die Mitte einer Zielscheibe
gerichtet sind, einen Teil der akzidentiellen Ursachen, welche eine konstante
Ursache stören, die ihrerseits auf das Bestreben des Schützen zurückzuführen
ist, in die Mitte der Zielscheibe zu treffen.
Und schließlich könnte diese konstante Ursache bei der Verteilung der
Merkmale einer Population ihren Ursprung in der göttlichen Absicht ha-
ben, ein vollkommenes Modell zu reproduzieren (Quetelet) oder aber auf
die Auswirkungen der materiellen, klimatischen und geographischen Umge-
bung zurückzuführen sein (hippokratisches Modell des 18. Jahrhunderts). Der
Grund könnte aber auch in der natürlichen Auslese liegen (Darwin) oder vom
sozialen und kulturellen Milieu herrühren (Soziologie des 20. Jahrhunderts).
Eine Normalverteilung von Meßwerten um einen Modalwert ermöglichte es
also, auf die Existenz einer konstanten Ursache oder einer Gesamtheit von
Ursachen zu schließen, deren Kombination in der betreffenden Beobachtungs-
reihe konstante Wirkungen zeitigt. Diese Normalverteilung gestattete die Kon-
struktion einer Äquivalenzklasse von Ereignissen, die dadurch zueinander in
Relation stehen, daß sie zum Teil durch eine gemeinsame Ursache bestimmt
sind. Ein anderer Teil dieser bestimmenden Faktoren leitet sich jedoch aus ak-
zidentiellen Ursachen ab, die für jedes der betreffenden Ereignisse unterschied-
lich sind. Mit dieser Konstruktion verschwand der Unterschied zwischen dem
objektiven“ und dem subjektiven“ Mittelwert vollständig. Der Begriff der
” ”
gemeinsamen Ursache für verschiedene Ereignisse lieferte in beiden Fällen eine
Exteriorität in Bezug auf diese Ereignisse, nämlich ein reelles Objekt“, das
”
unabhängig von seinen kontingenten Manifestationen existiert. Wahrschein-
lichkeitstheoretisch ausgedrückt hat dieses Objekt die Form der Füllung einer
Urne, mit deren Hilfe zufällige Ziehungen durchgeführt werden.
Aber Quetelet und seine Nachfolger waren von der Neuheit des von diesem
Modell induzierten makrosozialen Konstruktes derart fasziniert, daß sie – im
Unterschied zu Bayes, Laplace oder Poisson – nicht daran gedacht hatten,
Überlegungen zu den Ursachenwahrscheinlichkeiten anzustellen, das heißt die
Wirkungen auf eine Abschätzung der Grade der Sicherheit der betreffenden
Ursachen zurückzuführen. Der frequentistische“ Standpunkt stützt sich auf
”
einen objektiven Begriff von Wahrscheinlichkeiten, die mit den Dingen ver-
knüpft sind – also auf variable Kombinationen von konstanten Ursachen und
akzidentiellen Ursachen. Demgegenüber beruhte der epistemische“ Stand-
”
punkt der Probabilisten des 18. Jahrhunderts auf subjektiven Wahrscheinlich-
keiten, die mit dem Verstand und mit dem Glaubensgrad zusammenhängen,
den der Verstand einer Ursache oder einem Ereignis zuordnen kann. Die Spe-
kulationen der Philosophen des Zeitalters der Aufklärung zielten darauf ab,
explizite Rationalitätskriterien für die von aufgeklärten Personen getroffenen
Entscheidungen zu formulieren. Diese Personen waren ihrerseits die Verkörpe-
90 3 Mittelwerte und Aggregatrealismus
rung einer universellen menschlichen Natur, die auf dem Verstand beruhte. Im
19. Jahrhundert dagegen hatten die Französische Revolution und deren un-
berechenbare Erschütterungen die Fragen zur Rationalität des Menschen und
zur Vernunft seiner Entscheidungen durch Fragen ersetzt, die sich auf die Ge-
sellschaft und deren Undurchsichtigkeit bezogen. Von nun an wurde die Ge-
sellschaft nicht nur als ein mysteriöses Ganzes aufgefaßt, sondern sozusagen
auch von außen betrachtet. Die von Quetelet vorgestellten Objektivierungen
und makrosozialen Regelmäßigkeiten entsprachen dieser Art von Sorge, die
für die im Entstehen begriffenen Sozialwissenschaften des 19. Jahrhunderts
charakteristisch war. Der rationalen und besonnenen menschlichen Natur des
aufgeklärten Gelehrten des 18. Jahrhunderts folgte der normale Mensch –
der Durchschnitt“ einer großen Anzahl verschiedener Menschen, die aber
”
alle an einer über die Individuen hinausgehenden Totalität teilhatten. Mit
diesen beiden Sichtweisen waren zwei unterschiedliche Wahrscheinlichkeitsbe-
griffe verknüpft. Eine deutliche Linie trennte Condorcet, Laplace und Poisson
von Quetelet, den Bertillons und den Moralstatistikern“ des 19. Jahrhun-
”
derts. Sie stellten sich nicht die gleichen Fragen und sie hatten einander auch
nicht viel zu sagen, wie aus dem geringfügigen Meinungsaustausch zwischen
Poisson, Cournot und Quetelet hervorgeht.
Das Auftreten dieser neuen Entität Gesellschaft – die objektiviert und von
außen betrachtet wird und mit Gesetzen ausgestattet ist, die unabhängig von
den Individuen sind – kennzeichnet die Denkweise aller Gründungsväter der
damals entstehenden Soziologie. Man denke etwa an Comte, Marx, Le Play,
Tocqueville oder Durkheim – bei allem, was sie sonst voneinander trennte
(Nisbet, 1984, [212]). Alle sahen sich mit Unruhen und dem Zerfall des alten
sozialen Gefüges konfrontiert – Prozesse, die von den politischen Umbrüchen
in Frankreich und durch die industrielle Revolution in England ausgelöst wor-
den waren. Wie sollte man die sozialen Bindungen neu konzipieren, die der
Individualismus der Marktwirtschaft und der Demokratie zerstört hatten?
Nisbet (1984, [212]) entwickelt in seinem Werk Die soziologische Tradi-
tion diese scheinbar paradoxe Idee, indem er all diese Autoren hinter einer
konstanten Ursache“ versammelte. Die konstante Ursache besteht hierbei in
”
der Sorge, auf die sozialen Unruhen und Krisen der Gesellschaft zu reagieren,
die im Ergebnis der beiden Revolutionen entstanden – der politischen Revo-
lution in Frankreich und der ökonomischen Revolution in England. (Die von
den betreffenden Autoren gegebenen Antworten unterschieden sich natürlich
wesentlich voneinander.) In der von Nisbet gezeichneten Gemäldegalerie“
”
wurde Quetelet gar nicht erwähnt. Dessen eigene und eigentlich soziologische
Denkweise schien im Vergleich zu den anderen eher einseitig zu sein. Den-
noch hatte auch Quetelets Denkweise in Bezug auf die politischen Unruhen
einen sehr vergleichbaren Horizont. Sein mit allen Tugenden ausgestatteter
Durchschnittsmensch“ wurde als eine Art vorsichtiger Anhänger der Mitte
”
vorgestellt, der Exzesse jeglicher Art meidet, denn Vollkommenheit liegt in der
Mäßigung. Aber jenseits dieser Naivität, die bereits einige der Zeitgenossen
Quetelets gespürt hatten, sollte seine Denkweise ein mindestens ebenso be-
Konstante Ursache und freier Wille 91
die von nun an mit Diagnosen, standardisierten Verfahren und deren Auswer-
tungen verknüpft waren. Sämtliche Spielarten der Makrosozialpolitik, die seit
Beginn des 20. Jahrhunderts entwickelt worden waren, implizieren ein Wis-
sensmanagement und eine Erkenntnisweise, die voneinander abhängen. Eine
Illustration dieser wiederentdeckten Gleichsetzung ist das Kommen und Ge-
hen von Maßnahmen – im Sinne von Entscheidungen, die sich auf eine große
Anzahl von Fällen anwenden lassen – und die Messungen der Wirkungen
dieser Maßnahmen. Ein gutes Beispiel hierfür ist der Aufbau von sozialen Si-
cherungssystemen, die eine statistische Abdeckung der individuellen Risiken
gewährleisten (Ewald, 1986, [87]).
sich schnell, als Krankheiten zu einem kollektiven Problem wurden, das glo-
bale Lösungen erforderte – man denke nur an Epidemien und insbesondere an
deren Prävention. In diesem Falle bestand die mitunter dringende Notwen-
digkeit, im Rahmen der öffentliche Gesundheit Maßnahmen zu ergreifen, um
eine Epidemie vorherzusehen oder sie zu stoppen. Das wiederum bedeutete,
daß die Epidemie als ein Ganzes zu betrachten war, dessen konstante Ursa-
chen festgestellt werden mußten – das heißt man mußte nach den Faktoren
suchen, die eine Ausbreitung der Epidemie begünstigten. Zu diesem Zweck
lieferten die Berechnungen der durchschnittlichen Anzahlen der Todesfälle
der Bevölkerungsschichten – die nach unterschiedlichen Kriterien klassifiziert
wurden (Stadtteile von Paris, Wohnungstypen, Wohlstandsniveau, Alter) –
Hinweise auf mögliche Vorbeugungsmaßnahmen (die Risikogruppen“ in den
”
Debatten zur Aids-Epidemie unterliegen der gleichen Logik). Diese Form der
medizinischen Statistik“ wurde von der Ärzteschaft ohne weiteres akzep-
”
tiert, denn sie erlaubte es den Ärzten, sowohl in den öffentlichen Debatten als
auch bei der Organisation der Gesellschaft eine Rolle zu spielen. Eine 1829
gegründete Zeitschrift, die Annales d’hygiène publique et de médecine légale
fungierte als Träger von – statistischen oder nichtstatistischen – Erhebungen
in Bezug auf diejenigen sozialen Gruppen, die Elend, Krankheiten, Alkoholis-
mus, Prostitution oder Kriminalität am ehesten ausgesetzt waren (Lécuyer,
1977, [172]). Das Ziel dieser Untersuchungen bestand darin, den betreffenden
Gruppen Moral zu predigen und gleichzeitig ihre hygienischen Verhältnisse
und Lebensbedingungen – vor allem durch die Gesetzgebung – zu verbessern.
Die bekanntesten dieser gelehrten und politisch aktiven Reformer waren Vil-
lermé (1782–1863), ein guter Freund Quetelets, und Parent-Duchatelet. Die
Cholera-Epidemie von 1832 war eine Zeit intensiver Aktivität dieser im sozia-
len Bereich tätigen Demoskopen.
Die Akzeptanz quantitativer Methoden war hingegen im Falle von Klini-
ken zur damaligen Zeit viel weniger offensichtlich, als der Vorschlag gemacht
wurde, die statistische Wirksamkeit der verschiedenen Behandlungsweisen ei-
ner Krankheit zu prüfen. Die Anhänger der numerischen Methode“ 10 – zum
”
Beispiel Doktor Louis – stützten sich auf den prozentualen Anteil von Ge-
nesungsfällen, um bei der Behandlung des Typhusfiebers zu beweisen, daß
Abführmittel dem Verfahren des Aderlasses überlegen sind. Aber sie stießen
auf äußerst heftige (wenn auch ziemlich gegensätzliche) Kritik, in der man die
Aufstellung der betreffenden Äquivalenzen anprangerte. Die kritischen Be-
merkungen wurden von Ärzten geäußert, die ansonsten in Bezug auf andere
Dinge immer unterschiedlicher Meinung waren – von Risueño d’Amador, der
sich vom Vitalismus des 18. Jahrhunderts inspirieren ließ, bis hin zu Claude
Bernard (etwas später), dem Begründer der modernen experimentellen Medi-
zin (Murphy, 1981, [206]). Für die traditionell eingestellten Ärzte, wie etwa
10
Sheynin (1982, [439]) gibt eine ausführliche Darstellung der Geschiche der medi-
zinischen Statistik, einschließlich der von Louis und anderen verwendeten nume-
rischen Methode.
Zwei kontroverse Fälle aus der medizinischen Statistik 95
d’Amador, war die Medizin eine Kunst, die auf der Intuition und dem Instinkt
des Praktikers aufbaute: Intuition und Instinkt manifestierten sich im Verlauf
des singulären Kolloquiums zwischen Arzt und Patient und führten zu einer
Indikation, die aus der Individualität des betreffenden Falles resultierte. Je-
der Versuch, diesen Fall mit einer generischen Kategorie zu vergleichen, würde
die Spezifität dieser persönlichen Wechselwirkung und die auf Erfahrung be-
gründete Intuition des Falls zerstören. Nach Meinung von Louis mußte man
jedoch die Krankheiten klassifizieren, die Behandlungen mit Hilfe von Stan-
dards auswerten sowie nach konstanten Beziehungen zwischen Krankheiten
und Behandlungstechniken suchen. Zu diesem Zweck erhob man Anspruch
auf die bewährten Methoden der anderen Naturwissenschaften (Piquemal,
1974, [231]).
Jedes der von diesen beiden Lagern verwendeten Vokabulare war in sich
schlüssig und verwies auf die beiden gut typisierten Arten des Wissens und
des Handelns. Die Frage war: Wie sind Entscheidungen zu treffen? Soll man –
wie von Louis vorgeschlagen – in Abhängigkeit von dem Wissen handeln, das
auf der systematischen Aufzeichnung einer großen Anzahl ärztlicher Leistun-
gen aufbaut, und sollte man dabei auf die mit Hilfe von Theorien kodifizierten
Resultate zurückgreifen? Oder sollte man sich vielmehr – wie von d’Amador
empfohlen – an die fallbezogene Intuition halten, die sich auf altüberliefer-
te und häufig mündlich weitergegebene Traditionen stützte, an die sich der
Praktiker – ein Mann mit Erfahrung, der sich in derartigen Fällen auskannte
– getreulich hielt? Es handelte sich also weniger darum, die Allgemeinheit der
numerischen Methode mit der Singularität der Wechselwirkung der traditio-
nellen Medizin zu vergleichen. Vielmehr ging es darum, zwischen den beiden
Methoden zu unterscheiden, auf deren Grundlage frühere Fälle kumuliert und
zueinander in Beziehung gesetzt worden sind. In beiden Fällen berief man sich
auf eine Form von Allgemeinheit: auf die Statistik oder auf die Tradition.
Der Fall von Claude Bernard ist komplexer, denn Bernard akzeptierte die
wissenschaftliche Methode voll und ganz und popularisierte sie sogar, stand
aber dennoch der numerischen Methode“ feindselig gegenüber (Schiller, 1963,
”
[252]). Er machte dieser Methode den Vorwurf, daß sie die Aufmerksamkeit
von den präzisen Ursachen der betreffenden Krankheit ablenkte und unter
dem Deckmantel der Wahrscheinlichkeit“ einen Teil des Sachverhaltes der
”
Ungewißheit und der näherungsweisen Betrachtung überließ. Für ihn bestand
die Pflicht eines Wissenschaftlers darin, mit Hilfe der experimentellen Metho-
de eine vollständige Analyse der deterministischen Verkettung von Ursachen
und Wirkungen zu geben. Diese Kritik scheint Gemeinsamkeiten mit den von
d’Amador vorgebrachten Bedenken zu haben. Aber für Claude Bernard, der
nichts von einem Vitalisten alten Schlages an sich hatte, konnte ein Arzt sei-
ne Patienten zwar mit Mitteln“, aber nicht im Mittel“ behandeln. Vielmehr
” ”
mußte der Arzt die unmittelbaren Ursachen des Übels finden, um es völlig zu
beseitigen. Die Feindseligkeit gegenüber der Statistik und ihren Regelmäßig-
keiten hing mit einer deterministischen Auffassung von der Mikrokausalität
zusammen. Nach dieser Auffassung sind Wahrscheinlichkeit und numerische
96 3 Mittelwerte und Aggregatrealismus
Wie sich herausstellte, waren die Mittelwerte zum Gegenstand der De-
batten zwischen den gleichen Protagonisten geworden, nämlich zwischen dem
Hygieniker Villermé und dem Kontagionisten Moreau de Jonnès. Letzterer
war zwar auch an Statistik interessiert, aber das war eine andere Sache. Und
so wurde er 1833 (ein Jahr nach der Cholera) damit beauftragt, das im Jah-
re 1812 abgeschaffte Bureau für Verwaltungsstatistik wieder aufzubauen: das
war die neue Statistique générale de la France (SGF), die er bis 1851 leitete.
Aber seine Auffassung von Statistik unterschied sich von der Auffassung der
Hygieniker, gegen die er polemisierte. In seinem Werk Éléments de Statistique
stellte er 1847 die Statistik in einer mehr administrativ und weniger wahr-
scheinlichkeitstheoretisch ausgelegten Weise vor, als es die Moralstatistiker“
”
– die Schüler von Quetelet und Villermé – taten. Für Moreau de Jonnès hing
die Statistik mit der Verwaltung des Staatsapparates zusammen – sowohl hin-
sichtlich der Datenerfassung als auch in Bezug auf die Verwendung der Daten
beim eigentlichen Verwaltungsablauf. Er bestand mit Nachdruck auf den Ei-
genschaften der Kohärenz, der Logik und der minutiösen Sorgfalt, die ein
Statistiker benötigt, um wahre Zahlen“ zu erhalten. Mittelwerte erschienen
”
ihm als Fiktionen, mit denen sich wohl einige Leute begnügten – aber diese
Mittelwerte konnten seiner Meinung nach die wahren Zahlen“ nicht erset-
”
zen. Er kritisierte die Berechnungen der Lebenserwartung und die von den
Versicherungsmathematikern verwendeten Sterbetafeln.
Anhand dieses Falles erkennen wir, daß der von Quetelet hergestellte Zu-
sammenhang zwischen den beiden Typen von Mittelwerten (das heißt – in
der Terminologie von Bertillon – zwischen dem objektiven und dem subjekti-
ven Mittelwert) ganz und gar nicht selbstverständlich war: der Realismus der
Aggregate wurde in dieser buchhalterischen und verwaltungsbezogenen Auf-
fassung der Statistik geleugnet. Die Statistiker sahen sich häufig Vorwürfen
ausgesetzt wie: Wirf doch bitte nicht Dinge in einen Topf, die in Wirklichkeit
”
voneinander verschieden sind!“ Die hier zitierte Realität ist nicht die gleiche
Realität, wie die des statistischen Mittelwertes – jede dieser Realitäten hat ih-
ren eigenen Anwendungsbereich. Die Kritik in Bezug auf die Kodierung ist die
Grundlage zahlreicher Anschuldigungen, die gegen die quantitativen Sozial-
wissenschaften (Cicourel, 1964, [47]) und gegen die bürokratische und anony-
me Verwaltung von Massengesellschaften erhoben werden. Die Ironie besteht
hier darin, daß die Attacke vom Leiter des Bureaus für Verwaltungsstatistik
geritten wurde. Zu diesem Zeitpunkt gab es jedoch noch keine hinreichen-
de Kohärenz zwischen den administrativen und den kognitiven Werkzeugen,
weswegen ein derartiger Widerspruch noch möglich war.
Die Hygieniker, Moralstatistiker und Liebhaber von Mittelwerten waren
Ärzte und angesehene Persönlichkeiten, die versuchten, neue Positionen auf-
zubauen, indem sie für soziale Antworten kämpften. Ihre in Form von Mittel-
werten ausgedrückte makrosoziale Argumentation eignete sich zur Förderung
der Massenhygiene und der Präventivmedizin. Diese einflußreiche Lobby war
außerdem mit den Vertretern des Freihandels liiert – vor allem mit Kaufleu-
ten und Importeuren –, die den staatlichen Reglementierungen hinsichtlich
98 3 Mittelwerte und Aggregatrealismus
geben ... Ich meine, daß es nur ein einziges Mittel gibt, eine korrek-
te Kenntnis der Bevölkerungszahl und ihrer Bestandteile zu erlangen:
nämlich eine wirkliche und vollständige Volkszählung durchzuführen
und ein Register der Namen sämtlicher Einwohner, einschließlich ih-
res Alters und ihrer Berufe, zu erstellen. (Keverberg, 1827, zitiert von
Stigler, 1986, [267].)
Lager wollte seine Position mit einem Maximum an Argumenten und objek-
tiven Tatsachen untermauern.
Im Unterschied zu seinen beiden Vorgängern konnte sich Poisson auf die
statistischen Verzeichnisse stützen, die seit 1825 im neuen Compte général de
l’administration de la justice criminelle bereitgestellt wurden. Diese Verzeich-
nisse enthielten die jährlichen Zahlen der Anschuldigungen und Verurteilun-
gen. Außerdem wurde das Gesetz im Jahre 1831 geändert. Vor dieser Zeit
war für eine Verurteilung lediglich eine Stimmenmehrheit von sieben gegen
fünf erforderlich. Nun waren es acht gegen vier Stimmen und diese Ände-
rung in der Gesetzgebung konnte bei der Berechnung berücksichtigt werden.
Diese – durch die Überlegungen von Bayes inspirierte – Berechnung impli-
zierte die Ermittlung der beiden Ursachenwahrscheinlichkeiten“, die a priori
”
unbekannt waren: die Wahrscheinlichkeit der Schuld des Angeklagten und
die Wahrscheinlichkeit der Fehlbarkeit der Geschworenen. Poisson nahm nun
zunächst an, daß die Angeklagten aus unterschiedlichen Gruppen kommen,
bei denen die Wahrscheinlichkeiten für eine Schuld nicht gleich groß waren
(man denke etwa an die heutigen Risikogruppen“). Zweitens nahm er an,
”
daß die Geschworenen in unterschiedlicher Weise geeignet sind, die Tatsachen
so einzuschätzen, daß kein Irrtum auftritt. Ausgehend von diesen Annahmen
sah sich Poisson veranlaßt, bei seinen Überlegungen Urnen von ungewisser
Füllung einzuführen. Das wiederum brachte ihn auf die Formulierung seines
starken Gesetzes der großen Zahlen“, das eine Verallgemeinerung des Geset-
”
zes von Bernoulli ist. Beim Gesetz von Bernoulli hat die Urne, aus der die Zie-
hungen erfolgen, eine vorgegebene Füllung. In dem von Poisson untersuchten
Fall ergeben sich jedoch die Urnen ihrerseits aus einer ersten Serie von Ziehun-
gen. Dieses neue starke Gesetz“ besagte, daß unter gewissen Voraussetzun-
”
gen (bezüglich der Anfangsverteilung der Urnen unterschiedlicher Füllung) die
Ziehungswahrscheinlichkeiten11 gegen eine Normalverteilung konvergieren.
Nach Auffassung von Poisson war dieses Ergebnis wichtig, denn es erlaubte
die Beibehaltung der Konvergenzformeln – welche die Stärke des Gesetzes
von Bernoulli ausmachten – und zwar auch in ungewissen Fällen, ja sogar
im Fall der Heterogenität der ursprünglichen Urnen. Er meinte, daß dieser
Umstand den realen Situationen der Anwendung dieses Gesetzes sehr viel
näher käme. Bienaymé gab sich zwar als Bewunderer von Poisson aus, wertete
aber rasch die Originalität dieses neuen starken Gesetzes der großen Zahlen“
”
in einem 1855 veröffentlichten Artikel ab, der den folgenden leicht boshaften
Titel trägt: Zu einem Prinzip, das Monsieur Poisson zu entdecken geglaubt
”
hatte und als Gesetz der großen Zahlen bezeichnete“. Bienaymé bemerkte,
daß – wenn man die Gesamtheit der beiden aufeinanderfolgenden Ziehungen
global als einen einzigen probabilistischen Prozeß betrachtet – dieses starke
”
Gesetz“ von Poisson nicht sehr weit über das Gesetz von Bernoulli hinausgeht.
11
Gemeint sind hier die Ziehungswahrscheinlichkeiten der unterschiedlich gefärbten
Kugeln. Diese lassen sich auch in dieser allgemeinen Situation in ihrer Gesamtheit
durch eine Normalverteilung approximieren.
102 3 Mittelwerte und Aggregatrealismus
Die Überlegungen von Bienaymé drehten sich um den Begriff der konstanten
Ursache und um die Einschränkung, mit der die Probabilisten nach seiner
Auffassung die Bedeutung des Wortes Ursache“ besetzt hatten:
”
... sie sprechen nicht davon, was eine Wirkung oder ein Ereignis her-
vorruft oder was dessen Eintreten gewährleistet; sie wollen nur über
den Zustand der Dinge reden, über die Gesamtheit der Umstände,
unter denen dieses Ereignis eine bestimmte Wahrscheinlichkeit hat.
(Bienaymé, 1855, [16].)
Welches auch immer die Kritikpunkte gewesen sein mögen, die Bienaymé
an die Adresse von Poisson gerichtet hat – beide stellten den Begriff der
konstanten Ursache als Prinzip der Äquivalenzklassenbildung infrage, die es
ermöglicht, Ereignisse zusammenzufassen, indem man sie als kontingente Ma-
nifestationen einer Ursache auftreten läßt, die allgemeiner ist und auf einer
höheren Ebene steht. Die Position von Bienaymé und Poisson ist nominalisti-
”
scher“ als die Auffassung Quetelets: Poisson versuchte jedoch, die Errungen-
schaften der konstanten Ursache durch seine – gemäß einem konstanten Ge-
setz – variierende Ursache wenigstens teilweise zu retten, während Bienaymé
den Konventionscharakter der Kausalitätsdefinition besser erfaßte. Seine For-
mulierung steht dem modernen Begriff des Modells näher, denn sie erfaßt
Der angefochtene Realismus: Cournot und Lexis 103
Unser Glaube an gewisse Wahrheiten fußt also weder auf der Wie-
derholung ein und derselben Urteile noch auf einer einstimmigen oder
fast einstimmigen Billigung: er beruht hauptsächlich auf der Wahrneh-
mung einer rationalen Ordnung – auf deren Grundlage diese Wahrhei-
ten miteinander verkettet sind – und auf der Überzeugung, daß es sich
bei den Fehlerursachen um anormale, irreguläre und subjektive Ursa-
chen handelt, die keine so regelmäßige und objektive Koordinierung
erzeugen können. (Cournot, 1843, [51].)
Dieses Gespür für die Spannung zwischen der gesuchten Objektivität der
rationalen Ordnung und den Unvollkommenheiten des subjektiven mensch-
lichen Urteils brachte Cournot darauf, klar zwischen den beiden möglichen
Bedeutungen des Begriffes Wahrscheinlichkeit“ zu unterscheiden (er war ei-
”
ner der Ersten, die dies taten) und die entsprechenden Zusammenhänge zu
untersuchen, wobei er den Bayesschen Standpunkt vehement kritisierte:
Eine Regel, die zuerst von dem Engländer Bayes ausgesprochen wur-
de, und auf der Condorcet und Laplace die Doktrin der A-posteriori-
Wahrscheinlichkeiten aufbauen wollten, wurde zur Quelle zahlreicher
Zweideutigkeiten, die zunächst geklärt werden müssen. Diese Regel
führte auch zu schweren Fehlern, die man beheben muß. Und die Feh-
ler werden behoben, sobald wir an den fundamentalen Unterschied
denken, der zwischen den beiden Arten von Wahrscheinlichkeiten be-
steht: nämlich zwischen den Wahrscheinlichkeiten, die eine objektive
Existenz besitzen und ein Maß für die Möglichkeit der Dinge liefern,
und den subjektiven Wahrscheinlichkeiten, die teils auf unser Wissen
und teils auf unsere Unwissenheit zurückzuführen sind und von der In-
telligenz, den entsprechenden Fähigkeiten und den gelieferten Daten
abhängen. (Cournot, 1843, [51].)
Cournot war davon überzeugt, daß eine Akkumulation von Statistiken über
die verschiedensten Themen dazu führen würde, das Wesen und die Tragweite
meralisten und Gebildete überhaupt“ erschienen (herausgegegen von Dr. C.H.
Schnuse, Braunschweig 1849).
Der angefochtene Realismus: Cournot und Lexis 105
das ist es, was Cournot mit seinem Begriff des Voraburteils“ bemerkt hatte,
”
das den Schnitt“ (das heißt die Nomenklatur) bestimmte. Er erklärte, daß
”
ein sich auf eine Abweichung beziehendes Urteil von zwei Elementen abhängt.
Das erste Element ergibt sich im Ergebnis einer klar formalisierten Wahr-
scheinlichkeitsrechnung, aber:
Das andere Element besteht aus einem Voraburteil, kraft dessen wir
den Schnitt – der zur beobachteten Abweichung geführt hat – als einen
solchen betrachten, den man in der unendlichen Vielfalt der möglichen
Aufteilungen natürlicherweise durchzuführen versucht, und nicht als
einen, der unsere Aufmerksamkeit ausschließlich in Anbetracht der
beobachteten Abweichung in Bann zieht. Nun leitet sich aber dieses
Voraburteil – durch das es für uns den Anschein hat, daß die sta-
tistische Erfahrung eher auf einen bestimmten Schnitt als auf einen
anderen gelenkt sein mußte – aus Gründen ab, deren Wert sich nicht
streng beurteilen läßt und von anderen Geistern auf andere Weise be-
urteilt werden kann. Es handelt sich um ein Urteil mit Vermutungs-
charakter, das seinerseits auf Wahrscheinlichkeiten beruht – aber auf
Wahrscheinlichkeiten, die sich nicht auf eine Aufzählung der Chancen
zurückführen lassen und deren Diskussion nicht zur eigentlichen Dok-
trin der mathematischen Wahrscheinlichkeitsrechnung gehört. (Cour-
not, 1843, [51].)
Durch die Einführung dieser Art von Fragestellung modifizierte Cournot
das obengestellte Problem des Aggregatrealismus“ auf tiefgründige Weise.
”
Er machte den Weg für die Möglichkeit von zusammengesetzten Urteilen frei,
von denen sich einige Bestandteile objektivieren lassen, während andere von
”
verschiedenen Geistern unterschiedlich beurteilt werden können“. Die durch-
geführten Schnitte“ können sich also nur aus einer Konvention ableiten, die
”
auf die Installierung des gesunden Menschenverstandes abzielt. Diese Auffas-
sung ist teilweise nominalistisch – trotz einer an anderer Stelle erkennbaren
Nostalgie nach einer rationalen Ordnung, auf deren Grundlage die Wahrhei-
”
ten miteinander verkettet sind, einer Ordnung, für welche die Fehlerursachen
anormal, irregulär und subjektiv sind“. Diese Spannung und das Bestreben,
sie zu durchdenken, machen das Werk Cournots zu einem der reichhaltigsten
Werke der hier zitierten Autoren, denn es stellt explizit die Frage nach der
relativen Position der auf Wahrscheinlichkeitsrechnung und Statistik aufge-
bauten Wissensformen im Vergleich zu anderen Wissensformen, die vor allem
bei der Begründung des Realismus der Aggregate verwendet werden. Dieser
Realismus sollte von Lexis auch noch auf andere Weise bestritten werden.
Quetelets Begriff der konstanten Ursache“, welche die Realität eines Ob-
”
jekts auf der Grundlage der Regelmäßigkeit einer statistischen Reihe unter-
mauerte, wurde durch eine Argumentation kritisiert und zerstört, die zwar
dieselben Werkzeuge benutzte, aber mit deren Hilfe die inneren Widersprüche
aufzeigte. Diese Kritik wurde in den 1870er Jahren durch den deutschen Sta-
tistiker Lexis (1837–1914) und den französischen Versicherungsmathematiker
Der angefochtene Realismus: Cournot und Lexis 107
Mensch, dessen körperliche Merkmale die Mittelwerte der bei vielen Individu-
en gemessenen entsprechenden Merkmale sind, wäre weit davon entfernt, ein
”
Modell für die menschliche Spezies zu sein – vielmehr wäre es ein unmöglicher
Mensch oder zumindest haben wir bislang keinerlei Anlaß, ihn als möglich an-
zusehen. (Cournot, 1843, [51].) Darüber hinaus hob Cournot den Konventions-
charakter der statistischen Nomenklatur hervor und versetzte dadurch dem
Begriff der konstanten Ursache“ einen Schlag. Lexis hatte seinerseits diesen
”
Begriff bereits einer rein internen Kritik unterzogen. Jedoch waren die Effizi-
enz der Argumentation von Quetelet und seine Fähigkeit, von unbeständigen
Individuen auf eine soziale Beständigkeit zu schließen, so stark, daß die Sozi-
alwissenschaften häufig der Versuchung nicht widerstehen konnten, auf diese
Argumentation mit folgendem Ziel zurückzugreifen: man wollte eine auto-
nome Existenz des Ganzen begründen, auch wenn der Durchschnittsmensch
gleichzeitig als Trugbild des Menschen im Allgemeinen – und des moralischen
Menschen im Besonderen – in Erscheinung trat. Dieser für die statistische
Rhetorik ganz besondere Widerspruch läßt sich zum Beispiel bei Durkheim
und in der von ihm inspirierten Soziologie erkennen, wenn auf die schweren
Geschütze umfangreicher Erhebungen zurückgegriffen wird, deren Überzeu-
gungskraft man oft gleichzeitig zur Schau stellt und leugnet. Eines der Zie-
le des vorliegenden Buches besteht darin, diese zumeist implizit auftretende
Spannung explizit zu machen.
Auf diese Weise gab Durkheim dem Durchschnittstyp und den Merkmalen,
die eine Gruppe als Kollektiv charakterisieren, das von seinen Mitgliedern
verschieden ist, eine Darwinsche Interpretation, die in seinen späteren Werken
weniger offensichtlich war (bei Halbwachs dann aber häufig auftrat).
In seinem Werk Die Regeln der soziologischen Methode versuchte Durk-
heim (1894, [77]), die Normalität (den Gesundheitheitsstandard“) als Gegen-
”
satz zum Pathologischen zu definieren. Anhand des folgenden Auszugs erken-
nen wir, in welchem Maße die Rhetorik Quetelets die Sozialwissenschaften des
19. Jahrhunderts durchdrungen hatte:
Die Statistik nach Art von Quetelet zielte darauf ab, kollektiven Dingen durch
die Aggregation von Individuen einen Zusammenhalt zu geben. Der Begriff der
Ursache erschien nur als externe Hypothese ( konstante Ursache“), welche die
”
Konsistenz dieser Dinge gewährleistet. Die Stärke des Zusammenhangs zwi-
schen Ursache und Wirkung wurde jedoch nicht gemessen, das heißt es fand
keine entsprechende statistische Instrumentierung statt. Das Konstrukt Que-
telets stützte sich auf Verwaltungsaufzeichnungen, die ihrerseits seinem eige-
nen Vorhaben vorangingen und nicht dazugehörten. Die statistische Rhetorik
war noch stark von kognitiven und sozialen Quellen abhängig, die außerhalb
der neuen Logik standen, um deren Förderung diese Rhetorik bemüht war.
Diese doppelte Abhängigkeit machte die statistische Rhetorik gegenüber al-
ler Art von Kritik verwundbar, wie wir es anhand der Beispiele von Cournot
und Lexis gesehen hatten. Das Gefühl der Fremdartigkeit, das manche der
früheren Kontroversen heute hervorrufen, rührt von der Tatsache her, daß
die Statistiker jener Zeit plausible Zusammenhänge und Übersetzungen erfin-
den mußten, mit deren Hilfe sie ihre noch dürftigen Werkzeuge mit anderen
Rhetoriken verknüpften – mit Rhetoriken philosophischer, politischer und ad-
ministrativer Natur. Zu diesem Zweck schufen sie neue Objekte und setzten
diese in Szene. Um aber andere Akteure zu befähigen, sich dieser Objekte zu
bemächtigen und sie in die eigenen Konstruktionen einzubeziehen, mußten die
Objekte nicht nur eine innere Konsistenz aufweisen, sondern auch dazu fähig
sein, untereinander in stabile Beziehungen zu treten. Die Statistiker mußten
nicht nur solide Dinge, sondern auch den Mechaniker“ liefern, der diese Dinge
”
wie in einem Stabilbaukasten miteinander verschraubt“ und ihnen dadurch
”
Zusammenhalt verleiht. Dieses Werk sollte von Galton, Pearson und den eng-
lischen mathematischen Statistikern vollbracht werden.
Man kann das Unternehmen Statistik“ a posteriori auch als das uner-
”
wartete Produkt zweier verschiedener Projekte auffassen, von denen keines
a priori in diese Richtung ging – denn das eine Projekt war deutlich poli-
tisch ausgerichtet, das andere hingegen eher philosophisch (Mac Kenzie, 1981,
[183]). Beide Projekte sind heute im Großen und Ganzen vergessen, aber die
118 4 Korrelation und Ursachenrealismus
Begriffe der Korrelation, der Regression, des Chi-Quadrat-Tests1 und der mul-
tivariaten Analyse, die aus diesen Projekten hervorgingen, sind die Eckpfeiler
der modernen Statistik geworden. Was haben eine heute fast einstimmig ab-
gelehnte politische Linie (Eugenik), eine für ihre Zeit erstklassige und scharf-
sinnige Erkenntnistheorie und ein mathematisches Werkzeug gemeinsam, dem
eine glänzende Zukunft bestimmt war? Keines der drei Elemente implizierte
logisch die beiden anderen – in der Tat wurde jedes dieser Elemente später
von Akteuren aufgegriffen, die nichts von den jeweils anderen beiden Elemen-
ten wußten. Dennoch waren die drei Projekte im Verstand von Karl Pearson
miteinander verknüpft und es ist keineswegs sicher, daß er seine eigenen stati-
stischen Innovationen für wichtiger hielt als sein epistemologisches Credo oder
seine politischen Aktivitäten.
Wir stellen hier zunächst die Philosophie Karl Pearsons vor, die er in sei-
nem Buch Die Grammatik der Wissenschaft 2 zum Ausdruck brachte. Wir ha-
ben dieses Werk einerseits deswegen ausgewählt, weil es entschieden Position
gegen den Begriff der Kausalität bezog. Zum anderen erkennt man anhand der
nachfolgenden Neuausgaben, wie Pearson seinerseits den Galtonschen Begriff
der Korrelation übernahm, der ursprünglich in seinem Buch nicht vorhan-
den war. Pearsons Erkenntnistheorie gehört zu einer antirealistischen empiri-
stischen Strömung, die mit Ernst Mach begann und mit dem Wiener Kreis
endete. Das von Pearson in der Folgezeit entwickelte politische und wissen-
schaftliche Projekt liegt auf einer Linie, die sich von Darwin und Galton bis
hin zu den Vorhaben erstreckt, die menschliche Spezies auf der Grundlage der
Vererbung zu verbessern – das vielfache Echo, das dieses Vorhaben auslöste,
war mindestens noch bis in die 1950er Jahre zu vernehmen. Das Projekt zerfiel
in zwei miteinander zusammenhängende Aspekte. Der eine (politische) Aspekt
war die Eugenik , der andere (wissenschaftliche) Aspekt die Biometrie. Und in
dem bedeutenden Labor für biometrische Forschungen3 entstand die mathe-
matische Statistik. Die Werkzeuge der mathematischen Statistik wurden in
der ersten Hälfte des 20. Jahrhunderts auf unzähligen Gebieten aufgegriffen,
insbesondere in den Humanwissenschaften. Hingegen ließ man die antireali-
stische Erkenntnistheorie ebenso fallen wie das Vorhaben der Menschheitsver-
besserung durch die biologische Auslese der Besten.
Wir können die Abstammung der beiden Hauptwerkzeuge verfolgen: die
Herkunft der Regression zum Beispiel anhand ihrer Weiterführung in den
ökonometrischen Modellen, die in den 1920er und 1930er Jahren entwickelt
wurden, und die Herkunft der Korrelation anhand ihrer Anwendungen in
der Psychometrie4 (zur Messung von Fähigkeiten und insbesondere der In-
1
Auch als χ2 -Test oder Chiquadrat-Test bezeichnet.
2
Karl Pearson, The Grammar of Science, London 1892. Dieses Buch ist offenbar
nicht ins Deutsche übersetzt worden.
3
Francis Galton Eugenics Laboratories.
4
Messung psychischer Vorgänge“, besonders des Zeitfaktors bei psychischen Pro-
”
zessen. Der Begriff bezieht sich überwiegend auf psycho-physische und psycho-
technische Messungen.
4 Korrelation und Ursachenrealismus 119
Im Jahre 1912 gab der Verlag Alcan eine französische Übersetzung der dritten
Auflage (1911) der Grammatik der Wissenschaft heraus. Die erste Auflage war
1892 erschienen. Die neue Auflage hatte neun Kapitel: Kapitel 1 bis 4 und 6 bis
9 waren genau dieselben wie in der Ausgabe von 1892. In diesen Kapiteln ging
es ausschließlich um Wissenschaftsphilosophie und es fiel kein einziges Wort
über Statistik. Die Statistik wurde, wenn auch nur kurz, im fünften Kapitel
angeschnitten: dieses 1911 hinzugefügte Kapitel trägt den Titel Kontingenz
”
und Korrelation. Unzulänglichkeit des Begriffs der Verursachung“. Pearson
und Yule hatten inzwischen die Begriffe der Korrelation und der Regression
in Publikationen formalisiert, die nie ins Französische übersetzt worden sind.
Der französische Übersetzer des obengenannten Werkes war kein anderer
als Lucien March (1859-1933), seinerzeit Direktor der Statistique générale de
la France (SGF), der Vorläuferin des gegenwärtigen Institut national de la sta-
tistique et des études économiques (INSEE).5 Bei der Übersetzung ließ sich
March von drei Mitarbeitern, den Statistikern Bunle, Dugé de Bernonville
und Lenoir unterstützen. In einer einführenden Bemerkung erläuterte er die
nach seiner Auffassung große Bedeutung des Buches und der Übersetzung.
Dabei nahm er kaum Bezug auf die von Pearson eingeführten statistischen
Innovationen, faßte aber auf sieben Seiten die in dem Buch entwickelte Er-
kenntnistheorie zusammen, die er sich zu eigenen machte. Diese Theorie war
entschieden antirealistisch. Sie behauptete, daß der Mensch nur Gefühle und
Wahrnehmungen kennt, die er auf der Grundlage der von ihm beobachteten
Analogien und Beständigkeiten kombiniert und klassifiziert, die Pearson als
Wahrnehmungsroutinen charakterisierte; die Realität selbst sei nicht erkenn-
bar.
Man ist überrascht, wenn man – aus der Feder des Leiters des Statistischen
Bureaus, der für die ziffernmäßige Beschreibung der französischen Bevölke-
rung verantwortlich zeichnete – Formulierungen liest, die in einem deutlichen
Gegensatz zu dem stehen, was notwendigerweise die praktische Erkenntnisphi-
losophie ausmacht, die er in seiner Position entwickeln mußte, um mit seinem
Umfeld und den Personen zu kommunizieren, die seine Publikationen verwen-
deten. So schrieb er etwa: Ein Wissenschaftler bestätigt weder die Realität
”
der Außenwelt, noch leugnet er sie“. Konnte er diese Position wirklich auf-
rechterhalten, wenn er mit seinem Minister über Kredite verhandelte, die der
SGF gewährt werden sollten? Der Hinweis auf diesen Widerspruch soll keines-
falls die Vermutung nahelegen, daß March ein konfuser Wissenschaftler oder
gar ein durchtriebener Beamter war. Vielmehr wollten wir andeuten, daß es
sich hier um zwei unterschiedliche Realitätsregister handelte, die präzise iden-
tifiziert und analysiert werden müssen.
5
Dieses 1946 gegründete staatliche Institut für Statistik und Wirtschaftsforschung
erfüllt neben den Aufgaben einer statistischen Bundesanstalt“ auch die eines
”
Konjunkturinstituts.
Karl Pearson: Kausalität, Kontingenz und Korrelation 121
druck kommt, der als Definition des Programms der mathematischen Statistik
dienen könnte: Die Wissenschaft läßt sich als Minimierungsproblem auffas-
”
sen, das darin besteht, die Fakten mit dem geringsten intellektuellen Aufwand
so vollkommen wie nur möglich darzulegen“.
Pearson übernahm diese Sichtweise. Für ihn waren die wissenschaftlichen
Gesetze nichts anderes als Zusammenfassungen, kurze Beschreibungen in einer
mentalen Stenographie und abgekürzte Formeln zur Synthese von Wahrneh-
mungsroutinen mit Blick auf nachfolgende und prognostische Anwendungen.
Diese Formeln erschienen als Beobachtungsgrenzen und erfüllten die strengen
funktionalen Gesetze niemals in vollkommener Weise: Der Korrelationskoef-
fizient ermöglichte eine präzise Messung der Stärke des Zusammenhangs, die
zwischen Null (Unabhängigkeit) und Eins (strikte Abhängigkeit) lag. Ebenso
wie die Realität der Dinge einzig und allein zu pragmatischen Zwecken und
unter dem Vorbehalt benutzt werden konnte, daß es sich um Wahrnehmungs-
routinen handelte, so konnte man auch die Kausalität“ nur als eine erwiesene
”
Korrelation gelten lassen, die mit einer hohen Wahrscheinlichkeit eintritt. Das
1911 zum Werk Die Grammatik der Wissenschaft hinzugefügte Kapitel 5 über
die Kausalität zeigt den Zusammenhang zwischen statistischen Zusammenfas-
sungen und den Erfordernissen des praktischen Lebens. Diese Formulierung
öffnete das Tor für eine Analyse der Diversität der realen Welten unter Bezug-
nahme auf eine Handlungstheorie, die scheinbar der einzig mögliche Ausweg
aus den Realitätsparadoxien war, welche die statistische Arbeit aufgeworfen
hatte:
Die Begründung für den Begriff der Ursache liegt in der Wahrneh-
mungsroutine. Es besteht keine interne Notwendigkeit für die Natur
dieser Routine, aber ohne sie wäre die Existenz von vernunftbegabten
Wesen mit der Fähigkeit, sich entsprechend zu verhalten, praktisch
unmöglich. Denken ist ein Beweis für die Existenz, aber das Han-
deln und Führen des eigenen Lebens und der eigenen Angelegenhei-
ten zeugen von der Notwendigkeit einer Wahrnehmungsroutine. Die-
se praktische Notwendigkeit ist es, die wir als eine in den Dingen
”
an sich“ existierende Notwendigkeit herauskristallisiert und unserer
Vorstellung von Ursache und Wirkung zugrundegelegt haben. Diese
Routine ist derart wichtig für das Verhalten vernunftbegabter Wesen,
daß wir Mühe hätten, eine Welt zu verstehen, in der die Begriffe von
Ursache und Wirkung keine Gültigkeit haben. Wir sind nicht nur von
deren absoluter Wahrheit überzeugt, sondern auch davon, daß hinter
diesen Phänomenen eine Realität existiert, die auch die Grundlage
allen Seins ist. Jedoch verhält es sich sogar in der Mehrzahl der rein
physikalischen Phänomene so, daß die Routine eine Sache der Erfah-
rung ist. Unser Glaube an die Erfahrung ist eine Überzeugung, die
sich auf eine Wahrscheinlichkeit stützt; aber wenn wir die Erfahrung
beschreiben sollen, dann würden wir niemals eine Erklärung“ finden,
”
die eine Notwendigkeit impliziert. (Pearson, 1912, [223], Kap. 5.)
Karl Pearson: Kausalität, Kontingenz und Korrelation 123
Die Idee, daß die aus der Formulierung einfacher Gesetze resultierende
Ökonomie des Denkens nichts anderes ist als eine Ökonomie der Prinzipien
”
und Ursachen, die den Kanon des wissenschaftlichen Denkens bilden“, wird
von Pearson mit dem Sparsamkeitsgesetz“ verglichen, das man Ockham und
”
seinem Rasiermesser zuschreibt:
Ockham hat als Erster erkannt, daß das Wissen um das, was jenseits
der Sphäre der Wahrnehmungen liegt, nur ein anderer Name für irra-
tionalen Glauben ist. Hamilton7 formulierte den Kanon von Ockham
in einer vollständigeren und angemesseneren Form: Man darf ohne
Not weder mehr Ursachen noch aufwendigere Ursachen zulassen, um
Erscheinungen zu erklären. (Pearson, 1912, [223].)
Pearsons Entscheidung für die wissenschaftliche Methode, die der Realität
”
der Dinge“ und der Kausalität“ jegliche vor den Wahrnehmungsroutinen lie-
”
gende Existenz abspricht, führte ihn zu einer radikalen Lösung des alten Pro-
blems der Willensfreiheit und des Determinismus. Aus dieser Sicht kann der
Wille in keinem Fall eine Primärursache sein, sondern nur ein Zwischenglied
in der Kette, die zur Formierung und Stabilisierung dieser Routinen führt. In
dieser Kette können die determinierenden Elemente sozialer, kultureller oder
erblicher Natur sein. Als Pearson (gegen 1890) die folgende Passage schrieb,
hatte er sich noch nicht auf einen fast vollständigen Hereditarismus festge-
legt, wie er es später tat. Die Forschungsrichtung, die er damals verfolgte,
hätte ihn zu einer kulturalistischen Soziologie, ja sogar zur Definition eines
Habitus führen können, denn die aus den Wahrnehmungs- und Handlungsrou-
tinen gebildete Gesamtheit funktioniert als Programm, das gemäß der Formel
von Bourdieu (1980, [26]) die strukturierte Struktur und die strukturierende
”
Struktur“ kombiniert – bis auf den wesentlichen Unterschied der Bezugnahme
auf die biologische Vererbung. Die nach außerhalb von uns selbst projizierte
”
Konstruktion“, mit der die Sinneseindrücke assoziiert werden, bilden eine auf
unterschiedlichen Wegen akkumulierte Erfahrungsreserve, die das konditio-
niert, was man üblicherweise als Willen bezeichnet:
Anhand dieses Textes – der aufgrund des gängigen Bildes von Pearson als
Eugeniker und Hereditarist (zu dem er später wirklich geworden ist) überra-
schend wirkt – erkennt man, bis zu welchem Punkt der Bestand an Theorien
und Interpretationen, aus denen ein Wissenschaftler schöpfen kann, formbar
ist und von einem Netz umfassender Zusammenhänge abhängt, bei denen sich
das vermischt, was man üblicherweise als wohlunterschiedene wissenschaft-
liche, philosophische, soziale oder politische Bestandteile auffaßt. Als Pear-
son dieses schrieb, wußte er noch nicht, welchen Weg er dereinst einschlagen
würde. Die einzige Sache, der er sich sicher war, bestand darin, daß er den Idea-
lismus und das metaphysische Denken der alten englischen Universitäten zu-
gunsten eines wissenschaftlichen Positivismus bekämpfen wollte, dessen Sym-
bol der Physiker und Philosoph Mach war.
Pearson meinte, für diesen Kampf eine entscheidende Waffe geschmiedet
zu haben, indem er den Begriff der Kausalität durch den Begriff der kontingen-
ten Assoziation ersetzte. Unerkennbare Primärursachen und streng punktuelle
Zusammenhänge fegte er zugunsten von Kontingenz tafeln hinweg, indem er
eine Population auf der Grundlage zweier unterschiedlicher Auswahlkriterien
verteilte. Er griff ein bereits von Galton konzipiertes Objekt auf und for-
mulierte es präzise: die zwischen zwei Phänomenen bestehende wechselseitige
Relation, welche zwischen zwei Extrema liegt – zwischen der absoluten Un-
abhängigkeit und der strikten Abhängigkeit. Diese wechselseitige Relation,
die Korrelation, stand als Synonym für die Assoziation. Die Kreuztabellen
wurden als Kontingenz tafeln“ bezeichnet, denn alle Dinge im Universum
” ”
treten nur einmal auf und es gibt weder eine absolute Identität noch eine
Wiederholung“. Diese erstaunliche und des mittelalterlichen Nominalismus
würdige Verkündung erfolgte zu einem Zeitpunkt, an dem der Grundstein
für eine mathematische Statistik gelegt wurde, deren späterer Gebrauch auf
Äquivalenzkonventionen beruhte und das ursprüngliche Glaubensbekenntnis
tatsächlich nur unterpflügen konnte:
Die vollständige Abhängigkeit von einer einzigen meßbaren Ursa-
che ist gewiß eine Ausnahme – wenn sie überhaupt jemals auftritt,
falls nur die Beobachtung hinreichend präzise ist. Diese vollständige
Karl Pearson: Kausalität, Kontingenz und Korrelation 125
Pearson war davon überzeugt, daß diese beiden Ideen – der Begriff der
Kontingenz und der Begriff der Korrelation – zu einer grundlegenden episte-
mologischen Revolution führen würden: Die Subsumierung aller Phänomene
”
des Universums unter der Kategorie der Kontingenz – und nicht unter der
Kategorie der Kausalität – ist ein epochaler Vorgang in der Ideengeschichte“.
Aber er wußte auch, daß es sich bei den Begriffen der Realität, der Ursa-
che und der Funktion – die für das praktische Leben und für das Handeln
unerläßlich sind – um begriffliche Grenzwerte“ handelte, die der Mensch in
”
außerhalb von ihm liegende Realitäten transformiert. Dadurch schuf sich der
Mensch die Möglichkeit eines Registers von Realitäten, die sich von den Rea-
litäten der kontingenten und a priori heterogenen Individuen unterscheiden.
Er stellte Werkzeuge zur Erfassung der Kommensurabilität von Individuen
bereit und öffnete einen neuen Raum für Wissen und Handeln. Bei den Re-
lationen, die üblicherweise als Kausalitäten interpretiert werden, handelt es
sich in Wirklichkeit um
... begriffliche Grenzwerte, die der Mensch durch seine Intelligenz ge-
wonnen hat. Danach hat er seine eigene schöpferische Fähigkeit ver-
gessen und diese Begriffe in eine Realität umgewandelt, die jenseits der
menschlichen Wahrnehmungen herrscht und außerhalb des Menschen
existiert. Das ganze Universum, mit dem der Mensch ausgestattet ist,
besteht aus Ähnlichkeit und Variabilität; der Mensch hat darin den
Begriff der Funktion eingeführt, denn er hatte den Wunsch, mit sei-
ner begrenzten intellektuellen Energie sparsam umzugehen. (Pearson,
1912, [223].)
Die Rechtfertigung für diese Grenzübergänge und für die nur allzu leicht
vergessenen Schöpfungen ist ein Sparsamkeitsprinzip – das Prinzip der be-
grenzten intellektuellen Energie. Pearson beschrieb in dieser Passage zwei
126 4 Korrelation und Ursachenrealismus
gen von einem Mittelwert. Diese Abweichungen waren also keine Störungen
mehr, die – wie bei den Astronomen – eliminiert werden mußten. Es wurde
wichtig, die Individuen auf der Grundlage von Ordnungskriterien einzutei-
len. Zur Beschreibung der Verteilungen konstruierte Galton neue Objekte, die
aus diesem Ordnungsprozeß hervorgingen. Der Median zerlegt eine geordnete
Stichprobe in zwei bezüglich der Verteilung gleichgewichtige Teile. Die Quar-
tile 8 ermöglichen die Konstruktion der sogenannten halben zwischenquartilen
Breite, eines neuen Streuungsmaßes. Die Terminologie und die alten Begriffe
durchliefen einen Änderungsprozeß: Der zufällige Fehler von Quetelet wurde
zur Standardabweichung und danach zum Abweichungstyp, zur Dispersion.
Diese neuen Objektformen entstanden allmählich auf der Grundlage der
Bemühungen Galtons, einen gemeinsamen Meßraum für etwas zu schaffen, das
zuvor für inkommensurabel9 gehalten wurde: die menschlichen Fähigkeiten.
Das war eine schwierige Aufgabe: Wie soll man Äquivalenzklassen und Ver-
gleichbarkeitsskalen für Merkmale aufstellen, die sich – im Unterschied zur
Körpergröße – nicht so leicht durch eine Meßlatte ermitteln ließen? Zuerst
(1869) untersuchte Galton Genies – wie sie in der Literatur über bedeuten-
de Persönlichkeiten beschrieben wurden – und deren Erbgut in ausgewähl-
ten Nachkommenschaften, zum Beispiel in den Familienlinien der Bachs, der
Bernoullis und der Darwins. Galton bezog sich bei seiner Interpretation der
in diesen Familien auffälligen Erscheinungen systematisch auf die biologische
Vererbung und nicht – wie wir es heute eher tun würden – auf die Wirkungen
von Erziehung und Umgebung während der Kindheit.
Aber diese Untersuchungen am einen Ende der Eignungsskala reichten
nicht aus, um die gesamte Bevölkerung auf der Grundlage eines ebenso natürli-
chen Kriteriums zu ordnen wie Körpergröße oder Gewicht. Es brauchte noch
etwas Zeit (bis nach 1900), um – mit Hilfe von Techniken wie sie der In-
telligenzquotient (Binet-Simon) oder die allgemeine Intelligenz (Spearman)
darstellte – Messungen durchzuführen, die als Indikatoren für individuelle
Fähigkeiten gelten konnten. In den Jahren 1870–1880 verwendete Galton ei-
ne soziale Klassifikation, die von Charles Booth in dessen Untersuchungen
8
Ein p-tes (p = 1, . . . , q − 1) Quantil xp/q von der Ordnung q = 2, 3, . . . einer eindi-
mensionalen Wahrscheinlichkeitsverteilung F (x) wird (möglicherweise mehrdeu-
tig) durch F (xp/q − 0) ≤ p/q ≤ F (xp/q + 0) definiert. In der statistischen Praxis
beschränkt man sich neben den Zentralwerten (Medianen) vorrangig auf die den
Fällen q = 4 bzw. q = 10 bzw. q = 100 entsprechenden Quartile, Dezile und Per-
zentile. Insbesondere werden im Falle der Eindeutigkeit die Werte x1/4 bzw. x3/4
als unteres bzw. oberes Quartil und 12 (x3/4 − x1/4 ) als die halbe zwischenquartile
Breite der Verteilung bezeichnet. Letztere dient oft als empirisches Streuungsmaß.
9
Der Begriff inkommensurabel“ hat hier die Bedeutung nicht meßbar“. In der
” ”
Mathematik wird inkommensurabel“ auch in einem anderen Sinne verwendet:
”
Zwei Strecken (allgemeiner zwei gleichartige Größen) heißen inkommensurabel“,
”
wenn sie kein gemeinsames Maß“ besitzen. Bereits den Pythagoreern war be-
”
kannt, daß die Seite und die Diagonale eines Quadrates inkommensurable Größen
sind.
Francis Galton: Vererbung und Statistik 129
über die Armut in London (vgl. eingerahmter Text auf Seite 130) ausgear-
beitet worden war. Bei diesen Untersuchungen mußten die Demoskopen (in
diesem Fall die für die Umsetzung des Armengesetzes“ verantwortlichen Per-
”
sonen) die Position der besuchten Haushalte auf einer Skala bewerten, die
insgesamt acht Kategorien zur sozialen und wirtschaftlichen Stellung umfaßte
(Hennock, 1987, [128]). Dabei spiegelte eine Reihe von Indexziffern die Le-
bensweise und den Lebensstandard wider und die Skala erstreckte sich von
Bettlern, Kriminellen und Nichtstuern über Facharbeiter bis hin zu geisti-
gen Berufen. Die Skala, die Booth zur Berechnung und zum Vergleich der
verschiedenenen Armutskategorien in den einzelnen Stadtteilen von London
verwendet hatte, wurde von Galton als Indikator einer individuellen natürli-
chen Fähigkeit übernommen, wobei er den civic worth“ – also den Wert, mit
”
dem der Bürgersinn oder Gemeinsinn gemessen wurde – einem genetischen
”
Wert“ gleichsetzte.
So wie die Körpergröße ist auch diese Fähigkeit angeboren, dem Körper
einbeschrieben und normalverteilt. Diese Gaußsche Form der Häufigkeiten der
von den Boothschen Demoskopen festgehaltenen Eignungsgrade – die mit den
Stichprobenumfängen der linear angeordneten Kategorien zusammenhängt –
ermöglichte eine Eichung der Skala der genetischen Werte“ auf der Grund-
”
lage dieser Kategorien. Auf diese Weise führte die mit bloßem Auge“ vorge-
”
nommene Kodierungsarbeit der Londoner Sozialfürsorgekontrolleure auf dem
Umweg über die soziale und wirtschaftliche Stellung zur Einbürgerung einer
individuellen Eignungsskala. Die Anwendung der Normalverteilung mit dem
Ziel, einem Ding Konsistenz zu verleihen, hatte nicht mehr denselben Bedeu-
tungsinhalt wie bei Quetelet. Stellte Quetelet eine derartige Verteilung fest,
dann ermöglichte sie es ihm, auf die Existenz eines Objekts zu schließen, das
allgemeiner als die Individuen war. Bei Galton hingegen wurde die Normalver-
teilung dadurch vorausgesetzt, daß er das, was in einer Untersuchung kodiert
wurde, mit einem der Körpergröße vergleichbaren Merkmal gleichsetzte. Da-
durch war es möglich geworden, für ein dem Individuum zugeordnetes Objekt,
das heißt für die natürliche Eignung dieses Individuums, auf eine Meßwerts-
kala zu schließen.
Jedoch bestand die wesentliche Neuerung Galtons im Vergleich zu Quete-
let darin, daß er die Normalverteilung der Merkmale von Menschen nicht mehr
nur als Ergebnis einer großen Anzahl von zufälligen variablen Ursachen auf-
faßte, die geringfügig und unabhängig (und deswegen unbeschreibbar) waren.
Vielmehr versuchte er, diejenige dieser Ursachen zu isolieren, deren Wirkung
als massiv vorausgesetzt wurde: die Vererbung (Quetelet hatte diese Frage
nie gestellt). Das scheinbare Paradoxon dieses Problems führte zu einer neuen
Konstruktion: zur Regression“ im Sinne der modernen Statistik. Das Para-
”
doxon war: Die (meßbaren) Merkmale schienen teilweise erblich zu sein, aber
eben auch nur teilweise. Die Kenntnis der Körpergröße des Vaters bewirkte
nicht automatisch auch die Kenntnis des Körpergröße des Sohnes. Zusätzlich
zu der massiven Ursache (das heißt zur Vererbung) kamen zahlreiche andere,
geringfügige und unabhängige Ursachen ins Spiel.
130 4 Korrelation und Ursachenrealismus
Aber dennoch war von einer Generation zur nächsten nicht nur die durch-
schnittliche Körpergröße nahezu konstant, sondern auch deren Streuung“ 10 .
”
Das war das Rätsel: Auf welche Weise konnte man die Vererbung, die Zufällig-
keit der Körpergröße des Sohnes eines Vaters von gegebener Körpergröße und
die Tatsache in Einklang bringen, daß sich die Streuung innerhalb von zwei
Generationen nicht änderte?
Galton hatte keine mathematische Ausbildung genossen und war nicht
dazu in der Lage, das Problem zu formalisieren. Aber dafür besaß er eine
große experimentelle Vorstellungskraft und eine gute geometrische Intuition.
Er war auch vom Queteletschen Modell der Fehlerverteilung durchdrungen,
die er in ein Abweichungsgesetz“ transformiert hatte. Galton löste das Rätsel
”
mit Hilfe zweier Ideen: zum einen durch den Mechanismus des sogenannten
11
Quincunx“ und zum anderen durch sein Erbsen-Experiment“. Die Kom-
” ”
bination dieser beiden Techniken brachte ihn auf eine neue Formulierung des
Problems, das von Poisson, Bienaymé und Lexis diskutiert worden war: Kann
ein Zufallsprozeß, der im Ergebnis von Ziehungen aus Urnen zufälliger Füllung
realisiert wird, zu regelmäßigen und wahrscheinlichkeitstheoretisch beschreib-
baren Resultaten führen?
10
Zu beachten ist hier, daß der Begriff Streuung“ in der Wahrscheinlichkeitsrech-
”
nung und in der mathematischen Statistik in verschiedenen Bedeutungen verwen-
det wird. Die häufigsten Bedeutungen sind Standardabweichung“ und Varianz“
” ”
( = Quadrat der Standardabweichung = Dispersion). Für die heute unter Ma-
thematikern allgemein akzeptierte Nutzung des Wortes Streuung“ sei auf Bauer,
”
1991, [347] verwiesen.
11
Mit quincunx“ bezeichneten die Römer u.a. die fünf Augen auf einem Spielwürfel
”
und die entsprechende Kreuzstellung, in der beispielsweise Bäume angepflanzt
oder Schlachtordnungen aufgestellt wurden. Das Wort ist eine Zusammensetzung
aus quinque“ (fünf) und uncia“ (Unze).
” ”
132 4 Korrelation und Ursachenrealismus
Der Quincunx“ ist ein geneigt aufgestelltes Brett, in das eine große An-
”
zahl von Stiften in Quincunx-Anordnung eingeschlagen wurde ( Galtonsches
”
Brett“ oder Galton-Brett“), das heißt in regelmäßigen und alternierenden
”
Horizontalreihen, so daß die Stifte jeder Reihe den Öffnungen der beiden be-
nachbarten Reihen entsprechen. Von einem gegebenen Punkt aus ließ Galton
nun Kugeln von passender Größe (so daß ihr Durchmesser kleiner als der freie
Abstand zwischen zwei benachbarten Stiften ist) über das Brett rollen. Beim
Herabrollen auf dem Galtonschen Brett wurden die Kugeln infolge der Zusam-
menstöße mit den Stiften aus ihrer Bahn in unregelmäßiger Weise abgelenkt
und sammelten sich schließlich nach Durchlaufen sämtlicher Stiftreihen in den
am unteren Brettrand angebrachten durchsichtigen vertikalen Rohren.12 Die
Kugeln stapelten sich in den Rohren derart, daß eine Normalkurve erkenn-
bar war. In einem weiteren Experiment gestaltete Galton seinen Mechanismus
komplizierter, indem er das Fallen der Kugeln auf einer Zwischenstufe unter-
brach. Dort ließ er die Kugeln in einer ersten Reihe von Rohren auffangen,
wo sie eine erste Normalkurve mit der Dispersion D1 beschrieben. Danach
öffnete er die Rohre wieder, und zwar getrennt voneinander. Dabei stellte
er zwei Dinge fest: einerseits erzeugte jedes der Rohre eine Normalverteilung
mit der gleichen Dispersion D2 und andererseits führte die Vereinigung aller
dieser kleinen Verteilungen zu einer großen Normalverteilung (mit der Dis-
persion D > D1 ).13 Natürlich waren die kleinen, durch die verschiedenen
Rohre entstandenen Verteilungen von unterschiedlicher Höhe, denn sie ent-
hielten unterschiedliche Anzahlen von Kugeln; das wichtige Ergebnis bestand
jedoch darin, daß ihre Dispersionen gleich waren. Galton hatte also einen Spe-
zialfall des Problems von Poisson und Bienaymé behandelt, nämlich den Fall,
bei dem die ursprüngliche Ziehung aus verschiedenen Urnen ihrerseits einer
Normalverteilung folgt. Bienaymé, der gewiß ein besserer Mathematiker als
Galton war, ging bei seiner Kritik Poissons in die Richtung, die wir im vorher-
gehenden Kapitel beschrieben hatten. Im Gegensatz zu dem Engländer war
Bienaymé jedoch nicht durch ein so klar formuliertes Rätsel angespornt (vgl.
eingerahmter Text auf Seite 133).
Galton machte also einen großen Schritt vorwärts in Richtung der Lösung
des Geheimnisses. Zerlegt man die Population der Väter entsprechend den
Körpergrößen in Abschnitte, dann erzeugt jeder Abschnitt eine Subpopulati-
on von Söhnen, die ihrerseits eine gewisse Dispersion aufweist. Man stellt nun
fest, daß die Körpergrößen der beiden Gesamtpopulationen – das heißt die
Population der Väter und die der Söhne – die gleiche Dispersion haben. Die
Dispersion der Körpergrößen der Söhne (heute würde man von der Gesamtva-
rianz sprechen) läßt sich nun in zwei Anteile zerlegen: der eine Anteil, der von
den Körpergrößen der Väter herrührt, ist auf die Vererbung zurückzuführen;
der andere Teil ist innerhalb der Subpopulationen zu suchen. Da aber die
12
Vgl. Darstellung des Galtonschen Bretts im Vorwort des Übersetzers (Seite VIII).
13
Die Symbole D, D1 und D2 stehen hier für Dispersion“, das heißt für Varianz“
” ”
im modernen mathematischen Sprachgebrauch.
Francis Galton: Vererbung und Statistik 133
Zwischen 1830 und 1879 betonten die Statistiker die Stabilität der stati-
stischen Mittelwerte: von einem Jahr zum nächsten änderte sich die Durch-
schnittsgröße der Rekruten nur wenig; die Heiratsraten, Kriminalitätsraten und
Selbstmordraten waren nahezu konstant. Dieser Standpunkt, der gerade derje-
nige von Quetelet war, ließ es nicht zu, daß sich die Begriffe der statistischen
Streuung und der Variation des Mittelwertes entwickelten. Eben diese beiden
Fragen schienen mit Hilfe der Theorie des Durchschnittsmenschen“ dadurch
”
gelöst zu sein, daß man sie als Kontingenzen behandelte, sozusagen als Störun-
gen, vergleichbar etwa mit den Meßfehlern, deren Elimination die Astronomen
und die Physiker anstrebten.
Im Gegensatz zu Quetelet interessierte sich Galton für die Unterschiede zwi-
schen den Menschen und nicht dafür, was ihnen gemeinsam war. Nicht mehr der
Durchschnittsmensch war das Ideal, sondern das Genie. Die Frage der Eugeniker
war: Wie läßt sich die Rasse verbessern, indem man mehr Genies und weniger
untaugliche Menschen produziert? Ist Genie erblich? Die Frage der Vererbung
von Fähigkeiten richtete das Scheinwerferlicht auf diejenigen beiden Aspekte,
die von der Theorie des Durchschnittsmenschen umgangen worden waren: die
Streuung und die Variation der Mittelwerte. Kinder ähneln ihren Eltern, sind
aber nicht mit ihnen identisch. Ist der Vater hochgewachsen, dann wird wahr-
scheinlich auch sein Sohn von großem Wuchs sein, aber das ist nicht sicher. Mit
anderen Worten: zur Anfangsstreuung der Körpergrößen der Väter kommt für
eine feste Körpergröße eines Vaters eine weitere Streuung hinzu, nämlich die
Streuung der Körpergrößen der Söhne. Und dennoch ist schließlich die Gesamt-
streuung der Körpergrößen aller Söhne nicht größer als die Gesamtstreuung
der Körpergrößen der Väter. Das war das seinem Wesen nach kontraintuitive
Puzzle, das Galton zu entwirren suchte. Zu diesem Zweck muß man sich ei-
ne Formalisierung ausdenken, mit deren Hilfe die beiden aufeinanderfolgenden
Streuungen analytisch getrennt werden:
A posteriori liefert die Formel der linearen Regression die Lösung: Yi =
aXi + b + εi .
Hierbei bezeichnet Xi die Körpergröße des Vaters, Yi die Körpergröße des
Sohnes und εi die Zufälligkeit der Körpergröße des Sohnes für eine feste Körper-
größe des Vaters.
Das ist nur unter der Voraussetzung möglich, daß man eine Ellipse in ein
Quadrat einbeschreibt, wobei die Ellipse die zweidimensionale Normalverteilung
der Paare Körpergröße des Vaters – Körpergröße des Sohnes“ symbolisiert.
”
Hierzu muß der Anstieg a der Regressionsgeraden“ ∆ mit der Gleichung Y =
”
aX + b notwendigerweise kleiner als 1 sein.
134 4 Korrelation und Ursachenrealismus
Mit anderen Worten: Ist der Vater überdurchschnittlich groß, dann ist es
der Sohn wahrscheinlich auch, aber im Mittel (Punkt N ) weicht er weniger von
der Durchschnittsgröße ab, als sein Vater. Genau das war der Grund dafür,
warum Galton die Formulierung Regression zur Mitte verwendete, eine Idee,
die im modernen Gebrauch des Begriffes lineare Regression“ verlorengegangen
”
ist (hier kann der Anstieg sehr wohl größer als 1 sein).
Aber Galton war kein Mathematiker. Um die neue Idee der teilweisen Über-
tragung von erblichen Eigenschaften zu verstehen (und anderen verständlich zu
machen), benötigte er ein zwischengeschaltetes“ Gerät zur Anzeige dessen, wie
”
sich zwei aufeinanderfolgende Streuungen kombinieren lassen (im vorliegenden
Fall: die Streuung der Körpergrößen der Väter und, für eine gegebene Körper-
größe eines Vaters, die Streuung der Körpergrößen seiner Söhne). Ein solches
Gerät war der Zwei-Stufen-Quincunx“ (double quincunx ), den Galton entwor-
”
fen und beschrieben hatte. Es ist nicht bekannt, ob es ihm gelungen ist, dieses
Gerät herzustellen und funktionstüchtig zu machen. Dabei handelte es sich
Francis Galton: Vererbung und Statistik 135
machen, in der man sich auf die – mit Hilfe von statistischen Methoden –
objektivierten Dinge stützt.
Wir kommen nun auf Galton zurück und betrachten zwei Beispiele von In-
terpretationen seiner Ergebnisse, die ziemlich weit von dem entfernt sind, was
er selbst angestrebt hatte. Es handelt sich um Beispiele aus Frankreich, die
sich aus der Arbeit zweier intellektuell vollkommen unterschiedlich positionier-
ter Autoren ableiten: Cheysson und Durkheim. Émile Cheysson (1836–1910),
Brückenbauingenieur und Schüler von Frederic Le Play, war Mitglied der So-
ciété de statistique de Paris und erlangte sehr schnell Kenntnis von der Mit-
teilung Galtons vom 10. September 1885. Kurze Zeit später, am 23. Oktober
1885, veröffentlichte Cheysson eine Besprechung der Galtonschen Mitteilung
in der Zeitung Le Temps (der Le Monde von damals). Er gab eine erstaun-
liche Interpretation der Galtonschen Mitteilung, indem er die Körpergröße
eines Sohnes als Durchschnitt der Körpergrößen des Vaters, der Mutter und
”
der Rasse“ interpretierte. Zu dieser Formulierung gelangte er folgendermaßen:
Das Gesetz von Mr. Galton besteht aus einer Art fataler und unwider-
stehlicher Regression des individuellen Typs in Richtung des Rassen-
durchschnitts ... Bezeichnet man die Abweichung zwischen der Körper-
größe eines Individuums und der durchschnittlichen Körpergröße der
Rasse als Deviat“ ..., dann besagt dieses Gesetz, daß das Deviat der
”
Körpergröße des Produktes im Mittel gleich zwei Dritteln des Deviates
der Körpergröße des Zwischenelternteils ist. Oder in einer äquivalenten
aber vielleicht leichter faßlichen Form: Die Körpergröße des Produktes
ist im Mittel gleich einem Drittel der Summe der Körpergrößen des
Vaters, der Mutter und der durchschnittlichen Körpergröße der Ras-
se. In der Tat: Es seien T , T , M und t die Körpergröße des Vaters,
die Körpergröße der Mutter, die durchschnittlichen Körpergröße der
Rasse bzw. die Körpergröße des Produktes. Das Gesetz von Galton
wird dann durch folgenden Ausdruck wiedergegeben:
2 T + T
t−M = −M .
3 2
Hieraus folgern wir:
1
t = (T + T + M ) (Cheysson, 1885).
3
Elementar, mein lieber Galton ... Die Formulierung von Cheysson über-
trägt in recht getreuer Weise die Vererbungsbotschaft, die Galton vorschwebte,
gibt aber gleichzeitig dem Einfluß der Rasse“ ein höheres Gewicht – unter
”
Verwendung eines Vokabulars, das sich noch in der Nähe der von Quetelet
benutzten Terminologie befindet:
In dieser Form hebt das Gesetz deutlich den Einfluß der Rasse hervor,
die unaufhörlich dahin tendiert, den Durchschnittstyp zu reproduzie-
ren und einem Volk trotz der mehr oder weniger exzeptionellen De-
viate einen besonderen Stempel aufdrückt. Unter den oberflächlichen
140 4 Korrelation und Ursachenrealismus
Diese Lesart unterscheidet sich nicht allzu sehr von dem, was Durkheim
sagte, der in seinem Werk Über soziale Arbeitsteilung (La Division du travail
social, 1893, [76]) die Frage der Vererbung anschneidet, sich aber auf Galton
stützt um zu zeigen, daß die soziale Gruppe“ (und nicht mehr die Rasse“)
” ”
das Individuum an dessen Durchschnittstyp“ erinnert:
”
Die unlängst von Mr. Galton durchgeführten Untersuchungen bestäti-
gen die Abschwächung des erblichen Einflusses und ermöglichen uns
gleichzeitig eine Erklärung dieser Erscheinung ... Laut diesem Autor,
dessen Beobachtungen und Berechnungen nur schwer widerlegbar zu
sein scheinen, werden in einer gegebenen sozialen Gruppe durch Verer-
bung nur diejenigen Merkmale regelmäßig und vollständig übertragen,
deren Vereinigunsgmenge den Durchschnittstyp bildet. Demnach wird
ein Sohn von körperlich außerordentlich großen Eltern nicht deren
Körpergröße haben, sondern mehr in der Nähe eines mittleren Wer-
tes liegen. Sind umgekehrt die Eltern sehr klein, dann wird der Sohn
größer werden als sie es sind. Mr. Galton war sogar dazu in der La-
ge – zumindest in angenäherter Weise – dieses Abweichungsverhältnis
zu messen. Bezeichnet man vereinbarungsgemäß als Zwischeneltern-
”
teil“ ein zusammengesetztes Wesen, das den Durchschnitt der beiden
tatsächlichen Eltern repräsentiert, dann beträgt die Abweichung des
Sohnes zwei Drittel der Abweichung von diesem Zwischenelternteil.
Mr. Galton hat dieses Gesetz nicht nur für die Körpergröße aufge-
stellt, sondern auch für die Augenfarbe und für die künstlerischen
Fähigkeiten. Allerdings bezog er seine Beobachtungen nur auf quan-
titative und nicht auf die qualitativen Abweichungen, welche die In-
dividuen im Vergleich zum Durchschnittstyp aufweisen. Man erkennt
jedoch nicht, warum das Gesetz für das eine gelten solle, für das andere
jedoch nicht. (Durkheim, 1893, [76].)
eigentlich nicht mit seinem Prinzip im Einklang stand, demgemäß sich das
”
Soziale durch das Soziale erklärt“: Der intellektuelle Kontext des ausgehen-
den 19. Jahrhunderts war vom Darwinismus geprägt, der die wissenschaftliche
Modernität repräsentierte.
Diese Zitate von Cheysson und Durkheim zeigen, daß es zunächst nicht die
statistischen Innovationen waren, welche die Aufmerksamkeit der Zeitgenos-
sen auf die Arbeit Galtons lenkte. Dessen Ergebnisse von 1885 führten 1889
zur Veröffentlichung seines am besten bekannten Buches: Natural Inheritance
([104]); sein früheres Buch Hereditary Genius 16 war 1869 erschienen. Von den
Galtonschen Neuerungen wurden an erster Stelle – auf der Grundlage der Nor-
malverteilung von Quetelet – die Idee der Konstruktion von Ordinalskalen und
die sich hieraus direkt ableitenden Werkzeuge aufgegriffen: der Median, die
Dezile, die zwischenquartile Breite und allgemeiner die Techniken zur Trans-
formation nichtmetrischer Daten in metrische Daten, die sich in diese Skalen
eintragen ließen. Somit machte Galton den Weg zu gemeinsamen Meßräumen
frei. Im Gegensatz hierzu brauchte es mehr Zeit, die intellektuellen Durch-
brüche zu erkennen und weiter zu verwenden, die Galton 1877 durch sein
Erbsen-Experiment, durch den Zwei-Stufen-Quincunx und durch die Rück-
”
kehr zum Mittel“ erzielt hatte. Ähnlich verhielt es sich mit der 1885 festgestell-
ten zweidimensionalen Normalverteilung der Körpergrößenpaare Eltern-Kind
und mit der Zerlegung der dieser Verteilung zugrundeliegenden Varianz. Diese
Ergebnisse waren mathematisch kaum formalisiert, implizierten aber eine geo-
metrische und statistische Intuition, die für die damalige Zeit außergewöhnlich
war. Die grafische Darstellung der Regressionsgeraden zur Kinder-Körper-
”
größe“ (y) im Vergleich zur Regressionsgeraden zur Eltern-Körpergröße“ (x)
”
erfolgte, indem man von konzentrischen Ellipsen und von Ellipsenpunkten mit
vertikalen Tangenten ausging (eine inverse Regression von x auf y war hin-
gegen möglich, wenn man von Punkten mit horizontalen Tangenten ausging).
Der Anstieg der Regressionsgeraden wurde grafisch gemessen. Eine Optimie-
rung vom Typ der Methode der kleinsten Quadrate war noch nicht in Sicht.
Die Aufbereitung der Daten war von dem Bemühen angespornt, das
politisch-wissenschaftliche Konstrukt der Eugeniker durch Messungen von
Vererbungseffekten zu untermauern. Das erklärt die unsymmetrische Natur
dieser Aufbereitung: die Körpergrößen der Eltern beeinflußten die Körper-
größen der Kinder. Es gab erklärende“ (explikative) Variable und erklärte“
” ”
(explizierte) Variable. Aber Galton wendete diese Variablen schon bald auf
Paare von Brüdern an; wenig später untersuchte er die Vermessungen der
Arme und Beine von Menschen und der Gliedmaßen von Tieren. Diese Fälle
rechtfertigten keine unsymmetrische Behandlung mehr und das führte zu Mes-
16
Francis Galton, Hereditary Genius: An Inquiry into Its Laws and Consequences,
[102]. Deutsche Übersetzung: Genie und Vererbung, Leipzig, 1910.
142 4 Korrelation und Ursachenrealismus
Von dieser Warte aus können sich historische Forschungen jeglicher Rich-
tung als aufschlußreich erweisen – zum Beispiel dadurch, daß sie eine detail-
lierte Analyse der Kontroversen liefern, die sich auf präzise technische Punkte
beziehen. So sah sich zum Beispiel Pearson sein ganzes Leben lang in der-
artigen Debatten gefangen. Stigler beschrieb die Diskussionen, die Pearson
mit Weldon und Edgeworth hatte, während Mac Kenzie die äußerst erbit-
terten Auseinandersetzungen untersuchte, zu denen es zwischen Pearson und
Yule und später zwischen Pearson und Fisher kam. Die typisch internalisti-
sche Interpretationsweise der Kontroversen besteht darin, herauszufinden, wer
– in der Retrospektive – recht hatte und demjenigen eine Medaille anzuhef-
ten, der von der Geschichte bereits gekrönt worden war. In der Statistik ist
das nicht ganz so einfach, da sich die Geschichte dazu im Allgemeinen nicht
wirklich entscheidend geäußert hat; aber auf anderen Gebieten ist das eine
gängige Praxis. Im Gegensatz hierzu zielt die externalistische Interpretation
darauf ab, den Inhalt und die Argumente der Diskussionen zugunsten von
Forschungsarbeiten zu ignorieren, deren Gegenstand die verborgenen Inter-
essen der Beteiligten sind – ausgedrückt durch soziale Gruppen oder durch
Positionen in umfassenderen Räumen, welche die möglichen Stellungnahmen
determinieren.18
zugeschrieben, der ihn seinerseits 1896, also drei Jahre später veröffentlicht
hatte. Der Unterschied zwischen beiden besteht darin, daß Edgeworth sei-
ner Arbeit den nüchternen Titel Exercises in the Calculation of Errors gab
– ein technischer Titel, der auf keinerlei Zusammenhang mit anderen Dingen
hinwies. Im Gegensatz hierzu nannte Pearson seine Arbeit Mathematical Con-
tributions to the Theory of Evolution: Regression, Heredity and Panmixia 20
und stellte damit eine Verbindung zwischen Mathematik, Darwin, Galton und
der Vererbung her (der neue Gegenstand der Panmixie“ sollte jedoch nicht
”
überleben). Evolution und Vererbung standen damals im Mittelpunkt des In-
teresses von Pearson. Diese Themen erweckten die Neugier eines viel größeren
Publikums, als es die mathematischen Formeln von Edgeworth taten.
Raphaël Weldon (1860–1906) war Biologe. Er war das go between der Ge-
schichte, das heißt derjenige, der Galton zu Edgeworth und Pearson in Bezie-
hung setzte. Darüber hinaus lenkte Weldon die Arbeit von Pearson in Rich-
tung einer Disziplin, die beide zusammen erschufen: die Biometrie. Weldon
war in der Tradition der evolutionistischen Biologie ausgebildet worden, deren
Ziel – ausgehend von der Beobachtung morphologischer Transformationen –
darin bestand, Stammbäume zu konstruieren, welche die Arten zueinander in
Beziehung setzten. Aber diese Tradition hatte weder die intellektuellen Mittel
noch kam sie überhaupt auf die Idee, diese morphologischen Transformationen
im großen Maßstab zu untersuchen. Weldon griff die statistischen Methoden
von Galton auf, um die Messungen zu beschreiben und zu analysieren, die
bei Krabben- und Garnelenzuchten durchgeführt worden waren. Anfänglich
unterstützte ihn Galton hierbei, aber das Material war derart komplex, daß
sich Weldon (wie schon zuvor Galton) nach einem Mathematiker umschau-
en mußte, um seine Analyse vertiefen zu können. Er zeigte seine Daten (im
Jahre 1892) Edgeworth und Pearson. Es hat den Anschein, daß beide Männer
die Idee hatten, multiple Korrelationen zu untersuchen und auf diese Weise
(im Hinblick auf die Weldonschen Vermessungen der Krabben und Garnelen)
die grafischen Intuitionen Galtons zu formalisieren und zu verallgemeinern.
Pearson ergriff die Gelegenheit und transformierte die Idee auf seine eigene
Weise, indem er sie in seine bereits vorhandenen philosophischen und politi-
schen Auffassungen integrierte. Aus der Zusammenarbeit der beiden entstand
allmählich ein Institutskern, der dann schließlich zu den Labors für Biometrie
und Eugenik führte. Die Verbindung zum Umfeld der Biologie brach jedoch
nach Weldons Tod im Jahre 1906 ab (was zweifellos zur Verbissenheit der
Debatten beigetragen hat, die später Pearson und die Mendelschen Biologen
zu Rivalen machte).
Karl Pearson (1857–1936) hat die statistische Testtheorie weiterentwickelt.
Er schuf ein wissenschaftliches Netzwerk, Institutionen und eine neue Sprache.
Er hatte einen guten Ruf erlangt und zog Studenten aus anderen Kontinen-
20
Unter Panmixie versteht man in der Biologie eine Mischung durch zufallsbedingte
Paarung.
148 4 Korrelation und Ursachenrealismus
ten an. Er war dazu in der Lage, ganz unterschiedliche Register zu ziehen
– Register mathematischer, philosophischer und politischer Art – und diese
Kombination war es, die seinem Vorhaben Durchschlagskraft gab. Diese Stärke
fehlte Edgeworth, dessen statistische Innovationen a priori genau so bedeut-
sam waren, wie die Pearsonschen, aber er hatte weder die Qualitäten noch
das Verlangen, als Manager“ tätig zu sein. Pearson studierte vor 1892 (also
”
vor dem Jahr, in dem er Die Grammatik der Wissenschaft veröffentlichte und
seine Arbeiten über die Weldonschen Daten begann) zunächst Mathematik in
Cambridge und anschließend Geschichte und Philosophie in Deutschland. Er
fühlte sich vom Sozialismus angezogen oder vielmehr von dem, was die Deut-
schen als Kathedersozialismus“ bezeichneten. Gemeint war damit eine Kritik
”
des traditionellen Bürgertums aus der Sicht der Professoren und Wissenschaft-
ler, nicht aber vom Standpunkt der Volksschichten. Diese Position war – im
Gegensatz zur Haltung der etablierten und konservativen Aristokratie – mit
der Auffassung der französischen Saint-Simonisten vergleichbar und führte zu
einem rationalistischen und militanten Szientismus. Das wiederum ermunterte
dazu, eine größere soziale Macht für die kompetentesten Individuen einzufor-
dern, die durch eine höhere Ausbildung ausgewählt wurden: Die englischen
Professionals mit Abschluß in Cambridge oder Oxford und die französischen
Ingenieure, die aus den Grandes Écoles hervorgegangen waren.
Die Kritik der traditionellen Sitten veranlaßte Pearson, sich aktiv in einem
Men’s and Women’s Club zu engagieren, der für eine Veränderung der sozialen
Rolle der Frauen kämpfte. In diesem Sinne präsentierte Pearson die Eugenik
der 1880er und 1890er Jahre mitunter im Lichte des Feminismus und der
arbeitenden Frauen. Die überdurchschnittliche Fruchtbarkeit der Frauen der
Arbeiterklasse führte zu katastrophalen Lebensbedingungen, verhinderte eine
ordentliche Erziehung der Kinder und lieferte der Bourgeoisie überschüssi-
ge Arbeitskräfte, wodurch die Löhne nach unten gedrückt werden konnten.
Wollten die Frauen dieses Milieus dem Teufelskreis entkommen, dann gab es
nur eine einzige Lösung, nämlich weniger Kinder zu bekommen. Diese Version
war offensichtlich akzeptabler als diejenige, die von Degeneration und vom
Ausschluß der mit Defekten behafteten Personen sprach, aber es ist über-
raschend, daß beide Versionen in Debatten koexistieren konnten, die auch
zur Vorgeschichte des Feminismus und der Bewegung für Geburtenkontrolle
gehörten (Zucker-Rouvillois, 1986, [296]).
Als Pearson mit Weldon zusammentraf und sich auf die Statistik stürz-
te, standen ihm drei Kategorien intellektueller und sozialer Ressourcen zur
Verfügung: die Mathematik, die Wissenschaftsphilosophie sowie ein ideologi-
sches und politisches Netzwerk. Er mobilisierte diese drei Ressourcen nach
und nach und verwendete sie für sein Vorhaben. Das führte ihn 1906 zu ei-
nem bizarren Objekt: zwei kaum voneinander verschiedene Laboratorien – das
eine für Biometrie, das andere für Eugenik (keines der beiden wurde als stati-
”
stisch“ bezeichnet). Im Jahre 1936 waren hieraus drei Labors hervorgegangen:
das Labor für Angewandte Statistik mit Egon Pearson, das Labor für Eugenik
mit Ronald Fisher und das Labor für Genetik mit Haldane. Karl Pearsons ma-
Fünf Engländer und der neue Kontinent 149
Udny Yule (1871–1951) war der direkte Großvater“ aller Statistiker, die
”
auf diesem Gebiet arbeiten. Sein Handbuch An Introduction to the Theory of
Statistics (1911, [293]) hatte bis 1950 vierzehn Auflagen (ab 1937 war Kendall
Mitautor) und diente zur Ausbildung mehrerer Generationen von Studenten
der Wirtschaft und der Soziologie. Yule hatte in London Ingenieurwissenschaf-
ten und in Deutschland Physik studiert, bevor er einer der ersten Studenten
von Pearson und 1893 dessen Assistent wurde. Zwar erwies er sich anfangs in
Bezug auf die neuen Techniken der Regression und der Korrelation als treuer
Schüler seines Meisters, aber er wendete diese Techniken auf ganz andere Be-
reiche an und kam dadurch mit anderen Kreisen in Kontakt. Evolutionstheorie
und Eugenik interessierten ihn nicht, aber er wurde 1895 Mitglied der Royal
Statistical Society, der weder Galton noch Pearson angehörten. In dieser 1836
gegründeten Gesellschaft schlossen sich Fachleute zusammen, die Statistiker
im Sinne des 19. Jahrhunderts waren. Es handelte sich dabei um Personen,
die an der Lösung der sozialen und wirtschaftlichen Probleme der Armut und
des öffentlichen Gesundheitswesens beteiligt waren und versuchten, diese Fra-
gen außerhalb hitziger und polemischer Debatten zu behandeln, indem sie die
Probleme mit Hilfe von Statistiken administrativen oder privaten Ursprungs
objektivierten. Diese Amelioristen“ – wie man sie nannte – waren den Kir-
”
chen, der Philanthropie und den Hygieniker-Bewegungen verbunden und wur-
den oft von den radikalen Eugenikern kritisiert und dahingehend angeklagt,
daß sie den Gang der natürlichen Auslese durch Unterstützung der Mittellose-
sten, das heißt – nach Meinung der Eugeniker – der Untauglichsten behindern
würden. Die Debatte zwischen diesen beiden Strömungen – der hereditaristi-
schen und der environmentalistischen – dauerte von den 1870er Jahren bis in
die 1930er und 1940er Jahre. Pearson gehörte natürlich der hereditaristischen
Strömung an, während Yule dem Environmentalismus näher stand.
Das veranlaßte Yule dazu, die neuen Werkzeuge zu benutzen, um in
die entscheidende politischen Debatte der damaligen Zeit einzugreifen, das
heißt in die Frage nach der Form der Armenunterstützung. Sollte ein der-
artiger Beistand entsprechend den strengen Formen der anstaltsinternen Un-
terstützung (indoor relief ) auf der Grundlage der Fürsorgegesetzgebung (poor
laws) von 1834 gewährt werden – das heißt in geschlossenen Anstalten, den
Arbeitshäusern (workhouses), die Kolonien für sehr schlecht bezahlte Zwangs-
arbeit waren – oder aber im Rahmen einer Fürsorgeunterstützung (outdoor
relief ), das heißt durch eine Wohnbeihilfe, die eher für Familien, Alte und
Kranke bestimmt war. Diese beiden Formen der Beihilfe wurden auf lokaler
Ebene durch die Fürsorgeverbände (poor law unions) garantiert, die in jeder
Grafschaft (county) gegründet wurden. Das Verhältnis von indoor relief und
outdoor relief hat angeblich die Strenge oder die Laxheit widergespiegelt, mit
der die lokalen Fürsorgeverbände verwaltet worden sind. Die politische De-
batte bezog sich auf die Wohnbeihilfe: Trug der Umfang dieser Unterstützung
nicht dazu bei, die Armut auf dem gleichen Stand zu halten, wenn nicht gar zu
vergrößern? Yule verfügte in Bezug auf jeden der 580 Fürsorgeverbände über
mehrere Informationen: Die Gesamtzahl der unterstützten Armen [Fürsorge-
Fünf Engländer und der neue Kontinent 151
ökonomische und soziale Daten anwenden ließen, die nur selten normalverteilt
sind. Hier lag der Keim des späteren Konflikts zwischen Yule und Pearson:
es ging genau um die zugrundeliegenden Normalverteilungshypothesen und
allgemeiner um die Beschaffenheit und die Tragweite der neuen, von Yule und
Pearson konstruierten Realitäten.
die beiden zwischen 1893 und 1895 Konkurrenten, als sie die schiefen Kurven
untersuchten, die sich auf der Grundlage der Weldonschen Daten ergaben.
Edgeworth schrieb 1894 einen Artikel über das Thema, aber die Publikation
der Arbeit wurde abgelehnt und er hatte den Verdacht, daß Pearson dabei
seine Hand im Spiel hatte – dafür gibt es jedoch keine Beweise (Stigler, 1978,
[266]). Im Grunde genommen polemisierten beide über die Bedeutung der
Normalverteilungen, die Pearson für denjenigen Sachverhalt hielt, der hinter
den schiefen Kurven stand. Für Edgeworth war jedoch der Zusammenhang
zwischen Normalverteilungen und schiefen Kurven zu zerbrechlich, um als
Argument zu dienen. Die Kurven waren nichts anderes, als empirische Ad-
hoc-Konstruktionen. Sie konnten nicht dazu verwendet werden, um auf eine
Homogenität zu schließen. Paßten die Kurven gut zu den Daten, dann be-
”
steht die Frage darin, welches Gewicht jemand dieser Korrespondenz geben
sollte, der keinen theoretischen Grund für diese Formeln sah.“ Hingegen war
es notwendig, Homogenitätshypothesen aufzustellen, die auf Kenntnissen aus
anderen Quellen beruhten. Folglich schrieb Edgeworth seinem Konkurrenten
eine Art antiquierten Queteletismus“ zu.
”
Aber Pearson, der möglicherweise sensibel auf diese Kritik reagierte, war
damit befaßt, seine antirealistische Erkenntnisphilosophie Schritt für Schritt
in die Interpretation der Statistik einzuarbeiten. Das gab ihm die Möglichkeit,
sich auf elegante Weise den von Weldon und Edgeworth aufgeworfenen Fragen
zu entziehen. Wenn es keine äußere Ursache“ für statistische Konstruktionen
”
gibt, und wenn die mathematischen Formeln lediglich mentale Stenographien
sind, dann wird alles möglich. Insbesondere wurde die Frage des Zusammen-
hangs zu anderen Wissensgebieten (die Weldonschen Verwerfungen und Re-
”
generationen“) nicht mehr in dem Maße als restriktiv empfunden. Pearson
war gewiß weniger dogmatisch, und sei es nur, um Verbindungen zu Univer-
sen herzustellen und zu pflegen, die vom seinigen verschieden waren – aber
seine Argumentationsweise gewährte ihm eine fast unangreifbare Rückzugs-
position im Falle von Einwänden gegen den Realismus seiner Objekte. Auf die
Kritik von Edgeworth, daß er – Pearson – aus einer guten Anpassung auf das
Vorhandensein einer Normalverteilung und die Existenz einer einfachen er-
klärenden Ursache geschlossen hätte, antwortete er: Es geht nicht darum, zu
”
wissen, ob es sich dabei wirklich um die Bestandteile handelt, sondern darum,
ob ihre Gesamtwirkung so einfach beschrieben werden kann.“
Die Bedeutung dieser Formulierung besteht darin, daß sie es ermöglicht, in
Abhängigkeit von den Gesprächspartnern und den Situationen fast unbewußt
von einem Register zum anderen zu gleiten. In gewissen Fällen existieren die
Dinge, weil andere Personen diese Dinge benötigen und weil die Betreffenden
mit Dingen beliefert werden möchten, die wirklich da sind und einen Zusam-
menhalt aufweisen. In anderen Fällen – zum Beispiel in Reaktion auf Kritiken
am hypothetischen und konstruierten Charakter der Dinge – kann man die
betreffenden Dinge als mentale Stenographien oder praktische Konventionen
bezeichnen. Diese ständige Verlagerung ist weder ein Betrug noch hat sie mit
Verschlagenheit zu tun. Beide Haltungen sind für das soziale Leben gleicher-
156 4 Korrelation und Ursachenrealismus
maßen kohärent und notwendig. Man muß sich dieser Tatsache nur bewußt
sein und darf sich nicht auf eine der Haltungen zurückziehen und diese als
einzig richtige Erkenntnisphilosophie ausgeben. Jede dieser Haltungen ist von
der jeweiligen Situation abhängig. Zu gewissen Zeiten ist es besser, Realist
zu sein. Zu anderen Zeiten wiederum kann uns ein Schuß Nominalismus bei
der Wiederentdeckung von Dingen helfen, die seit langem in umfassenderen
Dingen eingekapselt“ sind, welche ihrerseits den gesamten Schauplatz ein-
”
nehmen.
Um die Jahrhundertwende entstand aus der Allianz von Biologen und Ma-
thematikern eine ausgeprägt mathematisch zugeschnittene Statistik, die zur
Biometrie führte. Später folgten weitere Allianzen. Yule hatte bereits damit
begonnen, den Regressions- und den Korrelationskalkül auf die Ökonomie zu
übertragen – dort schufen Irving Fisher und Ragnar Frisch dreißig Jahre später
die Ökonometrie. Spearman, ein Psychologe, vereinheitlichte die Ergebnisse
und die Interpretationen von Intelligenztests mit Hilfe der Faktorenanalyse,
einer statistischen Technik, die sich aus den Techniken der Biometrielabors
ableitete. Auf diese Weise entwickelte er die Psychometrie. In beiden Fällen
sollten die erschaffenen und verwendeten Objekte in der Folgezeit wieder in-
frage gestellt werden – die Yuleschen Objekte wurden von Pearson selbst,
die Spearmanschen Objekte von Thurstone und in der Folgezeit von vielen
anderen infrage gestellt.
Yule erfand schon bei seiner ersten Anwendung der neuen Werkzeuge im Jah-
re 1895 eine Sprache, um die damals brennenden Fragen zu behandeln, bei
denen es um Armut und Fürsorge ging. Er verglich die relativen Gewichte der
verschiedenen möglichen Ursachen der Schwankungen des Pauperismus, um
denjenigen Personen Anhaltspunkte zu liefern, die an einer Reform der aus
dem Jahre 1834 stammenden Fürsorgegesetzgebung (poor laws) arbeiteten. Er
legte ein elaboriertes Beispiel der Übersetzung eines politischen Problems und
dessen Bearbeitung mit Hilfe eines Meßinstruments vor, das es ermöglichte,
eine Kontroverse zu schlichten. Die angeschnittene Frage hatte den englischen
Gesetzgebern seit drei Jahrhunderten keine Ruhe gelassen: Wie kann man die
Armen auf ökonomisch rationelle Weise so unterstützen, daß die von ihnen aus-
gehende soziale Gefahr gebannt wird? In der Geschichte Englands kann man
verschiedene Fürsorgegesetzgebungen hervorheben. Ein solches Gesetz wurde
1601 verabschiedet, eine weitere Verfahrensweise war die Speenhamland Act
of Parliament 23 und schließlich ist das Gesetz von 1834 zu nennen, das die
23
Im Jahre 1775 kam eine Gruppe von Friedensrichtern, also Männer der Herren-
klasse, in Speenhamland (Berkshire) zusammen und beschloß, die Differenz zwi-
schen den fürs erste gleichbleibenden Löhnen und den erhöhten Brotpreisen aus
der Armenkasse auszugleichen. Damit wälzten sie ihre eigenen Lasten auf die
Yule und der Realismus der administrativen Kategorien 157
verständlichkeit. Aber die von Yule aufgeworfene Frage war weitaus komple-
xer: Welcher Anteil des Rückgangs des Pauperismus ist auf administrative
Änderungen der Fürsorgeverwaltung zurückzuführen, und welcher Anteil auf
andere Ursachen, zum Beispiel auf Änderungen der Gesamtbevölkerungszahl
oder der Altersstruktur? Er berechnete die multiple lineare Regression der
Änderung der Pauperismusquote (in jeder Grafschaft) im Vergleich zu den
Änderungen der drei als explikativ“ vorausgesetzten Variablen: Fürsorgeun-
”
terstützung, Gesamtbevölkerungszahl der Grafschaft und Anteil der Alten in
den betreffenden Grafschaften. Er schloß die erste jemals durchgeführte öko-
”
nometrische“ Untersuchung mit folgenden Worten.
Weder in der Darstellung von Yule noch in den sich anschließenden Kom-
mentaren wurde die Bedeutung des Objekts Pauperismus“, das durch die
”
Anzahl der unterstützten Personen definiert war, explizit diskutiert. Nun führ-
te aber der von Yule vorgelegte Beweis exakt zu einer Infragestellung dieser
Bedeutung, denn die erklärende Hauptvariable, das heißt der Rückgang der
Yule und der Realismus der administrativen Kategorien 159
für den Fall einer vollständigen negativen Abhängigkeit. (Dennoch hat der In-
dikator den Nachteil, daß er den Wert +1 bzw. −1 annimmt, wenn nur eines
der vier Felder gleich Null ist, was schwerlich als vollständige Abhängigkeit
betrachtet werden kann.) Pearson dagegen empfand nur Verachtung für diesen
Ausdruck, der willkürlich war und sich durch nichts begründen ließ. Im Übri-
gen könne der Ausdruck durch Q3 oder Q5 ersetzt werden und würde dann
die gleichen erforderlichen Eigenschaften besitzen. Um den Zusammenhang
auf eine ihm eindeutig erscheinende Weise zu messen, konstruierte er eine
zweidimensionale Normalverteilung, deren Randverteilungen sich an die bei-
den beobachteten Randverteilungen anpaßten. Er bewies, daß es genau eine
derartige Verteilung gibt und daß einer der dabei auftretenden Parameter die
gewünschte Korrelation liefert; Pearson verwendete hierfür die Bezeichnung
tetrachorischer Korrelationskoeffizient“.
”
Dieser Streit sorgte unter den Mitarbeitern des Biometrielabors für Unru-
he und sie lieferten sich bissige Artikel, die im Journal of the Royal Statistical
Society (eher das Lager von Yule) und in der von Pearson gegründeten Zeit-
schrift Biometrika veröffentlicht wurden. Die Auseinandersetzung wurde von
Mac Kenzie eingehend analysiert, der die unterschiedlichen rhetorischen und
sozialen Strategien der betreffenden Autoren erläuterte und nachwies, daß
jeder an seiner eigenen Methode festhielt und Schwierigkeiten hatte, die Me-
thoden der anderen zu verstehen. Yule attackierte die nutzlosen und nicht
”
verifizierbaren“ Normalverteilungshypothesen. Er griff den Fall der Tafel auf,
in der die Wirkungen der Impfungen beschrieben wurden und wies nach, daß
sich in diesem Fall die Äquivalenzkonventionen schwerlich bestreiten lassen:
... alle diejenigen, die an Pocken gestorben sind, sind gleichermaßen
tot; keiner ist toter oder weniger tot als der andere und die Toten
unterscheiden sich vollkommen von den Lebenden ... In diesen Fällen
gibt uns der Normalverteilungskoeffizient“ bestenfalls eine hypothe-
”
tische Korrelation zwischen den vorgeblichen Variablen (Yule (1911),
zitiert von Mac Kenzie, 1981, [183]).
Aber Pearson erwiderte, daß Yule seine Kategorien vergegenständlicht ha-
be und daß es selten der Fall sei, daß sich die Kategorien so klar voneinander
abgrenzen. Pearson klagte Yule des Realismus“ im mittelalterlichen Sinne
”
an und ging in seiner Behauptung so weit, daß der Unterschied zwischen Le-
ben und Tod im Grund genommen kontinuierlich verläuft ( Man stirbt nicht
”
plötzlich“ 24 ):
Unter Klassenindizes wie Tod“ oder Genesung“ oder Anstellung“
” ” ”
oder Arbeitslosigkeit“ der Mutter sehen wir nur Messungen steti-
”
24
Der Mensch ist so beschaffen, daß er sich stets für das interessiert, was morgen
geschehen wird, nicht erst in tausend Jahren. Doch gerade die langsam wirkenden
Kräfte pflegen auch die schicksalsträchtigsten zu sein. Die meisten Menschen ster-
ben nicht eines plötzlichen Todes, sondern weil sie langsam und fast unmerklich
gealtert sind.
162 4 Korrelation und Ursachenrealismus
Die Diskussion über die Realität der von der Statistik geschaffenen Objek-
te wiederholte sich in fast identischer Weise – gleichsam wie ein Stottern der
Geschichte – zwischen 1904 und den 1950er Jahren in Bezug auf die Interpreta-
tion der in der Psychometrie durchgeführten Faktorenanalysen (Gould, 1983,
[112]). Die Tests spielten hier die Rolle der bei Quetelet zufällig ausgewählten
Epilog zur Psychometrie: Spearman und die allgemeine Intelligenz 163
Individuen. Spearman (1863–1945), ein Schüler von Pearson, zeigte 1904, daß
die auf Kinder angewendeten Eignungstests stark korrelierten. Er erfand die
Methode der Faktorenanalyse in Hauptkomponenten, indem er in dem durch
diese Komponenten gebildeten Vektorraum die orthogonalen Achsen suchte,
welche sukzessiv das Maximum der Varianz der Punktwolken erklärten, die
ihrerseits den Ergebnissen für jedes einzelne Kind entsprachen. Aus der Tat-
sache der Korrelation zwischen den Tests folgte, daß die erste dieser Achsen
den überwiegenden Teil der Gesamtvarianz widerspiegelte. Es handelte sich
um eine Art Mittelwertbildung der verschiedenen Tests. Spearman bezeich-
nete diesen Mittelwert als allgemeine Intelligenz oder g-Faktor .25 Spearman
promotete und orchestrierte seinen g-Faktor in ähnlicher Weise, wie es Quete-
let mit dem Durchschnittsmenschen gemacht hatte: er bildete ein Objekt, das
allgemeiner als die speziellen Tests war und betrachtete die speziellen Tests
als kontingente Manifestationen dieses allgemeinen Objekts. Dieses reprodu-
zierbare Ding, das sich auch in anderen Kontexten verwenden ließ, lieferte
einen gemeinsamen Meßraum für die individuellen Fähigkeiten, deren Exi-
stenz Galton postuliert hatte, ohne jemals in der Lage gewesen zu sein, diese
Fähigkeiten direkt zu messen.
Die Theorie von Spearman wurde von Cyril Burt vervollständigt und
später von Thurstone kritisiert und zerstört. Das geschah in einer Abfolge von
Ereignissen, die durch ihre Argumente und deren Wiederauflodern an die Ver-
kettung der Umstände erinnerte, unter denen die Begriffsbildungen Quetelets
– der Durchschnittsmensch und die konstanten Ursachen – zunächst von Gal-
ton vervollständigt und transformiert und danach von Lexis und Edgeworth
wieder zerstört wurden. Als überzeugter Anhänger des Begriffs der allgemei-
nen Intelligenz versuchte Burt einerseits, die durch den g-Faktor nicht erklärte
Varianz zu analysieren und zu interpretieren ( Gibt es sekundäre Faktoren,
”
die spezifische, von g unabhängige Fähigkeiten widerspiegeln?“). Andererseits
versuchte er zu beweisen, daß diese allgemeine Intelligenz angeboren und erb-
lich ist. Er war für die Schulpsychologie der Grafschaft London zuständig.
Seine Arbeiten haben dazu geführt, die Einrichtung eines Testsystems für
elfjährige Kinder zu untermauern und zu rechtfertigen. Die Tests liefen wie
eine Prüfung ab, wobei die Kinder entsprechend ihrem Niveau auf der g-Skala
jeweils einer von zwei sehr unterschiedlichen Ausbildungsrichtungen zugeord-
net wurden. Dieses System wurde unter der Bezeichnung eleven plus bekannt;
man verwendete es in England von 1944 bis 1965. Das System beruhte auf
einem Umstand, der in der ersten Hälfte des Jahrhunderts in folgendem Sin-
ne real zu sein schien: erstens teilten viele Menschen die Vorstellung von der
Existenz dieses Systems; zweitens ließen sich Messungen durchführen und das
System konnte – als erklärende Variable oder als zu erklärende Variable – in
25
Spearman konnte mit der von ihm entwickelten Tetradendifferenzen-Methode zei-
gen, daß sich in allen Intelligenzleistungen ein gemeinsamer Faktor g (general
factor) isolieren läßt. Eliminiert man diesen Faktor, dann bleiben nach Spearman
nur noch spezifische Faktoren übrig, die für jede der einzelnen Leistungen gelten.
164 4 Korrelation und Ursachenrealismus
26
Es handelt sich um die multiple Faktorenanalyse“, die von der Gleichwertigkeit
”
aller Faktoren ausgeht. Die Faktoren werden hier nicht aus den einzelnen Korre-
lationen sukzessiv nach der Reihenfolge ihrer Allgemeinheit abgehoben, sondern
man geht von allen Korrelationen gleichzeitig aus (Korrelationsmatrix) und be-
handelt sie als geschlossenes System.
5
Statistik und Staat:
Frankreich und Großbritannien
Der Begriff der Statistik im ältesten Sinne des Wortes geht ins 18. Jahrhun-
dert zurück und beinhaltet eine Beschreibung des Staates durch ihn und für
ihn (vgl. Kapitel 1). Zu Anfang des 19. Jahrhunderts kristallisierte sich in
Frankreich, England und Preußen um das Wort Statistik“ eine Verwaltungs-
”
praxis heraus und man entwickelte Formalisierungstechniken, bei denen die
Zahlen im Mittelpunkt standen. Spezialisierte Bureaus wurden damit beauf-
tragt, Zählungen zu organisieren und die von den Verwaltungen geführten
Register zu kompilieren, um für den Staat und für die Gesellschaft Darstel-
lungen zu erarbeiten, die den Handlungsweisen und dem Ineinandergreifen
von Staat und Gesellschaft in angemessener Weise entsprachen. Die Forma-
lisierungstechniken bestanden aus Zusammenfassungen, Kodierungen, Tota-
lisierungen, Berechnungen und Konstruktionen von Tabellen und grafischen
Darstellungen. Diese Techniken ermöglichten es, die durch die Staatspraxis
geschaffenen neuen Objekte mit einem einzigen Blick zu überschauen und
miteinander zu vergleichen. Man konnte jedoch keine logische Trennung zwi-
schen Staat, Gesellschaft und den Beschreibungen vornehmen, die von den
statistischen Bureaus geliefert wurden. Der Staat setzte sich aus besonderen
– mehr oder weniger organisierten und kodifizierten – Formen von Beziehun-
gen zwischen den Individuen zusammen. Diese Formen ließen sich – vor allem
mit Hilfe der Statistik – objektivieren. Aus dieser Sicht war der Staat keine
abstrakte Entität, die außerhalb der Gesellschaft stand und in den verschie-
denen Ländern identisch war. Es handelte sich vielmehr um eine singuläre
Gesamtheit von sozialen Bindungen, die sich verfestigt hatten und von den
Individuen in hinreichender Weise als Dinge behandelt wurden. Und zumin-
dest für den Zeitraum, in dem der betreffende Staat existierte, waren diese
sozialen Tatbestände tatsächlich Dinge.
Innerhalb der Grenzen, die durch diese historische Konsolidierung der
staatlichen Zusammenhänge abgesteckt waren, stellen die statistischen Bu-
reaus und ihre Tabellierungen Quellen für den Historiker dar. Aber der Histori-
ker kann auch die Peripetien und Besonderheiten der allmählichen Errichtung
dieser Bureaus als Momente der Bildung moderner Staaten betrachten, wie sie
166 5 Statistik und Staat: Frankreich und Großbritannien
Formen äußerte (Kapitel 5). Für die beiden anderen Länder – Deutschland
und die Vereinigten Staaten – war er im Entstehen begriffen bzw. durchlief ein
schnelles Wachstum (Kapitel 6). Die Unterschiede in Bezug auf die Konsistenz
der Staaten lassen sich aus der Geschichte der jeweiligen statistischen Syste-
me ablesen. In sämtlichen Fällen nennen wir nicht nur die Bedingungen, unter
denen die öffentliche Statistik ihre Legitimität konstruierte, sondern auch die
öffentlichen Debattenräume, in denen sie einen Platz gefunden hat.
In Frankreich ist der Staat zentralisiert und so ist es auch seine Stati-
stik – sowohl vom administrativen als auch vom territorialen Standpunkt aus.
Im Allgemeinen lag die Sachverständigenkompetenz eher innerhalb der Admi-
nistration, beim Berufsstand der Ingenieure und bei der Beamtenschaft. Die
Universitäten hatten einen geringeren Einfluß als in den anderen drei Ländern.
Die öffentliche Statistik, deren hauptsächlicher (aber nicht einziger) Bestand-
teil die Statistique générale de la France (SGF) war, organisierte sich rund um
die Zählungen. Vor allem war die öffentliche Statistik auf den Gebieten der
Demographie (Geburtenrückgang) und der Wirtschaft (gewerbliche Struktu-
ren, Arbeit, Löhne, Lebenshaltungskosten) tätig, aber infolge des Gewichtes
und der Autorität der Behörde waren diese Fragen weniger als anderswo der
Gegenstand großer und öffentlicher Debatten zwischen Fachleuten und Aus-
senstehenden.
In Großbritannien waren die Verwaltungen unabhängiger voneinander und
die Behörden der Grafschaften und Gemeinden hatten umfassendere Befug-
nisse als in Frankreich. Die Statistik war in Großbritannien nie in einer einzi-
gen Institution zentralisiert und die überregionalen Bureaus mußten mit den
örtlichen Bureaus Kompromisse eingehen, wie es im Falle der für den Per-
sonenstand und die Umsetzung der Fürsorgegesetzgebung zuständigen Bu-
reaus auch geschehen war. Die beiden – gesondert bearbeiteten – Hauptgebie-
te waren einerseits Außenhandel und Geschäftstätigkeit (verwaltet durch das
Board of Trade 1 ) und andererseits Bevölkerung, Armut, Hygiene und öffent-
liche Gesundheit (verwaltet durch das General Register Office 2 , GRO). Die
parlamentarischen Untersuchungskommissionen – die zum Beispiel anläßlich
der schweren sozialen Krisen gegründet wurden, welche mit der schnellen In-
dustrialisierung und der zügellosen Verstädterung zusammenhingen – waren
Orte intensiver Diskussionen zwischen Wissenschaftlern, Statistikern, Ökono-
men und führenden Persönlichkeiten der Politik.
In Deutschland zeichnete sich dieser Zeitraum zunächst durch die allmähli-
che Gestaltung der Reichseinigung aus – mit Preußen als Kern –, die 1871
vollendet wurde. Die nachfolgende Zeit war zwischen 1871 und 1914 durch
industrielles Wachstum und schließlich – in der Zeit zwischen den beiden
Weltkriegen – durch die Wirtschaftskrise und politische Krisen gekennzeich-
net. Die amtliche Statistik, die es in den verschiedenen Königreichen bereits
gab, vereinigte sich nach 1871 und organisierte umfangreiche Untersuchun-
1
Handelsministerium.
2
Hauptstandesamt.
168 5 Statistik und Staat: Frankreich und Großbritannien
Die Statistique générale de la France (SGF) war von 1833 bis 1940 eine kleine
Behörde, die nur in Paris ansässig war. Ihre Hauptaufgabe bestand darin, die
alle fünf Jahre stattfindenden Volkszählungen zu organisieren und auszuwer-
ten und – ausgehend von den Personenstandsregistern (Geburten-, Heirats-
und Sterberegister) – die Bevölkerungsbewegung“ zu analysieren. Die Ge-
”
schichte dieser Behörde ist die Geschichte der allmählichen Errichtung einer
diskreten Legitimität, die auf strengen fachlichen Kriterien beruhte. Das gilt
insbesondere für die Jahre nach 1890, als Lucien March die gesamte Produkti-
onskette der Zählungen – von den Fragebögen und deren Auswertung bis hin
zu den Veröffentlichungen – umfassend transformierte. Diese Legitimität war
nicht von Anfang an vorhanden. Sie hing mit der Aufstellung von Verwaltungs-
routinen und auch mit dem Vorgehen einer kleinen Gruppe zusammen, die sich
nach 1860 in der Société de statistique de Paris (SSP) zusammengeschlossen
hatte (Kang, 1989, [144]). Aber die statistische Tätigkeit, ihre Kosten, ihre
Zentralisierung und ihre Interpretation waren nicht – wie in Großbritannien
oder in den Vereinigten Staaten – Gegenstand umfassender Diskussionen in
der Presse oder im Parlament.
Bei ihrer Gründung im Jahre 1833 war die an das Handelsministerium
angegliederte SGF damit beauftragt, die von anderen Verwaltungen erstellten
statistischen Tabellen zu sammeln, zu koordinieren und zu veröffentlichen.
Der Gründer der SGF, Moreau de Jonnès (1778-1870), leitete die Einrichtung
bis zum Jahre 1852. Bereits 1835 legte er einen detaillierten Plan zur Publi-
kation von vierzehn Bänden vor, die sich bis zum Jahre 1852 erstreckten und
die verschiedenen Bereiche der Verwaltungstätigkeit abdeckten. Die öffentli-
170 5 Statistik und Staat: Frankreich und Großbritannien
che Gesundheit, die damals in der britischen Statistik einen wesentlichen Platz
einnahm, trat in diesem Plan kaum in Erscheinung: man findet lediglich An-
gaben zur Verwaltung von Krankenhäusern.4 Die Moralstatistiker“, die sich
”
um die Annales d’Hygiène Publique zusammenschlossen, blieben außerhalb
der französischen öffentlichen Statistik, während sich ihre englischen Amts-
kollegen von der Public Health Movement im General Register Office, dem
Zentrum der amtlichen Statistik befanden.
Die Hauptschwierigkeit der im Entstehen begriffenen SGF bestand darin,
mit Hilfe einer technischen Spezifität die Anerkennung der anderen Ministeri-
en zu finden. Es war keine Selbstverständlichkeit, die Statistiken der Landwirt-
schaft, des Gewerbes und des Handels mit der Statistik der Bevölkerungsbe-
”
wegung“ (Personenstand) und der Zählungen zu vereinigen, deren Organisati-
on noch vom Innenministerium abhing. Dieses gründete 1840 ein statistisches
Bureau, das von Alfred Legoyt (1815–1885) geleitet wurde. Legoyt kritisierte
Moreau de Jonnès und wurde dessen Nachfolger als Leiter der SGF, deren
Direktor er von 1852 bis 1871 war. Der Aufruf zur Zentralisierung der nume-
rischen Unterlagen im Hinblick auf deren Publikation reichte allein nicht aus,
um die Durchschlagskraft der Institution zu garantieren – es mußten auch die
Standardwerkzeuge zur Registrierung vorhanden sein: regelmäßige Bestands-
aufnahmen, Karteien und Nomenklaturen. Das Vertrauen in die Statistiken
und deren Zuverlässigkeit“ hing mit der Kohärenz und der Stabilität des
”
Verwaltungsmechanismus zusammen.
In ihrer Anfangszeit veröffentlichte die SGF (außer den Zählungen) zu-
nächst regelmäßige Verwaltungsdaten, die von anderen erstellt worden waren,
aber auch die Ergebnisse der auf eigene Initiative durchgeführten außeror-
dentlichen Enqueten zu den Landwirtschaftsstrukturen (1836–1839) und zu
den Gewerbestrukturen (1841, 1861). Im Vergleich zu den von anderen Ver-
waltungen herausgegebenen Kompilationen war der durch die SGF erzeugte
Mehrwert“ gering und die Überprüfung erwies sich als schwierig. Dennoch
”
wurden auf diesem Umweg Gewohnheiten“ geschaffen: Beispiele hierfür sind
”
die 1827 gegründete Kriminalstatistik und die Statistik der Mineralindustrie
(für die Le Play im Jahre 1848 verantwortlich zeichnete). Die Strukturuntersu-
chungen standen dagegen den Monographien in der Hinsicht näher, daß ihre
Ergebnisse – die aus nur einmal verwendeten Ad-hoc-Techniken hervorgin-
gen – kaum verallgemeinerungsfähig waren. Diese Ergebnisse blieben isolierte
Punkte und trugen nicht dazu bei, eine quantitative Routine zu schaffen.
Die Landwirtschaftszählungen wurden als schlecht beurteilt, während die Un-
tersuchungen zu den Katastervorgängen unvollendet blieben: die statistische
Tätigkeit war nur dann operativ, wenn sie sich in eine mit ihr abgestimmte
Verwaltungspraxis einfügte.
Die Kontrolle der Statistiken war ein zentrales Problem dieser Zeit. Die
Arbeit von Bertrand Gille (1964, [108]) über die statistischen Quellen der
”
4
Dennoch steht Moreau de Jonnès der Medizin nahe: vgl. hierzu Kapitel 3 und die
Debatten über die Cholera.
Französische Statistik – eine diskrete Legitimität 171
Die Verteilung der Verantwortlichkeiten ist klar erkennbar für die Zählung,
die zu diesem Zeitpunkt noch durch das von Legoyt geleitete statistische Bu-
reau des Innenministeriums organisiert wurde. Die Ergebnisse der Zählung
wurden hingegen von der SGF veröffentlicht. Jedoch übernahm Legoyt 1852
die Leitung der SGF und sammelte dort alle Zählungsvorgänge. Er führte
wichtige Neuerungen hinsichtlich der Berufe (1851) und der Wirtschaftstätig-
keiten (1866) ein; zuvor hatte es lediglich eine Namensliste der Einzelpersonen
gegeben. Die Position Legoyts im Handelsministerium schien damals sicherer
zu sein, als die seines Vorgängers.
Im Übrigen ließen die Rivalitäten zwischen den Verwaltungsstatistikern
und den Moralstatistikern nach, als 1860 eine Gruppe von Ökonomen und
Sozialforschern – von denen Villermé, Michel Chevalier und Hyppolite Passy
die berühmtesten waren – die Société de statistique de Paris (SSP) gründete.
Sie beantragten und erhielten eine offizielle Garantie des Handelsministeri-
ums. Legoyt war der erste Präsident der SSP. Diese Gelehrtengesellschaft
spielte bis in die 1930er Jahre bei der Gründung der großen Verwaltungen
und statistischen Schulen eine wichtige Rolle: sie war der Begegnungsort von
(öffentlichen und privaten) Statistikern und denjenigen, die deren Arbeiten
nutzten. Darüber hinaus wirkte die Gesellschaft als Zentrum zur Verbreitung
der Ideen und Forderungen dieser Statistiker. Ihre Zeitschrift, das Journal de
la Société de statistique de Paris, bot einer kleinen Gruppe von unermüdli-
chen Propagandisten der Statistik ein Diskussionsforum. Diese Gruppe be-
stand aus Lehrstuhlinhabern und Mitgliedern von Verwaltungskommissionen,
die mit der Förderung und Koordinierung der statistischen Arbeiten beauf-
tragt waren. Der Gruppe gehörten an: Émile Cheysson (1836-1910), Ingenieur
für Brückenbau und Schüler von Le Play; Émile Levasseur (1828–1911), Uni-
versitätsgeograph; Adolphe Bertillon (1821–1883) und sein Sohn Jacques Ber-
tillon (1851–1922), beide Ärzte und leitende Angestellte eines statistischen
Bureaus der Stadt Paris. Dieses Bureau publizierte Informationen über die
öffentliche Gesundheit und die Todesursachen (Alphonse Bertillon, 1853–1914,
der im Kapitel 4 im Zusammenhang mit Galton erwähnte Anthropometrie-
Experte der Polizeipräfektur, war ein weiterer Sohn von Adolphe Bertillon).
Wir treffen diese politisch aktiven Experten auch im Conseil supérieur de
la statistique an, der 1885 gegründet wurde, um die SGF und die anderen
statistischen Bureaus zu unterstützen und ihre Arbeit zu steuern. Jedoch
war die Statistik dieser Zeit noch kaum mit den Werkzeugen ausgestattet,
die ihre heutige Stärke ausmachen: administrative und verordnungsrechtliche
Französische Statistik – eine diskrete Legitimität 173
Zwischen 1875 und 1890 wurden die Industrieländer von einer schweren
Wirtschaftskrise heimgesucht, deren soziale Folgen in Großbritannien und in
den Vereinigten Staaten gravierender waren als in Frankreich. Aber über-
all diskutierte man neue Gesetze, die ein Recht auf Arbeit definieren und
einführen sollten – eine Neuheit im Vergleich zum klassischen Zivilrecht –
und einen Schutz gegen Arbeitslosigkeit, Arbeitsunfälle, Krankheiten und Al-
tersarmut organisieren sollten. Ein Conseil supérieur du travail, ein überge-
ordneter Betriebsrat, wurde 1891 gegründet und von Millerand und Fontaine
umgestaltet, um diese Gesetze auszuarbeiten. Der Rat brachte Beamte, Leiter
von Unternehmen und Gewerkschafter zusammen und war ein Vorbote für die
Plankommissionen, das Tarifvertragswesen und die Vertragspolitik in der Zeit
nach 1945. Das Arbeitsamt veröffentlichte in diesem Zusammenhang im Jahre
1893 eine große Enquete über Löhne und Arbeitsdauer in der französischen
”
Industrie“ und führte später Enqueten über die Arbeiterhaushalte und die
Lebenshaltungskosten durch. Im Übrigen arbeiteten Akademiker, die in der
Tradition von Durkheim standen, an den gleichen Themen und veröffentlichen
die ersten Soziologie-Dissertationen mit ausgeprägt empirischem und statisti-
schem Inhalt. François Simiand (1873–1935) analysierte die Schwankungen der
Bergarbeiterlöhne und March diskutierte diese Analyse in der Société de stati-
stique de Paris (Simiand, 1908, [262]). Maurice Halbwachs (1877–1945) legte
1912 seine thèse d’État“ in lettres“ 9 an der Sorbonne vor; diese Dissertation
” ”
befaßte sich mit den Lebensniveaus und Bedürfnissen der Arbeiterklasse und
erschien unter dem Titel La classe ouvrière et les niveaux de vie. Recherches
sur la hiérachie des besoins dans les sociétés industrielles contemporaines. In
seiner Arbeit nutzte Halbwachs die von deutschen Statistikern gesammelten
Informationen über die finanziellen Mittel von Arbeiterfamilien (aber seine
thèse complémentaire“ über die Theorie des Durchschnittsmenschen, Que-
” ”
telet und die Moralstatistik“ blieb durchweg auf der Linie der Fragen des
19. Jahrhunderts). Halbwachs führte eine Enquete zum Familienbudget der
französischen Arbeiter und Bauern durch und veröffentlichte die Ergebnisse
1914 im Bulletin der SGF (Desrosières, 1985 [60] und 1988 [63]).
Die Beziehungen zwischen Statistikern, Universitätslehrern und verant-
wortlichen Politikern verstärkten sich während des Ersten Weltkriegs, vor
allem innerhalb des Kabinetts des Rüstungsministers Albert Thomas (Kui-
sel, 1984, [161]). Intellektuelle spielten bei der Verwaltung der militärischen
Anstrengungen eine wichtige Rolle. Der Mathematiker Paul Painlevé (1863–
1933) war Kriegsminister und später für einige Monate Premierminister. Sein
Kollege, der Wahrscheinlichkeitstheoretiker Émile Borel (1871–1956) war Ge-
9
Die thèse d’État“ in lettres“ besteht aus zwei Teilen: einer thèse principale und
” ”
einer thèse complémentaire. Wie schon der Name sagt (Haupt- und Zusatz-These),
gelten in beiden Fällen jeweils andere Anforderungen: Während die thèse prin-
”
cipale“ eine ausführlich dokumentierte und detaillierte Behandlung eines Themas
erfordert, darf die thèse complémentaire“ allgemeiner und offener gehalten sein
”
(beispielsweise kann sie aus der Erarbeitung eines kritischen Apparates im Rah-
men einer wissenschaftlichen Herausgeberschaft bestehen).
Entwurf und Scheitern eines Einflußnetzwerks 177
kam, fand er dort eine kleine Gruppe von kompetenten und effizienten Wis-
senschaftlern und Technikern vor, die jedoch introvertiert waren und sich
”
nicht darum kümmerten, sich selbst zu verkaufen“. Das heißt sie kümmer-
ten sich nicht darum, ihre Arbeiten so zu übersetzen, daß andere den Inhalt
verwenden konnten. Sauvy machte sich damals mit Erfolg daran, ein neues
öffentliches Image der Statistiker und der Demographen aufzubauen und zu
popularisieren, wobei er tabula rasa mit allen vorherigen Dingen machte. Er
erwähnte weder March noch das Arbeitsamt (Office du travail ). Es lief alles
so ab, als ob der Erste Weltkrieg eine Bewegung unterbrochen hätte. Mit den
Reformern vom Beginn des Jahrhunderts hatten die Reformer der 1930er Jah-
re kaum noch etwas gemeinsam; die letzteren erfanden die Sprache, die sich
in den 1950er Jahren und 1960er Jahren durchsetzte.
Es geht uns hier nicht darum, vergessene Vorgänger wieder auferstehen
zu lassen – vielmehr wollen wir die Ursachen dafür suchen, warum das Kon-
strukt der 1890er Jahre keinen Bestand hatte, während das, was sich zwischen
1930 und 1950 abzeichnete, fast ein halbes Jahrhundert gehalten hat. Selbst-
verständlich gibt es makrosoziale historische Erklärungen, zum Beispiel die
von Kuisel (1984, [161]) vorgelegte Analyse der Entwicklung der Beziehun-
gen zwischen Kapitalismus und Staat in Frankreich“ in der Zeit von 1900
”
bis 1960. Laut Kuisel überwog vor 1914 eine ultraliberale Staatskonzeption,
die sich jede makroökonomische Intervention verbat. Diese Konzeption wurde
an der Universität gelehrt und von den angesehensten Ökonomen der Zeit
gerühmt. Unter den außergewöhnlichen Umständen des Ersten Weltkriegs ex-
perimentierte man unter Clémentel (Handelsminister) und Albert Thomas
(Rüstung) mit einer ersten Form der organisierten Wirtschaft, aber diese
Wirtschaftsform wurde 1919 rasch zerschlagen. Die Krise der 1930er Jahre
und die Situation der äußersten Not der 1940er Jahre – vor und auch nach
der Befreiung – ermöglichten das Entstehen von in größerem Maß interven-
tionistisch ausgerichteten Strömungen (die man damals als dirigistisch“ be-
”
zeichnete). Unter der Vichy-Regierung äußerten sich diese Strömungen mit
Bichelonne in administrativer und autoritärer Form und später, nach 1945,
in der demokratischeren und stimulierenderen Art und Weise der konzertier-
ten und statistisch aufgeklärten Planifikation von Jean Monnet, Pierre Massé
und Claude Gruson. In der von Kuisel ausführlich beschriebenen Geschich-
te wird die Arbeit der Statistiker fast gar nicht erwähnt. Dennoch geht klar
daraus hervor, welche Unterschiede zwischen der von March geleiteten SGF
und dem INSEE der Nachkriegszeit bestanden – vor allem in Bezug auf die
Rolle, welche die Ökonomen spielten (oder nicht spielten). Vor 1939 kam es
selten vor, daß jemand seine Argumente auf statistische Daten stützte. Der
Grund hierfür war nicht nur – wie Sauvy argumentiert – in Ignoranz oder
Inkompetenz zu suchen, sondern leitete sich vor allem aus der Tatsache ab,
daß es weder ein politisches noch ein intellektuelles Gesamtkonstrukt gab. Ein
derartiges Konstrukt wurde – insbesondere von Keynes – erst in den 1930er
Jahren in Großbritannien und in den Vereinigten Staaten und in den 1950er
Jahren in Frankreich geschaffen.
180 5 Statistik und Staat: Frankreich und Großbritannien
Man kann aber auch nach Erklärungen suchen, die auf einer eher mikroso-
zialen Ebene liegen und zum Beispiel mit der komplexen Persönlichkeit Marchs
zusammenhängen. Als Ingenieur des 19. Jahrhunderts war March ein phanta-
sievoller Techniker. Er führte die von Hollerith in den Vereinigten Staaten er-
fundenen Verfahren der maschinellen Datenverarbeitung in Frankreich ein und
gestaltete sie um. Aber er teilte auch die Sorgen vieler seiner Zeitgenossen in
Bezug auf die Bevölkerung, den Rückgang der Geburtenzahlen und die Qua-
”
lität der Rasse“. In Frankreich gab es damals keine so umfassende und radikale
Eugenikbewegung wie in Großbritannien: es wäre schwer gewesen, gleichzei-
tig eine Steigerung der Geburtenzahlen und eine Senkung der Fertilität der
armen, fruchtbarsten Schichten zu predigen, wie es die Engländer taten. Als
Statistiker kannte und bewunderte March jedoch die Arbeiten von Galton und
Pearson und er übernahm beide Aspekte – den statistischen Aspekt ebenso wie
den eugenischen. Bereits 1905 legte er der Société de statistique de Paris For-
schungsarbeiten zur Korrelation von numerischen Kurven vor. Später orien-
tierte er zwei junge Statistiker der SGF, Henry Bunle (1884–1986) und Marcel
Lenoir (1881–1926), auf die Anwendung dieser Ergebnisse bei der Analyse von
Zusammenhängen zwischen statistischen Wirtschaftsreihen. Bunle (1911) un-
tersuchte Korrelationen zwischen Heiratsraten, Preisniveau, Arbeitslosigkeit
und Außenhandel. Lenoir (1913) verteidigte seine Dissertation über Angebots-
und Nachfragekurven, wobei er u.a. das Ziel verfolgte, Preisbildungen und
Preisbewegungen zu erklären. Lenoirs Dissertation war eine der allerersten
ökonometrischen Arbeiten im engeren Sinne. Aber diese Arbeit stieß auf kei-
nerlei Resonanz und war den Amerikanern (Moore, Working, Schultz) nicht
bekannt, die gleichzeitig oder wenig später die Ökonometrie erfanden (Mor-
gan, 1990, [204]; Armatte, 1991, [5]).
Die Arbeiten Marchs (und seiner Schüler) wurden der Société de statistique
de Paris vorgelegt, dort diskutiert und im Journal der Gesellschaft veröffent-
licht. Jedoch wurden Marchs Forschungsarbeiten und seine Stellungnahmen
zu den Geburtenzahlen und zur Eugenik – die offensichtlich von Pearson inspi-
riert worden waren – an anderer Stelle veröffentlicht, nämlich in Zeitschriften
und Büchern, die von sehr unterschiedlichen Kreisen herausgegeben wurden:
Revue d’hygiène et de médecine infantiles, Revue philanthropique, Eugénique
et sélection (ein kollektives Werk, das von einer französischen Gesellschaft
für Eugenik veröffentlicht wurde, an deren Gründung March 1912 beteiligt
war, als er von einem in London gehaltenen Weltkongreß für Eugenik zurück-
kehrte). Die Kombination von mathematischer Statistik und Eugenik, die da-
mals in England bereits vollzogen war, ließ sich nicht direkt übernehmen:
March war der einzige französische Statistiker, der sich mit beiden Gebieten
beschäftigte. Dieses doppelte Interesse war rein persönlicher Natur und konn-
te daher nicht dazu beitragen, die Verwaltungsstatistik in ein umfassenderes
politisches und wissenschaftliches Netzwerk einzugliedern, da die Strömung
der selektionistischen Eugenik in Frankreich nicht die gleiche Bedeutung hat-
Entwurf und Scheitern eines Einflußnetzwerks 181
te, wie jenseits des Kanals.10 Folglich verhielt es sich nicht nur so, daß die
politischen und wirtschaftlichen Umstände für die Gründung einer bedeuten-
den statistischen Einrichtung ungünstig waren, in der man Forschungsarbei-
ten zu verschiedenen demographischen, sozialen und ökonomischen Bereichen
zentralisieren und zusammenfassen konnte. Auch die persönlichen Bindungen
und Interessen von March begünstigten eine solche Entwicklung keinesfalls.
Dennoch hätte die ursprüngliche Organisation der Volkszählungen von 1896
bis 1938 – welche in einfallsreicher Weise die Demographie mit der Beschrei-
bung von Betriebsstrukturen kombinierte – die Keimzelle für eine solche In-
stitution liefern können. Das wäre in Großbritannien nicht möglich gewesen,
denn dort waren Bevölkerungsstatistik und Wirtschaftsstatistik voneinander
getrennt (und sind es immer noch).
Letzten Endes war die Situation in Frankreich am Vorabend des Zweiten
Weltkriegs dadurch gekennzeichnet, daß es kaum Begegnungs- und Diskus-
sionsorte gab, an denen sich Fachleute der Sozialwissenschaften – seien es
Statistiker, Demographen, Ökonomen oder Soziologen – mit Führungskräften
aus Politik und Verwaltung, mit Unternehmern und mit Gewerkschaftern tref-
fen konnten. Im Rahmen des Staates gab es derartige Diskussionsforen noch
nicht, aber die Umrisse zeichneten sich in den Vorstellungen einiger Intellek-
tueller und Ingenieure ab. Verfolgt man die hier erzählte Geschichte zurück,
dann trifft man immer wieder auf Bewegungen aufgeklärter Persönlichkeiten,
die außerhalb des Staates den Versuch unternahmen, die französische Gesell-
schaft mit Hilfe von Enqueten zu untersuchen und zu analysieren. Später
hat der Staat, der oftmals von diesen Reformern umgestaltet wurde, diese
Begegnungs- und Diskussionsorte auf die eine oder andere Weise in die neuen
Institutionen eingegliedert. Die Demoskopen und die Zeitreisenden unter den
Philosophen des 18. Jahrhunderts verfaßten, nachdem sie Präfekten geworden
waren, die Statistiken“ ihrer Departements. Bis in die 1830er Jahre wurden
”
lokale Monographien von Provinzbürgern, Ärzten, Verwaltungsbeamten und
Geschäftsleuten verfaßt. Einige von ihnen beteiligten sich am Wettbewerb um
den Montyon-Preis11 für Statistik, der von der Akademie der Wissenschaf-
ten verliehen wurde (Brian, 1991, [36]). Wir begegnen diesen Autoren – den
Anhängern der Moralstatistik“ – erneut in der 1829 gegründeten Zeitschrift
”
Annales d’hygiène publique (Lécuyer, 1977, [172]), die bis in die 1850er Jahre
hinein aktiv war und die amtliche Statistik kritisierte. Nach 1860 kam es zu
einer Annäherung der beiden Kategorien von Statistikern, das heißt der Ver-
10
Jedoch förderte die von Carrel von Alexis im Jahre 1942 gegründete Stiftung
zum Studium der Probleme der menschlichen Spezies diese eugenistische Kon-
zeption; die Stiftung wurde später in das nach der Befreiung gegründete INED
eingegliedert (Drouard, 1983, [71]; Thévenot, 1990, [274]).
11
Der Montyon-Preis durfte nur für rein deskriptive Arbeiten zur Statistik verliehen
werden; bewertet wurden (wie bereits in der napoleonischen Bürokratie) nur die
strikten Aufzeichnungen kontingenter Fakten. Aus der Statistik des Montyon-
Preises geht hervor, daß mathematische Arbeiten ausdrücklich zurückgewiesen
wurden, weil man sie als zu eng begrenzt ansah (vgl. Armatte, 2001, [344]).
182 5 Statistik und Staat: Frankreich und Großbritannien
der Ökonometrie à la Lenoir und Moore in den Jahren von 1910 bis 1930,
die ohne Modelle auskam, und um die neue inferentielle Statistik, die aus
der englischen Biometrie hervorgegangen war. Diese Konvergenz wurde von
Haavelmo (1944, [116]) formalisiert und führte zum Programm der amerikani-
schen Cowles Commission 16 , das die strukturelle Abschätzung von Modellen
mit simultanen Gleichungen zum Gegenstand hatte (Morgan, 1990, [204]).
Diese neue Synthese von Statistik und Wirtschaftstheorie fand in Frank-
reich unmittelbar in der Nachkriegszeit Verbreitung, wobei eher Ingenieure als
Universitätslehrer beteiligt waren: die Bergbauingenieure Maurice Allais und
René Roy, sowie Edmond Malinvaud am INSEE und an der ENSAE (Bun-
gener und Joël, 1989, [40]). Und so bahnte sich nunmehr mit Nachdruck ei-
ne starke Allianz zwischen theoretischer Wirtschaftslehre, angewandter Wirt-
schaftslehre und dem statistischen Apparat an. Diese Allianz trug dazu bei,
die Statistik mit einer Legitimität und Autorität auszustatten, die sich über-
haupt nicht mit der Situation von vor zwanzig Jahren vergleichen ließ. Die
wesentliche Transformation der Rolle und der Art und Weise des Eingreifens
von Ökonomen, die eher an Ingenieursschulen als an Universitäten lehrten
oder in öffentlichen Verwaltungen oder Unternehmen arbeiteten, war bereits
vor dem Krieg von einem Kreis von ehemaligen Schülern der École polytech-
nique angekündigt und vorbereitet worden.
Das Centre polytechnicien d’études économiques (auch X-Crise genannt)
wurde unter den Bedingungen der Wirtschaftskrise und der politischen und
intellektuellen Krise der 1930er Jahre (Boltanski, 1982) von einer Gruppe ge-
gründet, der Jean Ullmo (1906–1980), Alfred Sauvy (1898–1990) und Jean
Coutrot angehörten. Die von der Gruppe organisierten Vorträge sind ein gu-
tes Beispiel für die Errichtung eines Netzwerks, das in den Wirren der Krise
die Erarbeitung einer gemeinsamen Sprache und eines neuen Bezugssystems
anstrebte. Statistik und Ökonomie – die im Begriff waren, sich im Rahmen
der Ökonometrie zu vereinigen – sollten fortan Objekte dieser gemeinsamen
Sprache bleiben. Außer den obengenannten Gründern, die oft Vorträge hiel-
ten, referierten die Ökonomen Charles Rist und Jacques Rueff, die Soziologen
Bouglé, Halbwachs und Simiand (der damals in diesem Umfeld ein großes Pre-
stige hatte), der Historiker Marc Bloch, der Mathematiker und Wahrschein-
lichkeitstheoretiker Darmois sowie Paul Reynaud und Paul Valéry (X-Crise,
1982, [289]). Aber im Unterschied zu ihren Saint-Simonistischen oder ihren le-
playsianischen Vorläufern des 19. Jahrhunderts ergriffen diese Absolventen der
verwendet oder in die Fußnoten verbannt, damit jeder Interessierte die Bücher
lesen kann.
16
Die 1932 von dem amerikanischen Geschäftsmann und Ökonomen Alfred Cowles
in den USA gegründete Cowles Commission for Research in Economics arbeitete
eng mit der Ökonometrischen Gesellschaft zusammen. Ab Mitte der 1940er Jahre
war die Cowles Commission zum wichtigsten Zentrum für quantitative Ökono-
mie geworden. Die mit der Kommission assoziierten Ökonomen entwickelten bis
Anfang der 1950er Jahre den ökonometrischen Ansatz, der die Ökonometrie mehr
als zwei Jahrzehnte lang dominierte.
Statistik und Wirtschaftstheorie – eine späte Verbindung 185
École polytechnique nicht mehr den Beruf eines Soziologen, sondern wurden
vielmehr Ökonomen.
Eine Reihe von Konferenzen war der Ökonometrie“ gewidmet (in ihrem
”
ursprünglichen Sinne der Quantifizierung von Wirtschaftsmodellen). François
Divisia (1889–1964), einer der ersten französischen Universitätsökonomen, die
sich für den systematischen Gebrauch der Statistik in den Wirtschaftswis-
senschaften einsetzten, sprach 1933 über die Arbeiten und Methoden der
”
Gesellschaft für Ökonometrie“, die drei Jahre zuvor gegründet worden war.
Er zitierte Irving Fisher, aber auch March und dessen Arbeiten über den
Preisindex, bezeichnete Lenoir als den Ersten, der die Methode der multi-
”
plen Korrelationen bei den Preisuntersuchungen einführte“, nannte Gibrat
und dessen Ungleichheitsindex“ der Einkommensverteilungen und zitierte
”
den englischen Statistiker Arthur Bowley wegen dessen Untersuchung zur
”
Preisstreuung als Symptom von Wirtschaftskrisen“. Jan Tinbergen17 (1903–
1994) beschrieb 1938 seine ökonomischen Forschungen über die Bedeutung
”
der Börse in den Vereinigten Staaten“. Jacques Rueff hielt 1934 ein Referat
mit dem Titel Warum ich trotz allem liberal bleibe“, während Jean Ullmo
”
1937 die theoretischen Probleme einer gelenkten Wirtschaft“ untersuchte.
”
Die beiden letztgenannten Titel zeigen, wie die theoretischen Überlegun-
gen, die durch die Krise der 1930er Jahre ausgelöst worden waren, mit einer
Kritik des liberalen Denkens und einem Interesse für gelenkte Wirtschaften“,
”
das heißt für Planwirtschaften, zusammenhingen. Diese Betrachtungen stan-
den ganz im Gegensatz zu den Überlegungen, die später durch die Krise der
1980er Jahre ausgelöst wurden; sie beruhten auf der Kritik der Planwirtschaf-
ten und makroökonomischen Regulierungen, wobei diese Kritik ihrerseits aus
exakt denjenigen Theorien hervorging, die in den 1930er Jahren in Zirkeln
wie X-Crise formuliert worden waren. Die diskutierten Vorstellungen kamen
anschließend erneut zur Sprache, zum Beispiel in Einrichtungen wie dem Plan-
kommissariat, in dem von Claude Gruson 1950 gegründeten Service des études
économiques et financières (SEEF), im INSEE (das Gruson von 1961 bis 1967
leitete), oder in dem von Sauvy 1946 gegründeten INED. Einmal mehr führ-
ten also Themen, die außerhalb des staatlichen Rahmens entwickelt worden
waren, zu einer Umgestaltung des Staates und zu einer Institutionalisierung
des öffentlichen Debattenraumes. Die technische Kompetenz tendierte dazu,
sich in den Staat einzugliedern. Das unterscheidet Frankreich deutlich von
Großbritannien und von den Vereinigten Staaten. In diesen Ländern besaßen
die Universitäten eine große Vitalität und knüpften mit der Verwaltung en-
ge, aber keine ständigen Wechselbeziehungen und diese Tatsache verlieh der
Verbindung von Wissenschaft und Staat ein ganz anderes Gefüge.
17
Tinbergen erhielt 1969 zusammen mit Ragnar Frisch den ersten Nobelpreis für
Wirtschaftswissenschaften.
186 5 Statistik und Staat: Frankreich und Großbritannien
Das Großbritannien des 19. Jahrhunderts war nicht nur das Land, in dem
die Biometrie und die mathematische Statistik entstanden sind. Es war auch
das Land, in dem unter den Bedingungen des industriellen und städtischen
Wachstums und seiner dramatischen Folgen die verschiedensten Formen der
Beziehungen zwischen Verwaltungsstatistik und nichtadministrativer Stati-
stik, Gesellschaftsanalyse und Gesetzgebung ausprobiert worden sind, um die
mit diesem Wachstum zusammenhängenden Probleme zu behandeln: Armut,
öffentliche Gesundheit (public health) und Arbeitslosigkeit. Die britische Ver-
waltung neigte nicht dazu, den überwiegenden Teil des statistischen Wissens
und der einschlägigen Expertise in Ämter zu integrieren, die von ihr abhängig
waren. Gewiß gab es diese Ämter, aber sie waren breiter gestreut als in Frank-
reich. Zudem waren sie umstritten und ihre Organisation wurde oft infrage
gestellt. Darüber hinaus pflegten Gruppen von Sozialreformern, Gelehrtenge-
sellschaften und Universitätslehrern die gute Tradition der Erhebungen und
der Debatten zur Konstruktion eines praktischen Wissens, das sich unmit-
telbar umsetzen ließ. Die beiden Umfelder – das heißt der Verwaltungsbe-
reich und der Bereich der Sozialforscher und Wissenschaftler – waren von-
einander verschieden, standen aber in kontinuierlicher Wechselwirkung: die
Sozialforscher und die Wissenschaftler waren zum Beispiel im Rahmen der
parlamentarischen Untersuchungskommission ständig an den Entscheidungen
des Verwaltungsbereiches beteiligt. Das unterschied England von Frankreich,
wo dieser Personenkreis (zum Beispiel die Leplaysianer) weniger aktiv oder
weniger an die Verwaltung gebunden war. Und das war auch ein Unterschied
zu Deutschland, in dem das Gelehrtenmilieu zwar vorhanden war, aber auch
mehr Mühe hatte, sich Gehör zu verschaffen. Arthur Bowley (1869–1957) war
eine Persönlichkeit, die diese typisch englische Verbindung zwischen Univer-
sität und Verwaltung besonders gut symbolisierte. Er war Professor an der
London School of Economics (LSE) und formulierte zu Beginn des 20. Jahr-
hunderts in deutlicher Weise die wissenschaftlichen und beruflichen Normen
eines Metiers, das es in dieser Form überhaupt noch nicht gab: es handelte sich
um den Beruf des Verwaltungsstatistikers, der sich auf die Errungenschaften
der mathematischen Statistik stützte.
Die Geschichte der britischen amtlichen Statistik war durch die Aufein-
anderfolge von gesetzgebenden Akten großer Tragweite und durch institutio-
nelle Ad-hoc-Gründungen gekennzeichnet, die zu einem zersplitterten System
führten, das erst im Jahre 1941 durch das Central Statistical Office (CSO)
teilweise koordiniert wurde. Zwischen 1832 und 1837 stellte eine Reihe von
politischen und wirtschaftlichen Reformen den liberalen Bezugsrahmen auf,
der mindestens bis zum Jahre 1914 den Hintergrund für alle Debatten bil-
dete. Dieser Rahmen beinhaltete vor allem das Prinzip des Freihandels, die
Bedeutung der örtlichen Gewalten (Stadtgemeinden und Grafschaften), die
Armenfürsorge in Arbeitshäusern (workhouses) anstelle einer direkten Beihil-
fe (Fürsorgegesetzgebung von 1834, welche die Speenhamland Act of Parlia-
Britische Statistik und öffentliche Gesundheit 187
ment von 1796 ersetzte; letztere sah Geldbeihilfen für die Kirchengemeinden
vor (vgl. Polanyi, 1983, [234])). Diese drei Aspekte bestimmten die Formen
des im Entstehen begriffenen statistischen Systems. Im Jahre 1832 wurde im
Board of Trade (Handelsministerium) ein statistisches Bureau gegründet, das
sich mit Handelsbeziehungen, Export und Import befaßte. Im Übrigen erfolgte
die Verwaltung des Fürsorgerechtes auf lokaler Ebene und zog die Gründung
von Fürsorgeverbänden in jeder Grafschaft nach sich (1834). Die auf dem
Territorium verstreute neue Struktur ermöglichte 1837 die Akzeptanz des
General Register. Dieses weltliche Personenstandsregister wurde damals ge-
gründet, um Abhilfe gegen die Tatsache zu schaffen, daß die Ausbreitung von
religiösen Konfessionen, die sich von der amtlichen anglikanischen Kirche un-
terschieden, eine zusammenhängende Registrierung der Taufen, Heiraten und
Sterbefälle verhinderte. Der nicht konfessionsgebundene Personenstand hing
also von Anfang an mit der Verwaltung des Fürsorgegesetzes und den dafür
zuständigen örtlichen Behörden zusammen. Die britische öffentliche Statistik
war somit gleich auf Anhieb in zwei unterschiedliche Teile geteilt: für den Teil
der Wirtschaftsstatistik war das Board of Trade zuständig, für die Sozialsta-
tistik hingegen das General Register Office (GRO). Zum großen Teil besteht
diese Situation immer noch: das Office of Population, Censuses and Surveys
(OPCS), das 1970 die Nachfolge des GRO angetreten hatte, ist weiterhin eine
autonome Institution geblieben und das Central Statistical Office (CSO), das
im Prinzip das ganze System koordiniert, ist mehr auf Wirtschaftsstatistik
ausgerichtet. In Frankreich dagegen hatte die SGF schon ab 1833 wenigstens
die Aufgabe, die Statistik zu zentralisieren (selbst wenn sie dieser Aufgabe
nicht vollständig nachgekommen ist). Und die SGF war ein ausschließlich in
Paris ansässiges Bureau ohne örtliche Verbindungen: die zwischen 1837 und
1852 geplanten statistischen Kantonskommissionen waren gescheitert.
Die Situation in Großbritannien war eine ganz andere. Das GRO, das von
1837 bis 1880 durch den Arzt William Farr (1807–1883) in Schwung gehalten
wurde, hing eng mit der Public Health Movement zusammen und kann mit
den französischen Hygienikern verglichen werden. Die Behörde war in die Ver-
waltung des Fürsorgegesetzes einbezogen – und zwar nicht nur deswegen, weil
sie in die örtlichen Fürsorgeverbände (poor law unions) eingegliedert war, son-
dern auch aufgrund der Tatsache, daß ihr diese Verwaltung ein Mittel in die
Hand gab, eine Legitimität von unten zu konstruieren, die ihr nicht sofort vom
Zentralstaat übertragen werden konnte (Szreter, 1991, [271]). Die englische
öffentliche Meinung stand damals den Interventionen einer nationalen Exe-
kutive feindselig gegenüber, die ohne weiteres bonapartistischer Tendenzen
verdächtigt wurde. Die Bewegung zur öffentlichen Gesundheit konnte sich nur
auf unabhängige örtliche Initiativen stützen. Das GRO hatte seinerseits kei-
nen direkten Zugang zu den Entscheidungsprozessen. Die Behörde hatte nur
wenig Macht; sie konnte lediglich Überzeugungsarbeit leisten und Ratschläge
geben. Das GRO schmiedete eine Politik der Allianzen mit lokal ansässigen
Ärzten und Behörden, um die Bevölkerungsstatistik zu fördern, das heißt die
vom klassischen Personenstand (Geburten, Heiraten, Sterbefälle) und von der
188 5 Statistik und Staat: Frankreich und Großbritannien
Morbidität gebildete Gesamtheit, wobei die Morbidität die Statistik der spe-
zifischen Todesursachen bezeichnete. Diese Daten wurden entsprechend einer
geographischen Feineinteilung zusammengestellt, die das Ziel verfolgte, schnell
auf die Brutstätten von Epidemien und Zentren des Elends hinzuweisen. Das
GRO spielt somit eine wesentliche Rolle bei der Diagnose und der Behand-
lung eines Problems, das die englische Gesellschaft während des gesamten
Jahrhunderts bedrängt hatte – das Problem der mit der Industrialisierung
und der anarchischen Verstädterung zusammenhängenden Not. Beispielswei-
se veröffentlichte und verglich das GRO die Kindersterblichkeit in den großen
Industriestädten. In Liverpool starb die Hälfte der Kinder, bevor sie das Alter
von sechs Jahren erreicht hatten. Zuvor hatte man aus dem schnellen Bevölke-
rungwachstum, das die Stadt zwischen 1801 und 1831 zu verzeichnen hatte,
die Schlußfolgerung abgeleitet, daß dort das Klima vermutlich besonders ge-
sund war.
Das GRO schuf auf diese Weise mit seinen vereinheitlichten Daten einen
Komparabilitäts- und Konkurrenzraum zwischen den Städten. Die Behörde
erweckte das Interesse für einen nationalen Wettbewerb in Bezug auf die
Senkung der Sterblichkeitsraten. Die Gesundheitsdienste eines jeden Ortes
verfügten über diese Informationen und hätten sie deswegen auch selbst auf-
bereiten können. Das GRO erzeugte jedoch durch die gleichzeitige Sammlung
und Veröffentlichung dieser Informationen ein neues Bedürfnis und schuf da-
durch einen Markt für seine Produkte. Die Sterblichkeitsrate im Allgemeinen
und insbesondere die Kindersterblichkeit wurden zu relevanten Indikatoren für
die Gemeindepolitik. Es konnte kein direktes allgemeines Interesse für diese
Statistiken erweckt werden, da es keine nationale Politik für den Umgang mit
der Armut gab. Das öffentliche Interesse wurde jedoch dadurch erweckt, daß
man mit Hilfe der Sterblichkeitsraten die Konkurrenz zwischen den Städten
förderte. Auf diese Weise wurden die Sterblichkeitsraten zu einer Angelegen-
heit von nationaler Bedeutung; sie wurden 1848 sogar im neuen Gesetz zur
öffentlichen Gesundheit (public health law ) verankert. Dieses Gesetz legte fest,
daß Orte mit einer Sterblichkeitsrate von mehr als 23 von Tausend (vom GRO
berechneter nationaler Durchschnitt) sogenannte Gesundheitstafeln“ (health
”
tables) aufstellen mußten, um die Durchführung von Gesundheitsreformen zu
unterstützen. In den 1850er Jahren ging William Farr noch weiter, indem
er die mittlere Sterblichkeitsrate der 63 gesündesten Distrikte ermittelte (ein
Zehntel aller Distrikte): er kam auf 17 von Tausend und wies diese Sterblich-
keitsrate allen anderen Distrikten als Ziel zu. Er ersetzte somit den nationalen
Durchschnitt durch ein ehrgeizigeres Optimum und bereitete damit auf sei-
ne Weise die später von Galton durchgeführte Verschiebung vor: das durch
den Durchschnitt ausgedrückte Ideal (Quetelet) wird durch den Begriff des
Optimums ersetzt, den das äußerste Ende der Verteilung repräsentiert. Unter
Bezugnahme auf die Mortalität, die für die im gesamten Territorium verstreu-
ten Distrikte festgehalten wurde, war er dann dazu in der Lage, die Tausende
von Todesfällen zu berechnen, die man in den anderen Distrikten hätte ver-
Britische Statistik und öffentliche Gesundheit 189
meiden können, wenn die – keineswegs nur theoretische, sondern sehr wohl
reale – Rate von 17 von Tausend überall existiert hätte.
Das GRO machte sich diese Verhaltensrichtlinie zu eigen und positionier-
te sich dadurch im Zentrum einer allgemeineren Bewegung, deren Ziel die
Prävention war. Darüber hinaus stellte die Behörde eine spezifische Spra-
che und Werkzeuge bereit, welche sich von denen der Ärzte unterschieden,
die ihrerseits einzeln mit isolierten“ Patienten zu tun hatten. Der englischen
”
Behörde gelang, was ihre französischen Amtskollegen nicht erreicht hatten:
zunächst in den örtlichen Verwaltungen und dann nach 1900 auf nationaler
Ebene diejenigen Instrumente des statistischen und wahrscheinlichkeitstheore-
tischen Risikomanagements einzuführen, mit denen die Versicherungsmathe-
matiker bereits vertraut waren. Somit übersetzte das GRO diejenigen Ideen in
eine öffentliche Handlungsweise, die implizit bereits in den von Quetelet popu-
larisierten Durchschnittsbegriffen enthalten waren (im Übrigen war Farr ein
Bewunderer von Quetelet). Darüber hinaus lenkte das GRO die Aufmerksam-
keit und die Debatte auf das wirtschaftliche und soziale Umfeld als erklären-
den Faktor der Mortalität, die ihrerseits als Folge des Elends wahrgenommen
wurde. Wie zur gleichen Zeit in Frankreich stand auch in Großbritannien der
Durchschnitt als Analysewerkzeug in einem engen Zusammenhang zur Verbes-
serung der sanitären Bedingungen und der Gesundheitspflege im städtischen
Umfeld.18 Zum Zweck des Handelns führte Farr eine Neuklassifikation der
Todesursachen aus einem verallgemeinerten Blickwinkel durch:
Die Überlegenheit einer Klassifikation läßt sich nur durch die Anzahl
der verallgemeinerungsfähigen Fakten oder durch die praktischen Er-
gebnisse feststellen, zu denen diese Klassifikation führt ... Die Klas-
sifikation der Krankheiten muß durch die Art und Weise begründet
werden, in der sich diese Krankheiten auf die Bevölkerung auswirken
... Die erste Klasse umfaßt die endemischen oder epidemischen Krank-
heiten, denn diese sind es, die am meisten variieren und fast immer
verhütet oder abgemildert werden können. (Farr, 1839, zitiert nach
Szreter, 1991, [271].)
Diese Art der Klassifizierung, die mit einer präventiven oder abmildern-
”
den“ Handlung verbunden ist, kann von einer wissenschaftlichen oder klini-
schen Ätiologie abweichen, welche sich auf die Untersuchung von Einzelfällen
stützt, die der Arzt mit der Absicht durchführt, seine Patienten zu heilen. Das
GRO konzentrierte seine Arbeit auf die Verbesserung der öffentlichen Gesund-
heit und schuf sich dadurch die Position einer wissenschaftlichen Autorität im
Zentrum eines informellen nationalen Netzwerks, das für den Informationsfluß
18
Die Verwendung von Mittelwerten war auch kohärent mit der Position, die von
den Ärzten des GRO in der im Kapitel 3 beschriebenen Debatte vertreten wurde,
bei der die Kontagionisten“ den Verfechtern der Miasmentheorie“ gegenüber
” ”
standen: William Farr neigte zur Miasmentheorie und war antikontagionistisch
eingestellt.
190 5 Statistik und Staat: Frankreich und Großbritannien
Die Anhänger der Eugenik, die gegen das GRO auftraten, sprachen jedoch
von Degeneration und von sozialem Verfall als Folge von erbbedingten Merk-
malen und Fähigkeiten, die sich auf einer eindimensionalen Ordinalskala dar-
stellen ließen. Diese Überzeugung führte Galton dazu, adäquate Instrumente
zur Messung der Vererbung zu schmieden (Kapitel 4): die Statistiker vom
GRO und die Begründer der Biometrie befanden sich somit in entgegenge-
setzten Lagern. Die Biometriker verwendeten die beruflichen Tätigkeiten der
Individuen als Indikatoren der entsprechenden Eignungen und das wiederum
führte dazu, diese auf einer eindimensionalen Skala anzuordnen (Szreter, 1984,
[270]). Und so spiegelte sich für einige Zeit die Debatte zwischen den beiden
Strömungen in der Gegensätzlichkeit zweier als relevant vorausgesetzter Un-
terteilungen wider – für die eine Strömung war die geographische Unterteilung
relevant, für die andere dagegen die berufliche Unterteilung.
Aber die Situation änderte sich gegen 1910. Zwischen 1906 und 1911 er-
setzte eine Reihe von neuen Sozialgesetzen das ehemalige Fürsorgegesetz von
1834. Ein Rentensystem (1908), Arbeitsvermittlungsbüros (1909) und Sozial-
versicherungen (1911) kamen hinzu. Im Unterschied zu den hauptsächlich lokal
angesiedelten Fürsorgemaßnahmen des 19. Jahrhunderts wurde der entstehen-
de Wohlfahrtsstaat auf der Grundlage von nationalen Gesetzen aufgebaut, die
ihrer Form nach auf dem gesamten Territorium homogen waren. Das führte zu
einer Änderung der Termini in der Debatte zwischen den Statistikern des GRO
und den Eugenikern. Anläßlich der Volkszählung von 1911 gaben die GRO-
Statistiker ihre Zustimmung, die Hypothesen der Eugeniker unter Verwendung
einer nationalen Berufsklassifikation zu testen, die aus fünf hierarchisch an-
geordneten Kategorien bestand. Diese Klassifikation bildete die ursprüngliche
Matrix der Nomenklaturen der sozialen Schichten – Nomenklaturen, die dann
im gesamten 20. Jahrhundert von den englischen und amerikanischen Demo-
graphen und Soziologen verwendet wurde. Die behauptete eindimensionale
Struktur dieser Kategorien – die stark von der Struktur der französischen
berufssoziologischen Nomenklatur abwich – hatte ihren fernen Ursprung in
dieser alten Debatte, die sich fast über ein ganzes Jahrhundert hingezogen
hat.
Die Bewegung zur öffentlichen Gesundheit und ihre Verbindung zum GRO
ist ein beispielhafter Fall für eine Verkettung, die sich auch in anderen Fällen
beobachten läßt: Debatten und statistische Erhebungen in Reformkreisen aus-
serhalb des Staates wurden von parlamentarischen Ad-hoc-Kommissionen auf-
gegriffen und führten zu einer neuen Gesetzgebung, die ihrerseits der Ursprung
eines spezialisierten statistischen Bureaus war. Die Frage nach der Bildung der
Volksschichten wurde im Zusammenhang mit der Kriminalität und der Trunk-
sucht aufgeworfen. Man führte zu diesen Themen statistische Untersuchungen
durch, deren Ergebnisse umstritten waren: manche Fachleute leiteten daraus
die Schlußfolgerung ab, daß die Kriminalität in gebildeten Kreisen nicht nied-
riger ist. Im Jahre 1870 wurde ein Gesetz zum Schulwesen verabschiedet;
1876 erfolgte die Gründung eines statistischen Bureaus für Schulwesen. Die
Aufmerksamkeit richtete sich anschließend auf die Wirtschaftsstatistiken von
192 5 Statistik und Staat: Frankreich und Großbritannien
an. Nichts oder fast nichts dergleichen gab es in Frankreich, wo die amtlichen
Statistiker aus Ingenieurskreisen hervorgingen und die Universitätslehrer bei
Debatten zur Statistik höchstens in seltenen Ausnahmefällen (Divisia, Per-
roux) in Erscheinung traten.
Wohlstand“, aber die Statistik unterschied sich von der politischen Ökonomie
durch folgende Tatsache:
... sie diskutiert weder die Ursachen, noch argumentiert sie bezüglich
der wahrscheinlichen Wirkungen, sondern versucht vielmehr, diejeni-
gen Faktenklassen zu sammeln, zu kombinieren und zu vergleichen,
welche allein die Basis für korrekte Schlußfolgerungen vom Stand-
punkt der gesellschaftlichen und politischen Exekutive liefern ... Dieser
Unterschied schließt jede Art von Spekulation aus ... Die statistische
Gesellschaft betrachtet es als ihre erste und wichtigste Verhaltensregel,
aus ihren Arbeiten und Publikationen sorgfältig alle Meinungen auszu-
schließen, um ihre Aufmerksamkeit strikt auf Fakten zu beschränken,
und zwar soweit wie möglich auf Fakten, die sich numerisch zusam-
menstellen lassen und in Tabellen angeordnet werden können. (London
Statistical Society, 1837, zitiert von Abrams, 1968, [1].)
Die Gründer und treibenden Kräfte dieser Gesellschaft standen der Regie-
rung nahe, und zwar so sehr, daß ihr Rat als Unterkommission des liberalen
”
Kabinetts“ bezeichnet werden konnte. Sie waren an den öffentlichen Dienst
gebunden, dienten einer Regierung, berieten diese und versuchten, sie zu be-
einflussen und zu rationalisieren. Indem sie das taten, erfanden und vertieften
sie die Regeln der Arbeitsteilung zwischen Politikern und Technikern. Die
Elimination der Meinungen und der Interpretationen war der Preis, den die-
se Statistiker zahlen mußten, das Opfer, das sie bringen mußten, damit ihre
Objekte die von den Politikern geforderte Glaubwürdigkeit und Universalität
erlangten. Dickens lästerte in einem seiner Romane über das Auftreten des
strengen und unerbittlichen Mr. Gradgrind, der unschuldige Leute zugrunde-
richtete, indem er Fakten, nichts als Fakten“ forderte. Ein Mitglied einer
”
anderen statistischen Gesellschaft – der Gesellschaft von Ulster – versicherte,
daß das Studium der Statistik langfristig die politische Ökonomie vor der
”
Ungewißheit bewahren wird, von der sie gegenwärtig umgeben ist“. Dieser
Zusammenhang zwischen Statistik und objektiver Gewißheit, der im Gegen-
satz zu Spekulationen und persönlichen Meinungen steht, hilft uns in der
Retrospektive beim Verständnis dessen, warum die Wahrscheinlichkeitsrech-
nung – die ursprünglich mit der Idee der Ungewißheit zu tun hatte – erst so
spät in den Werkzeugkasten der Statistiker (im Sinne des 19. Jahrhunderts)
aufgenommen wurde. Das statistische Manifest gab im Jahre 1837 eine klare
Definition der Funktion des Statistikers.
Aber ein so drastisches Opfer trug seine eigenen Schranken in sich, indem
es dem Statistiker eine enggefaßte Rolle zuwies und ihm verbot, seine Ener-
gie und seine Talente unter Umständen in zwei verschiedenen Richtungen zu
entfalten: in Richtung der Politik und in Richtung der Wissenschaft. Der Stati-
stiker konnte sich nur dann auf die Seite von politischen Entscheidungsträgern
stellen, wenn er vorher seine Religion Fakten ohne Meinung“ abgelegt hatte.
”
Aber er konnte auch nicht mehr aktiv an den Sozialwissenschaften, Wirt-
schaftswissenschaften oder an der Soziologie teilnehmen, denn dann müßte er
Sozialenqueten und wissenschaftliche Gesellschaften 195
ein reicher bürgerlicher Reformer opferte sein Vermögen für eine beispiellose
Untersuchung über die Armut in London. Rowntree (1871–1954), ein Schoko-
ladenfabrikant, führte die Methoden von Booth weiter, um andere englische
Städte zu untersuchen und sie mit London zu vergleichen. Bowley, ein Öko-
nom und mathematisch ausgebildeter Statistiker, erfaßte und standardisierte
die Techniken der Stichprobenerhebung und allgemeiner die Techniken des
Sammelns, des Aufbereitens und der Interpretation von Sozialstatistiken auf
der Grundlage von Normen, die später von Fachleuten, Verwaltungsstatisti-
kern, Ökonomen und Soziologen übernommen wurden (Bowley, 1906 [29] und
1908 [30]). Die aufeinanderfolgenden Auflagen des Handbuchs von Bowley lie-
ferten bis in die 1940er Jahre für die Aufzeichnung und Aufbereitung von
Wirtschafts- und Sozialstatistiken einen Standard, der mit dem des Buches
von Yule über die mathematischen Techniken der Datenanalyse vergleichbar
war.21
Diese Arbeiten wurden zunächst von angesehenen Bürgern durchgeführt,
die technisch – und vor allem mathematisch – nicht allzu qualifiziert wa-
ren (Booth und Rowntree); sie drückten sich mit Hilfe der Methoden und in
der Sprache des 19. Jahrhunderts aus, aber dabei fand keine strikte Tren-
nung zwischen Fakten, Interpretationen und Empfehlungen“ statt. Eines der
”
Ziele von Booth bestand darin, zwischen den nichtresozialisierbaren Armen,
die für ihren eigenen Verfall verantwortlich waren und denjenigen zu unter-
scheiden, die Opfer von strukturellen Ursachen geworden waren, welche mit
der Wirtschaftskrise zusammenhingen. Er schätzte den relativen Anteil die-
ser Kategorien und leitete daraus Formen der Relegierung“ (zum Beispiel
”
die Ausweisung aus einer Stadt) oder einer geeigneten Fürsorge ab. Bow-
ley hingegen sah in der Anwendung anspruchsvoller technischer Normen die
Möglichkeit, mit größeren Erfolgschancen als in den 1830er Jahren eine klare
Trennung zwischen Experten und Entscheidungsträgern zu fordern. Auf diese
Weise bereitete er den Boden für die Autonomisierung einer neuen Gestalt
vor – der Gestalt des Staatsstatistikers, der mit einer besonderen beruflichen
Kompetenz ausgestattet ist und sich von Politikern und hohen Verwaltungs-
beamten ebenso unterscheidet wie von Universitätslehrern oder spezialisierten
akademischen Forschern. Noch zu Anfang des 20. Jahrhunderts war diese Ge-
stalt eine Seltenheit, aber ab 1940 war sie in der amtlichen Statistik allgemein
verbreitet.
In einem 1908 vor der Royal Statistical Society gehaltenen Vortrag The
”
improvement of official statistics“ analysierte Bowley sieben Voraussetzungen
dafür, daß eine statistische Operation konsistente Objekte erzeugt: Defini-
tion der Einheiten; Homogenität der untersuchten Populationen; Exhausti-
vität (das heißt adäquate Stichprobenerhebung); relative Stabilität (das heißt
Messungswiederholungen in dem von der Instabilität geforderten Rhythmus);
Vergleichbarkeit (eine isolierte Zahl hat keine Bedeutung); Relativität (Zähler
21
Vergleich und Interpretation der Untersuchungen von Booth, Rowntree und Bow-
ley werden im Kapitel 7 weitergeführt.
Sozialenqueten und wissenschaftliche Gesellschaften 197
und Nenner eines Quotienten müssen auf kohärente Weise geschätzt werden);
Genauigkeit (accuracy), die aus der Kombination der sechs vorhergehenden
Bedingungen resultiert. Er stellte fest, daß die Genauigkeit der amtlichen Sta-
”
tistiken – trotz der Aufmerksamkeit und der systematischen Überprüfungen,
der sie unterzogen worden sind – nur oberflächlich ist“. Zur Illustration seiner
Äußerungen gab er eine Reihe von konkreten Beispielen und machte mehrere
Vorschläge, die betreffenden Messungen vor allem durch die Verwendung wis-
”
senschaftlich ausgewählter Stichproben“ zu verbessern, wobei obligatorische
Fragen zu beantworten sind, um Verzerrungen zu vermeiden, die aufgrund
willkürlich gegebener Antworten auftreten. Zum Schluß schlug er – da es kein
Zentralamt für Statistik gab – die Gründung eines Central Thinking Office of
Statistics vor und erinnerte seine Zuhörer an den Ratschlag, den ein anderes
Mitglied der Gesellschaft gegenüber Statistikern geäußert hatte: Denken Sie
”
mehr nach und publizieren Sie weniger!“
In der sich anschließenden Debatte stimmte Yule den Äußerungen von
Bowley zu, machte aber zwei signifikante Bemerkungen. Er stellte fest, daß
die Annahme der Homogenität der Bevölkerungsgruppen nicht notwendig ist
und daß die neuen statistischen Methoden (das heißt die Methoden von Pear-
son) genau darauf abzielen, heterogene Bevölkerungsgruppen zu analysieren.
Bowley antwortete, daß es sich um ein Mißverständnis handelte. Im Übrigen
war Yule nicht davon überzeugt, daß eine Stichprobe wirklich zufällig und
”
für die Gesamtbevölkerung repräsentativ sein kann, selbst wenn eine entspre-
chende Antwort in ähnlicher Weise zur Pflicht gemacht wird, wie die Teilnah-
me an Geschworenengerichten“ (ein interessanter und selten angestellter Ver-
gleich). Die Debatte wurde dann mit einer scheinbar praktischen Frage fortge-
setzt, die jedoch das Problem der Beschaffenheit und des Realitätsstatus der
veröffentlichten amtlichen Statistiken aufwarf. Bowley hatte behauptet, daß
diese Veröffentlichungen immer auch von sämtlichen Einzelheiten zu den Me-
thoden und Definitionskonventionen sowie von allen Details zur Aufzeichnung,
Kodierung und Tabellierung begleitet sein müßten. Man hielt ihm entgegen,
daß diese Vorgehensweise das Risiko birgt, die betreffenden Veröffentlichun-
”
gen so voluminös und sperrig zu machen, daß sich deren Nützlichkeit eher
verringert als erhöht“. Bowley schlug in professioneller Weise vor, die Black
Box wenigstens einen Spalt geöffnet zu lassen, damit die Verfahren zur Her-
stellung der Objekte teilweise sichtbar bleiben. Man antwortete ihm in der
Fachsprache der Ökonomie: Wozu ist diese gewichtige Investition überhaupt
gut, wenn man sie nicht mit geschlossenen Augen benutzen kann und sie sich
nicht schlüsselfertig in andere Konstrukte integrieren läßt? Dieser scheinbar
harmlose Spannungszustand war der Kern der statistischen Realitätskonstruk-
tion. Die Entscheidung zwischen den beiden Anforderungen hing weitgehend
von der Legitimität und Glaubwürdigkeit der veröffentlichenden Institution
ab. Die Normen, die den für notwendig gehaltenen kritischen Apparat be-
stimmten, unterschieden sich je nachdem voneinander, ob es sich um eine
Dissertation, eine wissenschaftliche Zeitschrift oder um eine Verwaltungspu-
blikation handelte. Die Auswahl, die in dieser Hinsicht von den verschiedenen
198 5 Statistik und Staat: Frankreich und Großbritannien
22
Ein weiterer wichtiger Indikator zu diesem Thema war der mehr oder weniger ano-
nyme Charakter einer Veröffentlichung. Eine Unterschrift wurde mit der Praxis
der wissenschaftlichen Konkurrenz in Verbindung gebracht, Anonymität hingegen
mit der Verwaltungspraxis.
6
Statistik und Staat:
Deutschland und die Vereinigten Staaten
mus und die Organisation. Dagegen haben sich die statistischen Techniken
und deren Nutzung in der Verwaltung und in den Sozialwissenschaften den
entsprechenden anglo-amerikanischen Vorbildern angenähert.
Das Wort Statistik“ hat seinen Ursprung im Deutschland des 18. Jahrhun-
”
derts und bezeichnete eine deskriptive und nichtquantitative Staatenkunde“
”
oder Staatswissenschaft“, einen Bezugsrahmen und eine Nomenklatur, die
”
den Fürsten zahlreicher deutscher Staaten von Universitätsgelehrten vorge-
legt wurde (Kapitel 1). Unter diesen Staaten nahm Preußen eine herausragen-
de Stellung ein und es waren auch schon Quantifizierungspraktiken bekannt,
die sich deutlich von der Statistik unterschieden, wie sie von den Professo-
ren betrieben wurde. Wie zur gleichen Zeit in Frankreich teilten sich diese
Praktiken auf zwei verschiedene Bereiche auf: einerseits beschäftigte sich die
Verwaltung mit Statistik; andererseits befaßten sich aufgeklärte Amateure
damit (Hacking, 1990, [119]). Die königliche Regierung und ihre Bürokratie
sammelte Informationen, die geheim und ausschließlich dem eigenen Gebrauch
vorbehalten waren, um die Armee zu organisieren und Steuern zu erheben. In
der preußischen Statistik des 19. Jahrhunderts blieb die fundamentale Tren-
nung zwischen Militär und Zivilisten bestehen. Das führte zu einer entspre-
chenden Strukturierung der Tabellierungen und später auch der deutschen
Volkszählungen – die Unterscheidung zwischen den Beamten und den anderen
Berufsgruppen ist noch heute erkennbar: der Staatsdienst war ein wichtiges
Element bei der Definition der Identität von Individuen. Im Übrigen produ-
zierten Amateure“ – Geographen oder Reisende, die weder in der Verwaltung
”
noch an Universitäten tätig waren – zusammenfassende Arbeiten, die sich auf
Zahlen stützten und der Statistik im Wortsinne der folgenden Jahrhunderte
näher standen. Der bekannteste dieser Amateure war der Pfarrer Süssmilch
(1707–1767), dessen Göttliche Ordnung eines der Werke war, welche die De-
mographie begründeten (Hecht, 1979, [126]).
Nach der Niederlage gegen die Armeen Napoleons wurde der preußische
Staat umorganisiert und mit einem statistischen Dienst ausgestattet. Die-
ser existierte ohne Unterbrechung von 1805 bis 1934 und war die wichtigste
Behörde des im Jahre 1871 proklamierten Deutschen Reiches (Saenger, 1935,
[246]). Die anderen deutschen Staaten – Bayern, Sachsen, Württemberg, ... –
erhielten in der ersten Hälfte des 19. Jahrhunderts ebenfalls statistische Bu-
reaus. Das Deutsche Statistische Reichsamt wurde 1872 gegründet, aber die
Ämter der verschiedenen Staaten blieben bis 1934 unabhängig und wurden
danach vom vereinigten Statistischen Reichsamt des Nazistaates aufgesogen.
(Im Jahre 1949 stellte die neue Bundesrepublik das vor 1934 existierende
System wieder her: die Bundesländer erhielten statistische Landesämter, die
sich von dem in Wiesbaden gegründeten Statistischen Bundesamt unterschei-
den, wobei die Aktivitäten der einzelnen Ämter jedoch ziemlich koordiniert
Deutsche Statistik und Staatenbildung 201
sind). Das Königlich Preußische Statistische Bureau und die anderen deut-
schen statistischen Bureaus erbten die drei Traditionen des 18. Jahrhunderts
und amalgamierten sie miteinander: die von den Universitätslehrern verfaß-
ten politischen, historischen und geographischen Beschreibungen, die Verwal-
tungsregister der Beamten und die Zahlentabellen der gelehrten Amateure.
Die Leiter der statistischen Bureaus (und späteren statistischen Ämter) waren
oft gleichzeitig Universitätsprofessoren für Staatswissenschaften“. In diesen
”
beiden Tätigkeitsbereichen erarbeiten sie umfangreiche Kompilationen über
die verschiedenen Aspekte eines Territoriums, dessen historische, religiöse, kul-
turelle und wirtschaftliche Identität den deskriptiven und explikativen“ Leit-
”
faden lieferte. Aber im Unterschied zu ihren Vorgängern im 18. Jahrhundert
bezogen diese Statistiken“ immer mehr Zahlentabellen aus den Bereichen der
”
Demographie und der Verwaltungstätigkeit ein. Die engen Verbindungen zur
Verwaltung waren durch die Tatsache gekennzeichnet, daß diese Ämter an das
Innenministerium angegliedert waren – ein Ministerium der direkten politi-
schen Verwaltung –, während ihre französischen und englischen Amtskollegen
eher den Ministerien aus dem Bereich der Wirtschaft (Handel, Arbeit, Finan-
zen) unterstellt waren. Dieser Unterschied blieb auch weiterhin bestehen: die
Statistik ist einer der Mechanismen, die einen Staat zusammenhalten, dessen
Konsistenz mehr Probleme aufweist, als es in anderen Staaten der Fall ist.
Das Königlich Preußische Statistische Bureau zeigte eine große Beständig-
keit. In den einhundertneunundzwanzig Jahren seiner Existenz hatte es nur
sechs Leiter. Zwei von ihnen übten einen besonders langen und weitreichen-
den Einfluß aus: Hoffmann, Leiter von 1810 bis 1845, und vor allem Ernst
Engel1 , Leiter von 1860 bis 1882. Die ersten Leiter der statistischen Bureaus
waren hohe Beamte, die gleichzeitig andere Positionen innehatten – nicht nur
an Universitäten, sondern auch im diplomatischen Dienst oder im Staatsrat,
wo sie an der Gesetzgebung mitwirkten. Vor der Ernennung Engels im Jahre
1860 bestand die Tätigkeit dieses Bureaus – vergleichbar mit der Tätigkeit der
SGF unter Moreau de Jonnès – darin, große Mengen von Daten zu sammeln
und zu veröffentlichen, die von anderen Verwaltungen aufgezeichnet worden
waren und sich somit jeglicher technischen Kontrolle, aber auch jeder zen-
tralen Koordinierung entzogen. Die veröffentlichten Tabellen bezogen sich auf
Bevölkerungsbewegungen“ (Personenstand), aber auch auf Preise, Existenz-
” ”
mittel“, Finanzstatistiken, Gebäude und Schulen für das gesamte Königreich
und für dessen Provinzen: diese subtilen geographischen Beschreibungen wa-
ren von großer Bedeutung. Die Gesamtheit der deskriptiven Arbeiten bildete
ein unzusammenhängendes administratives und territoriales Patchwork, des-
sen Reputation als Datenquelle in der Retrospektive eher schwach war. Aber
1
Ernst Engel wurde 1821 in Dresden geboren, wo er 1896 auch starb. Er studierte
an der École des mines in Paris bei Le Play. In Belgien lernte Engel Adolphe Que-
telet kennen, mit dem er später eng zusammenarbeitete. Bevor Engel nach Berlin
ging, war er von 1850 bis 1858 Leiter des Königlich Sächsischen Statistischen
”
Bureaus“ in Dresden.
202 6 Statistik und Staat: Deutschland und die Vereinigten Staaten
es ist wahrscheinlich, daß diese Publikationen durch ihre Existenz und ihr Vo-
lumen – als Symbole der Staatsmacht und ihrer Verwaltung – genauso wichtig
waren, wie durch die Details und die Präzision ihrer imposanten Tabellen. Im
Unterschied zu England war Deutschland noch nicht sehr industrialisiert und
die sozialen Probleme waren noch nicht im gleichen Maße erkennbar. Dagegen
spielten die Probleme, die durch die politischen und militärischen Beziehun-
gen zwischen den Staaten, durch den im Entstehen begriffenen Zollverein und
durch die wachsende Macht Preußens hervorgerufen wurden, in der Zeit vor
1860 eine wesentliche Rolle. Danach änderte sich die Situation, nicht nur auf-
grund der starken Persönlichkeit von Engel, sondern auch deswegen, weil der
wirtschaftliche und politische Kontext – aufgrund der schnellen Industriali-
sierung und der Reichseinigung mit Preußen an der Spitze – nicht mehr der
gleiche war.
Ernst Engel ist vor allem wegen seiner Arbeiten über Familienbudgets
und wegen der Formulierung einer Elastizitätsrelation, des Engelschen Ge-
”
setzes“, bekannt, gemäß dem sich mit steigendem Einkommen der Anteil der
Ausgaben für Nahrungsmittel zugunsten der Ausgaben für Dienstleistungen
verringert. Zunächst war Engel ein typischer Statistiker des 19. Jahrhunderts,
ein aktiver und streitbarer Organisator, der sich aber gegenüber den Finessen
der Mathematik noch nicht übermäßig aufgeschlossen zeigte. Die Rolle eines
solchen Statistikers bestand darin, Verwaltungsmechanismen ex nihilo zu er-
schaffen, zu ändern oder ihnen eine andere Richtung zu geben, um Bureaus
zu vereinigen oder zu koordinieren und deren Tätigkeit – auf der Grundlage
von mehr oder weniger hierarchisierten und zentralisierten Formen – einer all-
gemeinen Logik unterzuordnen. Zu seinen Funktionen gehörte es aber auch,
das Interesse anderer Akteure zu erwecken und das statistische Amt in umfas-
sendere wissenschaftliche und politische Netzwerke einzubinden. Wir hatten
bereits festgestellt, daß die französische SGF unter Lucien March und das bri-
tische GRO unter William Farr diese beiden Ziele mehr oder weniger erreicht
hatten. In Bezug auf Engel und das Preußische Statistische Bureau verhielten
sich die Dinge jedoch anders. Zwar gelangen ihm die technische Umgestaltung
und die administrative Zentralisierung, die seine Vorgänger nicht zustandege-
bracht hatten. Jedoch scheiterte er teilweise an der zweiten Aufgabe, das heißt
am Aufbau eines wissenschaftlich-politischen Netzwerks, obgleich er einen be-
deutenden Beitrag zur 1872 erfolgten Gründung des Vereins für Socialpolitik
geleistet hatte. Aber das Scheitern Engels betraf nicht nur ihn allein. Es war
auch das Schiffbruch des aus Professoren und angesehenen liberal-gemäßigten
Persönlichkeiten bestehenden Vereins, dem es nicht gelang, der autoritären
Politik Bismarcks eine andere Richtung zu geben. Die Geschichte von Engel
und seinem statistischen Bureau läßt sich nicht von diesem umfassenderen
Vorhaben trennen, das mit den Sozialgesetzen zwar zur Hälfte gelungen war,
dessen andere Hälfte jedoch fehlschlug, da das politische Bündnis schließlich
auseinanderbrach.
Engel machte sich 1861 an die Aufgabe, das Preußische Statistische Bu-
reau vollständig umzugestalten, indem er die Statistiken des Staates so er-
Deutsche Statistik und Staatenbildung 203
weiterte und vereinheitlichte, daß ihm der überwiegende Teil ihrer Umset-
zung anvertraut wurde. Für die Zählungen schuf er individuelle Berichte, da-
mit die grundlegenden Daten aller befragten Personen – und nicht nur die
Daten der maßgeblichen angesehenen Persönlichkeiten (Bürgermeister, Prie-
ster) – gespeichert wurden. Die Berichte wurden vom Bureau selbst entworfen
und ausgewertet (die zentrale Auswertung wurde in Frankreich erst 1896 von
March eingeführt). Engel erhöhte die Anzahl und Vielfalt der Publikationen.
Darüber hinaus gründete er eine zentrale statistische Kommission, die als
Verbindungsstelle zwischen den Ministerien und dem Bureau fungierte. Und
schließlich gründete er 1870 – gemäß dem für die damaligen deutschen Univer-
sitäten typischen Modell – auch ein statistisches Seminar , um die Statistiker
der anderen Verwaltungen oder Staaten auszubilden, die bald darauf im neuen
Reich vereinigt wurden. Viele Ökonomen und Wirtschaftshistoriker besuchten
dieses Seminar und wurden in der Folgezeit, nach den Vertretern des Vereins,
zu den bekanntesten Repräsentanten der wirtschaftswissenschaftlichen Denk-
richtung, die den Namen deutsche historische Schule 2 trug. Diese Ökonomen,
die Gegner der österreichischen und der englischen abstrakten deduktiven und
formalisierten Ökonomie waren, legten großen Wert auf empirische Monogra-
phien mit historischer und statistischer Grundlage und verfuhren nach den
Methoden, die Engel gelehrt hatte.3
Zu der Zeit, als Engel das statistische Bureau leitete, setzte in Deutschland
ein rasches industrielles Wachstum ein. Deutschland holte England und Frank-
reich ein – Länder, in denen der Start zur Industrialisierung früher erfolgt war.
Es mußte eine Statistik der gewerblichen Betriebe geschaffen werden. Engel
stellte sich eine vereinheitlichte Zählung der Individuen, Berufe und Betriebe
auf der Grundlage individueller Berichte vor (so war auch das in Frankreich
im Jahre 1896 gewählte System beschaffen). Die erste Zählung der Industrie-
betriebe erfolgte 1876, eine Vollerhebung zu den industriellen Einrichtungen
wurde 1882 durchgeführt. Diese Zählungen waren im letzten Viertel des 19.
Jahrhunderts der Ursprung einer historisch bedeutsamen statistischen Rei-
he zu Berufen und Betrieben (Stockmann und Willms-Herget, 1985, [268]).
Auf diese Weise wurden die Statistiken des Produktionsapparates mit den
Beschäftigungsstatistiken verbunden. Die Industrialisierung hatte ein schnel-
les Wachstum der Arbeiterklasse zur Folge. Die Arbeiterklasse war durch die
sozialdemokratische Bewegung gewerkschaftlich und politisch hochorganisiert.
Engel und die Ökonomen des Vereins kämpften für die Schaffung von Versiche-
rungssystemen für gegenseitige Hilfe, die auf der Idee der Selbsthilfe beruhten.
2
Die deutsche historische Schule repräsentiert die ökonomische Ausprägung des
historistischen Denkens. Der Historismus bestreitet die Existenz allgemeingülti-
ger sozialwissenschaftlicher Gesetze. Anders als in den Naturwissenschaften seien
Gesetze“ in den Sozialwissenschaften geschichtlich bedingt.
3 ”
Die betreffenden Ökonomen waren später selbst eine Quelle der Inspiration für
die amerikanischen institutionalisierten Ökonomen, welche ihrerseits die Statistik
umfassend nutzten und zwischen 1910 und 1930 zur Gründung der Ökonometrie
beitrugen.
204 6 Statistik und Staat: Deutschland und die Vereinigten Staaten
Engel hatte bereits 1858 die Idee einer Versicherungsgesellschaft neuen Typus
und eine solche Gesellschaft auch gegründet: Hypotheken bildeten die Grund-
lage des Schutzes gegen die Androhung der Wohnungspfändung, die damals
bei Arbeitern häufig durchgeführt wurde (Hacking, 1987, [118]). Außerdem
wirkte er an der Sozialgesetzgebung mit, die von der Bismarck-Regierung in
Antwort auf die von der Arbeiterbewegung erhobenen Forderungen in die
Wege geleitet wurde. Im Zeitraum von 1881 bis 1889 führte die Regierung
die Kranken-, Unfall-, Invaliden- und Alterssicherungsgesetze ein; 1891 folg-
te das Arbeiterschutzgesetz.4 Dieses allererste soziale Sicherungssystem hatte
denjenigen Statistikern und Ökonomen sehr viel zu verdanken, die mit Engel
innerhalb des vom Verein geknüpften Netzwerks in Verbindung standen.
Aber als diese Gesetze verabschiedet wurden, mußte Engel 1882 von sei-
nem Posten zurücktreten, da er gegen die protektionistische Politik Bismarcks
auftrat5 (Bismarck, der Verbindungen zu den ostpreußischen Grundbesitzern
hatte, lehnte erhöhte Importzölle für Getreide ab, was zu einer Steigerung
der Nahrungsmittelpreise führte und die Löhne belastete. Dadurch waren Ar-
beiter und Fabrikanten gleichermaßen benachteiligt und die Spannungen zwi-
schen ihnen nahmen zu). Bereits zuvor war dem Engelschen Vorhaben die Luft
ausgegangen. Im Jahre 1873 stagnierte sein statistisches Seminar und das In-
teresse der preußischen Beamten für Statistik ließ nach. Es war ihm weder
gelungen, die Beziehungen zwischen dem statistischen Amt und den lokalen
Verwaltungen aufrechtzuerhalten (die er anfangs durch die Gründung von 97
örtlichen Ämtern fördern wollte), noch hatte er es erreicht, die in den anderen
Ministerien erstellten statistischen Untersuchungen vollständig zu vereinheit-
lichen. Nach dem erzwungenen Abgang von Engel im Jahre 1882 kam es zu
einem Vertrauensbruch zwischen der Regierung und dem Preußischen Stati-
stischen Landesamt. Saenger rekonstruierte 1935 die Geschichte dieses Amtes
(zu einem Zeitpunkt also, an dem dieses von der statistischen Zentralbehörde
aufgesogen wurde) und beschrieb die sich abzeichnende Schwächung des wis-
senschaftlichen und politischen Netzwerks:
Dieses retrospektive Urteil wurde also fünfzig Jahre nach dem Rücktritt
Engels gefällt – und zwar von einem Leiter des gleichen Amtes, das zudem ge-
rade von einem Blitz getroffen wurde, der noch viel vernichtender als der von
Bismarck geschleuderte Blitz sein sollte. Vielleicht wollte Saenger damit nur
den Gedanken nahelegen, daß sich Hitler – ebenso wie Bismarck – nicht auf die
Autorität Friedrichs des Großen berufen konnte, denn er hatte das Preußische
Statistische Landesamt schlecht behandelt. Dennoch war die Tätigkeit die-
ses Amtes zwischen 1882 und 1914 von Bedeutung und es war durchaus kein
Institut, in dem Forschungsarbeiten je nach Interessenlage der Institutsmit-
”
glieder veröffentlicht wurden“. Bevölkerungsstatistiken wurden alle fünf Jahre
erstellt. Zwei große Zählungen – eine Berufszählung und eine Betriebszählung
– fanden 1895 und 1907 statt. Es wurden statistische Untersuchungen durch-
geführt, deren Themen ein deutlicher Hinweis darauf waren, wie das Amt dem
jeweiligen Hauptanliegen der Verwaltung folgte: zusätzliche Steuern, Taug-
lichkeit für den Wehrdienst und dessen Aufteilung zwischen Stadt und Land,
Schul- und Universitätssystem, Nationalitäten und Gemeindefinanzen. Aber
das Preußische Statistische Landesamt spürte allmählich die doppelte Kon-
kurrenz, die aus dem Wirtschaftswachstum und der deutschen Einigung re-
sultierte. Die rasche industrielle Entwicklung ging mit der Gründung von sehr
großen Firmen, Kartellen und Arbeitgeberverbänden einher; diese wiederum
führten ihre eigenen Datenaufzeichnungen, was früher der amtlichen Statistik
oblag und nun einen Verlust dieses Monopols nach sich zog. Saenger beschreibt
die Folgen der deutschen Einheit in Ausdrücken, die ein Jahrhundert später an
die Folgen der europäischen Einigung erinnern – mit Ausnahme der Tatsache,
daß es heute in Europa keinen Staat gibt, der die Gemeinschaft so deutlich
dominiert, wie damals Preußen das Reich dominiert hatte:
In dem Maße, in dem eine vereinheitlichte deutsche Wirtschaft ge-
schaffen wurde, verloren die ausschließlich auf Preußen beschränkten
Daten ihren Wert. Es war noch ein Staat, aber es war keine vollwer-
tige wirtschaftliche Entität mehr. Je mehr sich die Gesetzgebung des
Reiches ausbreitete, desto stärker war der Bedarf an Daten, die über-
all auf einheitlicher Grundlage erfaßten werden ... Man konnte die
einzelnen Staaten nicht mehr berücksichtigen und Preußen sogar nur
in geringerem Maße als die mitteldeutschen Staaten, die noch mehr
oder weniger geschlossene wirtschaftliche Entitäten bildeten ... Die
Statistik des Reiches wurde immer wichtiger. Die preußische zentrale
Kommission wurde allmählich durch Arbeitskommissionen ersetzt, in
denen die statistischen Ämter der Staaten und des Reiches vereinigt
206 6 Statistik und Staat: Deutschland und die Vereinigten Staaten
waren. Die beratende Rolle der Kommission wurde von nun an vom
Bundesrat übernommen. (Saenger, 1935, [246].)
Jedoch übernahm das Preußische Amt zunehmend Arbeiten für die an-
deren Staaten und es kam zu einer allmählichen Arbeitsteilung zwischen der
preußischen Statistik und der gesamtdeutschen Statistik. Dieses empirische
Gleichgewicht bestand bis zum Zusammenschluß beider Behörden im Jahre
1934. Der beschriebene Prozeß ist bedeutsam: die Vereinheitlichung erfolgte
schrittweise und es konnten mehrere Behörden nebeneinander bestehen, deren
Konkurrenz- und Komplementaritätsbeziehungen durch die jeweiligen politi-
schen Verhältnisse, durch Verhandlungen und Kompromisse geregelt waren.
Im Gegensatz hierzu kannte der französische Staat, der politisch schon seit
langem geeint war, keine derartigen wechselnden Beziehungen. Auch die ge-
genwärtige deutsche Statistik beruht auf einem Gleichgewicht, das zwischen
dem Bund und den Ländern ausgehandelt wird, wobei der Bundestag (und
vor allem die zweite Versammlung, der die Bundesländer vertretende Bundes-
rat) eine wichtige Kontrollfunktion der Tätigkeit des Statistischen Bundesam-
tes ausübt. Die im Aufbau begriffene europäische Statistik – beginnend mit
dem Statistischen Amt der Europäischen Gemeinschaften (dem in Luxem-
burg eingerichteten EUROSTAT) – wird womöglich durch seinen föderalen
und zwischen unabhängigen Staaten ausgehandelten Charakter mehr mit der
historisch gewachsenen deutschen Statistik gemeinsam haben, als mit dem
zentralisierten französischen System, das auf dem Territorialprinzip beruht.
Die gleichen Probleme stellen sich in den anderen Ländern Mittel- und Ost-
europas, die nach dem bundesstaatlichen Prinzip aufgebaut sind.
dem Beratung und direkter Einfluß nicht mehr möglich waren, wurde der
Verein mit Wirtschaftserhebungen und Sozialenqueten aktiv, die einen ausge-
prägten statistischen Inhalt hatten. Der Verein betrachtete das vor allem als
Mittel zur Aussöhnung seiner verschiedenen Fraktionen.
Eine der wichtigsten dieser Enqueten wurde 1891 von Max Weber durch-
geführt und bezog sich auf die ostpreußischen Landarbeiter.6 Trotz ihres
scheinbar technischen und begrenzten Themas war die Untersuchung durch ein
wirtschaftliches und politisches Problem ausgelöst worden, das für das dama-
lige Deutschland wesentlich war: Wie ließ sich die Identität des gerade entste-
henden Nationalstaates aufrechterhalten und stärken, während die industrielle
Entwicklung gleichzeitig das soziale Gleichgewicht zwischen Grundbesitzern,
Betriebsinhabern, Landarbeitern und Fabrikarbeitern erschütterte? In Eng-
land wurde das Problem des Gleichgewichts zwischen den Klassen durch die
Begriffe der Armut und der Gefahr zum Ausdruck gebracht, die vom Lumpen-
proletariat – den am meisten Benachteiligten – ausging. In Deutschland hinge-
gen formulierte man das Problem mit Hilfe der Frage der nationalen Identität,
die man durch nichtdeutsche Bevölkerungsanteile bedroht sah. Die Industria-
lisierung hatte innerhalb des Kaiserreiches zu bedeutenden Bevölkerungsbe-
wegungen geführt, die vom preußischen Nordosten in Richtung des rheinischen
Südwesten verliefen. Arbeitskräfte slawischen (polnischen und russischen) Ur-
sprungs übernahmen in Ostpreußen die freigewordenen Arbeitsstellen auf den
großen Gütern der preußischen Junker , die das Regime politisch unterstütz-
ten. Die traditionellen patriarchalischen Bindungen wurden allmählich durch
anonyme kapitalistische Beziehungen ersetzt.
Die Enquete verfolgte das Ziel, die neuen Beziehungen durch ökonomi-
sche Begriffe zu beschreiben und die Auswirkungen dieser Beziehungen auf
den sozialen und nationalen Zusammenhalt zu bewerten. Bei der Erhebung
wurden zwei verschiedene Fragebögen verwendet. Der erste Fragebogen war
für die Grundbesitzer bestimmt und beinhaltete faktische Fragen: Anzahl der
Lohnempfänger, Anteil der Entlohnung in Geld und Sachleistungen, sozia-
le Merkmale der Arbeiter, Formen der Arbeitsverträge, Möglichkeit des Zu-
gangs zu Schulen und Bibliotheken. Von den 3100 versendeten Fragebögen
wurden 2277 (69%) zurückgeschickt. Der zweite Fragebogen beinhaltete ei-
ne Bewertung. Er richtete sich an Lehrer, Pfarrer, Notare und Beamte, von
denen man vermutete, daß sie die Werte und Meinungen der Landbevölke-
rung kannten. Der Fragebogen wurde an 562 Personen versendet und von 291
Adressaten (das heißt 52%) ausgefüllt. Auf der Grundlage dieser Umfrage
erstellte Weber einen 900 Seiten umfassenden Bericht mit zahlreichen stati-
stischen Tabellen, in denen die Lage der Wirtschaft und der Landwirtschaft
Preußens beschrieben wurde. Er befürwortete die Entwicklung einer kleinen
unabhängigen Landwirtschaft, welche die großen kapitalistischen Güter der
6
Im Kontext des Vereins für Socialpolitik hat Michaël Pollak (1986, [236]) in
französischer Sprache einen Auszug aus diesen Untersuchungen veröffentlicht und
analysiert.
208 6 Statistik und Staat: Deutschland und die Vereinigten Staaten
nicht ortsansässigen und in Berlin lebenden Junker ersetzen sollte. Das Ziel
dieses Vorhabens bestand darin, deutsche Arbeitskräfte zu binden, welche die
Freiheit des Lebens mehr schätzten als höhere Löhne. Gleichzeitig sollte da-
mit auch der Zustrom slawischer Lohnarbeiter verhindert werden. Das Ziel
der Umfrage und die daraus abgeleiteten Schlußfolgerungen waren vor allem
politisch ausgerichtet, auch wenn sich die Beweisführung auf wirtschaftliche
Argumente stützte, die von statistischen Tabellen untermauert wurden. Wie
kann und muß sich die deutsche Nation unter Berücksichtigung der tiefgreifen-
den sozialen Veränderungen entwickeln, die auf das industrielle Wachstum und
die Migrationsbewegungen zurückzuführen waren? Die Untersuchung wurde
technisch korrekt durchgeführt. Der Statistiker Grohmann, ein Kollege von
Weber, wertete die Fragebögen aus. Der methodologische Aspekt war jedoch
nicht das Wichtigste. Im damaligen Deutschland waren die überzeugenden
Argumente, an denen sich der Furor des Methodenstreits 7 entzündete, philo-
sophischer und politischer Natur. Man führte noch keine statistischen oder
mathematischen Argumente ins Feld, wie sie zur gleichen Zeit von der engli-
schen biometrischen Schule ausgearbeitet wurden.
Das intellektuelle Konstrukt von Quetelet hatte – mit seinen statistischen
Regelmäßigkeiten und seinem Durchschnittsmenschen – im Deutschland der
zweiten Hälfte des 19. Jahrhunderts in der Philosophie einen Anklang gefun-
den, für den es in Frankreich und England kein Äquivalent gab. Dieser Einfluß
war im Übrigen indirekter Natur. Es war eine Reihe von (nicht nur lingui-
stischen) Übersetzungen erforderlich, bevor das eigentlich ziemlich einfache
Schema Eingang in die Subtilitäten der intellektuellen Debatte in Deutsch-
land finden konnte. Als Vermittler trat der englische Historiker Henry Buckle
auf, dessen monumentale History of Civilisation in England (1857, [38]) sich
von der Idee leiten ließ, daß es die – von der Statistik freigelegten – makro-
sozialen Regelmäßigkeiten ermöglichen, die langfristigen und unabwendbaren
Tendenzen des Schicksals einer Nation explizit anzugeben. Mit Hilfe der Be-
griffe des historischen Determinismus und der nationalen Identität ließ sich das
statistische Konstrukt Quetelets im Rahmen einer deutschen Debatte erneut
einführen, transformieren und kritisieren – in einer Debatte, die sich genau um
die obengenannten Fragen drehte. Ähnliche philosophische Rückübersetzun-
gen erfolgten in den 1920er und 1930er Jahren auch in Bezug auf verschiedene
andere Theorien, zu denen die Relativitätstheorie und die Theorie der Wahr-
7
Eigentlich gab es nicht nur einen Methodenstreit, sondern zwei Methodenstreite;
an beiden war die jüngere historische Schule beteiligt (vgl. Söllner, 2001, [442]).
Die ältere Kontroverse in den letzten beiden Jahrzehnten des 19. Jahrhunderts
drehte sich um die Methode der Nationalökonomie: es ging um die Rolle der Theo-
rie bzw. um die Frage, ob ein deduktives oder ein induktives Vorgehen sinnvoll
sei. Der zweite, jüngere Methodenstreit fand Anfang des 20. Jahrhunderts statt
und drehte sich um die Frage, welche Rolle Werturteile in der Wissenschaft bil-
den. Max Weber postulierte das Prinzip der Werturteilsfreiheit, wonach Normen
nicht Gegenstand der Wissenschaft sind, weil sie nicht aus Tatsachen abgeleitet
werden können.
Historische Schule und philosophische Tradition 209
Man griff häufig auf die Statistik zurück, aber sie wurde als deskriptive Me-
thode und nicht als Methode zur Herausarbeitung von Gesetzen verstanden.
So bekannte sich etwa Engel zu der Vorstellung, daß die Statistik möglicher-
weise empirische Regelmäßigkeiten aufzeigen kann; keinesfalls könne sie aber
den Anspruch erheben, Gesetze aufzustellen, die den Gesetzen der Physik
ähneln, denn die physikalischen Gesetze implizierten eine Kenntnis der zu-
grundeliegenden Elementarursachen.10 Die deutschen Ökonomen nutzten die
reichlich vorhandenen Daten, die von den – ihnen intellektuell und politisch
oft nahestehenden – Verwaltungsstatistikern veröffentlicht worden waren. Ins-
besondere verwendeten sie diese Daten zur Unterlegung von deskriptiven Mo-
nographien über präzise und lokalisierte Themen. Beispielhaft hierfür war die
von Weber durchgeführte Landarbeiter-Enquete, die ein hohes Niveau hat-
te. Für diese Ökonomen war die Statistik eines von mehreren deskriptiven
Elementen – andere Elemente waren historischer, institutioneller oder sozio-
logischer Natur. Die Tatsache, daß diese verschiedenen Erkenntnisweisen noch
nicht in gesonderten Disziplinen getrennt voneinander behandelt wurden, war
der auslösende Faktor für den philosophischen Charakter dieser Debatte und
der Ursprung des Methodenstreits“, den die dem Verein für Socialpolitik
”
angehörenden Universitätslehrer führten.
Die Akkumulation dieses aufgesplitterten Wissens und die Ablehnung von
Formalisierungen, die von denen der traditionellen deutschen Philosophie
abwichen, können rückblickend den Eindruck erwecken, daß es sich um ei-
ne wissenschaftliche Strömung ohne Zukunft handelte – insbesondere wenn
man einen Vergleich zu den Entwicklungen zieht, die wenig später mit den
Anfängen der Ökonometrie und der Soziologie der Umfragen eingeleitet wur-
de. Dennoch hatte diese Tradition ihre geistigen Erben. Das hing vor allem
mit der Tatsache zusammen, daß viele der französischen, englischen und ame-
rikanischen Akademiker zur damaligen Zeit in Deutschland studierten oder
umherreisten und daher das intellektuelle Milieu kannten. Halbwachs ver-
wendete die deutschen Statistiken für seine Dissertation über das Lebens-
niveau der Arbeiter. Karl Pearson hielt sich in seiner Jugend in Heidelberg
auf und brachte von dort eine Wissenschafts- und Kausalitätsphilosophie mit,
die der Philosophie von Engel nahestand und Gesetze“ zugunsten festge-
”
stellter Regelmäßigkeiten ausschloß. Die amerikanischen institutionalistischen
Ökonomen – zum Beispiel die Soziologen der Chicagoer Schule“ zu Beginn
”
des zwanzigsten Jahrhunderts – kannten die Arbeiten und die Debatten der
deutschen historischen Schule gut. Ein wichtiger Grund dafür, warum die-
ser Strömung in Deutschland die Luft ausging, ist darin zu suchen, daß sie
es nicht vermocht hatte, sich im Rahmen einer Bewegung unentbehrlich zu
machen, die zu einer tiefgreifenden Transformation der makroökonomischen
Politik und der Makrosozialpolitik führte. Im Gegensatz hierzu war diese In-
10
Es ist eine Ironie des Schicksals, daß die Bezeichnung Engelsches Gesetz“ für
”
die Beziehung beibehalten wurde, die Engel zwischen den Einkommen und den
Ausgaben für Nahrungsmittel aufgestellt hatte.
Volkszählungen in der amerikanischen politischen Geschichte 211
oder konnte man ihr eine andere Richtung geben (1920er Jahre)? Wie soll-
te man die Arbeitslosigkeit und die sozialen Ungleichheiten messen (1930er
Jahre)? In jeder dieser Debatten wurden Statistiken reichlich zitiert, kritisiert
und zueinander in Konkurrenz gesetzt. Statistiken waren gleichzeitig allge-
genwärtig und relativ. Sie traten bei Verhandlungen und Kompromissen auf,
in denen die Kräfteverhältnisse für einige Zeit bestätigt wurden und der Ge-
sellschaft die Möglichkeit gaben, bis zur nächsten Krise voranzuschreiten. Die
Statistiken waren das Abbild eines Staates, der nicht wie in Frankreich ein
über den persönlichen Interessen stehendes allgemeines Interesse verkörperte.
Vielmehr stellten die Statistiken durch das Gleichgewicht der verschiedenen –
in der Verfassung und in ihren aufeinanderfolgenden Änderungen kodifizier-
ten – Gewalten ein Spiegelbild der Kompromisse dar, die es den Individuen
erlaubten, ihre Rechte auszuüben und zu verteidigen.
Folgerichtig waren die Vereinigten Staaten das Land, in dem sich die Sta-
tistik am üppigsten entwickelte. Aber die Vereinigten Staaten waren auch das
Land, in dem der Apparat der öffentlichen Statistik niemals eine so starke
Integration und Legitimität aufwies, wie es – wenn auch in unterschiedlichen
Formen – in Frankreich, Großbritannien und Deutschland der Fall war. Umge-
kehrt hatten jedoch Universitäten, Forschungszentren und private Stiftungen
auf den Gebieten der Soziologie und der Wirtschaft zahlreiche Untersuchun-
gen (surveys 12 ), Kompilierungen und Analysen von Statistiken durchgeführt,
die aus äußerst unterschiedlichen Quellen kamen, und keine der genannten
Institutionen hatte die Aufgabe, die Ergebnisse zu zentralisieren. Im Übrigen
wurden in den Vereinigten Staaten bereits in den 1930er Jahren einige derjeni-
gen bedeutenden technischen Innovationen experimentell eingesetzt, die nach
1945 zu einer radikalen Umgestaltung der statistischen Tätigkeit und des Sta-
tistikerberufes führten: Stichprobenerhebungen, volkswirtschaftliche Gesamt-
rechnung und Ökonometrie sowie – in den 1940er Jahren – Computer.13
Das konstitutionelle Prinzip, gemäß dem die Bevölkerungszahl der Einzel-
staaten sowohl für die Verteilung der Steuerlast als auch für die Verteilung der
politischen Vertretung den Bezugspunkt darstellt, ist wohldurchdacht. Dieses
Prinzip verhindert nämlich, daß die Einzelstaaten den Versuch unternehmen,
ihre Bevölkerungsstatistik zu manipulieren: in diesem Falle würde die eine
Hand verlieren, was die andere gewonnen hätte. Dieser Mechanismus ermutigt
zum Kompromiß zwischen gegensätzlichen Zielen. Er spielte jedoch faktisch
12
Die Bezeichnung survey“ ist von den zuerst in Indien durchgeführten Flächen-
”
stichproben in die Fachsprache der Statistik übernommen worden. Bei diesen
Flächenstichproben ging es einerseits um eine sorgfältige Prüfung und Schätzung
des Bestandes und andererseits auch um ein Verfahren, das sich der Landvermes-
sung bediente, und die Bestandsaufnahme, zumindest in der ersten Stufe, auf der
Grundlage von Landkarten durchführte. Das englische Wort survey“ wird u.a.
”
auch durch Erhebung, Untersuchung, Studie“ wiedergegeben.
13 ”
Die hier vorgelegte Analyse der amerikanische Statistik hat den Arbeiten von
Duncan und Shelton (1978, [74]) und Margo Anderson (1988, [4]) viel zu verdan-
ken.
Volkszählungen in der amerikanischen politischen Geschichte 213
kaum eine Rolle, denn der Bundesstaat nutzte seine fiskalische Strecke im 19.
Jahrhundert nur selten. Der Bundesstaat blieb lange Zeit hindurch ziemlich
unbedeutend: Jefferson sprach von einer weisen und genügsamen Regierung“.
”
Die Zolleinnahmen reichten – außer in Kriegszeiten – für den Staatshaushalt
aus. Die Census-Verwaltung wurde alle zehn Jahre zu dem Zeitpunkt neu
konstituiert, als die Erhebung durchgeführt, ausgewertet und verwendet wer-
den mußte, um die parlamentarische Vertretung der Staaten zu berechnen.
Nach drei oder vier Jahren wurde die Census-Verwaltung wieder aufgelöst.
Ein ständiges Amt, das Census Bureau (Statistisches Bundesamt der USA,
auch Bureau of the Census genannt), wurde erst im Jahre 1902 gegründet.
Die Organisation der Zählung und die Einrichtung eines Ad-hoc-Dienstes wa-
ren jedes Mal Gegenstand eines Sondergesetzes. Der Verabschiedung dieses
Gesetzes ging eine lebhafte Debatte im Kongreß voraus, in der man u.a. über
folgende Probleme diskutierte: Welche Konventionen sollen bei der Zählung
und anteilmäßigen Verteilung des Zählergebnisses angewendet werden? Wel-
che Fragen sollte man stellen und wie soll man die Befrager und Mitarbeiter
rekrutieren, die mit der Durchführung der Operation beauftragt werden?
Von Anfang an und bis zum Sezessionskrieg (1861) stellte sich die Fra-
ge nach der Berücksichtigung der Sklaven in der Bemessungsgrundlage für
die politischen Verteilung. Die Nordstaaten und die Südstaaten vertraten in
dieser Frage selbstverständlich entgegengesetzte Standpunkte. Wenn aber die
Union nicht auseinanderbrechen sollte – was keine der beteiligten Seiten woll-
te –, dann mußte ein Kompromiß geschlossen werden, dessen einziger Vorzug
es war, von beiden Parteien akzeptiert zu werden: das war die Drei-Fünftel-
”
Regel“ (three-fifth rule), nach der ein Sklave drei Fünftel eines freien Mannes
zählte. Diese Konvention erscheint uns heute besonders schockierend, denn
sie läßt sich nicht durch eine Objektivität (oder Realität) rechtfertigen, die
außerhalb des Konfliktes liegt. Die Konvention bedeutet, daß ein Sklave zwar
mit einem freien Mann vergleichbar, gleichzeitig aber minderwertiger ist. Eine
solche Kombination konnte sich nur als äußerst instabil erweisen. Sie wurde
nach dem Sieg des Nordens über den Süden im Jahre 1865 abgeschafft. Die
Debatte nahm danach eine andere Form an, denn den Südstaaten gelang es
unter Anwendung verschiedener Mittel, den Schwarzen das Wahlrecht auch
weiterhin zu entziehen. Der Norden versuchte daraufhin, die unberechtigter-
weise um ihre Stimme gebrachten Erwachsenen aus der Bemessungsgrundlage
für die Verteilung auszuschließen. Der Süden konterte mit dem Vorschlag,
die Ausländer (das heißt die Neueinwanderer) aus dieser Bemessungsgrund-
lage auszuschließen, was wiederum den Norden benachteiligen würde, da sich
die Neueinwanderer dort niedergelassen hatten. Der Kompromiß bestand nun
darin, alle Erwachsenen zu zählen.
Auch eine andere, scheinbar technische Frage, führte bis in die 1920er Jah-
re zu endlosen Diskussionen: Welche arithmetische Konvention soll berück-
sichtigt werden, um die zur Bevölkerungszahl proportionale Verteilung in ei-
ne ganzzahlige Anzahl von Kongreßsitzen umzuwandeln? Nacheinander wur-
den mehrere Lösungsmöglichkeiten angewendet (Balinski und Young, 1982,
214 6 Statistik und Staat: Deutschland und die Vereinigten Staaten
der Armen wider: Jedem Vergleich muß eine Prüfung der Gesetze und Ge-
”
wohnheitsrechte in Bezug auf die aus der Staatskasse gezahlte Armenhilfe
vorangehen.“ (Jarvis, zitiert von Anderson, 1988, [4].)
Demnach führte bereits seit den 1850er Jahren das Feuer der Kontroverse
dazu, daß man explizit die Frage stellte, wie sich die Realität auf der Grund-
lage administrativer Aufzeichnungen konstruieren läßt. Genau das war die
Frage, die Yule in Großbritannien vierzig Jahre später in seiner mathemati-
schen Analyse der Armut nicht so deutlich formuliert hatte (vgl. Kapitel 4).
Die Tatsache, daß die Statistik in den Vereinigten Staaten so eng und auch
so frühzeitig in einem widersprüchlichen Debattenraum in Erscheinung trat,
regte den kritischen Verstand an und begünstigte eine Vielfalt von Interpre-
tationen und Anwendungen dieses Werkzeugs. Mehr als anderswo waren die
statistischen Belegstellen an Argumentationen gebunden und nicht an eine
vermutete Wahrheit, die über den verschiedenen Lagern stand. Diese Sicht-
weise scheint typisch für die amerikanische Demokratie zu sein, die sich mehr
auf Debatten und die Suche nach Kompromissen stützt als auf die Beteuerung
eines allgemeinen Interesses und einer einzigen Wahrheit; auf jeden Fall finden
wir dort die Spur eines besseren Verständnisses für die unterschiedlichen Be-
deutungen und Funktionen der statistischen Argumentsweise – entsprechend
den politischen und kulturellen Traditionen auf beiden Seiten des Atlantiks.
Im gesamten 19. Jahrhundert hatten die Vereinigten Staaten immer größe-
re Wellen von Einwanderern aufgenommen, was dazu führte, daß sich die
Bevölkerungsanzahl zwischen 1790 und 1910 mit dem Faktor 23 multiplizier-
te. Die Einwanderer kamen zunächst von den Britischen Inseln (England, Ir-
land), später aus Nordeuropa (Deutschland, Skandinavien) und dann um die
Wende zum 20. Jahrhundert verstärkt aus Südeuropa (Italien) und Osteu-
ropa (Polen, Rußland, Balkanländer). In Bezug auf die ersten Einwanderer
(aus West- und Nordeuropa) bestand die Annahme, daß sie sich – aufgrund
der Sprachverwandtschaft und der Religion (Protestantismus) – mühelos an
die Lebensweise und die Ideale des ursprünglichen Kerns der Nation anpassen
konnten. Hingegen sah sich die zweite Gruppe in den 1920er Jahren immer
mehr dem Verdacht ausgesetzt, nicht assimilierbare kulturelle Elemente zu
befördern, die – insbesondere wegen ihrer Religionen (Katholiken, Juden, Or-
thodoxe) – mit der liberalen Demokratie unvereinbar seien. Zum ersten Mal
wurde die Doppelfrage nach einer Beschränkung der Einwanderung und ei-
ner entsprechenden Quotenregelung auf der Grundlage des Einwanderungs-
anteils der betreffenden Länder gestellt. Zwischen 1920 und 1929 fand eine
intensive politische und statistikbezogene Debatte über die Kriterien statt,
mit deren Hilfe die Quoten festgelegt und gerechtfertigt werden sollten. An
dieser Debatte nahmen nicht nur die Kongreßabgeordneten und die Statisti-
ker teil, die mit der Aufstellung dieser Kriterien beauftragt waren, sondern
auch Vertreter entgegengesetzter Interessengruppen: Industrielle, die einer Be-
schränkung der Einwanderung aus Furcht vor einem Mangel an Arbeitskräften
feindselig gegenüber standen; Vertreter der verschiedenen Nationalitätengrup-
pen; verschiedene Wissenschaftler; Ökonomen, welche die Auswirkungen ei-
216 6 Statistik und Staat: Deutschland und die Vereinigten Staaten
Das führte zu einer Ausweitung der Diskussion auf den Begriff des Gleichge-
wichts zwischen den ursprünglichen Staatsangehörigkeiten der Vorfahren der
jetzigen Amerikaner vor deren Einwanderung. Das Census Bureau wurde also
ersucht, dieses ziemlich heikle Problem zu lösen. Ein erster Versuch in dieser
Richtung wurde 1909 von Rossiter unternommen, einem Statistiker des Bu-
reau, der aber ein anderes Ziel hatte: er verglich die Fertilität der nach ihrem
Abstammungsland klassifizierten Amerikaner mit den Fertilitätsziffern, die
seither in diesen Ländern beobachtet wurden, um die günstigen Wirkungen
und die Vitalität der amerikanischen Demokratie zu beweisen. Im Jahre 1927
wurde Hill, der stellvertretende Direktor des Census damit beauftragt, diese
Arbeit weiterzuführen, damit ein neues Einwanderungsgesetz auf der Grund-
lage dieser Aufgliederung der Nationalitäten der Vorfahren der Amerikaner
erarbeitet werden konnte.
Sehr bald bemerkte Hill die Schwachstellen der Berechnung von Rossiter:
eine geringfügige Änderung der Schätzungen bezüglich der im 18. Jahrhundert
niedrigen Bevölkerungszahl führte zu wesentlichen Änderungen der andert-
halb Jahrhunderte später berechneten Quoten. Rossiter hatte die Familienna-
men der Personen als Indiz für deren Abstammung verwendet, ohne dabei
die Tatsache zu berücksichtigen, daß zahlreiche Einwanderer ihre Namen bei
ihrer Ankunft anglisiert hatten. Das führte zu einer starken Heraufsetzung
der Anzahl der Personen britischer Abstammung – vor allem zum Nachteil
der Iren und der Deutschen, das heißt genau derjenigen west- und nordeu-
ropäischen Länder, deren Quoten man eigentlich erhöhen wollte. Während al-
so die früheren Einwanderungsgesetze die Immigrantenlobbies spalteten, ging
die neue Formulierung mit dem Risiko einher, diese Lobbies unter der Flagge
einer gemeinsamen feindlichen Einstellung wieder zu vereinen. Man beauf-
tragte daraufhin eine aus Historikern und Genealogen bestehende Kommis-
sion, das Problem eingehender zu studieren und die fatalen Ergebnisse zu
korrigieren, zu denen die Methode von Rossiter geführt hatte. Zur Lösung des
Problems wurden zwischen 1927 und 1929 zahlreiche Verwaltungsleute und
Akademiker mobilisiert, was für das Census Bureau eine schwierige Aufgabe
war. Zu Beginn des Jahres 1929 bestätigten Fachhistoriker die vom Bureau
berechneten Ziffern. Präsident Hoover konnte im Frühjahr 1929 die amtliche
”
und wissenschaftliche“ Aufschlüsselung der Abstammungsländer der amerika-
nischen Bevölkerung ankündigen. Diese Aufschlüsselung diente als Grundlage
für die Einwanderungsquoten, die bis in die 1960er Jahre verwendet wurden
und in den Jahren zwischen 1933 und 1945 ein furchtbares Hindernis für Ju-
den und politische Flüchtlinge bedeuteten, die der Naziherrschaft entkommen
wollten. Das Census Bureau sah sich einige Monaten nach Beendigung die-
ser Arbeit der Jahre 1927–29 mit einem ganz anderen Problem konfrontiert,
einer Folge der Oktoberkrise des Jahres 1929: eine neue Zahlenschlacht war
ausgebrochen – die Schlacht um die Arbeitslosenzahlen. Die Krise und die zu
ihrer Entschärfung ab 1933 gegebenen politischen, wirtschaftlichen und ad-
ministrativen Antworten der Roosevelt-Regierung führten zum Aufbau eines
vollkommen neuen Systems der öffentlichen Statistik, das sich vor allem und
218 6 Statistik und Staat: Deutschland und die Vereinigten Staaten
ker schlug 1888 vor, den Census an das neu gegründete Arbeitsamt (Labor
Office) anzugliedern, das über bedeutende Ressourcen verfügte. Eine unerwar-
tete Änderung der Präsidentschaftsmehrheit ließ das Projekt jedoch scheitern,
denn der neue Präsident wollte, daß seine Partei vom Census profitierte (eine
analoge Angliederung erfolgte 1891 in Frankreich, wo die SGF in das neue
Arbeitsamt (Office du travail ) integriert wurde. Die Entwicklung der Arbeits-
statistik fand in Großbritannien und in Deutschland gleichzeitig statt). Die
ungeheure manuelle Arbeit verringerte sich 1890 mit der Verwendung der er-
sten Geräte zur maschinellen Datenverarbeitung, die von Herman Hollerith
(1860–1929), einem Büroangestellten, erfunden und gebaut wurden. Aber die
Aufgabe war immer noch groß genug und man mußte für die Volkszählungen
von 1890 und 1900 mehr als 3000 Personen rekrutieren.
Das Problem bestand darin, den Kongreß davon zu überzeugen, die Mit-
tel für die Gründung eines ständigen statistischen Amtes bereitzustellen: man
führte dem Kongreß die Notwendigkeit vor Augen, zusätzlich zu den alle zehn
Jahre stattfindenden Volkszählungen auch regelmäßig jährliche Erhebungen
durchzuführen – vor allem im Bereich der landwirtschaftlichen Produktion
und der Industrieproduktion. Eine Gelegenheit für diese Überzeugungsarbeit
bot sich 1899 anläßlich des Verfalls der Baumwollpreise, der sich für die Klein-
produzenten als dramatisch erwies. Die englischen Abnehmer prognostizierten
höhere Ernten, um Preissenkungen anzukündigen. Man mußte ihnen gesicher-
te Produktionsstatistiken entgegenhalten können, um derartige Spekulationen
zu unterbinden. Seit Beginn des 19. Jahrhunderts waren die Volkszählungen
(in unregelmäßiger Weise) durch Zählungen der Manufakturen ergänzt wor-
den, so daß es möglich war, die Baumwollentkörnungsmaschinen zu identifizie-
ren und zu lokalisieren. Die bei der Zählung 1900 aufgestellte Liste dieser Ma-
nufakturen ermöglichte die Durchführung einer jährlichen Erhebung zu den
Ernten. Das wiederum lieferte ein ausgezeichnetes Argument, um den Kongreß
davon zu überzeugen, die Einrichtung eines ständigen Amtes zu akzeptieren,
das für diese regelmäßigen – und für die Marktregulierung unerläßlichen –
Erhebungen zuständig war. Die im Jahre 1902 verabschiedete institutionelle
Neuerung war ihrerseits Bestandteil einer umfassenderen administrativen Um-
strukturierung, die auch die Gründung eines neuen Ministeriums für Handel
und Arbeit (Department of Commerce and Labor ) einschloß. Das Ministerium
faßte zahlreiche zuvor verstreute Dienststellen zusammen und war bestrebt,
den Außen- und Binnenhandel, den Bergbau, die veredelnde Industrie und den
Schiffbau, den Fischfang und das Transportwesen zu fördern und entwickeln.
Außer dem Census Bureau gehörten dem Ministerium auch noch andere stati-
stische Bureaus an, zum Beispiel das Bureau für Arbeitsstatistik und die sta-
tistischen Bureaus der Finanzbehörde und des Außenhandels. Eines der Ziele
bei der Gründung des Ministeriums bestand darin, diese Bureaus zu vereini-
gen oder wenigstens zu koordinieren, um unnötige Arbeitsverdopplungen zu
vermeiden und allgemeine Methoden und Nomenklaturen zu verbreiten.
Die Tätigkeit des neuen ständigen Census Bureau entwickelte sich da-
mals in die Richtung häufiger und regelmäßiger Wirtschaftsstatistiken und
Das Census Bureau: Aufbau einer Institution 221
In den wenigen Jahren zwischen 1933 und 1940 änderten sich die in der sozia-
len Debatte verwendeten Termini ebenso grundlegend, wie die statistischen
Werkzeuge, die in dieser Debatte eine Rolle spielten. Die beiden Transforma-
tion hingen eng miteinander zusammen, denn gleichzeitig fanden zwei Ent-
wicklungen statt: es entstand eine neue Art und Weise, das politische, wirt-
schaftliche und soziale Ungleichgewicht des amerikanischen Bundesstaates zu
verstehen und zu verwalten und es bildete sich eine Sprache heraus, mit de-
ren Hilfe sich diese Tätigkeit ausdrücken ließ. Arbeitslosigkeit im nationalen
Maßstab, Ungleichheiten zwischen den Klassen, Rassen und Regionen und
die Tatsache, daß die entsprechenden Objekte mit statistischen Werkzeugen
bearbeitet werden müssen, um darüber debattieren zu können – all das war
Bestandteil dieser neuen Sprache, die nach 1945 in allen westlichen Ländern
alltäglich wurde. Der Vergleich der Art und Weise, in der diese Probleme in
den drei aufeinanderfolgenden Zeiträumen von 1920 bis 1929, von 1930 bis
1932 und schließlich von 1933 bis 1940 aufgeworfen und behandelt worden
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte 223
nen liegt. Die Arbeitslosigkeit war vorher noch nie klar definiert worden und
das Bureau hatte aufgrund der Dringlichkeit restriktive Konventionen ange-
wendet: weder wurden die Arbeiter gezählt, die zwar noch eine Stelle hatten,
aber kurz vor ihrer Entlassung standen, noch erfolgte eine Zählung der Ju-
gendlichen, die noch nie gearbeitet hatten, aber eine Stelle suchten. Hoover
behauptete seinerseits, daß die Arbeitslosigkeit nicht so hoch war, wie es die
vorgeblichen Zahlen suggerierten; die Zählung hätte seiner Meinung nach nur
deswegen zu einem sehr hohen Ergebnis geführt, weil viele der als arbeitslos
”
registrierten Personen in Wirklichkeit gar keine Arbeit suchten“.
Alle Bestandteile der modernen Debatte zur Arbeitslosigkeit waren also
innerhalb weniger Monaten entstanden. Was war ein Arbeitsloser? Falls er
als eine Person definiert war, die keine Beschäftigung hatte, aber eine solche
suchte, und falls er sofort verfügbar war, dann erwies sich jede dieser drei
Bedingungen als problematisch und führte zu einer Diskussion, weil häufig
zweifelhafte Fälle ins Spiel kamen: da gab es Leute, die in Ermangelung von
etwas besserem nur ab und an arbeiteten; entmutigte Leute, die nicht mehr
intensiv nach Arbeit suchten; Menschen in Notlagen, mit labiler physischer
oder psychischer Verfassung, wie sie unter den sehr Armen häufig vorkamen.
Mißt man darüber hinaus nicht nur die Anzahl der Arbeitslosen, sondern auch
die Arbeitslosenquote, dann stellt auch die Definition des Nenners ein Problem
dar: Soll man die Arbeitslosenzahl zur Gesamtbevölkerung ins Verhältnis set-
zen oder nur zur potentiell berufstätigen Bevölkerung? In diesem Fall gab
es an der Trennlinie zwischen der potentiell beruftstätigen und der nichtbe-
rufstätigen Bevölkerung viele zweifelhafte Fälle. Vor 1930 stellten sich diese
Fragen kaum und sie erlangten erst deswegen Bedeutung, weil die demokrati-
sche Opposition eine national organisierte Politik im Kampf gegen die Arbeits-
losigkeit forderte. Niemand hatte diese Fragen 1920–1921 aufgeworfen, da zu
dieser Zeit die Vorstellung dominierte, daß der Verlauf der geschäftlichen Pro-
zesse von lokalen Umständen und Initiativen abhängt. Das war die Position,
die Hoover auch im Jahre 1930 weiter vertrat. Er machte jedoch den Vor-
schlag, örtliche Hilfen zu organisieren, Teilzeitbeschäftigung und Job-Sharing
zu fördern sowie Ausländer mit illegalem Status abzuschieben. Aber er lehnte
die Vorschläge ab, die das historische Gleichgewicht zwischen den Gewalten
der Stadtgemeinden, der Einzelstaaten und der Föderation ändern würden.
Aus diesem Grund blieben die Statistiken bezüglich Landwirtschaft, Arbeit
und Arbeitslosigkeit, Unterstützung, Ausbildung und Gesundheit noch in der
Zuständigkeit der örtlichen Behörden. Die Bundesstatistik wurde durch die
von der Regierung Hoover beschlossenen Einschränkungen mit voller Wucht
getroffen. Ihr Budget wurde 1932 um 27% beschnitten. Aber ihre Lage änderte
sich in jeder Hinsicht, als Roosevelt im März 1933 an die Macht kam.
Wie wir gesehen hatten, führte in Kriegszeiten die allgemeine Mobilisie-
rung der Ressourcen zur Bildung von ungewöhnlichen Allianzen und Orga-
nisationsweisen, deren Auswirkungen sich auch in der öffentlichen Statistik
bemerkbar machten. Ähnlicherweise führten im Jahre 1933 – in dem die Krise
ihren Höhepunkt erreichte – die Bemühungen der neuen Administration zur
226 6 Statistik und Staat: Deutschland und die Vereinigten Staaten
Ankurbelung der Wirtschaft sowie zur Unterstützung der Millionen von Ar-
beitslosen und ruinierten Landwirten zu einer umfassenden Transformation
der Mechanismen und der Funktion der Bundesregierung. Dementsprechend
änderte sich auch der Stellenwert, den die Statistiker in diesen Mechanismen
hatten. Diese Veränderungen bezogen sich auf die Ziele der öffentlichen Poli-
tik, auf die technischen und administrativen Verfahren zur Erreichung dieser
Ziele und auf die Sprache, in der sich diese Maßnahmen ausdrückten. Damit
hatten diese Ziele die gleiche Bedeutung für alle, die sich an deren Umsetzung
beteiligten. Mehr als je zuvor spielte die Statistik damals eine entscheiden-
de Rolle bei dem Vorgang, diejenigen Dinge konsistent zu machen, um die
es bei der kollektiven Aktion ging. Diese Dinge, zu denen Arbeitslosigkeit,
Sozialversicherung, Ungleichheiten zwischen Gruppen oder Rassen und das
Nationaleinkommen gehörten, wurden von nun an auf der Grundlage ihrer
Definitionen und ihrer statistischen Messungen formuliert. Es war nicht das
erste Mal, daß soetwas geschah: bereits im England des 19. Jahrhunderts
nahm die Politik der öffentlichen Gesundheit Bezug auf die lokalen Sterb-
lichkeitsziffern und das General Register Office (GRO) schöpfte hieraus seine
Bedeutung und seine Legitimität. Aber es ging jetzt nicht mehr darum, einer
besonderen – wenn auch sehr wichtigen – Maßnahme Ausdruck zu verleihen.
Vielmehr ging es darum, die Unternehmen und ihre Stiftungen, die Univer-
sitäten und ihre Fachleute, die Gewerkschaften und die Wohltätigkeitsvereine
zu koordinieren und sie über die Aktivitäten zu informieren, die von der Ad-
ministration zusammen mit denjenigen sozialen Kräften umgesetzt wurden,
auf die sie sich bei der betreffenden Maßnahme stützte. Zu einer Zeit, in der
andere Ausdrucksmittel der kollektiven Aktion – Ausdrucksmittel, die auf
die Sprache der Marktökonomie oder der örtlichen Solidarität zurückgriffen –
nicht mehr fähig zu sein schienen, die Dramatik der Lage in die Überlegungen
einzubeziehen, war es nur allzu einleuchtend, neue Formen der Rationalität
und Universalität zu verwenden, die sich durch wissenschaftliche und vor al-
lem durch statistische Begriffe ausdrücken ließen. Einige Jahre zuvor schien
das durchaus noch nicht plausibel gewesen zu sein.
In den ersten drei Jahren der Krise hatte es erbitterte Debatten zwischen
den Mitglieder der republikanischen Administration, den Statistikern der ASA
und den Ökonomen der AEA gegeben. Diese Debatten bezogen sich nicht nur
auf die Messung der Arbeitslosigkeit, sondern auch auf die als archaisch beur-
teilte Organisation der Statistik. Darüber hinaus ging es um Maßnahmen, die
durchzuführen waren, damit sich die Regierungen und die öffentliche Meinung
in einer derart neuen Situation auf vertrauenswürdige Beschreibungen stützen
konnten, denn keine der früheren zyklischen Krisen hatte ein solches Ausmaß.
Bereits in den ersten Wochen der neuen Regierung wurden die mit den Repu-
blikanern sympathisierenden Leiter der wichtigsten statistischen Ämter durch
Mitglieder der ASA ersetzt, die an diesen Debatten teilgenommen hatten. Der
neue Arbeitsminister (zu dessen Ressort das Bureau of Labor Statistics, BLS,
gehörte) und der neue Handelsminister (dem das Census Bureau unterstand)
gründeten zwei Komitees, die damit beauftragt wurden, die Arbeitsweise aller
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte 227
waren. Hierzu gehörte die Schätzung der Anzahl der Erwerbspersonen (labor
force), das heißt der Gesamtheit derjenigen Personen, die eine Arbeitsstelle ha-
ben oder eine solche in der Woche suchen, in der die Zählung stattfindet. Von
nun an diente diese Größe als Nenner in der Standardabschätzung der Arbeits-
losenquote. Die verschiedenen Erfahrungen waren hinreichend überzeugend:
fortan konnte das Ergebnis einer Stichprobenerhebung als amtliche Arbeits-
”
losenziffer“ vorgelegt werden, was zehn Jahre früher unvorstellbar gewesen
wäre. Nach 1940 wurden derartige Erhebungen jeden Monat durchgeführt –
zunächst unter der Bezeichnung Stichprobenerhebung zur Arbeitslosigkeit“
”
(sample survey of unemployment), danach im Jahre 1942 als Monatsbericht
”
zu den Erwerbspersonen“ (monthly report on the labor force) und schließlich
1947 als ständige Erhebung“.
”
Die gleichzeitige Richtungsänderung der Ziele und der Werkzeuge der Sta-
tistik in den 1920er und 1930er Jahren erwies sich auch in Bezug auf Fra-
gen zur Bevölkerung und zu Ungleichheiten zwischen sozialen und ethnischen
Gruppen als spektakulär. Vor 1930 erfolgte die Beschreibung dieser Unter-
schiede im Allgemeinen durch die Begriffe der angeborenen Fähigkeiten oder
der kulturellen und religiösen Unfähigkeit, sich in die amerikanische Gesell-
schaft zu integrieren. Diese Analysen stützten sich auf intellektuelle Konstruk-
te, die auf die Eugenik oder auf eine Form des Kulturalismus zurückgingen,
bei der die Unveränderlichkeit der charakteristischen Merkmale der Abstam-
mung hervorgehoben wurde. Die Debatten der 1920er Jahre zu den ethnischen
Quoten waren deutlich von derartigen Argumenten geprägt. Zehn Jahre später
waren die Terminologie und die aufgeworfenen Fragen nicht mehr die gleichen.
Die Regierung beauftragte Komitees, die sich aus Akademikern und Beamten
zusammensetzten und von den großen privaten Stiftungen unterstützt wur-
den, mit der Analyse der Probleme und der Erarbeitung von Vorschlägen. In
diesen Komitees wurde eine liberale“ politische Linie, das heißt eine Linie
”
des Fortschritts“ entworfen und formuliert – im amerikanischen Sinne dieses
”
Begriffes (der in Europa eine andere Konnotation hat). Eines dieser Komitees
untersuchte 1934 die Verbesserung der nationalen Ressourcen“ mit der Über-
”
zeugung, daß Wissenschaft und Technik als solche mobilisiert werden müssen,
um die sozialen Probleme zu lösen:
Die Anwendung der Ingenieurskunst und des technologischen Wissens
auf die Reorganisation der natürlichen Ressourcen der Nation muß
als ein Mittel konzipiert werden, die Last der Arbeit schrittweise zu
verringern und dadurch den Lebensstandard und den Wohlstand der
Masse der Bevölkerung zu erhöhen. (National Resources Committee,
1934, zitiert von Anderson, 1988, [4]).
Vom ersten Komitee wurde ein weiteres Komitee zu Bevölkerungsproble-
”
men“ mit dem Ziel bestellt, die Fragen der sozialen und ethnischen Unterschie-
de genauer zu untersuchen. Der von diesem Komitee im Jahre 1938 übergebe-
ne Bericht vertrat einen Standpunkt, der das genaue Gegenteil der Theorien
der 1920er Jahre war. Entsprechend diesem Bericht hat die Einwanderung
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte 231
Leben erweckt und man mobilisierte das Census Bureau, damit es die Berech-
nungsgrundlage zur Verteilung der Subventionen auf die Einzelstaaten lieferte.
Aber die Gerechtigkeitsprinzipien, von denen diese neuen Politik beseelt war,
stützten sich nicht mehr nur auf die anteilmäßige Verteilung der Vertretungen
und der finanziellen Belastungen, wie es in der Tradition der Gründerväter
üblich war. Diese Gerechtigkeitsprinzipien bezogen sich von nun an auch auf
individuelle Ungleichheiten, die mit der Rasse, dem Beruf und dem Einkom-
mensniveau zusammenhingen. Zur Durchführung dieser Strategie waren Infor-
mationen neuen Typs erforderlich. Individuell-nationale“ Statistiken konn-
”
ten nicht durch aufwendige Zählungen bereitgestellt werden, die nur selten
durchgeführt wurden. Dagegen erwiesen sich regelmäßige und auf Bundes-
ebene durchgeführte Stichprobenerhebungen als adäquat zur Durchführung
von Maßnahmen, die sich am Begriff der landesweit empfundenen individu-
ellen Ungleichheiten orientierten. Der Raum der Nation war nicht mehr nur
ein politischer und juristischer Raum. Er war auch zu einem statistischen
Äquivalenz- und Komparabilitätsraum geworden, der das Verfahren der Zu-
fallsstichprobenerhebung rechtfertigte – daß heißt die Ziehung von Kugeln
aus einer Urne, wobei die Kugeln“ nunmehr Individuen“ sind, die nicht nur
” ”
politische, sondern auch soziale Rechte haben.
Die Bilanz der amerikanischen Statistik der beiden Jahrzehnte 1921–30
und 1931–40 weist starke Kontraste auf. In dieser Zeit begann man damit,
die Statistik auf zwei partiell unterschiedliche Weisen in die Gesellschaft ein-
zubringen. Es mag nützlich sein, diese beiden Einbringungsweisen“ zu ty-
”
pisieren – auch auf die Gefahr hin, die entsprechenden Merkmale zu über-
treiben, da diese Merkmale ja bekanntlich in den real existierenden Systemen
in unterschiedlichem Maße kombiniert sind. Die 1920er Jahre waren nicht
nur Jahre der Debatten über Einwanderung und ethnische Quoten. Hoover,
der 1921 Handelsminister war, hatte ein lebhaftes Interesse an Wirtschafts-
statistik, die sich auf Unternehmen und die Geschäftstätigkeit bezog. Aber
er interessierte sich auch für die Arbeitslosigkeit und hatte die Vorstellung,
daß die Administration die Spielregeln und das Umfeld garantieren und ver-
bessern kann, in deren Rahmen die Unternehmen ihre Aktivitäten entfalten.
Von diesem Standpunkt konnten sich Informationen zum Konjunkturverlauf
– aufgeschlüsselt nach Branchen und Regionen – als sehr nützlich erweisen,
wenn man Managementfehler vermeiden wollte, die zu Konkursen und Ar-
beitslosigkeit führen. Das war der Grund dafür, warum Hoover im Jahre 1921
den Census dazu anspornte, einen Bericht über die laufende Geschäftstätig-
”
keit“ (Survey of Current Business) zu organisieren. Darüber hinaus richtete er
einen Ausschuß ein, der die Aufgabe hatte, die Ursachen der Arbeitslosigkeit
zu untersuchen und entsprechende Gegenmittel zu finden. Aber diese Informa-
tionen waren eher mikroökonomischer Art oder zumindest branchenbezogen
und lokal. Der Staat konnte in keinem Fall direkt in das makroökonomische
Gleichgewicht eingreifen und er konnte auch keine globale Politik der Arbeits-
losenunterstützung betreiben, denn Eingriffe dieser Art hätten das freie Spiel
der Marktkräfte verzerrt. Der letztgenannte Aspekt wurde in der Folgezeit
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte 233
nach dem Zusammenbruch der Wirtschaft beibehalten, als Hoover von 1929
bis 1932 Präsident war. Jedoch bedeutete diese Linie, die dem Eingreifen des
Staates in die makroökonomische Regulierung feindselig gegenüberstand, kei-
nen Widerspruch zu dem lebhaften Interesse an statistischen Informationen,
durch die das reibungslose Funktionieren der Märkte gefördert werden sollte.
Der wirtschaftliche Zusammenbruch zu Beginn der 1930er Jahre führte
beinahe zur Auflösung der Gesellschaft und dieser Umstand ermöglichte es
der neuen Administration, mit einigen wichtigen amerikanischen Dogmen zu
brechen, die sich auf das Gleichgewicht der Gewalten zwischen der Födera-
tion, den Einzelstaaten, den Gemeinden und den geschäftlich frei agierenden
Unternehmen bezogen. Die Einrichtung von föderalen Regulierungssystemen
in Bezug auf Finanzen, Banken, Haushalt und soziale Fragen überantwortete
der Regierung in Washington eine völlig neue Funktion. Um diese neue Funk-
tion ausüben zu können, stützte sich die Administration – vor allem über
die Vermittlung der reichen privaten Stiftungen (Carnegie, Ford, Rockefel-
ler u.a.) – immer mehr auf Experten in den Bereichen Sozialwissenschaften,
Wirtschaft, Demographie, Soziologie und Recht. In dieser Zeit knüpften hoch-
karätige Statistiker und Ökonomen, welche die öffentliche Statistik in Schwung
hielten, enge Beziehungen zu Akademikern, die ihrerseits aufgrund der Gut-
achtenanforderungen der Administration mobilisiert waren. In diesem Kontext
entwickelten sich nicht nur die auf Stichprobenerhebungen aufbauende quan-
titative Soziologie in Chicago und an der Columbia University (Converse,
1987, [49]; Bulmer, Bales und Sklar, 1991, [39]), sondern auch die volkswirt-
schaftliche Gesamtrechnung (Duncan und Shelton, 1978, [74]) und die ersten
makroökonomischen Modelle (Morgan, 1990, [204]), auf die sich in der Zeit
von 1940 bis in die 1970er Jahre die vom Keynesianismus inspirierten politi-
schen Maßnahmen stützten. Und schließlich kam es in den 1980er Jahren in
den Vereinigten Staaten und in Großbritannien zur Wiederkehr einer Philoso-
phie der Wirtschaftsinformation, was in gewisser Weise an die entsprechende
Situation der 1920er Jahre erinnert.
7
Pars pro toto: Monographien oder Umfragen1
ist: Bevor man die Lösung eines Problems erfand, mußte man erst das Problem
erfinden, das heißt in diesem Fall die Randbedingung der Repräsentativität
im Sinne des Begriffes, wie er seit dieser Zeit von den Statistikern verwen-
det wurde. Man darf aber nicht verkennen, daß dieses Bestreben – das in der
Sprache der Homothetie für gewisse, exakt definierte Elemente des Teils und
des Ganzen zum Ausdruck kommt – neueren Ursprungs war und in jedem
Fall nach den großen Zählungen (Quetelet, ab 1840) und monographischen
Untersuchungen (Le Play, fast um die gleiche Zeit) entstanden ist. Die Ge-
schichte der empirischen Sozialwissenschaften, der Statistik und insbesondere
der Techniken der Stichprobennahme (Seng, 1951, [255]; Hansen, 1987) er-
weckt den Eindruck, daß man von einer Zeit, in der sich die Frage der Re-
präsentativität praktisch nicht stellte – man denke etwa an die zwischen 1914
und 1916 erschienenen Veröffentlichungen der SGF (Statistique générale de la
France) oder an die vom Statistiker Dugé de Bernonville und vom Soziologen
Halbwachs durchgeführten Enqueten zu den Familienbudgets) –, unmittelbar
zu einer anderen Zeit überging, in der die Evidenz dieser Frage überhaupt
nicht geprüft wurde (man vergleiche die Debatten des Internationalen Insti-
tuts für Statistik , die zwischen 1895 und 1903 und dann zwischen 1925 und
1934 geführt wurden).
Fand eine Debatte statt, dann bezog sie sich nicht auf die Randbedingung
der Repräsentativität. Die Debatten wurden in zwei abgrenzbaren Zeiträumen
geführt. Zwischen 1895 und 1903 ging es einerseits darum, zu wissen, ob man
das Ganze (also Vollerhebungen) in legitimer Weise durch einen Teil (das
heißt durch Teilerhebungen) ersetzen kann. Andererseits wollte man wissen,
ob man damit besser“ fährt als mit den LePlayschen Monographien“, die
” ”
sich immer noch großer Beliebtheit erfreuten. Wie wir sehen werden, bezog
sich dieses besser“ nicht unmittelbar auf die Randbedingung der Repräsen-
”
tativität im Sinne der Genauigkeit der Messung, sondern auf die Möglichkeit,
einen diversifizierten Raum zu berücksichtigen. Zwischen 1925 und 1934 dreh-
te sich die Debatte dann um die Entscheidung zwischen den Methoden der
zufälligen Stichprobennahme“ und den Methoden der bewußten Auswahl“:
” ”
die Entwicklung der Theorie der Stratifizierung durch Neyman versetzte den
letztgenannten Methoden den Todesstoß.
Diese aus der Geschichte der Stichprobenerhebungen hervorgegangene
Chronologie beschreibt die Art und Weise, in der sich zwischen 1895 und
1935 die allgemein anerkannten sozialen Normen so transformierten, daß sie
den neuen Anforderungen entsprachen. Es handelte sich hierbei um die vor-
aussichtlichen Anforderungen, die an die Beschreibungen der Gesellschaft zu
stellen sind – wobei das Ziel darin besteht, Beobachtungen, die man in Bezug
auf einen Teil der Gesellschaft gemacht hatte, so zu verallgemeinern, daß man
Aussagen über die ganze Gesellschaft erhält. Wie aber soll man vom Teil“
”
auf das Ganze“ schließen? Die beiden Möglichkeiten der sukzessiven und der
”
gleichzeitigen Verallgemeinerung, wie sie in den seit anderthalb Jahrhunder-
ten durchgeführten Sozialenqueten stattfanden, schienen heterogen und nicht
miteinander vergleichbar zu sein – so als ob jede dieser Verallgemeinerungen
7 Pars pro toto: Monographien oder Umfragen 237
ihren eigenen Gültigkeitsbereich und ihre eigene Logik hätte. Es sah auch so
aus, als ob eine Konfrontation dieser beiden Verallgemeinerungen nur auf der
Grundlage einer wechselseitigen Denunziation erfolgen könne. Diese scheinba-
re Unvereinbarkeit läßt sich besser verstehen, wenn man sie in den Rahmen
des umfassenderen Gegensatzes der unterschiedlichen Denkweisen stellt, mit
denen die Zusammenhänge zwischen den Teilen und dem Ganzen einer Gesell-
schaft betrachtet wurden – Denkweisen, die seit Beginn des 19. Jahrhunderts
im Anschluß an die beiden sozialen Erschütterungen (Französische Revoluti-
on und englischer Wirtschaftsliberalismus) miteinander rivalisierten. Derarti-
ge Analysen der Transformationen der Beziehungen zwischen den Teilen und
dem Ganzen finden sich in den Untersuchungen von Polanyi (1944), Nisbet
(1984, [212]) und Dumont (1983, [73]).
Der den Anthropologen und den Historikern vertraute Gegensatz zwischen
Holismus“ und Individualismus“ liefert eine Definition des Ganzen“, die
” ” ”
für unsere Zwecke nicht ausreicht. In der holistischen“ Vorstellung, die für
”
Dumont die Vorstellung von den traditionellen Gesellschaften vor den revo-
lutionären politischen und wirtschaftlichen Erschütterungen war, besaß das
gesellschaftliche Ganze eine Existenz, die zeitlich vor den Teilen der Gesell-
schaft (und insbesondere vor den Individuen) existierte und über diesen stand.
Dagegen schließen sich in der individualistischen“ Vorstellung der modernen
”
Gesellschaften die Individuen, Bürger und Wirtschaftsfaktoren in unterschied-
licher Weise zu Gruppierungen zusammen, ohne aber von diesen Gruppierun-
gen überragt oder gänzlich subsumiert zu werden. Aber bei dieser Art und
Weise, ein die Personen umfassendes Ganzes zu entwerfen, das den atomisier-
ten Individuen der modernen Gesellschaften gegenübersteht (und das man
auch in dem Gegensatz Gemeinde – Gesellschaft“ von Tönnies antrifft), fin-
”
det eine andere Konstruktion des Ganzen überhaupt keine Berücksichtigung,
nämlich die kriterielle Konstruktionsweise – und gerade diese ist es, die der
Statistiker bei der Konstruktion einer repräsentativen Stichprobe anwendet.
Das soziale Ganze“ des Holismus von Dumont und das Exhaustive“ der
” ”
Statistik sind zwei verschiedene Denkweisen, die Gesamtheit zu erfassen. Der
Gegensatz dieser Denkweisen hilft beim Verständnis dessen, worin der Unter-
schied zwischen den beiden impliziten Verallgemeinerungsweisen besteht, die
bei Monographien und bei Stichprobenerhebungen zum Tragen kamen.
Diese schematisch stilisierten intellektuellen Gefüge rivalisierten miteinan-
der und verbanden sich im Laufe des 19. Jahrhunderts auf unterschiedliche
Weise in den Arbeiten der Gründerväter der Sozialwissenschaften: Quetelet,
Tocqueville, Marx, Tönnies, Durkheim und Pareto (Nisbet, 1966). Aber die
genannten Denkweisen traten nicht als deus ex machina auf den Plan, indem
abwechselnd die Strippen dieser oder jener Praxis der empirischen Forschung
gezogen wurden. Vielmehr handelte es sich um Gefüge, die alle ihre eigene
Kohärenz besaßen und relativ heterogen in Bezug aufeinander waren, was man
anhand der Debatten über die Erhebungsmethoden des betrachteten Zeit-
raums verfolgen kann. Jedes dieser intellektuellen Gefüge implizierte gleich-
zeitig unterschiedliche Auffassungen über die Verwaltung der Gesellschaft,
238 7 Pars pro toto: Monographien oder Umfragen
über den Rang der Sozialwissenschaften bei dieser Verwaltung und über den
Stellenwert der probabilistischen Schemata in diesen Wissenschaften – von
Quetelet bis hin zu Ronald Fisher. Damit haben wir einen Leitfaden für die
Untersuchung einer Geschichte, in der man Sozialenqueten beschrieb, bevor
über die repräsentative Methode“ gesprochen wurde. Aber wir haben damit
”
auch einen Leitfaden für Untersuchungen zur Entwicklung von Anwendungen
wahrscheinlichkeitstheoretischer Überlegungen in dieser Zeit, für Betrachtun-
gen zu den Debatten am Internationalen Institut für Statistik zwischen 1895
und 1934, für Untersuchungen der ersten Anwendungen der probabilistischen
Methode und für das Studium der Diskussionen über zufällige Auswahl“ und
”
bewußte Auswahl“.
”
Zeit bevor der Norweger Kiaer seine hiervon grundlegend verschiedene re-
”
präsentative Methode“ vorstellte:
schiedlichen Milieus typisch waren. Das tat zum Beispiel Halbwachs kurze
Zeit später und einer seiner Kritikpunkte war die Verfahrensweise der im Gei-
ste von Le Play verfaßten Monographien (Halbwachs, 1912, [121]). Die Frage
war also: Wozu dienten diese Monographien? Die Erhebungen schienen im
Wesentlichen auf die Verteidigung und Illustration einer gewissen Auffassung
von der Familie und den sozialen Beziehungen ausgerichtet gewesen zu sein.
Die von Cheysson vorgebrachten Argumente bezogen sich auf die Bedürfnisse
der Verwaltung und des Gesetzgebers, die darauf bedacht waren, die Aus-
wirkungen ihrer allgemeinen und abstrakten Maßnahmen auf die konkreten
Einzelfälle der Familien zu ermitteln. Jedoch hingen diese verwaltungsseitigen
Bestrebungen auch mit einer moralischen Sorge zusammen:
Dieses Wissen ist sowohl für den Moralisten unerläßlich, der auf die
Sitten einwirken will, als auch für den Staatsmann, der in der Öffent-
lichkeit wirkt. Das Gesetz ist eine zweischneidige Waffe: es hat eine
große Macht, Gutes zu tun, aber in unerfahrenen Händen kann es auch
sehr viel Unheil anrichten. (Cheysson, 1890, [45].)
Tatsächlich wurden mögliche Anwendungen erwähnt, nämlich einerseits
Untersuchungen zur Verteilung der steuerlichen Lasten auf Landwirte, Kauf-
leute und Industrielle und andererseits Analysen der Wirksamkeit der Be-
stimmungen zum Verbot der Frauen- und Kinderarbeit. Aber sogar in diesen
Fällen war eine explizite moralische Sorge erkennbar. Dagegen wurde keine
Technik angegeben oder auch nur vorgeschlagen, die eine praktische Vermitt-
lung zwischen den wenigen verfügbaren Monographien und den staatlichen
Totalisierungen ermöglicht hätte: zu keinem Zeitpunkt wurde die Frage nach
einem eventuellen kategoriellen Rahmen aufgeworfen, in dem die individuellen
Fälle ihren Platz gefunden hätten. Die Monographien von Le Play und seinen
Schülern wurden aus technischen und politischen Gründen kritisiert und dann
vergessen. Zum einen boten sie keinerlei methodische Garantie bezüglich der
Stichprobenauswahl; zum anderen unterstützten sie einen Diskurs, welcher
der Französischen Revolution, dem allgemeinen Wahlrecht und dem Bürger-
lichen Gesetzbuch feindselig gegenüberstand. Dieser Diskurs zielte darauf ab,
die sozialen Beziehungen des Ancien Régime wiederherzustellen. Und dennoch
war das kognitive und politische Konzept kohärent. Das Wissen basierte auf
einer langandauernden Vertrautheit des Demoskopen mit der Arbeiterfami-
lie. Dieser ungezwungene Umgang wurde explizit als nützlich befunden – und
zwar nicht nur, weil er Wissen produzierte, sondern auch deswegen, weil ein
persönliches Vertrauensverhältnis zwischen Mitgliedern der Oberschicht und
der Unterschicht hergestellt und gepflegt wurde.
Eine solches Wissen, das auf einem direkten Kontakt und dem Wert des
Beispiels aufbaute, schloß im Übrigen eine vergleichende Betrachtung keines-
wegs vollständig aus. Besondere Aufmerksamkeit widmete man dem nichtmo-
netären Teil des Einkommens, der unter Bezeichnungen wie Zuschüsse“ oder
”
unerwartete Glücksfälle“ registriert wurde: es handelte sich hierbei um Rech-
”
te zur Nutzung von kommunalem Grund und Boden, um Familiengärten und
242 7 Pars pro toto: Monographien oder Umfragen
Halbwachs – ein Schüler von Durkheim – war mehr als sein Lehrer an Er-
hebungstechniken und Tatsachenbeobachtungen interessiert, wie man anhand
seiner Dissertation ( thèse“) La classe ouvrière et des niveaux de vie (1912,
”
[121]) erkennen kann, die sich mit den Lebensniveaus und Bedürfnissen der
Arbeiterklasse befaßt. Weit mehr als die Leplaysianer (leplaysiens), deren Ar-
beiten er heftig kritisierte, war er für die Diversität der beobachteten Fälle
empfänglich und suchte nach Mitteln, diese Diversität zu interpretieren – so
wie es Durkheim in seinem Werk Der Selbstmord getan hatte, mit dem er die
moderne quantitative Soziologie erfand. Außerdem kannte Halbwachs einige
Arbeiten der Wahrscheinlichkeitstheoretiker: seine Ergänzungsschrift ( thèse
”
complémentaire“) (1913, [122]) lautet La théorie de l’homme moyen; essai sur
4
Quetelet et la statistique morale , und er hat zusammen mit Maurice Fréchet
im Jahre 1924 (vgl. [97]) sogar ein kleines Handbuch der Wahrscheinlichkeits-
rechnung verfaßt. Die kompakte Diskussion über die Probleme bei Stichpro-
bennahmen und Erhebungen hatte jedoch den Titel Le nombre des budgets
und bezog sich auf das ökonomische“ Gleichgewicht, das zwischen der An-
”
zahl der befragten Personen und der mehr oder weniger gründlichen Art der
Beobachtungen gefunden werden mußte. Mit anderen Worten: es ging um den
Vergleich zwischen den als intensiv“ und extensiv“ bezeichneten Methoden
” ”
und nicht um die Probleme der Ziehung von Stichproben, auf die er gar nicht
einging.
Das, was Halbwachs vom Gesetz der großen Zahlen beibehalten hat, be-
stand darin, daß sich eine Gesamtheit von kleinen“, zahlreichen, zufälligen
”
und unterschiedlich gerichteten Ursachen gegenseitig kompensiert und einen
Mittelwert“ erzeugt, der nach dem Schema von Quetelet angeblich die es-
”
sentielle Wahrheit offenbart. Das galt insbesondere für die als extensiv be-
zeichnete Methode, die damals in den Vereinigten Staaten ziemlich verbreitet
war, wobei manche Stichproben einen Umfang von mehr als 10000 Perso-
nen hatten. Aber ebenso wie er die intensive LePlaysche Methode ablehnte,
die keinen Hinweis auf die Diversität lieferte und daher keine Kreuzungen“
”
von Variablen erlaubte, um Erklärungen vorzuschlagen, so verwarf er auch
die extensive Methode der Amerikaner. Als konsequenter Soziologe der Durk-
heimschen Schule mißtraute er einer mikrosoziologischen Interpretation des
Gesetzes der großen Zahlen. In der Tat waren sich seiner Meinung nach die
Anhänger der extensiven Methoden des Umstandes wohl bewußt, daß die er-
haltenen Antworten Fehler, Ungenauigkeiten oder Unterlassungen enthalten
konnten, aber
... sie glaubten, daß sie bei einer Erhöhung der Anzahl der Fälle
durch die Wirkung des Gesetzes der großen Zahlen eine Kompen-
4
Die Theorie des Durchschnittsmenschen; Essai über Quetelet und die Moralsta-
tistik.
244 7 Pars pro toto: Monographien oder Umfragen
Arbeiterbevölkerung und das war genau der Punkt, an dem er sich Le Play
und dessen Auswahl typischer Fälle“ widersetzte, die auf Durchschnitten be-
”
ruhten. Halbwachs fragte sich, durch welches sichtbare äußere Merkmal man
eine durchschnittliche Arbeiterfamilie wenigstens in Bezug auf die Struktur
ihrer Einnahmen und ihrer Ausgaben charakterisieren kann:
wie streng die Bücher in diesen Extremfällen geführt worden waren und
schloß mit der eisigen Frage, ob diese Anteile an extrem mittellosen Perso-
nen tatsächlich zur Arbeiterklasse gehörten, denn sie dringen nicht bis in das
”
allgemeine Bewußtsein vor“:
... aufgrund des ärmlichen Zustands dieser Haushalte gibt vielleicht
eine kurze Beobachtung ein richtiges Bild ihres chronischen Elends,
aber man kann sich dessen nicht sicher sein. Außerdem ist diese untere
soziale Schicht, die nicht in das allgemeine Bewußtsein vordringt, nicht
die interessanteste für die Untersuchung der sozialen Schichten und
kann allenfalls nur oberflächlich bekannt werden. (Halbwachs, 1912,
[121].)
Trotz allem, was die Leplaysianer und die Durkheimianer in ihren wis-
senschaftlichen und politischen Projekten voneinander unterscheidet, lassen
sich bezüglich ihrer Vorgehensweise dennoch einige gemeinsame Punkte fest-
halten: Zuallererst waren sie darauf bedacht, die Natur der von den revolu-
tionären Veränderungen aufgelösten sozialen Bindungen neu zu überdenken
(wobei die Durkheimianer zugegebenermaßen subtiler vorgingen als die Le-
playsianer); ferner waren sie mit ihren empirischen Methoden bestrebt, auf
die Beständigkeit der alten Formen und auf die Entstehung neuer Formen
derartiger Bindungen hinzuweisen, indem sie in jedem Falle deren moralische
Tragweite würdigten. Diese Art und Weise der Anwendung einer empirischen
Methode zum Zweck einer sozialen Rekonstruktion war im gesamten 19. Jahr-
hundert üblich – Quetelet eingeschlossen. Jedoch war diese Vorgehensweise
noch nicht mit der Absicht einer direkten sozialen und politischen Aktion
verbunden und demzufolge war es auch nicht erforderlich, daß es sich bei der
Erhebung um eine Vollerhebung im territorialen oder nationalen Sinne handel-
te. Der für die beschriebenen Fälle vorausgesetzte Allgemeinheitsgrad reichte
zur Unterstützung der politischen und moralischen Entwicklungen aus und
setzte dabei keinerlei Form der territorialen Einordnung voraus (außer notge-
drungen für den Fall, in dem Le Play einen allgemeinen Vergleich zwischen
Osteuropa und Westeuropa durchgeführt hatte).
wütete die Wirtschaftskrise und die Lage in London, vor allem in East End,
war besonders dramatisch. Es setzte eine Diskussion darüber ein, welcher Teil
der Arbeiterklasse unterhalb einer als extrem betrachteten Armutsschwelle
lebte. Diese stets und ständig wiederkehrende Debatte erwies sich als unlösbar,
da die Definitionen der Armutsschwelle und der entsprechenden Meßmethoden
reichlich konventionell waren. Dennoch erwies sich die Debatte als signifikant,
denn sie war der Ursprung einer Armutstypologie, die gleichzeitig deskrip-
tiv, explikativ und operativ war. Aus seinen Messungen der Armut leitete
Booth Lösungsmaßnahmen ab: Ausweisung der sehr Armen aus London –
das heißt derjenigen Personen, die aus im Wesentlichen moralischen Gründen
(Trunksucht, Gedankenlosigkeit) arm waren –, um die Lasten derjenigen zu
erleichtern, die etwas weniger unter der Armut litten und aus wirtschaftlichen
oder jedenfalls makrosozialen Gründen (Krise) verarmt waren. Die Einteilung
erwies sich tatsächlich als viel komplexer (es gab acht Kategorien) und bezog
sich sowohl auf die Höhe als auch auf die Regelmäßigkeit des Einkommens
(vgl. Kapitel 8). Die Zählungen wurden auf der Grundlage der Eindrücke“
”
von Kontrolleuren“ vorgenommen und führten zu detaillierten Statistiken.
”
Aber das eigentlich Wichtige war die Verbindung der Taxonomie mit den
geographischen Ergebnissen. Bis zu diesem Zeitpunkt wurden die Armutspro-
bleme auf der Ebene der Stadtgemeinden behandelt. Aber das Beispiel Lon-
dons war besonders dramatisch und es zeigte sich, daß – im Gegensatz zur
allgemeinen Meinung – der Anteil der sehr Armen“ in ganz London kaum
”
niedriger war als in East End allein (Untersuchung von Charles Booth). Die
Frage der geographischen Repräsentativität der Ergebnisse, die für die ein-
zelnen Stadtteile gewonnen wurden, führte allmählich zu politischen Schluß-
folgerungen. Der Vorschlag zur Ausweisung der sehr Armen stützte sich auf
die Überzeugung, daß die Situation in London am gravierendsten war. Nun
war aber die Untersuchung nur in London durchgeführt worden und es war
nicht mehr möglich, Verallgemeinerungen nach Art von Le Play oder gar nach
Art von Halbwachs vorzunehmen. Um handeln zu können, benötigte man ein
Modell , und zwar ein reduziertes Modell .
Rowntree organisierte einige Jahre später in anderen Städten Englands
(insbesondere in York) Untersuchungen, die mit den von Booth in London
durchgeführten Erhebungen vergleichbar waren. Er spürte, daß die Methoden
von Booth fragwürdig waren und widmete den Techniken der Datensamm-
lung eine größere Aufmerksamkeit. Jedoch konnte er die Methoden nicht
vollständig ändern, denn sein Ziel bestand darin, die Anteile der sehr Ar-
men in beiden Städten miteinander zu vergleichen. Nun zeigte es sich aber,
daß dieser Anteil in York kaum niedriger war als in London. Dieses Ergeb-
nis unterstützte das Argument, gemäß dem die Armut nicht lokal behandelt
werden kann. Die Verabschiedung eines neuen Fürsorgegesetzes (poor law ) im
Jahre 1908 erfolgte im Kontext einer nationalen Verantwortungsübernahme
für eine entstehende soziale Sicherung. Auf diese Weise gab man makrosoziale
Antworten auf Probleme, die nicht mehr im Rahmen der individuellen Moral
präsentiert werden konnten (Lohnzurückhaltung der Arbeiter und bürgerliche
Die Armen: Wie beschreibt man sie und was macht man mit ihnen? 249
Wohltätigkeit). In der Zeit zwischen Booth (1880er Jahre) und Rowntree (im
Zeitraum zwischen 1900 und 1910) wurden die anfänglich lokal formulierten
Probleme durch Begriffe ausgedrückt, die sich auf das ganze Land bezogen.
Jedoch gab es noch kein Werkzeug, auf das sich diese neue nationale Sozial-
statistik stützen konnte. Dieses Werkzeug wurde von Bowley eingeführt.
Die Beziehung zwischen der Erhebungstechnik, dem von ihr erwarteten
Nutzen und den eingesetzten Mitteln änderte sich nicht nur aufgrund der
Verabschiedung der neuen Sozialgesetze radikal, sondern auch wegen der im
damaligen England zunehmenden Bedeutung der Diskussionen über die Kon-
kurrenz zwischen den großen Industrieländern und über die Frage des Freihan-
dels. Es wurden mehrere Erhebungen durchgeführt, in denen man verschie-
dene Länder miteinander verglich. Rowntree nahm Kontakt zu Halbwachs
auf, der auf der Grundlage der Methoden des Engländers eine Untersuchung
durchführte, die von der SGF veröffentlicht wurde (Halbwachs, 1914, [123]).
Vor allem aber organisierte das englische Board of Trade in der Folgezeit ei-
ne umfassende Operation in mehreren Ländern. Zwar setzte man dabei noch
keine probabilistischen Methoden ein, aber es war die erste derart umfang-
reiche Erhebung in Europa und vor allem bezog sie sich auf mehrere Länder.
In Frankreich führte man Umfragen bei 5605 Arbeiterfamilien durch; die Fra-
gebögen wurden von Arbeitnehmergewerkschaften in ungefähr dreißig Städten
verteilt (Board of Trade, 1909, [18]).
Die englische liberale Regierung brauchte Argumente für ihren Kampf ge-
gen den Protektionismus und stellte deswegen bedeutende öffentliche Mittel
für das Board of Trade bereit. Diese Mittel ermöglichten es, Untersuchungen
in einer großen Zahl von Städten durchzuführen. Darüber hinaus konnte man
jetzt diejenigen Probleme formulieren, die für die spätere Errichtung der für
Stichprobenerhebungen erforderlichen Infrastruktur entscheidend waren: Or-
ganisation eines Netzwerks von homogenen“ Demoskopen und Berücksich-
”
tigung der Unterschiede, die auf lokale Umstände“ zurückzuführen waren
”
(Wohnungstypen, Verbrauchergewohnheiten, Beschäftigungsstrukturen). Die
Nutzung derartiger Erhebungen für einen Vergleich zwischen Städten inner-
halb eines Landes war ein a priori nicht gewolltes Nebenprodukt des interna-
tionalen Vergleichs (Hennock, 1987, [128]).
Die nächste Phase, die durch diese großangelegte Operation möglich wur-
de, bestand darin, daß Bowley auf plausible Weise die Bedingungen für die
Möglichkeit von (entsprechend der damaligen Terminologie) repräsentativen“
”
Erhebungen formulieren konnte. Er tat dies, indem er eine derartige Erhe-
bung mit einer Quote von 1:20 in vier ausgewählten Städten durchführte,
von denen zwei eher mono-industriell“ waren, die anderen beiden dagegen
”
multi-industriell“. Er hatte auch erkannt, daß die Voraussetzungen der Ex-
”
haustivität und der Repräsentativität einander bedingten: die Verpflichtung
zu antworten war ein Thema, das früher nicht existierte. Durch diese Vorge-
hensweise entfernte er den Prozeß der Wechselwirkung zwischen Befrager und
Befragung aus dem Modell des vertrauensvollen Umgangs, der im Rahmen des
Soziabilitätsnetzwerks der früheren Erhebungen entstanden war. Stattdessen
250 7 Pars pro toto: Monographien oder Umfragen
auch vom Verwaltungsbeamten, der direkt für die Bearbeitung der sozialen
Probleme verantwortlich zeichnete.
Von Monographien
zu systematischen Stichprobenerhebungen
Das neue Berufsbild zeichnete sich immer deutlicher in den nationalen stati-
stischen Gesellschaften und vor allem im Internationalen Institut für Statistik
(IIS) ab, das 1883 gegründet wurde und die bedeutendsten Staatsstatistiker
zusammenführte. In diesen verschiedenen Einrichtungen wurden die aufge-
klärten und eklektischen Amateure des 19. Jahrhunderts zwischen 1900 und
1940 allmählich durch professionelle Techniker der Statistik ersetzt, die eine
immer größere mathematische Bildung und eine immer geringere historische
oder politische Bildung hatten. Das war der Rahmen, in dem die repräsenta-
”
tive Methode“ nach 1895 zweimal diskutiert wurde. Den Anstoß hierzu gab der
Norweger Kiaer, der 1894 in seiner Heimat eine erste repräsentative Zählung“
”
durchgeführt hatte. Diese Zählung beinhaltete aufeinanderfolgende Auswah-
len von Orten und Personen, die in diesen Orten befragt wurden, und bezog
sich auf Berufe, Einkommen, Ausgaben, Ehe und Anzahl der Kinder sowie auf
die Anzahl der Tage, an denen nicht gearbeitet wurde.
Die Initiative von Kiaer wurde ausgiebig auf den vier aufeinanderfolgenden
Kongressen des IIS diskutiert, die in der Zeit zwischen 1895 und 1903 stattge-
funden hatten. Auf dem Berliner Kongreß 1904 wurde ein Antrag angenom-
men, der diese Methode unter dem Vorbehalt favorisierte, daß klar erkennbar
anzugeben ist, unter welchen Voraussetzungen die beobachteten Einheiten
”
ausgewählt werden“. Der damals angeforderte Bericht wurde erst 1925 von
dem Dänen Jensen vorgelegt und man nahm einen Antrag an, der keinen Un-
terschied zwischen dem Verfahren der zufälligen Auswahl“ (random sample)
”
und dem Verfahren der bewußten Auswahl“ 5 (purposive sample) machte. Die
”
letztgenannte Methode wurde erst im Anschluß an die Arbeiten von Neyman
im Jahre 1934 eliminiert.
In der ersten Phase (1895–1903) hatte man den wahrscheinlichkeitstheo-
retischen Aspekt der neuen Methode und die Notwendigkeit des zufälligen
Charakters der Auswahlen kaum wahrgenommen. Im Übrigen war Kiaer bei
seiner ersten Erhebung 1894 in dieser Hinsicht nicht sehr anspruchsvoll und
erfaßte damals noch nicht die Bedeutung des wahrscheinlichkeitstheoretischen
Aspekts. Nachdem er beispielsweise die Orte und Straßen sorgfältig gezogen“
”
hatte, überließ er den Befragern die Auswahl der zu besichtigenden Häuser:
Sie mußten dafür Sorge tragen, nicht nur Häuser zu besuchen, die
vom sozialen Standpunkt zum Durchschnitt gehören, sondern im All-
gemeinen auch Häuser, welche die unterschiedlichen sozialen und wirt-
5
Auch gezielte Auswahl“ genannt.
”
252 7 Pars pro toto: Monographien oder Umfragen
Kiaer beharrte mit Nachdruck und zum ersten Mal an einer solchen Stel-
le auf dem Begriff der Repräsentativität. Damit wollte er zeigen, daß man
mit Hilfe einiger (vorerst noch rudimentärer) Vorsichtsmaßnahmen bezüglich
der Stichprobenauswahl für einige kontrollierbaren“ Variablen (die bereits in
”
den Vollerhebungen auftraten) hinreichend gute Ergebnisse erzielt und deswe-
gen voraussetzen kann, daß diese Ergebnisse auch für die anderen Variablen
hinlänglich gut“ sein würden, ohne eine allzu präzise Definition des letztge-
”
nannten Begriffes zu geben. Das Wesen des Begriffs der Repräsentativität war
hier bereits vorhanden: Der Teil kann das Ganze ersetzen – dagegen dachte
man bei den früheren Untersuchungen nicht daran, einen Teil mit dem Ganzen
zu vergleichen, denn man faßte das Ganze nicht mit denselben Begriffen auf.
So war bei Quetelet der Durchschnittsmensch eine Zusammenfassung“ der
”
Bevölkerung, aber die Aufmerksamkeit konzentrierte sich auf die durchschnitt-
lichen Merkmale und deren Regelmäßigkeiten und nicht auf die tatsächliche
Bevölkerung mit ihren Grenzen, ihren Strukturen und ihrer Exhaustivität.
Bei Kiaer dagegen ist das Bemühen um eine in diesem neuen Sinne ex-
haustive und repräsentative Beschreibung gegenwärtig – auch wenn das ent-
sprechende technische Werkzeug noch nicht verfügbar war. Dieses Werkzeug,
das zur Konstruktion einer Zufallsstichprobe und zur Berechnung der Kon-
fidenzintervalle erforderlich war, wurde erst 1906 von Bowley außerhalb des
IIS vorgestellt (wobei Bowley dann aber 1925 aktiv am Kongreß des IIS teil-
nahm, auf dem die Debatte mit Jensen, March und Gini erneut in Gang kam).
Die technischen Debatten, die bei diesen Zusammenkünften von Statistikern
geführt wurden, sind in bedeutenden Forschungsarbeiten (Seng (1951, [255]),
Kruskal und Mosteller (1980, [160])) unter dem Blickwinkel der allmählichen
Einbeziehung der Ergebnisse der Wahrscheinlichkeitsrechnung und der ma-
thematischen Statistik in die Theorie der Stichprobenauswahl beschrieben
worden. Die für diesen Standpunkt entscheidende Phase war die Arbeit von
Neyman (1934, [210]) zur Stratifizierung, mit der die bewußt“ oder gezielt“
” ”
ausgewählten Stichproben in der Versenkung verschwanden. Wir gehen hier
auf diese Debatten nicht ein, wollen stattdessen jedoch untersuchen, wie Kiaer
seine Methode einführte und wie er das Bedürfnis empfand, diese Methode
mit den Monographien LePlayscher Art zu vergleichen – was einem Statistiker
des nachfolgenden 20. Jahrhunderts nicht mehr in den Sinn gekommen wäre.
Die Rechtfertigungen, die er sogleich für seine Untersuchung gab, waren be-
zeichnend für den plötzlichen Übergang von einer Zeit, in der die Beziehungen
zwischen den Kategorien noch durch den Begriff der Anordnung ausgedrückt
wurden und daher vergleichbar waren, zu einer neuen Zeit. Nun ließen sich
die Individuen verschiedener Kategorien durch ein gemeinsames Maß mitein-
ander vergleichen. Das Thema der Ungleichheit, das in einem anderen System
undenkbar war, wurde zu einem fundamentalen Thema: Man drückte Pro-
bleme der Armut nicht mehr mit Hilfe der Begriffe der Wohltätigkeit und
Von Monographien zu systematischen Stichprobenerhebungen 253
Seit Beginn dieses Jahres wurde und wird in unserem Land eine re-
präsentative Zählung durchgeführt, deren Ziel es ist, verschiedene Fra-
gen zum Projekt der Gründung einer allgemeinen Rentenkasse und
einer Invaliditäts- und Altersversicherung zu klären. Diese Zählung
erfolgt unter der Schirmherrschaft eines parlamentarischen Ausschus-
ses, der mit der Prüfung dieser Fragen beauftragt wurde und dem ich
als Mitglied angehöre. (Kiaer, 1895, [152].)
Zwei Jahre später, 1897, drehte sich die Debatte im Verlauf einer neuen
Diskussion am IIS um das, was die repräsentative Methode“ im Vergleich
”
254 7 Pars pro toto: Monographien oder Umfragen
zur typologischen Methode“ gebracht hat, die damals innerhalb des IIS von
”
Leplaysianischen Statistikern wie Cheysson empfohlen wurde. Kiaer hob nach-
drücklich den territorialen Aspekt hervor, indem er das Gesamtterritorium in
einem verkleinerten Maßstab darstellte und nicht nur Typen zeigte, sondern
auch die Vielfalt der Fälle, die im Leben vorkommen“. Zwar schnitt er da-
”
bei noch nicht die Frage der zufälligen Auswahl an, aber er bestand auf der
Kontrolle der Ergebnisse durch die allgemeine Statistik:
Kiaer beschrieb dann sein ideales Werkzeug, das ebenso reichhaltig wie
die Monographien und ebenso präzise wie die Vollerhebungen war – sofern
man nur die Randbedingung der Repräsentativität einhält (er erfaßte diesen
Begriff intuitiv, besaß aber noch kein Werkzeug dafür):
256 7 Pars pro toto: Monographien oder Umfragen
Noch niemandem war die Idee gekommen, daß es die gleich zu Beginn des
19. Jahrhunderts formulierten wahrscheinlichkeitstheoretischen Sätze ermögli-
chen könnten, mehr über die wahrscheinlichen Fehler“ zu sagen, die bei der
”
Auswahl von Zufallsstichproben auftreten (womit man auch mehr über die
Signifikanz der von Kiaer beobachteten Abweichungen sagen konnte). Sein
Verfahren wurzelte in einer soliden Kenntnis des Terrains und Kontrollen
fanden nur nachträglich statt. Die Deterritorialisierung und die Mathemati-
sierung der Verfahren erfolgten erst später.
Erst 1901 kam es – im Rahmen einer erneuten Diskussion über das Ver-
fahren von Kiaer – zum zaghaften Einsatz von probabilistischen Methoden.
Der Ökonom und Statistiker Bortkiewicz6 behauptete damals, von Poisson
”
für analoge Fälle abgeleitete Formeln verwendet zu haben, um herauszube-
kommen, ob der Unterschied zweier Zahlen auf einen Zufall zurückzuführen
war“. Dabei stellte er fest, daß dies in den von Kiaer vorgestellten Fällen nicht
zutraf und daß die Abweichungen signifikant waren. Demnach war die Stich-
probe von Kiaer nicht so repräsentativ, wie er es gedacht hatte. Es sieht so
aus, als ob Bortkiewicz dem Norweger Kiaer einen schweren Schlag versetzt
hätte. Dennoch nahm im Verlauf der Debatte merkwürdigerweise niemand
die Argumentation von Bortkiewicz auf und es ist nichteinmal bekannt, wie
Kiaer reagiert hat. Vielleicht hatte Bowley davon Wind bekommen“, da er
”
fünf Jahre später, im Jahre 1906, der Royal Statistical Society die ersten Be-
rechnungen von Konfidenzintervallen vorlegte (Bowley, 1906, [29]).
6
Ladislaus von Bortkiewicz (Vladislav Iosifovich Bortkevich), geb. 1868 in St. Pe-
tersburg, gest. 1931 in Berlin. Bortkiewicz studierte in St. Petersburg Rechts-
und Staatswissenschaften und nach dem Staatsexamen mathematische Statistik
bei W. Lexis in Göttingen und G.F. Knapp in Straßburg; seit 1901 Professor für
Staatswissenschaften in Berlin. Bortkiewicz war um die Mathematisierung der
Statistik in Deutschland bemüht.
Wie verbindet man was man schon weiß“ mit dem Zufall? 257
”
Wie verbindet man was man schon weiß“
”
mit dem Zufall?
Die Idee, gemäß der man die Repräsentativität einer Stichprobe durch Kon-
”
trollvariable“ garantieren kann, hatte nichtsdestoweniger im Rahmen der Me-
thode der bewußten Auswahl“ noch etwa dreißig weitere Jahre Bestand. Bei
”
dieser Methode (Erbe der vorhergehenden Epoche) wurde auch weiterhin die
territoriale Einteilung des nationalen Raumes in eine Gesamtheit von Distrik-
ten bevorzugt, aus der man eine Untermenge auswählt – und zwar nicht nach
dem Zufallsprinzip, sondern so, daß eine gewisse Anzahl von wesentlichen
Variablen (die sogenannten Kontrollvariablen) für diese Untermenge und für
das gesamte Territorium den gleichen Wert haben. Eine bemerkenswerte An-
wendung dieser Methode wurde 1928 von dem Italiener Corrado Gini vorge-
stellt. Nachdem man sich aus Platzgründen der individuellen amtlichen sta-
tistischen Berichte der Volkszählung von 1921 entledigen mußte, hatte Gini
die Idee, einen Teil davon zu behalten. Er bewahrte diejenigen Berichte aus
29 (von den insgesamt 214) italienischen Regionalbezirken auf, bei denen die
Mittelwerte der 7 Variablen in der Nähe der betreffenden Landeswerte lagen
(durchschnittliche Höhe über dem Meeresspiegel, Geburtenrate, Sterberate,
Heiratsrate, Anteil der ländlichen Bevölkerung, Anteil der in Ballungsräumen
lebenden Bevölkerung, Durchschnittseinkommen). Die Auswahl der 29 Regio-
nalbezirke, die diesen Randbedingungen am besten entsprachen, war das Er-
gebnis mühsamer tastender Versuche. Gini selbst übte Kritik an der Auswahl
und zeigte, daß es keinen Grund für die Annahme gibt, daß diese Stichprobe
ein guter Ersatz für ganz Italien ist – es sei denn, man macht sehr speziel-
le Voraussetzungen in Bezug auf die Linearität der Korrelationen zwischen
kontrollierten und nichtkontrollierten Variablen.
Die ganze Diskussion, die sich vom Bericht von Jensen im Jahre 1925 bis
zum Artikel von Neyman im Jahre 1934 erstreckte, drehte sich um die Frage
nach dem Zusammenhang zwischen reiner Zufallsauswahl und dem, was be-
”
reits anderweitig bekannt war“ (zum Beispiel aufgrund einer Zählung). Das
hat zunächst zur Methode der Kontrollvariablen“ von Kiaer und anschlies-
”
send zur Methode der bewußten Auswahl“ geführt. Diese Methoden sind
”
nacheinander wieder verworfen worden. Akzeptiert wurde schließlich die Tech-
nik der geschichteten Stichprobenauswahl auf der Grundlage von A-priori -
Einteilungen der Bevölkerung. Bei diesen Einteilungen wurde eine Zusammen-
fassung dessen vorausgesetzt, was man bereits wußte, das heißt daß es signifi-
kante Unterschiede bei den Mittelwerten der Klassen gab und daß man daher
die Genauigkeit der globalen Schätzungen verbesserte, wenn man A-priori -
Schichtungen vornimmt. Das setzte demnach voraus, daß solche Nomenkla-
turen – echte Depots früheren Wissens – vorhanden waren, einen gewissen
Fortbestand hatten, eine entsprechende Solidität aufwiesen und Vertrauen er-
weckten: nach 1950 spielten die Berufsgruppen, das Bildungsniveau, die Ge-
meindekategorien und die Familientypen eine solche Rolle. Die Konstruktion
des Repräsentativitätsmechanismus erfolgte einerseits durch das Gebäude der
258 7 Pars pro toto: Monographien oder Umfragen
Mathematik, das nach und nach von den alten Kontrollvariablen“ gesäubert
”
wurde (Neyman), und andererseits durch ein System von Nomenklaturen,
mit deren Hilfe die Merkmale von Personen in einem Rahmen aufgezeichnet
wurden, den der Staat als Träger des allgemeinen Interesses garantierte. Die
Ausarbeitung der Nomenklaturen erfolgte ihrerseits durch eine vertrauener-
weckende Institution.
Auf diesen Punkt hatte Jensen 1925 in seinem Bericht über die repräsenta-
tive Methode mit Nachdruck hingewiesen. Jensen bemerkte, daß die Methode
immer noch Mißtrauen erweckte, weil sie sich nur auf einen Teil der Bevölke-
rung bezog. Deswegen fragte er sich, ob eine vertrauenerweckende statistische
Verwaltung ein ausreichender Grund dafür ist, diese Art Kritik zu entkräften.
Die Tatsache, daß beide Problemkategorien – das heißt die Kategorie der
technischen Probleme und die der soziopolitischen Probleme – gleichzeitig
Erwähnung fanden, stellt einen Teil der Antwort auf die anfängliche Frage
dar, warum die repräsentative Methode nicht schon früher verwendet worden
war.
Der Kern dieses Einwands besteht darin, daß dem gegenseitigen Ver-
trauen zwischen den amtlichen statistischen Institutionen und der
Bevölkerung die allergrößte Bedeutung beizumessen ist: Einerseits lie-
fert nämlich die Bevölkerung das Material für die Statistik und an-
dererseits ist es die Bevölkerung, für welche die ganze Arbeit durch-
geführt wird. Die amtliche Statistik muß natürlich peinlich genau auf
ihren Ruf achten: Es reicht nicht aus, daß die Frau von Caesar tu-
”
gendhaft ist – vielmehr müssen auch alle davon überzeugt sein, daß sie
es ist“. Aber es wäre – außerhalb jeder Prestigefrage – kaum zu recht-
fertigen, einen technischen Fortschritt zu verhindern, dessen Recht-
fertigung an sich voll und ganz anerkannt ist. Man versagt es sich
doch auch nicht, eine Brücke nach einem präzisen Bauplan zu bauen,
nur weil die Öffentlichkeit in ihrer Ignoranz kein Vertrauen in die-
sen Plan hat; man baut die Brücke, wenn der Ingenieur ihre Wider-
standsfähigkeit garantieren kann – die Öffentlichkeit wird die Brücke
dann ganz normal benutzen und Vertrauen in ihre Stabilität haben.
(Jensen, 1925, [137].)
Das Problem von Jensen in diesem Text bestand darin, die technische
Solidität des Objekts und dessen Ruf miteinander zu verbinden. Es war diese
Verbindung, welche die Stärke der Staatsstatistik ausmachte.
gewisse Totalisierungen eine unmittelbare Relevanz, die sich auf das gesam-
te Staatsgebiet bezogen: Marktstudien über Konsumgüter und Wahlprogno-
sen. In beiden Fällen mußte vorher eine landesweite Standardisierung erfolgen
und eine entsprechende Aufstellung von Äquivalenzen bezüglich der Produkte
durchgeführt werden. Im Falle der Konsumgüter war es notwendig, daß die
Großunternehmen über ein nationales Transportnetz regelmäßig Standardpro-
dukte auf dem gesamten Territorium vertreiben; ferner war es erforderlich,
diese Produkte einwandfrei zu identifizieren (Eymard-Duvernay, 1986, [88]).
So wurde es dann möglich, im Rahmen einer landesweiten Meinungsumfra-
ge festzustellen, ob die Verbraucher lieber Coca-Cola als Pepsi-Cola trinken.
Für die Wahlprognosen war es wichtig, daß die Kandidaten im ganzen Land
die gleichen waren (das war bei den amerikanischen Präsidentschaftswahlen
der Fall, nicht aber bei den Wahlen in den französischen Arrondissements7 ).
Darüber hinaus war es auch von Bedeutung, das Image der Kandidaten relativ
umfassend zu verbreiten und zu vereinheitlichen, wozu das Radio zunehmend
beigetragen hat. Ebenso erwies es sich als notwendig, daß der Stichproben-
rahmen möglichst nahe an der Wählerschaft war. Allgemein bekannt ist das
Mißgeschick der 1936 in den Vereinigten Staaten per Telefon durchgeführ-
ten Meinungsumfragen: es wurden nur wohlhabende Personen interviewt, die
einen solchen Apparat besaßen, und die Umfragen prognostizierten zu Unrecht
einen Sieg der Republikaner.
Aber alle diese Erhebungen hatten etwas Gemeinsames: ihre Ergebnis-
se wurden an Sponsoren geliefert, die sie zu operativen Zwecken benutzten.
Als Sponsoren fungierten Verwaltungen, Großunternehmen, Radiosender oder
Zeitungen. Der Begriff der Repräsentativität machte die Kostenbegrenzung
dieses Wissens mit dessen Relevanz kompatibel – eine technische Frage, die
gleichzeitig gesellschaftlich anerkannt war. In allen diesen Fällen ging es um
Individuen (Hilfsbedürftige, Verbraucher und Wähler) und nicht mehr um Ge-
samtheiten wie die göttliche Ordnung (Quetelet), die Abstammung (Le Play)
oder das Arbeiterbewußtsein (Halbwachs).
Wir haben hier versucht, das um die Wende zum 20. Jahrhundert neu auf-
tretende Konzept der Repräsentativität zu interpretieren, das im Gefolge des
Übergangs von einer Denkweise zu einer anderen in Erscheinung trat. Dieser
Übergang war in der Vergangenheit mehrfach dargestellt worden. Eine dieser
Darstellungen wird von Louis Dumont in dessen Essai sur l’individualisme
wiedergegeben. Dumont vergleicht nationale Kulturen“, die man für unver-
”
gleichbar hielt (deutsche Tradition), mit einer universellen oder zumindest
universalistischen Zivilisation“ (englische Tradition für die ökonomistische
”
Version und französische Tradition für die politische Version). Er wies darauf
7
Unter arrondissement“ versteht man einen Unterbezirk eines Departements oder
”
einen Stadtbezirk einer Großstadt.
260 7 Pars pro toto: Monographien oder Umfragen
hin, daß Leibniz zur Lösung dieses Widerspruchs ein Monadensystem8“ er-
”
sonnen hatte, in dem jede Kultur das Universelle auf ihre Art ausdrückte –
eine geschickte Verallgemeinerungsweise:
Ein deutscher Denker bietet uns ein Modell an, das unseren Bedürf-
nissen entspricht: ich spreche vom Leibnizschen Monadensystem. Jede
Kultur (oder Gesellschaft) drückt das Universelle auf ihre Weise aus,
so wie jede der Leibnizschen Monaden. Und es ist nicht unmöglich, ein
(zugegebenermaßen schwieriges und mühsames) Verfahren zu konzi-
pieren, das den Übergang von einer Monade oder Kultur zu einer an-
deren vermittels des Universellen ermöglicht, wobei dieses sozusagen
als Integral aller bekannten Kulturen, als die Monade der Monaden
aufgefaßt wird, die am Horizont einer jeden Monade zugegen ist. Ent-
bieten wir dem Genie im Vorübergehen unseren Gruß: von der Mitte
des 17. Jahrhunderts erben wir den wahrscheinlich einzigen ernsthaf-
ten Versuch der Versöhnung des Individualismus mit dem Holismus.
Die Leibnizsche Monade ist gleichzeitig ein Ganzes an sich und ein
Individuum in einem System, das selbst in seinen Unterschieden ein-
heitlich ist: sozusagen das universelle Ganze. (Dumont, 1983, [73].)
A-priori -Gesetzen“, das heißt das Problem der Wahl zwischen subjektiver
”
Wahrscheinlichkeit und objektiver Wahrscheinlichkeit (vgl. Kapitel 2).
Im Verlauf der Diskussion von 1925 drückte Lucien March – der damals 66
Jahre alt war und die Richtungsänderung des gesamten statistischen Denkens
beobachtet hatte – dieses Problem mit Hilfe von Begriffen aus, die gleichzeitig
subtil und archaisch erschienen, denn alle diese Dinge sind seither formalisiert
worden, das heißt sie wurden auf eine gewisse Art und Weise eingefroren“:
”
Das System, das darin besteht, sich der Zufallsauswahl der Erhebungs-
einheiten so gut wie möglich anzunähern, ist nicht notwendigerweise
dasjenige, das dem Begriff der Repräsentation am besten entspricht.
Wie wir bemerkt hatten, setzt dieser Begriff voraus, daß die Einheiten
untereinander keine Unterschiede aufweisen. Die repräsentative Me-
thode verfolgt nun aber das Ziel, die Unterschiede hervorzuheben. Die
Hypothese scheint also in einem gewissen Widerspruch zum verfolgten
Ziel zu stehen. Das erklärt die Bevorzugung einer besser verstandenen
und intelligenteren Auswahl. Beispielsweise lassen manche Leute die
als abnormal geltenden Extremfälle weg oder führen eine Stichpro-
be durch, indem sie sich auf ein für wesentlich gehaltenes Kriterium
stützen. (March, 1925, [190].)
Wenn March den scheinbaren Widerspruch betont, der zwischen der Not-
wendigkeit des Aufstellens von Äquivalenzen für die Einheiten und der Suche
nach ihren Unterschieden besteht, dann könnte man darauf hinweisen, daß
spätere Formalisierungen dieses Problem vollkommen gelöst haben. Aber sei-
ne Unschlüssigkeit, ob man eine besser verstandene, intelligentere“ Auswahl
”
treffen solle oder ob man die abnormalen Fälle“ vielleicht doch eher elimi-
”
niert, spiegelte ein Problem wider, dem jeder Statistiker begegnet, der sein
Gebiet gut kennt. Dieses frühere Wissen“ wird oft durch direkten Kontakt
”
erworben und entsteht aus einer Vertrautheit mit dem Gegenstand (aber nicht
immer mit Hilfe der allgemeinen Statistik, wie man im Falle der kontrollier-
”
ten Variablen“ sieht). Damit steht March also in der Nähe der Kultur“ von
”
Dumont oder der Gemeinschaft“ von Tönnies. Der Beobachter hat stets die
”
Intuition eines Gesamtwissens, der Totalität einer Situation, einer Person, ei-
ner sozialen Gruppe oder sogar einer Nation.
Nach Abschluß ihrer analytischen Arbeit sagen die Forscher mitunter:
Nun müssen wir wieder zusammensetzen, was wir auseinandergenommen
”
haben“. Einmal mehr tritt hier das Problem der Verallgemeinerung auf: die
Rekonstruktion des Ganzen in seiner Einheit. Die Erzeugung der Gesamt-
heit aus einem ihrer Bestandteile. Dieses Wunschbild ist es, das die Wissen-
schaftler ständig in Unruhe versetzt. Und die allerneuesten Entwicklungen
auf dem Gebiet der Stichprobenerhebungen ermöglichen eine Rekonstruktion
durch Simulationstechniken auf Großrechnern. Diese Simulation erfolgt – aus-
gehend von der betreffenden Stichprobe – durch die Erzeugung einer großen
Anzahl von Teilstichproben und mit Hilfe einer Untersuchung der dadurch
262 7 Pars pro toto: Monographien oder Umfragen
9
Das Bootstrap-Verfahren dient zur Schätzung von Kenngrößen, insbesondere
zur nichtparametrischen Schätzung von Standardfehlern: zunächst werden die
n Stichprobenwerte vervielfacht und dann werden hieraus Stichproben gezogen.
Das Verfahren setzt einen leistungsfähigen Computer voraus.
10
Das Wort bootstrap ist die englische Bezeichnung für Stiefelschlaufe“; to pull
”
oneself up by one’s own bootstraps bedeutet sich aus eigener Kraft hocharbeiten“.
”
8
Klassifizierung und Kodierung
Das Ziel der statistischen Arbeit besteht darin, einen Zusammenhalt zwischen
a priori singulären Dingen herzustellen und dadurch den Objekten eine kom-
plexere und umfassendere Realität und Konsistenz zu verleihen. Diese Ob-
jekte können – nachdem sie von der grenzenlosen Überfülle der wahrnehm-
baren Manifestationen der Einzelfälle bereinigt worden sind – einen Platz
in anderen kognitiven oder politischen Konstrukten finden. Wir machen hier
den Versuch, die Schaffung der Formalismen und Institutionen zu verfolgen,
die gesellschaftlich und technisch eine massive Verwendung dieser Objekte
ermöglicht haben. Zwar waren die mathematischen Werkzeuge und die sta-
tistischen Verwaltungen insbesondere in den 1980er Jahren Gegenstand der
oben häufig erwähnten historischen Untersuchungen. Weniger oft wurden je-
doch die Konventionen untersucht, die mit der Äquivalenzklassenbildung, der
Kodierung und der Klassifizierung zusammenhängen – Konventionen, die der
statistischen Objektivierung vorausgehen. Die Fragen zur Taxonomie fallen
in den Bereich intellektueller und theoretischer Traditionen, die sich wesent-
lich voneinander unterscheiden und kaum miteinander in Verbindung stehen.
Wir erinnern hier an einige dieser Fragen, bevor wir auf signifikante Beispie-
le für historische Arbeiten über diese Klassifikationen eingehen, die sich auf
natürliche Arten, Industriezweige, Armut und Arbeitslosigkeit, auf soziale Ka-
tegorien und auf Todesursachen beziehen. Nicht nur die Objekte dieser Unter-
suchungen unterscheiden sich voneinander, sondern auch die Untersuchungs-
standpunkte. Die Taxonomie ist in gewisser Weise das unbekannte Gesicht
der wissenschaftlichen und der politischen Arbeit. Aber das Studium der Ta-
xonomie läßt sich nicht darauf reduzieren, verborgene Beziehungen zwischen
diesen beiden Aspekten des Wissens und des Handelns aufzudecken, wie es
mitunter in der wissenschaftskritischen Soziologie gehandhabt wird, die un-
mittelbar von einer rein internalistischen Position – ausgedrückt durch den
Wissensfortschritt – auf eine entgegengesetzte externalistische Position um-
schwenkt, die sich durch Begriffe wie Machtverhältnisse und soziale Kontrolle
ausdrückt. Das Problem besteht jedoch darin, im Detail die Beschaffenheit
derjenigen Zusammenhänge zu untersuchen, die den Objekten und den Per-
264 8 Klassifizierung und Kodierung
der Größenverteilung der Rekruten von Doubs der Beweis dafür, daß die dor-
tige Bevölkerung zwei verschiedene ethnische Ursprünge hatte. Die Psychome-
trie und ihre Rotationen der Faktorenachsen ordnen sich in diese Sichtweise
ebenso ein, wie die mathematischen Methoden der absteigenden oder aufstei-
genden Klassifikation. Es geht mir hier nicht darum, die beiden Standpunkte
einander gegenüberzustellen und einen Standpunkt zu Ungunsten des ande-
ren zu denunzieren. Vielmehr versuche ich, beide Standpunkte gemeinsam zu
betrachten, ihre Genese und die Entwicklung ihrer relativen Autonomisierung
zu rekonstruieren und dabei die taxonomischen Überlegungen der Statistiker
mit den Überlegungen anderer Fachleute zu vergleichen.
Die Methode ist ein beliebiges Arrangement von Dingen oder Tatsa-
chen, die auf der Grundlage von Entsprechungen oder beliebigen Ähn-
lichkeiten aneinandergerückt sind; dabei drückt man sich durch einen
allgemeinen und auf alle diese Objekte anwendbaren Begriff aus, ohne
jedoch diesen fundamentalen Begriff oder dieses Prinzip als absolut,
unveränderlich oder so allgemein anzusehen, daß es keine Ausnah-
me zulassen könnte. Die Methode unterscheidet sich vom System nur
durch die Vorstellung, die der Autor mit seinen Prinzipien verbindet:
in der Methode betrachtet er diese Prinzipien als variabel und im
System als absolut. (Adanson, zitiert von Foucault, 1966, [94].)
von Vergleichen weiterkommt, das heißt durch die Nähe zu bereits behandel-
ten Fällen. Darüber hinaus folgt er bei dieser Vorgehensweise Logiken, die in
der Nomenklatur nicht vorgesehenen waren. Diese lokalen Praktiken werden
häufig von Angestellten in Arbeitsgruppen angewendet, die für die Erfassung
und Kodierung zuständig sind. Dabei kommt es zu einer Arbeitsteilung, bei
der sich die Chefs von den Linnéschen Prinzipien leiten lassen, während die
Ausführenden – ohne es zu wissen – eher die Methode von Buffon anwenden.
Die beiden beschriebenen Vorgehensweisen ermuntern auch dazu, Fragen
zur Beschaffenheit und zum Ursprung der Diskontinuitäten bzw. zu den Gren-
zen zwischen den Klassen zu stellen. Der Standpunkt von Linné, der sich auf
die Kombination einer kleinen Zahl von Kriterien stützt, definiert theoreti-
sche Orte in einem potentiellen Raum. Diese Orte werden mehr oder weniger
besetzt, aber man weiß nicht a priori, warum das geschieht. Die Methode
von Buffon führt dagegen zu einem mehrdimensionalen Kontinuum, in dem
die Unterbrechungen nominell sind: Die Klassen existieren nur in unserer
”
Phantasie ...“ Weder Linné noch Buffon konnten so die Existenz von Ro-
sen, Karotten, Hunden oder Löwen erklären. Die Diskontinuitäten konnten
für die Naturforscher des 18. Jahrhunderts nur aus der Historizität der Na-
tur hervorgehen, aus einer Verkettung von zufällig eintretenden Ereignissen,
Veränderungen und Unbilden der Witterung – unabhängig von den inter-
nen Logiken der lebendigen Welt, die sowohl von Linné als auch von Buffon
beschrieben wurden. Derartige historische Erklärungen zufällig eintretender
Ereignisse findet man zum Beispiel erneut nach 1970 in einem von manchen
Anthropologen vorgeschlagenen Szenario. Dieses Szenario beschreibt das Auf-
treten der Diskontinuität zwischen Affe und Mensch (aufrechter Gang) durch
Änderungen der Oberflächengestalt der Erde, des Klimas und der Vegetation
in einer ganz bestimmten Region in Ostafrika vor einigen Millionen Jahren.
Wir können nun diese Herangehensweise mit derjenigen vergleichen, die das
Auftreten von sozialen Gruppen unter besonderen historischen Umständen
beschreibt. In beiden Fällen findet zwar eine Debatte zwischen Realisten und
Nominalisten statt, aber diese Debatte nimmt unterschiedliche Formen an.
Eine Analyse des Sachverhaltes führt zu folgendem Ergebnis: neuartig ist die
Untersuchung derjenigen Nomenklaturen, die zum Zweck der Konstruktion
von Sozialstatistiken und Wirtschaftsstatistiken verwendet wurden – nun ging
es nicht mehr nur um die Nutzung von Nomenklaturen zur Klassifikation von
Pflanzen- oder Tierarten.
Überlegungen eine Breite, die durch eine rein logische Spekulation nicht hätte
erreicht werden können. Die Diskussion entfaltete sich im 19. Jahrhundert
durch die Debatten über die Entwicklung der Arten, die Debatten über Fixis-
mus und Transformismus und durch die Debatten über Cuvier, Lamarck und
Darwin. Diese Strömung gab schließlich dem statistische Denken Nahrung
und spiegelte sich in den Bemühungen Galtons und Pearsons wider, die Dar-
winschen Analysen der Lebewesen auf die menschliche Spezies zu übertragen
und dadurch biologisch begründete Klassifikationen mit hereditaristischen und
eugenistischen Zielen zu entwickeln. Das war ein Beitrag zur physikalischen
Anthropologie, die auf das Studium des menschlichen Körpers und seiner Va-
riationen gerichtet war (vgl. Kapitel 4).
Aber die Anthropologie war auch der Ursprung einer ganz anderen Tra-
dition der Analyse und Interpretation von Klassifikationen, die sich auf den
sozialen Bereich und auf die entsprechenden Wesensverwandtschaften mit den
elementarsten logischen Handlungen beziehen. Die Durkheimsche Soziologie
hat mit besonderem Nachdruck auf die engen Verbindungen zwischen den so-
zialen Gruppen und den logischen Gruppen hingewiesen – ja sie vertrat sogar
die Meinung, daß die Struktur der sozialen Gruppen die Mechanismen der
logischen Gruppen steuert. Durkheim und Mauss hatten diesen Standpunkt
mit Nachdruck in ihrem grundlegenden Text von 1903 vertreten: De quelques
formes primitives de classification, contribution à l’étude des représentations
collectives.4 Die Überlegungen der beiden Autoren unterschieden sich wesent-
lich von der Herangehensweise der Naturwissenschaftler. Durkheim und Mauss
strebten nicht danach, elementare Beobachtungen der Welt zu ordnen; ihr Ziel
bestand vielmehr darin, die von den primitiven Gesellschaften verwendeten
Klassifikationen zu beschreiben und zu interpretieren. Diese Ethno-Taxonomie
führte dazu, die Klassifikationen von Außen – als bereits konstituierte Objek-
te – zu betrachten und sie nicht mehr zu konstruieren und zu verwenden, wie
es Linné und Buffon getan hatten. Die Ethno-Taxonomie lenkte die Aufmerk-
samkeit auf die Zusammenhänge zwischen den indigenen Klassifikationen und
den wissenschaftlichen Klassifikationen, indem sie das soziale Fundament der
in den primitiven Gesellschaften verwendeten Klassifikationen hervorhob.
Nicht nur entspricht die Einteilung der Dinge in Gebiete exakt der
Einteilung der Gesellschaft in Klans, sondern beide Einteilungen sind
auch unentwirrbar miteinander verschlungen und werden miteinander
vermengt ... Die ersten logischen Kategorien waren soziale Kategorien;
die ersten Klassen von Dingen waren Klassen von Menschen, in die
diese Dinge integriert worden sind. Weil die Menschen in Gruppen
auftraten und über sich selbst in Form von Gruppen dachten, faßten
sie in ihrer Vorstellung auch die anderen Wesen in Gruppen zusammen
und die beiden Gruppierungsweisen begannen sich so zu vermischen,
4
In deutscher Übersetzung unter dem Titel Über einige primitive Formen von Klas-
sifikation erschienen. In: Durkheim, E., Schriften zur Soziologie der Erkenntnis.
Frankfurt a.M. (1987).
272 8 Klassifizierung und Kodierung
Diese Hypothese hat den großen Vorteil, die Klassifikationen als Studienob-
jekte per se ins Auge zu fassen und nicht mehr nur als Schema, als Werkzeug,
mit dessen Hilfe man über die Welt diskutiert. Aber Durkheim und Mauss
benutzten diese Hypothese dazu, Begriff für Begriff exakte Entsprechungen
für die von primitiven Gesellschaften verwendeten sozialen und symbolischen
Klassifikationen aufzustellen. Sie benutzten die Hypothese nicht für die –
hauptsächlich statistischen – Werkzeuge zur Beschreibung von urbanen Ge-
sellschaften und Industriegesellschaften. Einen derartigen strukturalistischen
Standpunkt nahm die moderne französische Soziologie ein (Bourdieu, 1979,
[25]), die sich auf die statistischen Techniken der Faktorenanalyse von Korre-
spondenzen stützte. Diese Techniken ermöglichten die Konstruktion und die
Darstellung mehrdimensionaler Räume durch eine Kombination unterschied-
licher sozialer Praktiken. Die soziale Klasse diente also als Leitfaden und als
Invariante bei der Interpretation der Regelmäßigkeit der strukturellen Ge-
gensätze, die mit Hilfe dieser Schemata beschrieben wurden – in dem Maße
wie die Klassen in einer stabilen Topologie (dem Feld) aufgezeichnet wurden,
das exakt auf der Grundlage dieser Gegensätze definiert war.
Zwar bemühten sich Durkheim und Mauss intensiv, die Wesensverwandt-
schaft zwischen sozialen, symbolischen und logischen Klassifikationen nach-
zuweisen. Jedoch schlossen sie explizit die technologischen Klassifikationen“
”
und die im engeren Sinne praxisbezogenen Unterscheidungen“ aus, denn ih-
”
rer Meinung nach standen die symbolischen Klassifikationen in keinem Zusam-
menhang zum Handeln. Diese unglückliche Kluft zwischen Gesellschaft und
Wissenschaft einerseits und Technik andererseits setzte ihrer Analyse Gren-
zen. Dadurch war es nämlich unmöglich, die Gesamtheit derjenigen Operatio-
nen mit einem Blick zu erfassen, mit denen man Dinge und Personen ordnen
und ihnen einen Zusammenhalt für die Bereiche des Denkens und des Han-
delns verleihen konnte, die nur schwer voneinander zu unterscheiden waren:
Genau wie die Wissenschaft verfolgen diese Systeme ein gänzlich spe-
kulatives Ziel. Ihr Ziel besteht nicht darin, das Handeln zu erleichtern,
sondern vielmehr darin, die zwischen den Wesen existierenden Bezie-
hungen einsichtig zu machen ... Diese Klassifikationen sollen Ideen
miteinander verbinden und das Wissen vereinheitlichen; in dieser Hin-
sicht sind Klassifikationen ein Werk der Wissenschaft und stellen eine
erste Naturphilosophie dar (87). Der Australier teilt die Welt weder
deswegen unter den Totems seines Stammes auf, um sein Verhalten
zu regulieren, noch um seine Bräuche zu rechtfertigen; vielmehr ist es
so, daß der Totem für ihn ein Kardinalbegriff ist, weswegen es sich
Die Durkheimsche Tradition: sozio-logische Klassifizierungen 273
Da Durkheim und Mauss sorgfältig die Sphäre, in der die sozialen, symbo-
lischen und kognitiven Aspekte unentwirrbar ineinander verschlungen und
”
miteinander vermengt“ sind, von der Welt unterschieden, in der man sein
”
Verhalten regelt“ und seine Praktiken rechtfertigt“, versäumten sie die Ge-
”
legenheit, ihre Theorie auf diejenigen Kategorien anzuwenden, die das Han-
deln durchdringen. Von diesen Kategorien sind zum Beispiel Taxonomien, die
der Verwaltungsarbeit vor allem bei Produktionen statistischer Art zugrun-
deliegen, nichts anderes als Werkzeuge zur Klassifizierung und Kodierung,
die mit Handlungen und Entscheidungsfindungen zusammenhängen und sich
nicht von dem sozialen Netz trennen lassen, in das sie eingebunden sind.
Als Durkheim (1897, [78]) die Selbstmordstatistiken verwendete, um seine
makrosoziologische Theorie aufzustellen, stellte er sich also nicht die Frage
nach eventuellen sozialen Schwankungen bezüglich der Selbstmordmeldungen.
Das war ein Umstand, der im Hinblick auf die religiöse Stigmatisierung des
Selbstmords hätte relevant sein können. (Besnard, 1976, [15]; Merllié, 1987,
[194].) Die beiden erwähnten Teile seines Werks waren disjunkt zueinander.
Gleichzeitig – aber gesondert – schuf er eine objektive Soziologie, die sich
auf statistische Regelmäßigkeiten stützte, und eine Soziologie der kollekti-
”
ven Darstellungen“, die weder für die Erkenntniswerkzeuge galt, noch auf
die der statistischen Objektivierung zugrundeliegenden Darstellungen zutraf.
Aus dieser Sicht handelte es sich nicht nur um eine Kritik der statistischen
Verzerrungen ( Bias“), die aus einer etwaigen partiellen Angabe bezüglich
”
der Selbstmorde folgt, sondern allgemeiner um eine Analyse der Konstruk-
tion des Objekts, wie es sich in seiner administrativen Kodierung offenbart.
Die von Durkheim und Mauss gezeichnete starre Dichotomie – zwischen den
274 8 Klassifizierung und Kodierung
Am Ende des 18. Jahrhunderts, kurz vor der Revolution, versuchten die
Physiokraten mit ihrem politischen und intellektuellen Projekt eine neue Auf-
fassung der Beziehungen zwischen dem Staat und den sich frei entfaltenden
Wirtschaftstätigkeiten zu fördern, bei denen die Natur – die Quelle allen
Reichtums – gewinnbringend genutzt wird. Aber die Freiheit des Handels,
die für den allgemeinen Wohlstand und die Steuereinnahmen vorteilhaft war,
schloß nicht aus, daß der Staat über diese Tätigkeiten Bescheid wissen wollte.
Bereits Colbert hatte 1669 angeordnet die Situation der Fabriken des König-
”
reichs zahlenmäßig zu ermitteln“ – es handelte sich damals im Wesentlichen
um Textilfabriken. Im Jahre 1788 stellte Tolosan, der Generalintendant für
Handel, eine Tabelle der wichtigsten Gewerbe Frankreichs auf und fügte der
”
Tabelle eine Schätzung der von jedem dieser Gewerbe hergestellten Produkte
an“ (SGF, 1847, [258]). Die von Tolosan vorgeschlagene Nomenklatur lieferte
bis 1847 den Rahmen für Gewerbestatistiken. Die Hauptteile bezogen sich auf
den Ursprung der verwendeten Rohstoffe: anorganische Produkte, pflanzliche
Produkte und tierische Produkte. Das führte dazu, die Textilien in zwei ver-
schiedene Teile zu unterteilen: Baumwolle, Leinen und Hanf als pflanzliche
Produkte, Wolle und Seide als tierische Produkte. Unter den tierischen Pro-
dukten waren Webteppiche“ und Mobiliar“ aufgeführt. Hierbei bezeichnete
” ”
der Begriff Mobiliar“ keine Möbel (aus Holz), sondern im Wesentlichen Tep-
”
piche (aus Wolle), was deren Einordnung in der Rubrik tierische Produkte“
”
rechtfertigte. Diese Nomenklatur, die aus den ökonomischen Beschreibungen
der Physiokraten hervorgegangen war, inspirierte noch die von Chaptal im
Jahre 1812 veröffentlichte Gewerbeschätzung.
Im 19. Jahrhundert wurden Erhebungen zur Industrie noch nicht re-
gelmäßig durchgeführt, obwohl es 1841 und 1861 Zählungsversuche gegeben
hat. Später, von 1896 bis 1936, wurden die im Abstand von fünf Jahren durch-
geführten Volkszählungen dazu verwendet, auf indirektem Wege Informatio-
nen über die Geschäftstätigkeiten einzuholen. In den 1830er und 1840er Jah-
ren kam es zu einer schnellen Änderung der industriellen Techniken und neue
Maschinen wurden eingesetzt. Das Problem bestand damals darin, neue Ob-
jekte zu identifizieren, die weder definiert noch erfaßt waren. Diese Entitäten
gingen aus der alten Welt der Künste und Gewerbe“ (das heißt des Hand-
”
werks) hervor und führten zu den Manufakturen“. Die Enquete von 1841
”
zielte also weniger darauf ab, die noch nicht sehr zahlreichen gewerblichen
Betriebe zu zählen, sondern vielmehr darauf, sie überhaupt erst einmal aus-
findig zu machen und zu beschreiben. Das Aufstellen von Statistiken begann
mit der Anfertigung einer Liste (eines Status 6 ), einer Kartei, eines Verzeich-
nisses, das heißt mit der Erstellung materieller Formen der logischen Kategorie
der Äquivalenzklasse“:
”
6
Hier spielt der Verfasser auf die Mehrdeutigkeit des französischen Wortes état“
”
an, das u.a. Zustand“ (Status) und Staat“ bedeutet und in diesem Sinne eine
” ”
Zustandsbeschreibung des Staates durch seine Statistik widerspiegelt.
280 8 Klassifizierung und Kodierung
Anstelle von Statistiken präsentierte die Enquete von 1841 eine Reihe von
Monographien über Betriebe, wobei die Betonung vor allem auf den Tech-
niken und den Maschinen lag. Für Historiker der Makroökonomie ist diese
Erhebung frustrierend; dagegen erweist sie sich für Wissenschafts- und Tech-
nikhistoriker als wertvoll, da man darin den Zusammenhang zwischen wis-
senschaftlichen Entdeckungen und ihren industriellen Umsetzungen erkennen
kann. Diese Statistik“, die in gewisser Weise noch der des 18. Jahrhunderts
”
nahestand, war mehr an Leistungen als an Durchschnitten und Aggregaten
interessiert. Sie behielt den von Tolosan vorgegebenen allgemeinen Rahmen
bei und hob die großen Kategorien nicht hervor. Die Bergbaustatistik, für
die 1848 Le Play – der Begründer der Monographien über Arbeiterhaushal-
te (vgl. Kapitel 7) – verantwortlich zeichnete, war ebenfalls überwiegend von
dieser ins Einzelne gehenden deskriptiven Auffassung inspiriert, und nicht von
nationalen Totalisierungen.
Im Jahre 1861 teilte eine neuen Gewerbe-Enquete die Tätigkeiten nicht
mehr entsprechend den Ursprüngen der Produkte ein, sondern gemäß ihren
Bestimmungen. Die Industrialisierung war nun so richtig in Fahrt gekommen
und es fand ein starker Wettbewerb mit den europäischen Ländern statt, vor
allem mit England. Die Betriebsinhaber hatten sich auf der Grundlage der
Produktfamilien in Fachverbänden organisiert, um ihre Positionen zu vertei-
digen; sie verhielten sich protektionistisch, wenn es um den Verkauf konkur-
rierender Produkte ging, aber sie waren Anhänger des Freihandels, wenn sie
sich in dominierender Position befanden oder ihre Rohstoffe einkauften. Der
französisch-englische Handelsvertrag von 1860 eröffnete eine Zeit des Frei-
handels und die Debatten strukturierten sich von nun an um die Einteilung
der Berufsgruppen auf der Grundlage von Produktzweigen (ein Unternehmen
konnte mehreren Verbänden beitreten, wenn es mehrere Produkte herstellte).
Dieses System von Branchenverbänden blieb bestehen – es war in der Zeit
der Knappheit der 1940er Jahre sogar noch stärker geworden und existiert bis
heute. Die Wirtschaftstätigkeit wurde auf der Grundlage der entsprechenden
Produkte identifiziert.
Mit Beginn der 1870er Jahre änderte sich die Struktur erneut. Die Wirt-
schaftspolitik der Dritten Republik kehrte zum Protektionismus zurück und
die Verwaltung fühlte sich gegenüber den Unternehmen nicht mehr hinrei-
chend sicher, um direkte Enqueten zu deren Tätigkeiten durchzuführen. Die
Informationen über die Industrie und die anderen Wirtschaftssektoren nah-
men – aufgrund der im Jahre 1891 durchgeführten Eingliederung der Statisti-
que générale de la France (SGF) in das neue Arbeitsamt (Office du travail ,
vgl. Kapitel 5) – einen Umweg. Die Betonung lag von nun an auf der Beschäfti-
gung, der Arbeitslosigkeit und den Berufen, mit deren Untersuchung dieses
Amt beauftragt war. Die Volkszählung von 1896 enthielt Fragen zur Wirt-
schaftstätigkeit und zur Anschrift des Betriebes, in dem die befragte Person
arbeitete, sowie Fragen zu deren Beruf. Die Aufbereitung dieser etwa zwan-
zig Millionen individuellen Berichte über erwerbstätige Personen war – dank
der neuen Lochkartenmaschinen von Hollerith – in Paris zentralisiert. Das
282 8 Klassifizierung und Kodierung
7
Das Wort wird u.a. in folgenden Bedeutungen verwendet: Beruf, Berufstätigkeit,
Erwerbstätigkeit, Berufsstand, Berufsgruppe, Berufszweig.
Vom Armen zum Arbeitslosen: Die Entstehung einer Variablen 283
Die in den 1890er Jahren erfolgende Verschiebung des Kriteriums zur Tätig-
keitsklassifizierung – von einer marktorientierten Logik zu einer Wirtschafts-
und Berufslogik – läßt sich mit der Änderung der Art und Weise in Zusam-
menhang bringen, in der das Gesetz und der Staat das Wirtschaftsleben kodi-
fizierten. Um diese Zeit fing man nämlich damit an, die Beziehungen zwischen
Betriebsinhabern und Lohnempfängern durch ein spezifisches Arbeitsrecht zu
regeln und nicht mehr nur durch das Bürgerliche Gesetzbuch, welches den Ar-
beitsvertrag als einen Dienstvertrag“ behandelte, das heißt als einen Tausch-
”
vertrag zwischen zwei Individuen. Früher bezogen sich die Eingriffe des Staates
in das Geschäftsleben vor allem auf die Zolltarife. Die Kontroversen zwischen
den Anhängern des Freihandels und den Protektionisten beeinflußten zum
großen Teil die statistische Aufbereitung der Wirtschaftstätigkeit. Von jetzt
an waren es jedoch die Probleme der Arbeit und der Arbeitnehmerschaft, die
als treibende Kraft der neuartigen, statistisch orientierten Einrichtungen zum
Tragen kamen. In der Mehrzahl der Industrieländer wurden zu diesem Zeit-
punkt Arbeitsämter“ gegründet, deren Funktion darin bestand, sowohl die
”
neuen Gesetze vorzubereiten als auch die Sprache und die statistischen Werk-
zeuge zu schaffen, die über diese gesetzgeberische und administrative Praxis
informiert (vgl. Kapitel 5 und 6). Zum Beispiel war das die Entschädigung
bei Arbeitsunfällen regelnde Gesetz, das sich auf den Begriff eines statistisch
ermittelten Berufsrisikos stützte, einer der ersten Texte, in denen ein Betrieb
explizit als kollektive Person definiert wird, die von der individuellen Person
des Betriebsinhabers verschieden ist (Ewald, 1986, [87]). Einer der hervor-
stechendsten Aspekte dieser Entwicklung war die soziale, institutionelle und
schließlich statistische Konstruktion eines neuen Objekts, das allmählich den
Begriff der Armut ersetzen sollte: die Arbeitslosigkeit. Diese war ohne den
Status des Lohnempfängers unvorstellbar, der den Arbeiter mit dem Betrieb
verband und ihn diesem unterordnete.
Die Geschichte der in Großbritannien im 19. und 20. Jahrhundert ent-
wickelten und verwendeten sozialen Klassifikationen unterscheidet sich grund-
legend von der Geschichte der entsprechenden Klassifikationen in Frankreich.
Beide trafen sich jedoch in den 1890er Jahren an einem Punkt, an dem man
über neue soziale Beziehungen und über eine neue Sprache zur Behandlung der
einschlägigen Probleme diskutierte – eine Sprache, zu der auch der Begriff der
Arbeitslosigkeit gehörte. Die historischen Abfolgen unterschieden sich vonein-
ander. In Großbritannien setzte die Industrialisierung bereits im 18. Jahrhun-
dert ein. Die Menschen verließen das Land und im gesamten 19. Jahrhundert
wuchsen die Städte rasch und unter dramatischen Bedingungen. Der soziale
Graben zwischen den Klassen wurde mit Hilfe der Begriffe der Armut, der Ar-
mutsursachen und der Mittel wahrgenommen und analysiert, durch die sich
die Auswirkungen der Armut abmildern ließen. Die Wirtschaftskrise von 1875
hatte verheerende Auswirkungen. Es kam sogar in den bürgerlichen Kreisen
284 8 Klassifizierung und Kodierung
inmitten von London zu Unruhen. Die typisch britischen Debatten zum Sozi-
alreformismus und zur Eugenik lassen sich nur in diesem Kontext verstehen.
In Frankreich dagegen verliefen die Industrialisierung und Verstädterung viel
langsamer. Das alte berufliche und soziale Gefüge, das sich häufig rund um
den beruflichen Gemeinschaftsgeist organisierte, hat den sozialen Taxonomien
auch weiterhin lange Zeit hindurch seinen Stempel aufgedrückt. Die neuen,
in den Jahren 1890 erarbeiteten Gesetzgebungen resultierten eher aus dem
politischen Kompromiß, den die Dritte Republik nach der Pariser Kommu-
ne geschlossen hatte, und waren weniger auf unmittelbare Erschütterungen
zurückzuführen, wie es in Großbritannien der Fall war. Aber trotz dieser Nu-
ancen des historischen Kontextes zwischen den beiden Ländern kristallisierte
sich zur gleichen Zeit der Begriff der Arbeitslosigkeit heraus, der fortan als
Verlust einer lohnabhängigen Beschäftigung definiert wurde, die von speziali-
sierten Einrichtungen übernommen und als Risiko entschädigt werden konn-
te.8
Vor diesem wichtigen Wendepunkt war der Armutsbegriff in Großbritanni-
en Gegenstand von Debatten, die aus der Sicht der Konstruktion statistischer
Werkzeuge signifikant waren. Zwei Arten der Konstruktion des Begriffes der
Armut und ihrer Ermittlung wurden damals miteinander verglichen: die eine
(von Yule 1895 benutzte) Konstruktion ging von den Aktivitäten der seit 1835
bestehenden Fürsorgeeinrichtungen aus, die andere dagegen von speziellen Er-
hebungen, deren berühmteste die von Booth durchgeführten Untersuchungen
waren. In jedem dieser Fälle trat der aus Beschreibung und Handlung gebilde-
te Kreis auf, wenn auch in unterschiedlicher Art und Weise. Im erstgenannten
Fall war er fast unsichtbar in die früheren, bereits geschaffenen Kategorien
der Institutionen eingegliedert. Im zweiten Fall dagegen strukturierte dieser
Kreis eine komplexe taxonomische Konstruktion, die im Entstehen begriffen
war und darauf abzielte, Maßnahmen zur Beseitigung der fatalen Folgen der
Armut vorzuschlagen.
Das Armengesetz von 1835 war der Ursprung eines doppelten Fürsorge-
systems. Einerseits verband das Arbeitshaus (workhouse) die anstaltsinterne
Unterstützung (indoor relief ), die gesunden Männern gewährt wurde, mit ob-
ligatorischer Arbeit und mit besonders abschreckenden Lebensbedingungen
(Prinzip der geringsten Qualifikation“). Andererseits wurden auch Fürsorge-
”
unterstützungen außerhalb der Arbeitshäuser gewährt (daher der Name out-
door relief ). Diese Unterstützungen gingen an Frauen, Alte oder Kranke. Die
Kosten und die Effizienz dieser Systeme wurden jahrzehntelang diskutiert.
Yule griff 1895 in die Debatte ein, bei der er eine Gelegenheit sah, die neuen
statistischen Werkzeuge von Karl Pearson vom Gebiet der Biometrie auf den
Bereich der sozialen und wirtschaftlichen Probleme zu übertragen. Yule stütz-
te sich auf Korrelations- und Regressionsrechnungen mit Hilfe der Methode
der kleinsten Quadrate und versuchte zu beweisen, daß eine Erhöhung der
8
In Bezug auf Frankreich verweisen wir insbesondere auf Salais, Baverez, Reynaud,
1986, [247]; in Bezug auf Großbritannien vgl. Mansfield, 1988, [187].
Vom Armen zum Arbeitslosen: Die Entstehung einer Variablen 285
Die Kategorie A war die unterste: sie bestand aus einer kleinen Minder-
heit von vollständig stigmatisierten Personen, deren Einkommensquellen un-
bekannt oder unredlich waren – Nichtstuer, Verbrecher, Barbaren und Alko-
holiker. Diese Personen schufen keinerlei Wohlstand und waren der Auslöser
für den schlimmsten Unfrieden. Glücklicherweise waren diese Personen nicht
sehr zahlreich: 1,2% im Stadtteil East End und 0,9% in der ganzen Stadt.
Aber in der Nähe der zuerst genannten Kategorie und deutlich zahlreicher
waren die Personen der Kategorie B, in der sehr arme Familien mit gelegent-
lichem Einkommen zusammengefaßt wurden, die sich im Zustand chronischer
Not befanden. Sie bildeten 11,2% der Bevölkerung von East End und 7,5%
der Bevölkerung von London. Die Gesamtheit A ∪ B der sehr Armen“ warf
”
die größten Probleme auf9 : diese Personen schienen kaum dazu in der Lage zu
sein, Nutzen aus der örtlich gewährten öffentlichen Unterstützung zu ziehen.
Anders verhielt es sich jedoch mit der Gruppe der Armen“, die ihrer-
”
seits in Abhängigkeit von der Regelmäßigkeit der betreffenden Einkommen in
die beiden Untergruppen C und D unterteilt war. Die Personen der Grup-
pe C verfügten nur über unregelmäßige Einkünfte; sie waren eher Opfer des
Konkurrenzkampfes und erwiesen sich als anfällig gegenüber dem Auf und
Ab der saisonbedingten Arbeitslosigkeit. Sie würden ja regelmäßig arbeiten,
wenn sie es könnten, und an sie mußte sich die Unterstützung richten, denn
es handelte sich um diejenige Personengruppe, die nahe dran war, sich zu sta-
bilisieren. Diese Personen bildeten 8,3% der Familien im Stadtteil East End
von London. Die Personen der Kategorie D schlossen sich dicht an die vorher-
gehende Kategorie an; sie verfügten über kleine und regelmäßige Einkommen,
die aber nicht ausreichten, der Armut zu entkommen. Sie stellten 14,5% der
Bevölkerung von East End. Die Gesamtheit C ∪ D bildeten die Armen“, die
”
sich sowohl von den sehr Armen“ A ∪ B als auch von den Wohlhabenderen
”
(Kategorien E, F, G und H) unterschieden.
Die letztgenannten vier Kategorien waren in jeweils zwei Gruppen zusam-
mengefaßt: Die Gruppe E ∪F bestand aus den wohlhabenden Arbeitern (com-
fortable working class) und die Gruppe G ∪ H bildete den Mittelstand (lower
middle class und upper middle class). Von diesen Personen waren die Personen
der Übergangskategorie E, das heißt Arbeiter mit regelmäßigem Normalein-
”
kommen“ über der Armutslinie“, bei weitem die zahlreichsten: 42,3% in East
”
End. Die Gruppe F (13,6% in East End) repräsentierte die Arbeiterelite. Die
Gesamtheit E ∪ F der wohlhabenden oder sehr wohlhabenden Arbeiter mach-
te 55,9% in East End und 51,9% in der ganzen Stadt aus. Die Personen der
Kategorie G bildete die untere Mittelklasse (Angestellte, freie Berufe zweiter
Ordnung). Und schließlich bezeichnete H die obere Mittelklasse, das heißt
Personen, die sich Diener halten konnten“. Die Gesamtheit G ∪ H bildete
”
8,9% der Bevölkerung in den Vierteln von East End, aber 17,8% für ganz
London.
9
Das Symbol ∪ steht für die mengentheoretische Vereinigung.
Vom Armen zum Arbeitslosen: Die Entstehung einer Variablen 287
auch eine Reduktion, ein Opfer, das auf verschiedene Weise gebracht wurde.
Ein Einzelfall ließ sich entweder auf eine diskrete Klasse reduzieren (das heißt
auf eine Äquivalenzklasse einer disjunkten Klasseneinteilung), oder auf eine
Position auf einer stetigen Skala (oder möglicherweise mehreren derartigen
Skalen).
Man interpretierte den Unterschied zwischen diesen beiden elementaren
mathematischen Formalismen mitunter als Gegensatz zwischen einer holisti-
schen Soziologie – bei der die Existenz sozialer Gruppen vorausgesetzt wird,
die sich wesentlich von den Individuen unterscheiden – und einer anderen, in-
dividualistischen und eher anglo-amerikanischen Soziologie, die sich weigerte,
den Klassen eine derartige Exteriorität zu gewähren. Aber diese Interpreta-
tion verschleiert mehr, als sie offenbart. Einerseits war der Formalismus –
ganz gleich ob stetig oder diskret – der Träger von persönlichen Eignungen,
die unterschiedlichen Prinzipien entsprachen: angeborenes Genie, bescheinig-
te Schulkenntnisse, Wohlstand, Nachkommenschaft, Kreativität ... (bezüglich
der Unterschiede zwischen diesen Eigenschaften vgl. Boltanski und Thévenot,
1991, [20]). Andererseits existierten die Äquivalenzklassen von dem Zeitpunkt
an, als sich Einzelpersonen auf dieses oder jenes Eignungsprinzip stützten,
Zusammenhänge (zum Beispiel juristischer Art) herstellten und verfestigten
und allgemeine Objekte erzeugten, um einem kollektiven Ding Zusammenhalt
zu verleihen, das – falls es nicht doch noch zerstört wird – als Klasse bezeich-
net werden kann. Aber die Realität und die Konsistenz dieser Klassen blieben
selbstverständlich auch weiterhin der Gegenstand von Kontroversen, deren
Analyse ein Forschungsobjekt darstellte. Aus dieser Sicht spielten die hier
analysierten Formalismen in Gestalt von diskreten Klassen und stetigen ein-
oder mehrdimensionalen Räumen bei den genannten Debatten eine Rolle. Die
Betonung lag daher auf dem Zusammenhang zwischen diesen Beschreibungs-
schemata, den Eignungsprinzipien und den politischen Handlungskategorien,
die darauf aufbauten. Dabei bildete die Gesamtheit ein mehr oder weniger
kohärentes System, und jeder Teil dieses Systems stützte die anderen Teile.
Die Debatten über die Armut und ihre Abhilfe, über die Arbeitslosig-
keit, das Funktionieren des Arbeitsmarktes und über die Mittel, diesen zu
regulieren – all diese Debatten, die Großbritannien zwischen 1890 und 1914
bewegten, sind reichhaltige Beispiele für den obengenannten Zusammenhang,
weil dort mehrere wissenschaftliche und politische Werkzeuge in statu nascen-
di vorhanden waren, diskutiert wurden und miteinander konkurrierten. Diese
Werkzeuge waren noch nicht in den Tiefen von verschlossenen Black Boxes“
”
vergraben, deren Inhalt längst in Vergessenheit geraten war. In den zu dieser
Zeit stattfindenden britischen Kontroversen über die sozialen Fragen stellte
man zwei große Typen von Beschreibungs-, Erklärungs- und Handlungsmo-
dellen einander gegenüber. Bei dem aufgeworfenen Problem handelte es sich
um die Frage von Not und Elend bzw. allgemeiner um das, was später als
soziale Ungleichheit bezeichnet wurde.
Für die Erben der Reformer von der Public Health Mouvement waren die
Ursachen der Armut in der anarchischen Verstädterung und in der Entwur-
290 8 Klassifizierung und Kodierung
von der Matrix der sozialen Vererbung oder von der Matrix der sozialen Mo-
bilität (Thévenot, 1990, [274]). Diese politische Strömung stand den Maßnah-
men der Sozialfürsorge und der Unterstützung der Ärmsten insofern feindselig
gegenüber, als daß diese Maßnahmen den am wenigsten geeigneten“ Teil der
”
Bevölkerung vergrößern und stärken würden. Man ging sogar so weit, die Ste-
rilisierung gewisser behinderter oder ungeeigneter Personen zu befürworten –
was sogar außerhalb von Nazideutschland in manchen anderen Ländern legal
praktiziert wurde (Sutter, 1950, [269]).
Die Kontroverse zwischen den beiden Strömungen war komplex und ihre
Fachbegriffe änderten sich im Laufe der Zeit. Die Auseinandersetzung äußer-
te sich vor allem in einem anderen Gebrauch der statistischen Werkzeuge
und Nomenklaturen. Vor der Zeit um 1905 verwendeten die mit den Sta-
tistikern des General Register Office verbündeten Sozialreformer vor allem
geographische Daten, die sie zum Zweck einer Feinaufteilung des Territoriums
in Beziehung zu Bevölkerungs-, Wirtschafts- und Sozialstatistiken sowie zu
medizinische Statistiken setzten. Durch diese räumlichen Korrelationen zeig-
ten sie die Verkettungen der verschiedenen Armutskomponenten auf. Statisti-
ken, die eine Feinabdeckung des Territoriums beinhalteten und eine beträcht-
liche Verwaltungsinfrastruktur voraussetzten (nämlich die Infrastruktur der
Fürsorgeämter und der Standesämter), ermöglichten die Aufstellung dieser
Beziehungen, die sich gut für die damals noch lokal umgesetzten und von den
Gemeinden oder Grafschaften verwalteten Praktiken eigneten. Die Eugeniker
nutzten dagegen das statistische Argument auf eine ganz andere Weise. Sie
versuchten in ihren Labors, mit Hilfe der neuen mathematischen Methoden
allgemeine Vererbungsgesetze zu formulieren. Daraus zogen sie Schlußfolge-
rungen, die sich nicht spezifisch auf diesen oder jenen Ort bezogen, sondern
für die englische Nation in ihrer Gesamtheit brauchbar waren. Sie schmiedeten
politische Allianzen auf höchster Ebene und ihre Behauptungen hatten das
Prestige der modernen Wissenschaft, während ihre Gegner ein altmodisches
Image hatten: Sozialfürsorge hing immer noch mit Barmherzigkeit, Kirchen
und der konservativen Tradition des Widerstands gegen Wissenschaft und
Fortschritt zusammen.
Aber die Debatte nahm in den Jahren 1900–1910 eine andere Form an. Eine
neue Generation von Sozialreformern, oft Angehörige der kurz zuvor gegründe-
ten Labour Party, drückte von nun an die Armutsprobleme nicht mehr durch
lokal geübte Barmherzigkeit, sondern durch den Begriff der Arbeitsmarktre-
gulierung und durch Gesetze zur sozialen Sicherung aus. Ein Beispiel für diese
Entwicklung war die Diskussion über das sweating system 10 , bei dem es sich
um eine damals häufige Form der Produktionsorganisation handelte. Die zu
verrichtende Arbeit wurde von den Arbeitgebern an Vermittler (Subunterneh-
mer ) weitervergeben, die ihrerseits die erforderlichen Arbeitskräfte selbst re-
krutierten. Dieses System wurde oft denunziert und die Vermittler als scham-
lose Ausbeuter betrachtet. Parlamentarische Enquete-Kommissionen unter-
10
Ausbeutungssystem, Akkordmeistersystem.
292 8 Klassifizierung und Kodierung
suchten das Problem und kamen zu dem Schluß, daß man den Subunterneh-
mern keine Mängel anlasten könne, die in der Arbeitsgesetzgebung zu su-
chen sind. So, wie es in Frankreich auf anderen Wegen geschehen ist, erfolgte
per Gesetz eine exaktere Definition der Arbeitnehmerschaft, der Arbeitge-
berpflichten sowie des Status der Arbeitslosigkeit als Bruch der Verbindung
zwischen dem Lohnempfänger und seinem Arbeitgeber – einer Verbindung,
die früher durch das System der Auftragsvergabe an Subunternehmer ver-
schleiert wurde. Auf diese Weise erhielten die Statistiken zur erwerbstätigen
Bevölkerung und zur Arbeitnehmerschaft ebenso wie die Arbeitslosenstatistik
eine Konsistenz, die sich erheblich von den Statistiken des 19. Jahrhunderts
unterschied.
Die Entwicklung der Kategorien der sozialen Debatte, die sich von nun an
mehr um die nationale als um die lokale Politik drehte, hatte auch Konse-
quenzen für die Kategorien der statistischen Beschreibung, die von den Envi-
ronmentalisten des GRO ausgearbeitet wurden. Ihre Gegner aus dem Lager
der Eugeniker setzten den Akzent auf Analysen mit Hilfe des Begriffes der
sozialen Schichten und bezogen sich beispielsweise auf die Fertilität und die
Kindersterblichkeit, die für das ganze Land gemessen wurden. Diese Diskus-
sionsweise bezüglich der nationalen Statistiken stand gegen 1910 in größerer
Übereinstimmung zur Gesamtheit der öffentlichen Debatten, als es noch gegen
1890 der Fall war. Die Nationalisierung des Beschreibungs- und Handlungsrau-
mes ermunterte die Statistiker des GRO dazu, ihrerseits eine Nomenklatur der
sozialen Schichten zu konstruieren, die für die Volkszählung 1911 verwendet
wurde. Diese Nomenklatur war hierarchisch gegliedert wie die Nomenklatur
von Booth. Sie umfaßte fünf Klassen, die um die Trennlinie zwischen middle
class (Mittelklasse) und working class (Arbeiterklasse) angeordnet waren. In
der Mittelklasse wurde zwischen den professionals (gehobene Berufe) (I) und
der intermediary group (Mittelgruppe) (II) unterschieden. Bei den manuell
tätigen Arbeitern traten Facharbeiter (skilled workers) (III), angelernte Ar-
beiter (semi-skilled workers) (IV) und ungelernte Arbeiter (unskilled workers)
(V) auf.
Die aus fünf Klassen bestehende Skala wurde von der typisch britischen
(später typisch amerikanischen) Gruppe von Personen dominiert, die einen
gehobenen Beruf (profession) im englischen Sinne des Wortes ausübten: diese
Personen hatten eine spezifische Universitätsausbildung und eine gemeinsa-
me Kultur, die auf dem Bewußtsein der Nützlichkeit für die Gemeinschaft
beruhte. Die diese Einteilung ordnende hierarchische Gliederung stützte sich
auf eine Eigenschaft, die der Auffassung der Eugeniker in Bezug auf Eignung
und Bürgersinn (civic worth) näher stand, als Merkmale des Vermögens oder
der Macht, die eher einer ökonomischen oder soziologischen Klassifikation zu-
grundeliegen. Die eindimensionale und (im englischen Sinn) professionelle“
”
Struktur dieser Nomenklatur hat den überwiegenden Teil der sozialen Klas-
sifikationen geprägt, die in der Folgezeit in den englischsprachigen Ländern
verwendet wurden und bis zum heutigen Tage in Gebrauch sind. Die Gruppe
der manager wurde später unter Position II aufgenommen, aber bis in die
Vom Gewerbe zur qualifizierten Tätigkeit 293
jüngste Vergangenheit hinein (1990) kamen die Arbeitgeber nach den profes-
sionals. Zwar ist dieser Umstand nun teilweise in Vergessenheit geraten, aber
die betreffende Taxonomie hat in ihrer Gesamtheit von Merkmalen (Eindi-
mensionalität, Hierarchie, Stetigkeit, implizite Bezugnahme auf einen sozia-
len Wert des Individuums) die Spuren der wissenschaftlichen und politischen
Konstrukte der Eugeniker vom Beginn des 20. Jahrhunderts und die Spuren
der damaligen Debatten hinterlassen. Das unterscheidet sie von den französi-
schen und den deutschen Klassifikationen, die in ganz anderen politischen und
kulturellen Universen entstanden sind.
Die anderen – Hilfsarbeiter, Diener oder Bettler – bildeten eine Schicht für
”
sich“. Die Trennung zwischen Meistern und Gesellen – aus der später die Un-
terscheidung zwischen Nicht-Arbeitnehmern und Arbeitnehmern hervorging
– war noch nicht erfolgt, auch nicht die Aggregation einer Arbeiterklasse“:
”
diese wurde erst nach den Aufständen von 1832 und 1834 als eine Gesamt-
heit wahrgenommen. Die Annäherung zwischen Gesellen und Hilfsarbeitern,
den fernen Vorfahren der Facharbeiter“ und der ungelernten Arbeiter“, war
” ”
noch nicht relevant. Die Gruppe derjenigen, die vom Staat angestellt sind“
”
verschwand in Frankreich gelegentlich in der Versenkung, blieb aber dennoch
weiter bestehen.
Die berufsbezogene Organisation formte ein soziales Weltbild, das einen
ständigen Hintergrund darstellte, auf dem sich die beruflichen Taxonomien an-
siedelten. Auf der Grundlage einer familiären Übergabe der Kenntnisse und
des ererbten Vermögens war die Unterscheidung zwischen Meister und Gesel-
len lange dem Vater-Sohn-Modell angepaßt und wandelte sich nur langsam in
die Beziehung Arbeitgeber-Arbeitnehmer des Arbeitsrechts des 20. Jahrhun-
derts um. Die im 19. Jahrhundert aus der Analyse der kapitalistischen Be-
ziehungen hervorgegangenen Theorien der sozialen Klassen – der Marxismus
ist eine systematische Entwicklung dieser Theorien – ignorierten das Modell
der familiären Übergabe: die Theorien waren zum Teil so angelegt, daß sie
sich gegen dieses Modell richteten. Das Modell bestand jedoch auf mehrfache
Weise fort – sei es in der Apologie, zu der es von den christlich-konservativen
Schülern Le Plays gemacht wurde (Kalaora und Savoye, 1987, [143]), oder sei
es – im Gegensatz hierzu – in der kritischen Soziologie der 1960er und 1970er
Jahre, in der die Ungerechtigkeit der im Rahmen von Familien stattfindenden
wirtschaftlichen und kulturellen Reproduktion denunziert wurde. Diese Form
der sozialen Bindung ist auch jetzt noch bei den Merkmalen wichtig, die der
gegenwärtigen Nomenklatur zugrunde liegen. Im 19. Jahrhundert handelte es
sich im Wesentlichen um eine Liste von Berufen“ (professions) im Sinne der
”
alten Handwerker- und Kaufmannsberufe. Diese Liste diente zum Beispiel bei
den Volkszählungen 1866 und 1872 zur Ermittlung der Anzahl der Individu-
”
en, die jeder Beruf direkt oder indirekt ernährte“. Die Berufe waren in den
Zeilen der Tabellen aufgeführt, in den Spalten standen dagegen die Perso-
”
nen, die diese Berufe tatsächlich ausübten, ihre Familien (Verwandte, die von
der Arbeit oder dem Vermögen dieser Personen lebten) und Diener (die zum
Dienstpersonal gehörten)“. Jedoch trat 1872 eine dritte Unterscheidung auf,
die sich mit den vorhergehenden überschnitt: die Unterscheidung zwischen
Chefs oder Arbeitgebern, Handlungsgehilfen oder Angestellten, Arbeitern,
”
Tagelöhnern“. Drei Gesichtspunkte waren miteinander kombiniert. Die ersten
beiden hingen mit der familiären Struktur der Berufe zusammen. Die dritte
stand dem Gegensatz Meister-Geselle nahe. Aber die Unterscheidung zwischen
Arbeitern“ und Tagelöhnern und Hausknechten“ trat noch 1872 und 1876
” ”
auf; das Konstrukt einer Arbeiterklasse, einschließlich der künftigen unge-
”
lernten Arbeiter“ war noch nicht offensichtlich.
Vom Gewerbe zur qualifizierten Tätigkeit 295
ter Äquivalenzen – für Regionen, Sektoren und Stellungen, die früher in spezi-
fischen, lokalen und inkommensurablen Terminologien beschriebenen wurden.
Aber die Standardisierung erstreckte sich nicht auf die Gesamtheit des be-
rufssoziologischen Raumes, da sie für diesen kein eindeutiges Klassifizierungs-
kriterium vorschrieb. Andere Qualifikationsprinzipien, die das Ergebnis einer
langen Geschichte waren, vermischten sich mit dem Beschäftigungsprinzip,
das auf der Ausbildung und auf landesweit geltenden Diplomen beruhte.
Die Struktur der Nomenklatur spiegelt die Geschichte der ursprünglichen Art
und Weise wider, in der im Frankreich des 19. und des 20. Jahrhunderts die so-
zialen Bindungen auf der Grundlage beruflicher Solidaritäten und Antagonis-
men geknüpft und gefestigt wurden. Genauer gesagt resultierten viele charak-
teristische Merkmale der untrennbaren Gesamtheit, die sich aus der französi-
schen Sozialstruktur und der sie repräsentierenden Nomenklatur zusammen-
setzt, aus Besonderheiten, die auf die Revolution von 1789 zurückgehen. So
können Identität und Konsistenz der vier gegenwärtigen sozialen Gruppen,
das heißt der Landwirte, der Beamten, der Arbeiter und der Führungskräfte
(cadres) der Reihe nach in Beziehung gesetzt werden zur Aufteilung der land-
wirtschaftlichen Böden, zur Errichtung des einheitlichen Staates, zum Einfluß
der spezifischen Bürgersprache auf die Arbeiterbewegung und schließlich zur
Gründung der Ingenieurschulen, die an den Staat gekoppelt waren, sich aber
von den Universitäten unterschieden.
Die Aufteilung der Böden im Rahmen verschiedener juristischer Formen
– zum Beispiel Verpachtung, Teilpacht oder Eigenbewirtschaftung – hat es
ermöglicht, daß über einen Zeitraum von anderthalb Jahrhunderten ein be-
engtes ländliches Leben und eine Kleinbauernschaft fortbestehen konnte, die
zahlenmäßig größer war als in anderen europäischen Ländern. Die in sehr klei-
nen Gemeinden lebende erwerbstätige Bevölkerung hatte ihren Höhepunkt ge-
gen 1850 erreicht und danach war nur ein langsamer quantitativer Rückgang
zu verzeichnen, während gleichzeitig die ländlichen Gebiete in Großbritannien
– häufig gewaltsam – geräumt wurden. Mit diesem Landleben war eine Wirt-
schaft verbunden, in der das Handwerk, die Kleinindustrie und der Kleinhan-
del überwogen. Die schnelle Industrialisierung und die zügellose Verstädterung
– charakteristisch für England zu Beginn des 19. Jahrhunderts und in gerin-
gerem Maße für Deutschland vor 1914 – waren damals in Frankreich weniger
ausgeprägt. Dadurch war Frankreich mit der Vorstellung von Mäßigung“,
”
richtigem Milieu“ und angemessenem Fortschritt“ verbunden. Diese Vor-
” ”
stellung wurde von der radikalsozialistischen Dritten Republik übernommen
und danach in der Wachstumsperiode zwischen 1950 und 1975 denunziert.
Das explizite Vorhandensein der Gruppen der Landwirte und der Arbeitge-
ber, die sich von den Lohnempfängern unterschieden, trennte die französische
berufssoziologische Nomenklatur von ihren angelsächsischen Entsprechungen,
298 8 Klassifizierung und Kodierung
die diese Unterscheidung nicht kannten. Sie war das Zeichen einer historischen
Kontinuität, die von spezifischen repräsentativen Organisationen bekräftigt
und geltend gemacht wurde.
Die nationale Einigung und die Errichtung eines Zentralstaates ermöglich-
ten die Schaffung eines öffentlichen Dienstes mit hohem Bürgersinn und
losgelöst von lokalen vetternwirtschaftlichen Netzwerken: Präfekten, Lehrer,
Steuerverwaltung, Armee, Post, staatliche Ingenieure, Richter, Statistiker. Der
nationale Charakter dieses öffentlichen Dienstes, der durch Rekrutierung und
Ausbildung sowie durch geographische Mischung mittels Versetzungen ge-
schaffen wurde, hatte wichtige Konsequenzen für die betreffenden Stellungs-
beurteilungskriterien und laufenden Entscheidungsprozesse. Die Existenz von
Personengruppen, die mit einer starken kulturellen Homogenität ausgestattet
waren, hat zur Errichtung eines statistischen Systems beigetragen, das für die
sozialen Debatten die Elemente einer gemeinsamen Sprache bereitgestellt hat.
Die Nomenklaturen gehören zu den Komponenten dieser Sprache.
Die aus der Revolution hervorgegangene besondere Bürgersprache hat
auch dazu beigetragen, die Besonderheiten der französischen Arbeiterbewe-
gung zu prägen – wobei Gleichheit, Bedeutung der Staatsmacht und revoluti-
onärer Umbruch mit Nachdruck hervorgehoben wurden. Eine Eigentümlich-
keit der französischen sozialen Körperschaften bestand darin, daß die anderen
sozialen Gruppen häufig auf der Grundlage eines gewerkschaftlichen Modells
verstanden und organisiert wurden – eines Modells, das von der Arbeiterbe-
wegung inspiriert war, auch wenn es scheinbar den Zweck verfolgte, sich von
dieser zu unterscheiden. Das hatte zur Folge, daß das Wertesystem ebenso
wie vergleichbare Organisations- und Repräsentationsformen von der Gewerk-
schaftsbewegung auf die anderen Gruppen übertragen wurden. Unter Berück-
sichtigung dieser Hypothese kann man die Geschichte der Berufsverbände
der Führungskräfte (cadres), der Lehrergewerkschaften, ja sogar der Bauern-
verbände, der Arbeitgeberverbände und der Freiberuflerverbände interpretie-
ren. Es waren genau diese Organisations- und Repräsentationsformen, die
das Bild der französischen Gesellschaft durch berufssoziologische Gruppen“
”
prägten, deren Spuren man sowohl im sozialen und politischen Leben als auch
in den Tabellen der öffentlichen Statistik findet. Die umfassende Verwendung
dieser Taxonomie sowohl in der Gemeinsprache als auch in spezialisierten Ar-
beiten unterschied Frankreich von anderen Ländern wie Großbritannien, den
Vereinigten Staaten und Deutschland, die andere politische Traditionen hat-
ten. Dieser Umstand erklärt vor allem die Distanz zwischen der französischen
heteroklitischen Darstellung und der stetigen und eindimensionalen Skala der
Angelsachsen: die Gruppen existierten mit unterschiedlicher Identitäten, so-
weit die historische – gewerkschaftliche und politische – Konstruktionsarbeit
stattgefunden hatte und auch noch Wirkungen zeigte.
Und schließlich war die Gründung von staatlichen Ingenieurschulen, die
unter dem Ancien Régime mit der École nationale des ponts et chaussées
Vier Spuren der Französischen Revolution 299
Im Jahre 1893 stellt der Franzose Jacques Bertillon auf dem in Chicago ab-
gehaltenen Kongreß des Internationalen Instituts für Statistik (IIS) (Inter-
national Statistical Institute, ISI) zwei internationale Klassifizierungsprojekte
vor, mit denen man eine Harmonisierung der Definitionen und der Konventio-
nen der statistischen Kodierung auf zwei verschiedenen Bereichen anstrebte:
Berufe und Krankheiten. Die Berechtigung einer solchen Harmonisierung im
Bereich der Berufe war nicht nur auf Probleme zurückzuführen, die mit der Ar-
beitsgesetzgebung zusammenhingen, sondern hatte auch mit demographischen
Fragen zu tun. Die Sterblichkeit wies in Abhängigkeit von den ausgeübten
Berufen Unterschiede auf. Darüber hinaus traten gewisse Todesursachen bei
manchen Berufen häufiger auf. Die erhöhte Sterblichkeit der Druckereiarbeiter
hatte Aufmerksamkeit erregt. In Frankreich waren einige durch Saturnismus15
hervorgerufene Todesfälle gemeldet worden. Jedoch bestätigten die statisti-
schen Tabellen der entsprechend den Berufen aufgeschlüsselten Todesursachen
dieses Ergebnis nicht: die Anzahl der auf Saturnismus zurückzuführenden To-
desfälle von Druckereiarbeitern war nicht signifikant, dagegen trat bei ihnen
die Schwindsucht zweimal häufiger auf als es durchschnittlich der Fall war.16
Das zweite, in Chicago im Jahre 1893 vorgestellte internationale Klassi-
fizierungsvorhaben trug die Überschrift Drei Projekte zur Nomenklatur von
Krankheiten (Todesursachen – Ursachen für Berufsunfähigkeit). In der Dis-
kussion über beruflich bedingte Sterblichkeit stellte der Arzt und Statistiker
Jacques Bertillon (Enkel des Botanikers und Demographen Achille Guillard
und Sohn des Arztes und Statistikers Adolphe Bertillon) einen Zusammen-
hang zwischen den beiden äußerst unterschiedlichen Taxonomien her, die sich
auf die Berufe und die Krankheiten bezogen. Genauer gesagt trat der Beruf
hier als Risikofaktor auf, das heißt als Abgrenzung einer Teilmenge, innerhalb
der ein zufälliges Ereignis (Krankheit, Arbeitsunfähigkeit, Tod) wahrschein-
licher ist, als für den Durchschnittsmenschen“. Diese Auffassung stimmte
”
mit dem Standpunkt der Optimierung einer Klassifikation in Bezug auf ge-
wisse deskriptive Kriterien überein: die beste Klasseneinteilung war diejenige,
welche die Unterschiede zwischen den Klassen erhöhte und die internen Un-
terschiede innerhalb der jeweiligen Klassen verringerte. Aber Jacques Bertil-
lon spezifizierte den Sachverhalt auf den Fall, in dem das Analysekriterium
als Risiko, das heißt als ein wahrscheinlichkeitstheoretisch formulierbares Er-
eignis betrachtet wurde, und griff somit eine statistische Denktradition auf,
deren Wegbereiter bereits Laplace, Poisson und Cournot waren (vgl. Kapi-
tel 3), obwohl sich Bertillon – ein Mann der Tat und Verwaltungsbeamter –
nicht übertrieben häufig auf deren philosophische Spekulationen berief. Die-
15
Bleivergiftung.
16
Wir stützen uns in diesem Teil auf das Nachschlagewerk von Anne Fagot-
Largeault (1989, [90]).
Eine Urne oder mehrere Urnen: Taxonomie und Wahrscheinlichkeit 303
Natur, daß man sie ohne Mißbrauch mit denjenigen Krankheiten in Verbin-
dung bringen kann, deren Infektionserreger bekannt ist“. Nachdem das auf der
Anfangsursache basierende Kodierungsprinzip wenigstens theoretisch berück-
sichtigt wurde, stellte sich die Frage nach den Modalitäten der Registrierung
und der Kodierung dieser Ursache. Dieses Problem wurde in den 1920er und
1930er Jahren diskutiert. Es stellten sich gleich mehrere Fragen. Wie sollte
der Totenschein abgefaßt werden? Wer muß die Auswahl der Todesursache
unter den Ursachen treffen, die auf dem Totenschein angegeben sind? Wel-
ches Verfahren soll man dabei anwenden? Und wie kann man dafür sorgen,
daß die Gesamtheit der genannten Dinge in allen Ländern identisch abläuft?
Michel Huber, Direktor der SGF, erstattete im Hinblick auf die vierte
Überarbeitung der internationalen Nomenklatur im Jahre 1927 Bericht über
diese Punkte. Wieviele Fragen sollte man dem bescheinigenden Arzt stel-
len? In welcher Reihenfolge (chronologisch oder von der Gegenwart ausge-
hend rückwärts)? Wie weit sollte man in die Vergangenheit des Verstorbenen
zurückgehen? Eine chronologische Reihenfolge würde mit der Gefahr einher-
gehen den Arzt zur Bestätigung alter Fakten zu verleiten, die er nicht beob-
”
achtet hat ... Fragt man ihn, was seiner Meinung nach die Hauptursache war,
dann ersucht man ihn um Auskunft darüber, welche Ursache als statistische
Grundlage genommen werden soll.“ Diese Debatte drehte sich um die Fra-
ge, wer die Kodierungskosten tragen sollte. Wer übernimmt die kognitive und
ökonomische Doppelverantwortung dafür, die Vielfalt und die Unsicherheit zu
reduzieren und Äquivalenzklassen zu konstruieren, auf die sich das Vorgehen
stützen sollte? Im Jahre 1948 wurde ein internationales Muster für Toten-
scheine angenommen, das vier Fragen enthielt: unmittelbare Ursache, Zwi-
schenursache, Anfangsursache und andere pathologische Zustände (Begleit-
ursachen). Das französische Modell enthielt nur drei dieser Fragen, auf die
Zwischenursache“ wurde verzichtet. Abgesehen von expliziten Vorschriften,
”
die für gewisse Sonderfälle spezifisch waren, diente die Anfangsursache“ als
”
Verschlüsselungsgrundlage. Diese Wahl war gerechtfertigt, denn hierbei han-
delte es sich um die nützlichste“ Information, das heißt die Information, die
”
den vom Standpunkt des öffentlichen Gesundheitswesens effizientesten Ein-
”
griffsort“ benennt: ... für den Kampf gegen den Tod ist es von Bedeutung, die
”
Abfolge der Ereignisse zu unterbrechen oder die Behandlung in einem gewis-
sen Stadium zu beginnen.“ (International Classification of Diseases, Injuries
and Causes of Death, ICD, 1948.)
In der langen Kette der dem Tod vorhergehenden Ereignisse mußte man al-
so ein Ereignis auswählen. Der Ausdruck Anfangsursache“ ist trügerisch: der
”
Kranke rauchte, arbeitete in einem Bergwerk, fuhr gerne Motorrad – sind das
Anfangsursachen? Außerdem konnte man die Todesursache nicht mit dem Tod
selbst gleichsetzen (Herzstillstand). Das Auswahlkriterium schien wohl das fol-
gende zu sein: unter den Ereignissen berücksichtigte man dasjenige, das die
Todeswahrscheinlichkeit signifikant und unzweideutig erhöhte, ohne daß diese
Wahrscheinlichkeit jedoch gleich 1 war (sicherer Tod). Das wichtigste war die
Variation der Wahrscheinlichkeit, die sich deutlich von 0 und 1 unterschied.
306 8 Klassifizierung und Kodierung
Die Ursachenanalyse spezifizierte die Urnen, aus denen im Hinblick auf einen
zukünftigen Eingriff Zufallsziehungen durchgeführt wurden: Die Konvention
”
bei der Bezeichnung der medizinischen Todesursachen besteht darin, daß ...
die Ursache derjenige Faktor ist, den wir beeinflussen können, wenn wir uns
das Ziel gesetzt haben, gegen die Krankheit oder gegen den Tod zu kämpfen“
(Kreweras). Die taxonomische Konvention hängt deutlich mit einem System
bedingter Wahrscheinlichkeiten zusammen, an dem sich die Vorgehensweise im
Vergleich zur durchschnittlichen Sterblichkeit – der Todeswahrscheinlichkeit
bei Fehlen aller Informationen – orientiert. Den Versicherungsgesellschaften ist
diese Spannung zwischen den beiden extremen Positionen wohlbekannt: eine
Urne oder mehrere Urnen? Soll man von allen Personen die gleiche Versiche-
rungsprämie verlangen oder soll man – im Gegensatz hierzu – die Prämien
der Vielfalt vorstellbarer unterschiedlicher Wahrscheinlichkeiten anpassen?
Anläßlich der sechsten Überarbeitung der ICD im Jahre 1948 faßte man
nach lebhaften Debatten den Beschluß, das Alter von der Liste der Todesur-
sachen zu streichen. Diese Entscheidung hing zutiefst mit den oben beschrie-
benen Umständen zusammen. Das Alter ist das Moment, in dem es immer
schwieriger wird, die Todesursachen deutlich zu unterscheiden, das heißt die
bedingten Wahrscheinlichkeiten zu berechnen, die wohlbestimmten Zuständen
zugeordnet sind, von denen spezifische Handlungen abhängen können. Aber
das ist auch der Fall, wenn der bescheinigende Arzt – wie es häufig geschieht –
a posteriori mit einer Abfolge von Ereignissen konfrontiert wird, bei denen die
jeweilige Auswahl schwierig ist. Das Unbehagen rührt daher, daß in den sta-
tistischen Tabellen eine Summation der Todesursachen alter Menschen, Men-
schen reiferen Alters und junger Menschen vorgenommen wird, denn es kann
sein, daß die Vorgehensweise – zumindest von gewissen Standpunkten aus be-
trachtet – nicht in allen Fällen die gleiche Bedeutung hat. Die Aufstellung der
statistischen Äquivalenz führte zu einer unlösbaren Debatte über unterschied-
liche und unvereinbare moralische Prinzipien, obwohl jedes der Prinzipien für
sich genommen kohärent und legitim war (Fagot-Largeault, 1991, [91]). Ei-
nes dieser Prinzipien – das deontologische Prinzip – besagt, daß jeder Mensch
einen einzigartigen, einmaligen Wert hat, der mit keinem anderen verglichen
werden kann. Man kann das Leben eines alten Menschen nicht mit dem eines
jungen Menschen vergleichen. Einem anderen Prinzip – dem teleologischen
Prinzip – zufolge gibt es ein über den Individuen stehendes gemeinsames Gut,
welches der Gemeinschaft die Rechtfertigung für Schiedsverfahren zubilligt,
auf deren Grundlage man insbesondere den potentiell unbegrenzten Maßnah-
men im öffentlichen Gesundheitswesen die ökonomisch begrenzten Ressourcen
zuordnen kann.
spezielle Fall in das Netz der allgemeinen und dauerhaften Kategorien, der
Meß- und Analysegeräte einordnen läßt, mit denen sich die Medizin ausge-
stattet hat (Dodier, 1993, [69]). Dieser Spannungszustand besteht nicht nur
in der Medizin. In der Rechts- und Gerichtspraxis und in der Praxis gericht-
licher Gutachten strebt man ebenfalls an, den Angelegenheiten und Situatio-
nen einen Zusammenhalt zu verleihen, indem man sie identifiziert und ihnen
Bezeichnungen gibt, um sie in einen allgemeineren Rahmen zu stellen (ein
Beispiel ist der Begriff des in Ausübung des Berufes begangenen Fehlers“:
”
(Chateauraynaud, 1991, [44]).
Liegt die Betonung jedoch auf dem, was eine Form – vor allem durch
die Anwendung standardisierter Werkzeuge und systematischer Taxonomien
– verfestigt, dann kann man universelle und wissenschaftliche Kenntnisse, die
Bestandteil eines Erkenntnisprojekts sind, nicht mehr anderen Wissensfor-
men gegenüberstellen, die als indigen, lokal, partiell, nicht systematisch und
handlungsorientiert bezeichnet werden. Für eine derartige Gegenüberstellung
hatten sich gelegentlich Autoren (vor allem Durkheim) ausgesprochen. Ganz
im Gegenteil müssen jedoch die verschiedenen Erkenntnisweisen symmetrisch
behandelt werden, das heißt keine von ihnen darf a priori privilegiert werden,
denn sie werden abwechselnd in den alltäglichen Wortgefechten verwendet,
um eine besondere Einsicht in den Gang der Dinge offensichtlich und unbe-
streitbar zu machen. Diese methodologische Entscheidung hat nichts mit einer
Denunziation der Illusion der Wissenschaft (oder der Statistik) im Namen an-
derer Wissensformen zu tun, die zu Unrecht abgewertet und verkannt werden.
Vielmehr strebt diese Methode lediglich eine Erklärung komplexer Situatio-
nen an, in denen wissenschaftliche und statistische Hilfsmittel in Konkurrenz
oder in Ergänzung zu anderen Hilfsmitteln mit dem Ziel mobilisiert werden,
die Konsistenz von Äquivalenzen und die Schlußfolgerungen zu verstehen, die
einen Beweis ausmachen können. Wie läßt sich ein Konsens erzielen, ein Ein-
vernehmen in Bezug auf die Art und Weise, eine Situation zu erklären? Oder
wie stellt man fest, daß kein Konsens vorliegt? Welche Rolle spielen die sta-
tistischen Formalismen im Werkzeugkasten der Beweisinstrumente und der
überzeugenden Argumente?
Die Systematisierung und Automatisierung der Verfahren bietet nicht nur
vom wirtschaftlichen Standpunkt – zum Beispiel bei den Kodierungskosten –
große Vorteile, sondern auch vom Standpunkt der Suche nach einer Überein-
kunft, nach der Objektivierung eines Bedeutungsinhalts, dem die verschiede-
nen Akteure gemeinsam Ausdruck verleihen. Die maschinelle Abarbeitung der
betreffenden Verfahren führt zu einer Elimination der Eingriffe, die früher von
Menschen vorgenommen wurden. Die Feststellung einer Übereinkunft wird so-
mit auf den Zeitpunkt der ausgehandelten Konstruktion eines Mechanismus
verschoben. Aber in diesem Fall kann die Kontroverse in Bezug auf diesen
Mechanismus immer wieder neu in Gang gesetzt werden. Ein Beispiel hierfür
sind die aus medizinischen Expertensystemen hervorgegangenen Diagnostik-
Algorithmen. Die Frage nach der Gültigkeit und der Leistungsfähigkeit die-
ser Algorithmen bleibt offen, wie folgender Auszug aus dem Buch von Anne
Wie man einer Sache Zusammenhalt verleiht 309
mit der man die Konsistenz der Induktion prüfen kann (in den vorhergehenden
Kapiteln hatten wir lediglich die zweite und die dritte Synthese beschrieben).
Jede dieser vier Nachkommenschaften kann Gegenstand einer anderen hi-
storischen Schilderung sein, indem man jeweils unterschiedliche Fakten kon-
struiert und Episoden hervorhebt, die nicht miteinander zusammenhängen.
18. Jahrhundert
19. Jahrhundert
¨
Mathematische Okonomie Deutsche Biometrie Venn 1866
Allgemeines Gleichgewicht, historische Englische mathematische Statistik,
Schule Regression, Korrelation
Cournot, Walras, Engel
Pareto, Marshall, Galton, 1889 Edgeworth, 1885
Lexis
Edgeworth, Jevons K. Pearson, 1896
Yuke 1897: Rückkehr
Zyklen: der kleinsten Quadrate
Jevons, Juglar
Barometer Amerikanische
Institutionalisten Keynes, 1921
20. Jahrhundert Mitchell, 1913
Wahrscheinlich-
keitstheorie
¨
Anfänge der Okonometrie (1910-1940) Inferentielle Statistik
R. Fisher, 1925
Lenoir, 1913; Moore, 1914; Schultz, 1928;
Maximum-Likelihood
Econometrica,1933; Tinbergen, 1939 Neyman-Pearson-Tests, 1928
Nationaleinkommen
Kuznets-Clark
Keynessche Indeterministische Random Shocks
Makroökonomie Physik Yule, 1927;
Slutsky, 1927;
Frisch, 1933
¨
Zweite Phase der Okonometrie (nach 1940)
Cowles Commission - Frisch
Haavelmo - Koopmans - Marschak
Wahrscheinlichkeitstheoretischer Ansatz
9 Modellbildung und Anpassung 313
Zum Beispiel folgt die Geschichte des Modells der linearen Regression dem
Weg (im Schema durch Textboxen gekennzeichnet), der die Formulierungen
der Methode der kleinsten Quadrate, der Normalverteilung, der Mittelwer-
te, der Regression, der multiplen Korrelation und der Maximum-Likelihood-
Methode beschreibt. Die Bücher von Stigler (1986, [267]) und Gigerenzer
et al. (1989, [107]) ermöglichen eine Rekonstruktion dieser Formulierungen,
während das Buch von Mary Morgan (1990, [204]) aufzeigt, wie dieses Modell
von den ersten Wirtschaftsstatistikern genutzt wurde. Man kann die Auf-
merksamkeit auch auf die Berührungspunkte lenken, die bereits in einer Zeit
existierten, als die – zur Verknüpfung von a priori heteroklitischen Dingen –
erforderlichen Übersetzungen weder routinemäßig gegeben waren und noch in
Standardboxen zur Verfügung standen. Die Genese der Ökonometrie ist reich
an derartigen Momenten.
Zu Beginn des 20. Jahrhunderts warfen die ersten, von Marcel Lenoir
(1913, [177]) und Henry Moore (1914, [202]) unterbreiteten Vorschläge zur
Abschätzung der Gesetze von Angebot und Nachfrage ein neues Problem auf,
das später als Identifikationsproblem bezeichnet wurde: Welche Beziehung
kann man zwischen den theoretischen Gesetzen und den beobachteten Daten
herstellen? Der polnische Mathematiker Jerzy Neyman kannte die Arbeiten
von Borel und Lebesgue. In den 1920er Jahren markierte die Begegnung Ney-
mans mit Egon Pearson, dem Sohn von Karl Pearson, das nicht spannungsfreie
Wiederauftreten der Wahrscheinlichkeitsrechnung und der Statistik, nachdem
ein Jahrhundert vergangen war. Und schließlich führte in den 1940er Jahren
die Übernahme der Werkzeuge von Neyman und Pearson durch die Cowles
Commission zur Vollendung der Synthese der vier Traditionen. Diese Syn-
these löste neue Debatten aus, wie die Kontroverse zwischen Koopmans und
Vining (1949) erkennen läßt. In der Folgezeit setzte sich diese Synthese je-
doch als wichtigste Lösung der Widersprüche durch, die früher in Bezug auf
die Sprachen der Wirtschaftswissenschaft, der Statistik und der Wahrschein-
lichkeitsrechnung diskutiert worden waren. Im vorliegenden Kapitel erinnern
wir an einige dieser Gegensätze und an die Art und Weise, in der sie behan-
delt worden sind. Wir folgen zwei zueinander entgegengesetzten Bewegungen.
Die eine Bewegung geht von den Daten in Richtung Theorie: Konstruktion
von Indizes, Konjunkturanalyse und Berechnung des Nationaleinkommens.
Die andere Bewegung geht von der Theorie aus und versucht, diese mit den
Daten zu verknüpfen – entweder um mit Hilfe der für gesichert gehaltenen
Theorie Parameter zu schätzen oder um die betreffende Theorie zu verifizie-
ren. Folglich kann man die Beziehung zwischen Theorie und Daten auf drei
sehr unterschiedlichen Wegen in Angriff nehmen: beim Aufstellen neuer Ge-
setze, bei der Messung der Parameter eines als wahr angenommenen Gesetzes
und bei der Annahme oder Ablehnung einer Theorie mit Hilfe statistischer
Tests, die auf Wahrscheinlichkeitsmodellen beruhen.2
2
In diesem Kapitel verwenden wir vor allem die bemerkenswerte Synthese von
Mary Morgan, 1990, [204].
314 9 Modellbildung und Anpassung
dete, die Lucien March 1905 und 1910 im Journal de la société statistique de
Paris dargelegt hatte (Desrosières, 1985, [60]).
Dagegen führte die Aufstellung anderer Äquivalenzen, die damals dank
der neuen Methoden getestet werden konnten, zu den ersten Entwicklun-
gen der Ökonometrie. Zum einen nahm der Vergleich der Schwankungen der
verschiedenen Konjunkturindikatoren die Konstruktion der dynamischen ma-
kroökonomischen Modelle vorweg. Zum anderen kündigten die Versuche zur
Abschätzung der Angebots- und Nachfragekurven auf der Grundlage der Prei-
se und der ausgetauschten Mengen eine Lösung der auf simultanen Gleichun-
gen basierenden Modelle an. Auf Anregung von March publizierte zum Bei-
spiel Marcel Lenoir (1881–1927), ein weiteres Mitglied der SGF, im Jahre
1913 eine bemerkenswerte Dissertation, die damals weitgehend unbeachtet
blieb: Études sur la formation et le mouvement des prix. Die Struktur dieser
in zwei deutlich unterschiedliche Teile gegliederten Arbeit ist signifikant. Der
erste Teil Preisbildung (theoretische Untersuchung)“ gibt eine Darstellung
”
der mathematischen Theorie der Indifferenzkurven und der Bestimmung von
Mengen und Gleichgewichtspreisen durch die Schnittmenge von Angebots-
und Nachfragekurven. Dieser erste Teil gehört klarerweise zu der im Entste-
hen begriffenen mathematischen Ökonomie. Der zweite Teil Preisbewegung
”
(statistische Untersuchungen)“ stellt dagegen eine große Anzahl von statisti-
schen Reihen aus den Bereichen Wirtschaft, Währung und Finanzen bereit.
Dieser Teil verfolgt die Absicht, die Preisschwankungen verschiedener Güter
durch Produktionsschwankungen und durch andere Variable (im Sinne der
multiplen Regression) zu erklären“. Diese Arbeit fand in Frankreich so gut
”
wie keinen Anklang. Lenoir war kein Universitätslehrer. Er starb 1927 vorzei-
tig in Hanoi, wo er einen statistischen Dienst für Indochina gegründet hatte.
Er gehörte zu den allerersten (und war in Frankreich vor langer Zeit der Er-
ste), der die drei Traditionen der mathematischen Ökonomie, der deskriptiven
Statistik verwaltungstechnischen Ursprungs und der mathematischen Statistik
miteinander verknüpfte.
Um die gleiche Zeit hatte Moore auch die Konjunkturzyklen und den Zu-
sammenhang zwischen Preisen und Mengen analysiert, wobei er sich auf em-
pirische Beobachtungen stützte. Aber wenn er den Eindruck hatte, daß diese
Beobachtungen im Widerspruch zur allgemein anerkannten Theorie standen,
dann verwarf er die Theorie und ließ sich auf keinerlei Diskussion der Methode
ein, mit der man eine beobachtete Regelmäßigkeit identifizieren konnte. Nach-
dem er also eine positive Korrelation zwischen den Mengen und Preisen für
Rohgußeisen registriert hatte, war er – entgegen den theoretischen Hypothesen
– der Meinung, eine wachsende Nachfragekurve gefunden zu haben. Die späte-
re Kritik dieser Interpretation führte zur Analyse simultaner Schwankungen
der Angebots- und Nachfragekurven, die Lenoir seinerseits zwar theoretisch
gut beschrieben hatte, für die er aber keine statistische Methode vorgeschla-
gen hat, mit deren Hilfe man ein solches System von strukturellen Relationen
lösen konnte. In den 1920er Jahren diskutierten und erläuterten einige ameri-
kanische Ökonomen (aber nur wenige Europäer und keine Franzosen) die Ar-
Glaubensgrad oder Langzeithäufigkeit 317
beiten von Moore, vor allem in Bezug auf die Landwirtschaft (Fox, 1989, [96]).
Jedoch gab es auch weiterhin zahlreiche kritische Bemerkungen hinsichtlich
der Möglichkeit, die Gesetze der Wirtschaftstheorie auf der Grundlage von
empirischen Daten wiederzuentdecken. Zu den Kritikpunkten gehörten die
Nichteinhaltung der Ceteris-paribus-Klausel3 , die Weglassung von Variablen
und Meßfehler. Die Hauptkritik bezog sich jedoch auf die Nichthomogenität
”
der Natur“ und verwies auf den früheren historizistischen Standpunkt.
Mit Beginn der 1930er Jahre bot die Sprache der Wahrscheinlichkeits-
rechnung einen Rahmen zum Überdenken mehrerer Hindernisse, die es bis zu
diesem Zeitpunkt verhindert hatten, einen Zusammenhalt zwischen den em-
pirischen Beobachtungen und den Formalismen der Theorie zu finden. Falls
es a posteriori den Anschein hat, daß diese mehr als zwei Jahrhunderte alte
Sprache effiziente Werkzeuge zur Behandlung der genannten Schwierigkeiten
geliefert hat, dann hat diese Verbindung verspätet stattgefunden. Die proba-
bilistische Denkweise hat ein unabhängiges Leben geführt, und zwar sowohl
in Bezug auf die Wirtschaftstheorie als auch – was noch weitaus überraschen-
der ist – in Bezug auf die Statistik, nachdem die Laplace-Gauß-Synthese von
Quetelet in abgereicherter“ Form weitergeführt wurde. Die Ursachen für die-
”
se Widerstände, die einerseits von der Wirtschaftswissenschaft und anderer-
seits von der Statistik kamen, überlagerten sich nicht und waren auch nicht
auf das wechselseitige Mißtrauen zurückzuführen, das zwischen Ökonomen
und Statistikern herrschte (jedoch werden die verschiedenen Kritiken häufig
verwechselt und auch mit der Ablehnung der Mathematisierung in Zusam-
menhang gebracht, was wiederum eine ganz andere Sache ist). Es ist wichtig,
diese Argumente sorgfältig voneinander zu unterscheiden.
ist eine auf Sand gebaute Spekulation“. Insbesondere wurde die Idee einer
A-priori -Wahrscheinlichkeit“ als willkürlich und ungerechtfertigt verworfen –
”
diese Idee war Bestandteil der Bayesschen Argumentation zur Bestimmung der
Wahrscheinlichkeit einer Ursache anhand einer beobachteten Wirkung. Aber
der Erfolg, zu dem Quetelet der wahrscheinlichkeitstheoretischen Sprache in
ihrer frequentistischen Form scheinbar verholfen hatte, führte dazu, daß diese
Sprache für ein ganzes Jahrhundert fast vollständig aus der Welt der Statisti-
ker verschwand – bis zu der Zeit, als Gosset ( Student“), Fisher und Neyman
”
auf den Plan traten. Die routinemäßige Verwendung der Gaußschen Verteilung
als Grenzverteilung einer Binomialverteilung schloß weitgehend Fragen aus,
welche sich in Form von Glaubensgründen“ oder Stichhaltigkeitsgraden“
” ”
ausdrücken lassen, die man einer Aussage zuordnen kann. Diese Fragen, die
an den philosophischen Nerv und die Spezifität der wahrscheinlichkeitstheore-
tischen Sprache rührten, verschwanden aus dem Blickfeld der Statistiker, die
Zahlen produzierten und verwendeten. Fortan befaßten sich Philosophen und
Logiker mit diesen Fragen. Falls sich berühmte Nationalökonomen (Cournot,
Edgeworth, Keynes) überhaupt für die Wahrscheinlichkeitsrechnung interes-
sierten, dann hatte dieser Teil ihrer Arbeit so gut wie nichts mit der Verar-
beitung statistischer Daten und mit den Konstrukten dieser Autoren auf dem
Gebiet der Wirtschaftstheorie zu tun. Diese scheinbar paradoxen Fälle waren
im Gegenteil ein Hinweis auf die Schwierigkeit der Arbeit und das Ausmaß
der Kontroversen in den Jahren von 1920 bis 1940, bevor die drei Sprachen
zu einer einzigen Sprache kombiniert werden konnten – zur Sprache der Öko-
nometrie.
Jedoch trug der frequentistische Standpunkt, der von Quetelet mit der
Erzeugung und der erfolgreichen Verwendung von immer ausgiebigeren stati-
stischen Daten in Verbindung gebracht wurde, über den Umweg der Physik
und insbesondere der kinetischen Gastheorie dazu bei, den neuen – als sta-
”
tistisch“ bezeichneten – Objekten einen Zusammenhalt zu verleihen. Die Un-
kenntnis der mikroskopischen Parameter von Position und Geschwindigkeit
der Elementarteilchen war kein Hinderungsgrund dafür, die Gase auf makro-
skopischer Ebene deterministisch zu beschreiben (was Maxwell und später
Boltzmann taten). Die neue Formulierung der Determinismusfrage, der zu-
folge Ordnung aus Chaos entstehen kann, lag in der Nähe des Standpunkts,
für den Quetelet in den Sozialwissenschaften warb. Vermutlich verhielt es sich
sogar so, daß Quetelets Standpunkt durch den Astronomen Herschel beein-
flußt wurde (Porter, 1986, [240]). Damals (Mitte des 19. Jahrhunderts) wurde
die Ungewißheit bezüglich der mikroskopischen Parameter noch durch die
Unmöglichkeit einer direkten Erfassung ausgedrückt. Ab Beginn der 1920er
Jahre drückte sich diese Auffassung in einem sehr viel radikaleren Probabilis-
mus aus, nämlich in der Ablehnung der Existenz von gleichzeitig determinier-
ten (obwohl unbekannten) Messungen der Position und der Geschwindigkeit
320 9 Modellbildung und Anpassung
ge Zyklen (drei bis vier Jahre), mittelfristige Zyklen (acht bis neun Jahre)
usw. sichtbar gemacht werden. Analytisch lief die Methode darauf hinaus,
zunächst die ersten Differenzen (Xt − Xt−1 ), danach die zweiten Differenzen
[(Xt − Xt−1 ) − (Xt−1 − Xt−2 )] und dann immer komplexere Linearkombina-
tionen zeitlich verschobener Variabler zu berechnen. Ein System von linea-
ren Operatoren ermöglichte es also, eine Zeitreihe in eine Menge von zeitlich
veränderlichen harmonischen Reihen zu zerlegen, die nicht mehr streng peri-
odisch wie im Periodogramm von Moore verlaufen. Frisch (1931, [98]) verglich
diese Methode mit dem Ergebnis von Slutsky und untersuchte die Wirkung der
linearen Operatoren in Kombination mit rein zufälligen Störungen. Dabei er-
hielt er unregelmäßige periodische Schwingungen, die an tatsächlich beobach-
tete Reihen erinnerten. Das war der Ursprung des Schaukelstuhlmodells“ 11 ,
”
das er 1933 [99] in einem Artikel vorstellte. Die Überschrift dieses Artikels
spiegelte die wesentliche Intuition recht gut wider: Propagation problems
”
and impulse problems in dynamic economics“.
Frisch schrieb Wicksell die Metapher vom Schaukelpferd und auch die Idee
zu, zwischen zwei Fragen zu unterscheiden – nämlich zwischen der Frage nach
der Ausbreitung der Schwingungen durch systemimmanente lineare Operato-
ren und der Frage nach der Initialauslösung und der Wiederauslösung dieser
Schwingungen durch zufällige äußere Störungen:
Wicksell scheint der Erste zu sein, der die beiden Typen von Proble-
men der Zyklenanalyse definitiv erkannt hat, nämlich das Ausbrei-
tungsproblem und das Impulsproblem. Auch scheint er der Erste ge-
wesen zu sein, der die Theorie formuliert hat, gemäß der die Energie
zur Aufrechterhaltung der Zyklen durch zufällige Störungen geliefert
wird. Er vertrat die Auffassung, daß das Wirtschaftssystem auf unre-
gelmäßige und ruckartige Weise vorwärtsgetrieben wird ... Diese un-
regelmäßigen Rucke führen zu mehr oder weniger regelmäßigen zykli-
schen Bewegungen. Er illustriert das durch ein einfaches und dennoch
tiefsinniges Bild: wird ein hölzernes Schaukelpferd mit einem Stock
geschlagen, dann bewegt es sich ganz anders als der Stock (Frisch,
(1933, [99]), zitiert von Morgan, 1990, [204]).
Bereits Jevons hatte sich eine vergleichbare Metapher zur Beschreibung der
Zyklen ausgedacht: die Wogen des Meeres, die das Stampfen und Schlingern
eines Schiffes verursachen. Die wesentliche Idee dabei ist, daß mehr oder we-
”
niger regelmäßige Schwankungen von einer unregelmäßig wirkenden Ursache
ausgelöst werden können; dies impliziert keinerlei Synchronismus zwischen
11
Das Schaukelstuhlmodell (Frisch-Modell) erklärt den Konjunkturzyklus in einem
gewissen Bereich in Analogie zu einem Schaukelstuhl, der nach einem Anstoß
langsam ausschwingt, wenn er nicht immer wieder durch neue Anstöße, die un-
regelmäßig und unterschiedlich stark sein können, stets am Schwingen gehalten
wird. Anstelle des Schaukelstuhls spricht man auch vom Schaukelpferd (rocking
horse).
328 9 Modellbildung und Anpassung
So erhalten wir durch die Verknüpfung zweier Ideen – nämlich 1.) ste-
tige Lösung eines determinierten dynamischen Systems, und 2.) un-
stetige zufällige Störungen zur Lieferung der die Schwingungen auf-
rechterhaltenden Energie – eine theoretische Konstruktion für eine
rationale Interpretation der bei statistischen Reihen häufig beobach-
teten Bewegungen. Aber die Lösung des determinierten dynamischen
Systems liefert nur einen Teil der Erklärung: diese Lösung bestimmt
das System der Gewichtungen, die bei der Kumulation der zufälligen
Störungen verwendet werden müssen. Der andere und ebenso wichtige
Teil der Erklärung liegt in der Aufhellung der allgemeinen Gesetze der
Wirkung linearer Operatoren, die auf zufällige Störungen angewendet
werden. (Ibid.)
Ich muß auf der Vereinfachung bestehen. Die Mathematik ist ein lei-
stungsstarkes Werkzeug, darf aber nur verwendet werden, falls die
Anzahl der Elemente des Systems nicht allzu groß ist. Die ganze
Gemeinschaft muß schematisch in einem Modell“ dargestellt wer-
”
den, bevor man irgendetwas Nützliches machen kann. Der Schema-
tisierungsprozeß ist mehr oder weniger willkürlich und hätte auch
330 9 Modellbildung und Anpassung
dern auch, mit welcher Stärke jede von ihnen wirkt; andernfalls wäre
es nicht möglich, die Endresultante der in entgegengesetzten Rich-
tungen wirkenden Ursachen ans Licht zu bringen. (Tinbergen, (1939,
[276]), zitiert von Morgan, 1990, [204]).
Ursachen“ sind nicht erkennbar oder sie sind lediglich Hypothesen, die stets
falsifizierbar sind. Ein Modell ist gut“, wenn es den Dingen einen stabilen
”
Zusammenhalt verleiht, das Prüfen von wirtschaftspolitischen Alternativen
und das Messen der entsprechenden Wirkungen ermöglicht.
Keynes vertrat einen ganz anderen Standpunkt, der mit seinem Werde-
gang zusammenhing. Dieser Standpunkt ging aus einer (vor allem von seinem
Vater vertretenen) universitären Tradition der politischen Ökonomie und ei-
ner Erkenntnisphilosophie hervor, wie sie in Cambridge zu Beginn des 20.
Jahrhunderts diskutiert worden war. Keynes verfolgte mit seinem Treatise on
Probability (1921) das Ziel, eine Induktionslogik zu begründen. Seine Auffas-
sung von der Wahrscheinlichkeitsrechnung war antifrequentistisch und stand
in der Nähe der Idee vom Glaubensgrad“. Für ihn war die Wahrscheinlichkeit
”
eine logische Beziehung zwischen einer Behauptung und der sie stützenden
Information. Die Abhandlung von Keynes fällt in den Bereich der Wissen-
schaftsphilosophie, genauer gesagt in den Bereich der Logik. Keynes hatte
bereits 1910 in jungen Jahren seine Ideen zur Wahrscheinlichkeitsrechnung
und zur statistischen Induktion anläßlich einer Kontroverse zum Ausdruck
gebracht, die ihn zum Gegner von Karl Pearson gemacht hatte. Dieser hatte
eine Studie geleitet, in der nachgewiesen werden sollte, daß der Alkoholismus
von Eltern keinen Einfluß auf die körperlichen und geistigen Fähigkeiten ih-
rer Kinder hat.13 In einer Reihe von Artikeln, die 1910 und 1911 im Journal
of the Royal Statistical Society veröffentlicht wurden, kritisierte Keynes die
Pearsonsche Verfahrensweise der statistischen Induktion: Pearson extrapoliert
auf der Grundlage kleiner Stichproben und vor allem vergewissert er sich beim
Vergleich zweier Stichproben nicht davon, daß Ursachen, die vom Alkoholis-
mus verschieden sind, möglicherweise keine Erklärung für die aufgezeichneten
Ergebnisse liefern (Bateman, 1990, [8]). Keynes hatte die theoretischen Argu-
mente, die er gegen Pearson vorbrachte, im Treatise von 1921 entwickelt und
systematisiert und 1939 in der Diskussion mit Tinbergen noch einmal aufge-
griffen. Die Werkzeuge der statistischen Inferenz wurden in den 1930er Jahren
transformiert (vor allem durch Egon Pearson, den Sohn von Karl Pearson),
aber Keynes stellte – hinsichtlich der von nun an von den Ökonometrikern
und insbesondere von Tinbergen verwendeten Methoden der Korrelation und
der Regression – auch weiterhin seine bereits 1910 aufgeworfene Frage nach
der vollständigen Aufzählung der Ursachen:
Die Analysemethode der multiplen Korrelationen ist nur dann stich-
haltig, wenn der Ökonom nicht nur eine Liste der wirkenden Ursachen
geliefert hat – was auf den ersten Blick korrekt ist – sondern auch eine
vollständige Liste. Nehmen wir beispielsweise an, daß drei Faktoren
berücksichtigt wurden; es reicht nicht aus, daß diese zu den wahren
Ursachen gehören. Zusätzlich muß noch gewährleistet sein, daß es kei-
13
Das war eines der typischen Themen, die im Mittelpunkt der Interessen von Karl
Pearson standen: er wollte zeigen, daß diese Faktoren erblich sind und nichts mit
der Lebensweise der Eltern zu tun haben.
Ingenieure und Logiker 335
nen anderen wirkenden Faktor gibt. Gibt es doch noch einen weiteren,
unberücksichtigten Faktor, dann kann man auch nicht die relative Be-
deutung der drei ersten Faktoren messen. Folglich ist die Methode
nur dann anwendbar, wenn der Ökonom im Voraus eine zweifelsfrei
vollständige Analyse der wirkenden Ursachen liefern kann (Keynes
(1939, [151]), zitiert von Patinkin, 1976, [218]).
Beim Zitieren dieser Stelle aus der Kritik, die Keynes an Tinbergen übte,
fügt Patinkin hinzu: Was könnte den Spezifikationsbias besser beschreiben?“
”
Anschließend wollte Patinkin zeigen, daß Keynes auf seine Weise die Haupt-
probleme der entstehenden Ökonometrie bereits intuitiv erfaßt hatte und legte
den Gedanken nahe, daß Keynes durch seine Kritik der zeitlich verschobenen
Variablen – die im Modell von Tinbergen eine zentrale Rolle spielen – auch
die Idee des Simultan-Bias vorweggenommen hatte:
Tinbergen wendet eine sequentielle Analyse mit nicht gleichzeitigen
Ereignissen und Zeitverschiebungen an. Was geschieht, wenn das un-
tersuchte Phänomen seinerseits auf die Faktoren reagiert, durch die
man es erklärt? Zum Beispiel läßt Tinbergen bei der Untersuchung von
Investitionsschwankungen diese Schwankungen von Gewinnschwan-
kungen abhängen. Aber was geschieht, wenn diese Schwankungen
teilweise (wie es tatsächlich der Fall ist) von den Investitionsschwan-
kungen abhängen? (Keynes (1939, [151]), zitiert von Patinkin, 1976,
[218]).
Von den wirkenden Ursachen, die der Ökonom nicht in die einklagba-
”
re“ vollständige Liste aufnehmen kann, erwähnt Keynes explizit die folgen-
den: nicht meßbare Faktoren wie zum Beispiel psychologische, politische oder
soziale Variable, gedankliche Vorwegnahmen und Vertrauenszustände. Aber
Keynes müßte seine Terminologie nur geringfügig ändern – indem er nicht
”
meßbarer Faktor“ durch nicht gemessenen Faktor“ ersetzt – um von dem
”
kategoriellen Realismus abzuweichen, der seine Äußerungen durchdringt, und
um die Konventionen zur Bezeichnungsweise, zur Aufstellung von Äquiva-
lenzen und zur Kodierung der Objekte als integrierenden Bestandteil des Er-
kenntnisprozesses in Betracht zu ziehen. Der Treatise on Probability verknüpft
das induktive Argument nicht nur eng mit der Anzahl der Fälle, in denen eine
Aussage verifiziert wird, sondern auch mit der Idee einer positiven oder ne-
gativen Analogie. Die Wahrscheinlichkeit einer Aussage wird durch eine neue
Beobachtung nur in dem Maß erhöht, in dem sich diese Beobachtung von den
vorhergehenden in Bezug auf Faktoren unterscheidet, die vom untersuchten
Faktor abweichen. Der Begriff der negativen Analogie ermöglicht es, etwaige
Ursachen aus der Liste zu eliminieren. Aber diese rein logische Vorstellung,
die Keynes von der Analogie hatte, setzte voraus, daß die Konstruktion der
ihr zugrundeliegenden Äquivalenz außerhalb des zu untersuchenden Bereiches
liegt – das war der Standpunkt eines Philosophen.
336 9 Modellbildung und Anpassung
Der methodologische Realismus von Keynes ist auch bei einer anderen Kri-
tik erkennbar, die er dreißig Jahre später gegenüber den Methoden von Pear-
son und Tinbergen formulierte. Die Hauptidee dieser Kritik war das Thema
der Inhomogenität der Natur in Raum und Zeit. Die Wahrscheinlichkeitsur-
”
nen“ waren von veränderlicher Füllung – nichts garantierte die Stabilität der
von Tinbergen berechneten Strukturkoeffizienten. Keynes weigerte sich, die
konventionelle und praktische Seite des Tinbergen-Modells zu sehen, die nach
der Prüfresistenz und Fähigkeit dieses Modells beurteilt wurde, Varianten der
Wirtschaftspolitik zu testen, und nicht darauf beruhte, ob das Modell die
wahre Realität“ ausdrückte. Diese Kritik veranlaßte ihn, die intrinsische Va-
”
riabilität der Natur hervorzuheben und deswegen die Äquivalenzkonventionen
abzulehnen, auf die Tinbergen in seinem Modell nicht verzichten konnte. Als
Keynes jedoch in seinem Treatise on Probability die logischen Voraussetzungen
für eine legitime Induktion analysierte, bemerkte er anhand fiktiver Beispiele
zur Farbe der Vögel, daß seine Überlegung nur unter der Voraussetzung gültig
ist, daß man eine endliche Anzahl von Vogelarten und Farben annimmt. Das
impliziert jedoch, daß eine taxonomische Reduktion stattgefunden hat. Er
rechtfertigte diese wesentliche Hypothese einer endlichen Zahl von Arten“
”
durch die zutreffenden Ergebnisse, die er in der Vergangenheit erzielt hatte,
aber dies bleibt eine Hypothese und kann nicht bewiesen werden“ (zitiert
”
von Bateman, 1990, [8]). Er war also sehr nahe daran, die taxonomischen
Konventionen ernst zu nehmen. Aber der von ihm vertretene Standpunkt zur
Behandlung der Induktion hinderte ihn an der Erkenntnis, daß eine Äquiva-
lenz nicht (logisch) bewiesen, sondern – bisweilen mit großem Aufwand – kon-
struiert werden muß und sich anschließend auch noch als resistent gegenüber
Zerstörungsprüfungen erweisen muß.
gen wiederzufinden, lange Zeit fast utopisch und hoffnungslos zu sein. Diese
Auffassung deckte sich nahezu vollständig mit dem, was Cournot und Edge-
worth sagten. Beide stellten fundierte Überlegungen über die Bedeutung der
Wahrscheinlichkeitsrechnung zur Begründung und Untermauerung des Wis-
sens an, verwendeten aber diese Werkzeuge in ihren Arbeiten zur Wirtschafts-
theorie nicht. Keynes machte sich mit großer Energie daran, die Rolle der
Wahrscheinlichkeitsrechnung bei der Induktion zu analysieren, aber er ver-
hielt sich reserviert und skeptisch gegenüber den Tinbergenschen Versuchen
zur globalen Modellierung der Wirtschaft.15 Auf einer tieferliegenden Ebe-
ne war das Modell der Physik – das auf der Homogenität der Natur, der
Objekte und der sie verbindenden Kräfte beruhte – kaum dazu geeignet,
die Veränderlichkeit der Gesellschaften zu berücksichtigen. Das Fehlen einer
kontrollierten experimentellen Situation und die Nichteinhaltung der Ceteris-
paribus-Klausel waren ein ständig wiederkehrendes Thema in den wiederhol-
ten Debatten über die Möglichkeit, die in den Naturwissenschaften so erfolg-
reichen empirischen Techniken auf die Wirtschaftswissenschaft anzuwenden.
Die von den Statistikern sukzessiv entworfenen Verfahren stellten alle zu ei-
nem gewissen Zeitpunkt eine Antwort auf die Frage dar, ob es unmöglich
ist, die experimentelle Methode auf die Sozialwissenschaften anzuwenden: die
Regelmäßigkeiten und subjektiven Mittelwerte von Quetelet, der Eindeutig-
keitstest der Wahrscheinlichkeitsurne“ von Lexis, die partielle Korrelation
”
und die multiple Regression von Yule, sowie die Varianzanalyse und die Ran-
domisierungstechnik von Fisher. Aber diese wiederholten Bemühungen reich-
ten – zumindest bis in die 1920er Jahre – nicht dazu aus, die Ökonomen in
Versuchung zu führen. In seinem 1913 erschienenen Buch behandelte Lenoir
bezüglich der Angebots- und Nachfrageelastizität die deduktive Methode und
die Regressionsschätzung nebeneinander, ohne sie jedoch miteinander zu ver-
mengen (aber das Bestreben, beide Verfahren miteinander zu vergleichen, war
dennoch klar erkennbar). Und schließlich war Keynes, als er Tinbergen 1939
kritisierte, ganz offensichtlich der Meinung, daß ein ökonometrisches Modell
nicht der Ursprung neuer Ideen zur Ökonomie sein konnte: empirische Arbeit
bewirkt keine Entdeckungen; sie kann lediglich Theorien illustrieren oder de-
ren Parameter schätzen. Steht das Modell im Widerspruch zur Theorie, dann
sind die Daten falsch, nicht aber die Theorie.
Am anderen Ende des erkenntnistheoretischen Spektrums kann man als
radikalstes aller Verfahren die rein deskriptive Methode und die induktive Me-
thode ausmachen, bei der die Regelmäßigkeiten und Gesetze auf der Grund-
lage von Beobachtungen zum Vorschein gebracht werden sollten. Die erst-
genannte Methode war für die deutsche historische Schule und für gewisse
amerikanische Institutionalisten typisch. Diese Methode war durch die Auf-
fassung charakterisiert, daß die jeweiligen Situationen inkommensurabel sind
15
Zumindest ist Keynes so anspruchsvoll hinsichtlich der Voraussetzungen für eine
legitime Induktion, daß er die ersten makroökonometrischen Konstruktionsversu-
che zu diskreditieren scheint.
Über den richtigen Gebrauch der Anpassung 339
Liste der dabei einbezogenen Menschen und Aussagen sind dann also sehr va-
riabel. Die Kontroverse änderte sich ihrem Wesen nach und bezog sich fortan
auf diese Liste. Die Begriffe Paradigma“ oder Argumentationsstil“ verwei-
” ”
sen auf eine ähnliche Auffassung: ein Test bezieht sich auf die Kohärenz, die
Solidität und die Ergiebigkeit einer Gesamtheit von Aussagen, die aus einem
System von Aufzeichnungen, Definitionen und Kodierungen hervorgehen, wel-
che ihrerseits miteinander durch das verknüpft sind, was sie bedeuten und was
sie veranlassen (Crombie, 1981, [52]; Hacking, 1991, [120]). Diese Auffassung
ermöglicht es, die im Kapitel 8 aufgeworfenen Fragen (zu den Taxonomien
und zur Kodierung) sowie die im vorliegenden Kapitel genannten Fragen (zur
Modellbildung und Anpassung zwischen Theorien und Daten) im Rahmen ein
und derselben Problematik zusammenzufassen, während diese Themen häufig
in zueinander disjunkten Kontexten und Registern behandelt werden.
Die Sprache der Wahrscheinlichkeitsrechnung ermöglichte es ab Beginn
der 1930er Jahre, das Netz der Aufzeichnungen und die A-priori -Modellbil-
dungen in einer vollkommen neuen Art und Weise zur Geltung kommen zu
lassen – ganz anders als bei dem früheren manichäischen Gegensatz zwischen
dem Ganzen in der Theorie“ und dem Ganzen in den Beobachtungen“.
” ”
Der Begriff Likelihood 16 wurde von Fisher als Alternative zur alten inversen
”
Wahrscheinlichkeit“ von Laplace vorgelegt. Diese Alternative ermöglichte es,
über den Gegensatz zwischen subjektiver und objektiver Wahrscheinlichkeit
hinauszugehen. Die Hauptidee bestand darin, im Rahmen einer präzise defi-
nierten und umschriebenen Familie von Wahrscheinlichkeitsverteilungen die-
jenige herauszufinden, die einer Beobachtungsmenge die größte Plausibilität“
verleiht (das heißt diejenige dieser Verteilungen, für welche die Wahrschein-
lichkeit des Auftretens der betreffenden Beobachtungen am größten ist). Un-
ter diesem Gesichtspunkt griff die Wirtschaftstheorie ein, um die Familie der
Verteilungen zu definieren und zu umreißen, in deren Rahmen die Maximum-
”
Likelihood-Methode“ angewendet wird. Diese Synthese wurde in ihrer allge-
meinsten Form von Haavelmo (1944, [116]) vorgelegt und gab den Arbeiten
der Cowles Commission eine bestimmte Richtung. Das in den 1940er Jahren
entwickelte Programm dieser Kommission begründete die moderne Ökonome-
trie (Epstein, 1987, [85]). Die Ökonometrie ermöglichte zumindest im Prinzip,
die Mehrzahl der früher gegen die Verbindung von Wirtschaftstheorie und
deskriptiver Statistik erhobenen Einwände in ein und denselben Formalismus
einzubinden. Die neue Religion“ der inferentiellen Statistik erlaubte es, diese
”
Verbindung fortan willkommen zu heißen und ihr den Segen zu geben.
Aus dieser Sicht lassen sich die verschiedenen Formen möglicher Abwei-
chungen zwischen den beobachteten Werten einer zu erklärenden“ Variablen
”
und ihren – mit Hilfe des optimierten Modells – berechneten (oder rekon-
”
struierten“) Werten auf verschiedene Weise interpretieren, indem man Spezi-
fikationsfehler von Meßfehlern unterschied. Die erstgenannten Fehler haben
16
Für eine ausführliche Darstellung der Geschichte des Begriffes Likelihood vgl.
Edwards, 1992, [371].
Über den richtigen Gebrauch der Anpassung 341
Und schließlich können die Residuen als Ergebnisse von Meßfehlern be-
trachtet werden. In diesem Fall wird vorausgesetzt, daß die im vorherge-
henden Kapitel beschriebene Aufzeichnungs- und Kodierungsarbeit in einer
Black Box“ eingeschlossen und isoliert ist, die sich von dem Netz unter-
”
scheidet, über welches das Modell Rechenschaft geben möchte. Sogar die
Wahl des Ausdrucks Meßfehler“ impliziert eine realistische Epistemologie,
”
gemäß der die Objekte wenigstens theoretisch bereits vor der oben analy-
sierten Identifikations-, Definitions- und Begrenzungsarbeit existieren. Oder
zumindest wird von dieser Sequenz von Handlungen und den Entitäten, die
sie implizieren, vorausgesetzt, daß sie sich außerhalb der Liste der Objekte
und Aussagen befinden, die als relevant beibehalten werden. Diese außerhalb
der Liste befindlichen Entitäten lassen sich auch nicht durch den rhetori-
schen Operator alles geschieht so, als ob“ retten. Jedoch ist die Position,
”
welche die genannte Eingrenzung und die Konstruktion dieser Liste denun-
ziert, unhaltbar – es sei denn, man befürwortet eine andere Liste, von der
man eine größere Vollständigkeit voraussetzt. Es ist besser, die Tatsache zur
Kenntnis zu nehmen, daß eine realistische Definition der relevanten Objekte
sowohl ökonomisch als auch kognitiv tiefgründige Rechtfertigungen hat, die
in der Finalität der Modellbildung und in deren Registrierung im Rahmen
von Beschreibungs- und Entscheidungsnetzen zum Ausdruck kommt. Die Hy-
pothese, daß Objekte zeitlich vor ihrer kognitiven Konstruktion existieren,
ermöglicht es, diese Objekte als Bezugskonventionen zu verwenden – als An-
satzpunkte oder Elemente, um Ordnung in das Chaos zu bringen und um als
objektive“ Markierungen zu dienen. Diese objektiven“ Markierungen sind
” ”
nichts anderes, als gemeinsame Eigenschaften von intrinsisch verschiedenen
Subjekten (Individuen). Aus dieser Sicht ist eine Gesellschaft unvorstellbar,
in der die Menschen auf eine derartige realistische Haltung verzichten können.
Die begriffliche Trennung zwischen dem Inneren der Black Box (das heißt
den im Kapitel 8 beschriebenen Aufzeichnungsverfahren) und ihrem Äuße-
ren (Aufstellung von Beziehungen zwischen Ausgängen geschlossener Boxen,
um Boxen höherer Ordnung zu bilden) spiegelt sich in der Sprache der Öko-
nometrie dadurch wider, daß man einerseits zwischen den Meßfehlern und
andererseits zwischen der Restvariabilität und den vernachlässigten Varia-
blen unterscheidet. Diese Unterscheidung mag willkürlich erscheinen, aber sie
steht in einem tiefgründigen Zusammenhang zu den Institutionen, zu den Be-
schreibungsroutinen und zu den impliziten Erkenntnistheorien, ohne die keine
Rhetorik vorstellbar wäre, die Wissenschaft und Handlung miteinander ver-
bindet. Nichtsdestoweniger lösen sich diese Kodierungs- und Taxonomierouti-
nen in Krisen- und Innovationszeiten auf und es werden andere Aktionsweisen
eingeführt, die mit anderen Indikatoren ausgestattet sind. Genau das geschah
in den 1930er Jahren, einem Jahrzehnt, das besonders fruchtbar an Innova-
tionen dieses Typs war. Zu diesen Innovationen kann man die von Frisch und
Haavelmo geprägte Formulierung einer Rhetorik zählen, welche die beiden
früher einander gegenübergestellten Begriffe des Fundamentalgesetzes“ und
”
Autonomie und Realismus von Strukturen 343
der beobachteten Regelmäßigkeit umfaßte und diese Begriffe fortan durch den
Begriff der Autonomie einer Relation miteinander vereinigte.
Folglich gesteht der Ökonom, der nach einer neuen Formulierung der de-
duktiven Wirtschaftswissenschaft mit Hilfe von empirischen Beobachtungen
sucht, der Autonomie bei der Identifizierung der relevanten Relationen einen
privilegierten Status zu. Dennoch äußerte Frisch zehn Jahre später einigen
Pessimismus in Bezug auf die Möglichkeit, autonome Relationen zu finden.
Er hatte sogar beabsichtigt, durch direkte Befragungen zum Verhalten von
Individuen nach diesen Beziehungen zu suchen:
Es ist selten, daß die Daten eine autonome Strukturgleichung tatsäch-
lich numerisch bestimmen können. Am häufigsten erhalten wir eine
Gleichung, die schwach autonome Kovariationen widerspiegelt. Man
muß nach anderen Mitteln suchen, um Informationen über die numeri-
schen Parameter unserer Strukturgleichungen zu bekommen. Der ein-
zige mögliche Weg scheint darin zu bestehen, daß wir die Methode der
Befragungen mehr nutzen, als wir es bisher tun: wir müssen Personen
oder Gruppen befragen, was sie unter diesen oder jenen Umständen
tun würden. (Frisch, (1948, [101]), zitiert von Aldrich, 1989, [3]).
In diesem Fall sind wir nicht mehr sehr weit von Quetelet und seinem
Durchschnittsmenschen entfernt. Die Verbindung der beiden Methoden, das
heißt der theoretischen hypothetisch-deduktiven Methode einerseits und der
empirischen statistisch-induktiven Methode andererseits, bleibt auch weiter-
hin der Gegenstand epistemologischer Kontroversen, die weder Anfang noch
Ende haben (in dem Sinne, daß man nicht weiß, ob man mit der theoretischen
Seite oder der empirischen Seite beginnen soll) – es sei denn, man koppelt die-
ses repetitive Gegenüber an einen dritten Pol an, der aus der Verwendung der
betreffenden Konstruktionen und ihrer Eintragung in ein Netz von Handlun-
gen besteht, die sich auf Messungen stützen. Haavelmo ging in seinem 1944
veröffentlichten programmatischen Text The probability approach in econo-
”
metrics“ in diese Richtung. Er gab drei Gründe an, die für die Suche nach
autonomen Relationen sprechen: sie sind stabiler, sie sind verständlich (in-
terpretierbar) und vor allem sind sie nützlich für die Wirtschaftspolitik. Zur
Illustration seiner Überlegung verwies er darauf, wie ein Auto funktioniert:
Autonomie und Realismus von Strukturen 345
ing; oder auf einem Sozialkodex, einem Sinn für Verantwortung oder
auf einem persönlichen Opfer für ein gemeinsames Ziel. Aber diese
sozialen Verhaltensweisen können nur von Individuen als Mitgliedern
einer Gruppe gezeigt werden. (Koopmans, 1949, [156]).
Als Koopmans das NBER wegen dessen Messungen ohne Theorie“ kriti-
”
sierte, erwiderte Vining, daß seine Gruppe in Sachen Theorie nicht weniger
anspruchsvoll sei, ihre Theorie aber eine andere wäre und daß es außer der
Konstruktion, auf die sich die Cowles Commission beruft, auch noch andere
Konstruktionen gibt. Es sind demnach mehrere Darstellungen der Kontro-
verse möglich: eine externalistische Darstellung – formuliert in Begriffen der
Schlacht um die Ergatterung von Zuschüssen – und eine internalistische Dar-
stellung, ausgedrückt in Begriffen eines ständig wiederkehrenden epistemolo-
gischen Streits zwischen Holismus und Individualismus – in Begriffen also,
die für das Problem des Zusammenhangs zwischen Daten und Theorien nicht
spezifisch sind. Zwar sind beide Darstellungen aufschlußreich, aber keine von
ihnen erklärt, was die beiden Gruppen in Bezug auf die Frage des Status
und der Verwendung des statistischen Materials in einem wissenschaftlichen
Konstrukt voneinander trennt.
Koopmans äußerte die Meinung, daß es nicht möglich ist, aus einer Ge-
samtheit von statistischen Reihen verallgemeinerungsfähige Schlußfolgerungen
zu ziehen, falls die Prüfung dieser Reihen nicht durch theoretische Hypothesen
bezüglich der Verhaltensweisen der Individuen untermauert wird. Auf keinen
Fall könne der Zyklus an sich eine für die Analyse relevante Einheit bilden. Bei
Fehlen derartiger Hypothesen sind die Bewegungen der in der Wirtschafts-
”
wissenschaft verwendeten Variablen gleichsam Eruptionen eines rätselhaften
Vulkans, in dessen kochend heißen Kessel niemand je eindringen kann“. Die
gesammelten Daten müssen in Statistiken“ (im Sinne der inferentiellen Sta-
”
tistik) zusammengefaßt werden, die anzahlmäßig kleiner sind als die Beob-
achtungen, damit man Parameter schätzen und Hypothesen testen kann. Die
Gesamtheit der Relationen muß durch ein Wahrscheinlichkeitsmodell mit si-
multanen Gleichungen geschätzt werden. Nur diese Methode erlaubt es, über
die Akkumulation von Daten à la Kepler hinauszugehen und – wie Newton –
eine Theorie zu konstruieren, die durch Beobachtungen untermauert ist.
Vining erwiderte, indem er die Phase der Erforschung und Entdeckung der
Phase der Beweisführung und des Beweises gegenüberstellte. Die statistische
”
Effizienz“, auf die sich Koopmans berief, war mehr ein Attribut der Schätz-
und Testverfahren als ein Merkmal der inventiven Forschung:
Die Entdeckung von neuen Dingen ist nie ein Bereich gewesen, für den
die Eleganz der Gestaltung und Ausstattung von erstrangiger Bedeu-
tung waren; dieser Bereich entspricht schwerlich der Forschungsmetho-
de, bei der man sich auf die Forderung beschränkt, daß ein durch a
priori theoretische Begriffe charakterisiertes Verfahren gewisse vorge-
schriebene Formen hat und Ergebnisse produziert, die sich auf direkte
356 9 Modellbildung und Anpassung
Weise den Tests der Theorie von Neyman und Pearson unterziehen
lassen (Vining, 1949, [283]).
Vining befürchtete, daß eine Betonung der formalen Verfahren der Theo-
rie der inferentiellen Statistik dazu führen könnte, das Interesse für das ei-
gentliche Objekt und dessen vielfältige Aspekte aus den Augen zu verlieren:
Der Nachdruck, mit dem Koopmans die Verteilungshypothesen betont, ist
”
mehr von seinen Sorgen bezüglich einer Schätzung getragen, als von einem
tatsächlichen Interesse an der eigentlichen Verteilung“. Zur Untermauerung
seiner Verteidigung einer fein-deskriptiven“ Statistik erwähnte Vining eine
”
(1942 im Journal of the Royal Statistical Society veröffentlichte) Diskussion
über die Zukunft der Statistik“. Diese Diskussion fand zwischen Yule und
”
Kendall statt, den beiden Autoren des damals am häufigsten verwendeten
Statistikhandbuchs. Kendall hatte die Meinung vertreten, daß die Schätzung
”
der Eigenschaften einer Population auf der Grundlage einer Stichprobe auf
lange Zeit das wichtigste praktische Problem der Statistik ist“. Yule, der 1942
einundsiebzig Jahre alt war, widersprach, indem er die Bedeutung der inferen-
tiellen Statistik und der Zufallsstichproben herunterspielte, die in den 1930er
Jahren vor allem durch Neyman und Egon Pearson formalisiert worden wa-
ren. Kendall faßte auf seine Weise die Geschichte der Statistik zusammen –
so, wie er sie ein halbes Jahrhundert lang aus eigener Erfahrung erlebt hatte:
Das Hauptproblem des Statistikers besteht einfach darin, Daten zu be-
schreiben und auszusprechen, was diese Daten zeigen. Hierfür ist die
Theorie der Stichprobenauswahl sekundär ... Im Wesentlichen ent-
wickelte sich die Theorie im Laufe meines Lebens, indem sie dieser
Linie folgte. Zuerst wurden neue Methoden konzipiert und erst da-
nach schlossen sich Forschungen zu den möglichen Fehlern“ dieser
”
Beschreibungen an. In jüngerer Vergangenheit sind diese methoden-
orientieren Forschungen mit wenigen Ausnahmen (Zeitreihen in der
Wirtschaft, Faktorenmethoden in der Psychologie) vernächlässigt wor-
den – demgegenüber kam es zu einer völlig disproportionalen Entwick-
lung (ja zu einem fast bösartigen Wachstum) der Theorie der Stich-
probenauswahl. Ich hoffe, daß es einen Weg zurück zu den eigentli-
chen Beschreibungsmethoden gibt. Da sich diese Methoden nur im
Zusammenhang mit konkreten Problemen entwickeln, impliziert das
eine Rückkehr zur praktischeren Arbeit, und zu einem Weniger an
reiner Theorie ... Ein mit Vorsicht, gesundem Menschenverstand und
Geduld ausgestatteter Forscher hat größere Chancen, Fehlschlüsse zu
vermeiden, als ein unbesonnener Mensch, der sich von einer mecha-
nischen Anwendung der Regeln der Stichprobenauswahl leiten läßt.
Es gibt wichtigere Fehlerquellen als Schwankungen von Stichproben-
nahmen ... Nein, ich kann dieser Theorie nicht den vordersten Platz
zugestehen – einen vorderen Platz vielleicht, aber nicht den vordersten
(Yule (1942, [295]), zitiert von Vining, 1949, [283]).
Theorien testen oder Diversität beschreiben? 357
Über das Unverständnis hinaus, das Yule für die Techniken der Stichpro-
benauswahl und deren entscheidende Vorteile (und sei es auch nur in Bezug
auf die Erhebungskosten) erkennen ließ, ist aber auch noch etwas anderes
zu beachten. Sein Beharren auf der Deskriptionsmethode“, auf die sich Vi-
”
ning 1949 bezog, lenkte die Aufmerksamkeit auf eine andere Auffassung von
statistischer Arbeit – eine Auffassung, die nicht darauf abzielt, Theorien zu
testen. Diese Auffassung wurde später von den Spezialisten für Stichproben-
erhebungen entwickelt und aus den Erhebungen leiteten sie immer subtilere
Beschreibungen ab.
Yule, Bowley und March stellten 1909 auf dem in Paris veranstalteten
Kongreß des Internationalen Statistischen Instituts diejenigen Methoden der
mathematischen Statistik vor, die aus der Biometrie hervorgegangen waren:
die partielle Korrelation und die multiple Regression. Nationalökonomen, wie
zum Beispiel Lenoir und Moore, griffen diese Methoden auf und versuchten,
auf der Grundlage statistischer Beobachtungen die Gesetze von Angebot und
Nachfrage zu identifizieren und sogar Erklärungen für Konjunkturzyklen zu
finden. Die Wirtschaftstheorie begann, sich mit empirischen Aufzeichnungen
zu beschäftigen. Vierzig Jahre später, im Jahre 1949, wurden die Voraus-
setzungen für die Möglichkeit der genannten Wechselwirkung gründlich un-
tersucht. Das Fundament für diese Untersuchungen war in den 1930er Jahren
vor allem durch die Anwendung einer neuen Art und Weise gelegt worden,
über Statistik zu sprechen, nämlich im Rahmen von Wahrscheinlichkeitsmo-
dellen. Zu diesem Zeitpunkt konnten jedoch – wie die Kontroverse zwischen
Koopmans und Vining zeigt – die statistischen Werkzeuge mit unterschiedli-
chen Rhetoriken verbunden werden und vielfältige intellektuelle, soziale und
politische Ansätze unterstützen. Es gibt nicht nur eine einzige richtige Art
und Weise, die Zahlen sprechen zu lassen und sich in der Argumentation
auf Zahlen zu stützen. Das ist der Grund dafür, warum eine Soziologie der
Statistik unentbehrlich ist, in der jeder dieser Diskurse gleichermaßen ernst
genommen wird und alle Diskurse in dem Netz zur Geltung kommen, das
ihnen Zusammenhalt verleiht und von ihnen zusammengehalten wird.
Schlußfolgerung:
Das Unbestreitbare in Zweifel ziehen
Von den Eigenschaften, durch die sich die – mit der Schule der Annales
d’hygiène publique ab 1930 eingeleitete – Linie der offenen historischen For-
schung auszeichnete, war die Bezugnahme auf die statistischen Objektivie-
rungen bedeutsam. Aus dieser Sicht hat die quantitative Geschichte durch
Vermittlung von Simiand, Halbwachs und Labrousse Teile der Durkheimschen
Schule und – noch näher an der Quelle – Teile der auf Quetelet zurückgehenden
Denkweise geerbt, die sich auf Mittelwerte konzentrierte und die makrosozia-
len Regelmäßigkeiten den unvorhersehbaren und stets andersartigen Zufällig-
keiten der isolierten Ereignisse gegenüberstellte. Mit dieser Technik hat die
quantitative Geschichte versucht, über die individuellen oder konjunkturellen
Kontingenzen hinauszugehen und allgemeinere Dinge zu konstruieren, durch
die man je nach Sachlage soziale Gruppen oder Ereignisse von Langzeitdauer
charakterisieren kann. Das Bemühen, der chaotischen Vielfalt der singulären
Beobachtungen eine Form zu geben, impliziert den Rückgriff auf frühere Quel-
len und auf spezifische Kodierungen, bei denen sich der Historiker zwei Fragen
stellt: Sind diese Quellen verfügbar? Sind sie zuverlässig? Aus dieser Sicht ver-
gleicht man die Frage nach der Realität und nach der Konsistenz der Objekte
mit der Frage nach der Zuverlässigkeit der Messungen dieser Objekte. Die
kognitiven Verallgemeinerungswerkzeuge werden als gesichert und fest kon-
stituiert vorausgesetzt. Das einzige, was zählt, ist das kontrollierte Sammeln
und die technische, gegebenenfalls automatisierte Datenverarbeitung.
In diesem Buch habe ich versucht, diese klassische Beziehung zwischen
Geschichte und Statistik umzukehren, indem ich das rekonstruiert habe, was
Jean-Claude Perrot (1992, [227]) als konkrete Geschichte der Abstraktion“
”
bezeichnet. Die Denkweisen und die materiellen Techniken, die in den unter-
schiedlichen Etappen der Geschichte der Sozialwissenschaften (und vor allem
der Geschichte) ihren Einfluß geltend machen, stehen ihrerseits in Beziehung
zu den Künsten des Tuns und Sagens, die von der allgemeinen Geschichte
untersucht werden. Darüber hinaus hängen diese Denkweisen und materiel-
len Techniken mit den Debatten zusammen, die zu politischen und wissen-
schaftlichen Totalisierungsverfahren führen. So stehen den statistischen und
360 Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
makroökonomischen Konstrukten, die in den Jahren von 1940 bis 1970 domi-
nierten, heute mikrohistorische (Ginzburg, 1980, [110]) und mikrosoziologische
Forschungen gegenüber – so als ob Zweifel hinsichtlich einer allumfassenden
Geschichte oder Sozialwissenschaft aufgekommen wären, die mit Hilfe großer
Mengen argumentieren. Aber ist diese Entwicklung rein epistemologisch? Be-
zieht sie sich nicht auf kognitive Techniken, welche man unabhängig von der
Geschichte konzipieren kann, die mit Hilfe dieser Techniken erklärt werden
soll?
Die Wiedereinführung der statistischen Argumentation als Abstraktions-
weise in einer umfassenderen Sozialgeschichte oder Politikgeschichte wirft ein
spezielles Problem auf, denn diese Technik ist zu einem Synonym für ein
Beweisinstrument und für einen Bezugsrahmen geworden, die kaum noch an-
gefochten werden. Die geistige Kehrtwendung, die eine Berücksichtigung der
Metamorphosen der statistischen Argumentation einschließt, erweist sich für
den Forscher als fast ebenso schwierig wie für den Normalbürger, der nunmehr
daran gewöhnt ist, die soziale Welt durch ein dichtes Netz von Indizes und
Prozentsätzen zu sehen. Sowohl in der wissenschaftlichen als auch in der sozia-
len Debatte drückte man sich fortan in einer selbstsicheren Sprache aus, deren
Transformationen wir in diesem Buch gefolgt sind. Aus der Perspektive des
Studiums der Anfechtbarkeit“ stelle ich hier einige der erzielten Ergebnisse
”
zusammen und untersuche, wie die statistischen Werkzeuge dazu beigetra-
gen haben, einen öffentlichen Raum – das heißt einen Raum für kollektive
Debatten – zu formen. Außerdem versuche ich, die Analyse der Rolle dieser
Techniken über die 1940er Jahre hinaus – die den Endpunkt der vorhergehen-
den Kapitel darstellen – weiterzuführen, indem ich kurz an die relative Krise
erinnere, die sich seit 1970 abzeichnet.21
Der öffentliche Raum als Raum, in dem die Fragen der Gemeinde in einer
öffentlichen Debatte erörtert werden können, hängt mit der Existenz stati-
stischer Informationen zusammen, die allen zugänglich sind. Claude Gruson,
einer der Gründerväter der französischen öffentlichen Statistik, hat das als
eine notwendige Bedingung der Demokratie und der aufgeklärten Debatte
beschrieben und als einen unerläßlichen Bezugsrahmen dafür bezeichnet, die
massiven Trends“ der Gesellschaft herauszuarbeiten (Ladrière und Gruson,
”
21
Ich greife hier Teile von Darstellungen auf, die ausführlicher in zwei Artikeln
veröffentlicht worden sind. Der erste Artikel wurde im Courrier des statistiques
publiziert und bezieht sich auf die neuere Geschichte der französischen öffentlichen
Statistik (Desrosières, 1989, [64]). Der zweite, in Raisons pratiques erschienene
Artikel, ist Bestandteil einer dem Begriff des öffentlichen Raumes“ gewidmeten
”
Nummer dieser Zeitschrift (Desrosières, 1992, [65]).
Ein zu praktischen Zwecken konstruierter kognitiver Raum 361
1992, [163]). Aber die Zusammenhänge zwischen dem öffentlichen Raum und
der statistischen Argumentation liegen wahrscheinlich tiefer, als Gruson an-
deutet. Die Konstruktion eines statistischen Systems ist untrennbar mit der
Konstruktion von Äquivalenzräumen verknüpft, welche sowohl die politische
als auch die kognitive Konsistenz und Permanenz der Objekte garantieren,
die einen Bezugsrahmen für die Debatten liefern sollen. Der Repräsentati-
vitätsraum der statistischen Beschreibungen ist nur mit Hilfe eines Raumes
gemeinsamer mentaler Darstellungen möglich geworden, die von einer gemein-
samen Sprache getragen werden und vor allem durch den Staat und durch das
Recht abgegrenzt sind.
Der öffentliche Raum ist von diesem Standpunkt nicht nur eine performa-
tive und mitunter vage Idee, sondern ein historisch und technisch strukturier-
ter und eingegrenzter Raum. Statistische Informationen fallen nicht als rei-
nes Spiegelbild einer zeitlich vor ihnen existierenden Realität“ vom Himmel.
”
Ganz im Gegenteil: sie können als die vorläufige und zerbrechliche Krönung
einer Reihe von Äquivalenzkonventionen in Bezug auf Entitäten angesehen
werden, wobei eine Vielzahl von ungeordneten Kräften ständig danach trach-
tet, diese Konventionen zu differenzieren und zu trennen. Der Raum der sta-
tistischen Informationen bezieht seine Überzeugungskraft aus der doppelten
Bezugnahme auf Solidifikationsprinzipien, die im Allgemeinen voneinander
unterschieden werden: das Solidifikationsprinzip der Wissenschaft und das So-
lidifikationsprinzip des Staates. Der Raum der statistischen Informationen ist
besonders signifikant, wenn man untersuchen möchte, was einen öffentlichen
Raum gleichzeitig möglich und unmöglich macht. Die Spannung zwischen der
Tatsache, daß statistische Informationen den Anspruch erheben, Bezugspunk-
te einer Debatte zu sein, und dem Umstand, daß man diese Informationen
immer wieder infrage stellen kann und sie dadurch zum Debattengegenstand
macht, ist eine der Hauptschwierigkeiten bei der gedanklichen Formulierung
der Bedingungen, unter denen ein solcher Raum möglich ist.
Man könnte diese Spannung mit der allgemeineren Spannung vergleichen,
die daraus resultiert, daß sich manche Debatten sowohl um substantielle Ob-
jekte als auch um die Regeln und Modalitäten der Debatte drehen können:
um die Verfassung, um den Ablauf von Versammlungen und um den Modus
der Benennung von Vertretern. Jede Verfassung sieht die Regeln ihrer eigenen
Änderung vor. Der springende Punkt ist jedoch, daß statistische Informatio-
nen nicht in der gleichen Weise in Erscheinung treten: unbestreitbare Tat-
”
bestände“, die von diesen Informationen geliefert werden sollen, beinhalten
keine Modalitäten in Bezug auf eine Diskussion der Informationen (die ihrer-
seits aber zur Beglaubigung der Fakten beigetragen haben). Dieser Umstand
wird oft als unerträglich empfunden – auf jeden Fall scheint er zumindest
unerträglicher zu sein, als die Debatte über die Modalitäten der Debatte. Es
handelt sich also um eine Skala der Debattierbarkeitsniveaus“ der zu behan-
”
delnden Objekte. Die Trennung zwischen technischen Objekten und sozialen
Objekten, die bis ins 17. Jahrhundert zurückgeht, ist jetzt zu einer tiefen
Kluft geworden. Von dieser Warte aus eignen sich die statistischen Objek-
362 Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
Eine Debatte über eine Maßnahme setzt voraus, daß man a priori inkommen-
surable Beziehungen zwischen Objekten oder Ereignissen explizit in einem
364 Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
bei, sondern konzentrierte sich auf den Mittelwert als Träger einer beherrsch-
baren Aktion. Diese Argumentation erlaubte keine werkzeugmäßige Ausstat-
tung der Debatten über die Verteilungen und die Ordnungen der Individuen.
Quetelet strebte eine Reduzierung der Heterogenitäten an und zeigte kein
Interesse für deren Objektivierung. Eine solche Objektivierung erwies sich
jedoch gerade dann als notwendig, wenn es in der Debatte um diese Heteroge-
nitäten ging. Diese Objektivierung fand statt, als Galton die hereditaristische
Darwinsche Problematik der Ungleichheiten zwischen den Individuen von der
Tierwelt auf die Menschen übertrug.
Dennoch enthielt das Konstrukt von Quetelet bereits eine adäquate Form
dieser Objektivierung: das Normalgesetz“ der Gaußschen Verteilung der
”
körperlichen oder psychischen Merkmale der menschlichen Spezies, wie zum
Beispiel Körpergröße oder Intelligenz. Da sich Quetelet aber auf die Beschrei-
bung (und Idealisierung) seines Durchschnittsmenschen orientierte, hat er
diese Form nicht dazu verwendet, um unterschiedliche Individuen anzuord-
nen und zu klassifizieren. Nun eignete sich aber die Normalverteilung gut
zur Bildung von eindimensionalen Ordinalskalen und deswegen auch zur Kon-
struktion von Bezugsräumen, die einen einfachen Vergleich der Individuen
ermöglichen – genau das taten Galton und die seinen Spuren folgenden Eu-
geniker ab 1870. Diese Kehrtwendung der Interpretation der Normalvertei-
lung vom Mittelwert hin zur Streuung der persönlichen Merkmale brachte
Galton darauf, Werkzeuge zur Aufstellung von Äquivalenzen zwischen unter-
schiedlichen Populationen zu ersinnen – Werkzeuge, die teilweise durch eine
statistische (und nicht deterministische) Korrelation miteinander verknüpft
waren: die Körpergröße der Söhne wurde teilweise durch die Körpergröße
der Väter erklärt. Durch die Erschließung eines neuen Kontinents für die
Objektivierung der Kausalität – des Kontinents der partiellen und statisti-
schen Kausalität – lieferten Galton und Pearson den äußerst vielfältigen argu-
mentativen Debattenrhetoriken (bei denen man nicht mehr zwischen sozial“
”
und technisch“ unterscheiden kann) einen ganz neuen Werkzeugkasten“,
” ”
der von den Entscheidungsträgern des 20. Jahrhunderts und ihren Exper-
ten in umfassender Weise genutzt werden sollte. Allgemeiner gesagt haben
die aus der Biometrie hervorgegangenen Werkzeuge der mathematischen Sta-
tistik (Regression, Korrelation, Verteilungsanpassungstests, Varianzanalyse,
wahrscheinlichkeitstheoretisch-ökonometrische Modelle) zur Instrumentierung
des sozio-technischen Debattenraumes beigetragen, der sich auf die Prognosen
und Entscheidungen bezieht, an denen sich die soziale Welt orientiert. Diese
Werkzeuge stellten verfestigte, ausgehärtete Objekte bereit, in Bezug auf die
sich die Akteure positionieren konnten. Die Werkzeuge lieferten eine allgemei-
ne Sprache, die mit einer elaborierten und komplexen Grammatik ausgestattet
war.
Die Anhänger der Eugenik unter den englischen Biometrikern des späten
19. Jahrhunderts hielten sich als Erfinder dieser zukunftsträchtigen mathe-
matischen Techniken nicht für Statistiker“. Zuallererst waren sie für die po-
”
litische Sache des Hereditarismus und der Meritokratie aktiv. Gemäß diesen
366 Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
der Institutionen, die den Arbeitslosen Hilfe leisten und ihre Anzahl verrin-
gern sollten, ist ein Beispiel für die Interaktionen zwischen den statistischen
Messungen und den institutionellen Verfahren zur Identifizierung und zur Ko-
dierung der Objekte. Dieser enge Zusammenhang zwischen der Beschaffenheit
einer Maßnahme und dem Funktionieren des Netzes der Verbindungen und Re-
gistrierungen, die zu diesem Netz geführt haben, kann mit der im Bereich der
Wirtschaftsinformationen verbreiteten realistischen Epistemologie kollidieren
– gerade weil diese Erkenntnistheorie in der sozialen Debatte verwendet wird.
Die Polemik zum Problem der Ermittlung der Arbeitslosigkeit entbrannte seit
den 1970er Jahren regelmäßig alle zwei oder drei Jahre, wobei fast immer die
gleichen Termini verwendet wurden und werden. Diese Polemik zeigt deutlich,
daß der Begriff einer klar abgrenzbaren und meßbaren Arbeitslosigkeit nun-
mehr ebenso fest in das Netz der allgemeinen Darstellungen integriert war, wie
die Begriffe der Inflationsrate und des Bruttoinlandsproduktes der französi-
schen Wirtschaft. Aus dieser Sicht handelte es sich gewiß um Realitäten.
Die Registrierung einer Messung oder einer Maßnahme in einem System
von Verhandlungen und gefestigten Institutionen (zum Beispiel durch Indexie-
rungsregeln) kann Argumente liefern, mit denen die Objektivität und die Kon-
sistenz gewisser statistischer Indikatoren bestritten wird. In Bezug auf die Ar-
beitslosigkeit ist das häufig der Fall. Ebenso verhielt es sich früher mit dem
Einzelhandelspreisindex, der als Bezugspunkt für Lohnverhandlungen diente.
Diese Polemik gegen den Realismus der zu einem gegebenen Zeitpunkt – in
einem institutionellen und kognitiven Netz – verwobenen Äquivalenzen zeigt,
daß diese Netze niemals endgültig bestimmt sind: man kann sie angreifen und
zerstören. Aber die Debatte über die Indikatoren ist mehrdeutig: sie löst nur
dann ein lebhaftes Echo aus, wenn der Realismus des Objekts nicht infrage
gestellt wird, das man für unkorrekt ermittelt hält. Die Polemik erlangt ihre
Bedeutung durch die Bezugnahme auf eine wahre“ Arbeitslosenzahl, die un-
”
bekannt ist (wenn sie nicht gar wissentlich verborgen wird). Hingegen führt
die Behauptung, gemäß der die Messung einer Größe auf die eine oder andere
Weise stets aus einem konventionellen Verfahren resultiert, zu einer wesent-
lichen Modifizierung des Debattenraumes, das heißt der hierbei verwendeten
Sprache. Die Rückkehr zu den Kodierungsverfahren kann also durch unter-
schiedliche Rhetoriken in Abhängigkeit davon ausgelöst werden, ob der Rea-
lismus des Objekts – und der dieses Objekt ausdrückenden politischen und
kognitiven Sprache – infrage gestellt wird oder nicht.
Tatsächlich hängt die Realität eines Objekts von der Ausdehnung und von
der Robustheit des umfassendsten Netzes ab, in dem dieses Objekt registriert
ist. Dieses Netz besteht aus verfestigten Zusammenhängen, routinemäßigen
Äquivalenzen und den Wörtern, mit denen die Zusammenhänge und Äqui-
valenzen beschrieben werden. Das Netz bildet eine Sprache, das heißt eine
unterscheidbare Gesamtheit von Zusammenhängen, die den durch Begriffe be-
zeichneten Dingen einen Zusammenhalt verleihen. Die Begriffe sind ihrerseits
durch eine spezifische Grammatik miteinander verknüpft. In Bezug auf die
Analyse des Platzes der statistischen Informationen im Raum der öffentlichen
370 Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
Über einen Zeitraum von etwa dreißig Jahren existierte also ein kognitiver
Verhandlungs- und Berechnungsraum, der mit einer starken Legitimität aus-
gestattet war – der Legitimität der Wissenschaft und des Staates. In diesem
Raum fanden zahlreiche Debatten statt und es wurden viele technische Studi-
en durchgeführt, die den Entscheidungen der Wirtschaftspolitik vorangingen
oder sie begleiteten. Jedoch geriet dieser relativ kohärente Raum, der sich aus
Institutionen, sozialen Objekten und den diesbezüglichen Debattierbegriffen
zusammensetzte, in den späten 1970er Jahren selbst in die Krise. Die aus
Äquivalenzen bestehenden Netze, die zu politischen und statistischen Totali-
sierungen geführt hatten, lösten sich teilweise auf. Der Plan hatte fortan – als
Ort der Konzertierung und mittelfristigen Prognose der großen öffentlichen
Entscheidungen – weniger Gewicht als früher. Die ökonometrischen Modelle,
welche die Evolution der Beziehungen zwischen den zentralen makroökonomi-
schen und mikroökonomischen Objekten dieses Totalisierungssystems simu-
lierten, werden für die Prognose von Spannungen und Krisen oft als untauglich
beurteilt. Die Debatten über die eigentliche Messung einiger dieser Objekte
und deren Signifikanz wurden mit zunehmender Heftigkeit geführt. Zu den
Objekten dieser Debatten gehörten die Erwerbspersonen, die Geldmenge, die
Armut und die sogenannte informelle“ Ökonomie (das heißt die Ökonomie,
”
die sich den administrativen Kodierungen entzieht).
Es gibt keine allgemeine“ und eindeutige Erklärung für diese Entwick-
”
lung, und zwar genau deswegen nicht, weil sich die frühere Sprache kaum
dazu eignet, über ihre eigene Krise Rechenschaft abzulegen. Keine der Er-
klärungen ist demnach allgemeiner, als irgendeine eine andere. Wir nennen
im Folgenden einige dieser Erklärungen. Die Stagnation des Wachstums hat
es schwieriger gemacht, die Sozialpartner in Debatten zusammenzubringen,
bei denen es nicht mehr um die Gewinnverteilung, sondern um die Verteilung
der Krisenauswirkungen geht. Die umfassendere Integration der französischen
Wirtschaft in den globalen Warenaustausch verbot von nun an die Verwen-
dung von Keynesianischen Modellen, die für eine autonome Wirtschaft gelten.
Der Rückgang des repräsentativen Charakters der Gewerkschaftsorganisatio-
nen und der politischen Organisationen, die teilweise für die Totalisierung der
Forderungen und der Projekte in einer einheitlichen und stabilen Sprache ver-
antwortlich waren, führte zu einer Schwächung ihrer Sprecher; diese Sprecher
hatten zuvor für die Funktionstüchtigkeit eines relativ abgegrenzten öffentli-
chen Raumes gesorgt. Der Nationalstaat als Akkumulationsort von Informa-
tionen und als Produktionsort von adäquaten Vertretungen des politischen
Handelns wird zunehmend zwischen zwei Polen hin und her gerissen: zwischen
den Gebietskörperschaften, deren Gewicht durch die Dezentralisierungsgeset-
ze gewachsen ist, und den europäischen Institutionen und Vorschriften. Die
Maßnahmen des Staates sind weniger voluntaristisch und makroökonomisch;
sein Vorgehen ist mehr auf die Produktion von Regeln ausgerichtet, die das
freie Spiel des Marktes und des Wettbewerbs erleichtern. Die heutigen Un-
ternehmensführungen orientieren sich weniger an einer Zentralisierung gemäß
den Prinzipien eines Taylor oder eines Ford. Diese Prinzipien begünstigten
372 Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
die Standardisierung der Arbeit und der Produkte im Bereich des Massen-
konsums und eigneten sich gut zum Aufbau von integrierten Systemen der
Industriestatistik. Die nach japanischer Art“ dezentralisierten Management-
”
praktiken stützen sich auf eine lokale Informationszirkulation durch direkte
horizontale Kontakte zwischen den Personen. Die Kontakte folgen nicht mehr
den hierarchischen Wegen und dieser Umstand verringert die Relevanz der
früheren statistischen Synthesen.
Alle oben angeführten Hypothesen (man könnte noch weitere hinzufügen)
liefern keine Erklärung“ für die Krise, in die das Modell des öffentlichen
”
Raumes zwischen 1950 und 1970 geraten war. Aber die Tatsache, daß diese
Hypothesen überall zirkulierten und sich gegenseitig verstärkten, trug zur Dis-
kreditierung des Modells bei und gefährdete dessen Status als diskussionslos“
”
akzeptiertes Bezugssystem. Das alles verhält sich jedoch nur tendenziell so und
große Teile des Modells existieren weiter oder besser gesagt: ein Großteil der
Debatten bezieht sich auf dieses Modell, denn es stellt immer noch einen weit
verbreiteten – wenn nicht gar den einzigen – Denkrahmen dar. Aus diesem
Grund sind die genannten Debatten außerordentlich heterogen. Die Bandbrei-
te erstreckt sich von Debatten, die sich vollständig im Rahmen der – durch
die weite Verbreitung des Modells nahegelegten – realistischen Epistemologie
befinden, bis hin zu den Debatten, in denen die Netze der Äquivalenzklas-
sen denunziert werden – sei es, daß man diese Netze als erkenntnistheoretisch
trügerisch bezeichnet oder daß man sie stigmatisiert, weil sie durch ihr Auf-
treten die persönlichen Freiheiten einschränken.
Die Kontroversen zur Statistik sind eine eigenartige Kombination zweier ge-
gensätzlicher Formen, die im Allgemeinen getrennt voneinander in unter-
schiedlichen Diskussionskontexten behandelt werden. Die erste dieser ge-
gensätzlichen Formen trennt zwei sprachliche Register: das Register der
Deskription und der Wissenschaft (es gibt) vom Register der Präskription
und der Aktion (man muß ). Diese Unterscheidung, die im 17. Jahrhundert
durch die Autonomisierung des wissenschaftlichen Diskurses bekräftigt wur-
de, hinterließ tiefe Spuren in der statistischen Praxis. Eine ständige Forderung
der Statistiker besagt: Halte dich an die Beschreibung der Tatsachen und geh
”
nicht von Werturteilen und Meinungen aus!“ Die zweite der beiden gegensätz-
lichen Formen unterscheidet ihrerseits zwischen zwei Auffassungen in Bezug
auf die Frage nach der Realität: die realistische (oder objektivistische) Einstel-
lung und die relativistische (oder historizistische) Einstellung. Der eine Fall
setzt voraus, daß die Äquivalenzklassen präexistent sind, das heißt daß sie zeit-
lich vor der Abfolge der Registrierungen existieren. Im anderen Fall hingegen
betrachtet man die Äquivalenzklassen als Konventionen und Konstruktionen.
Der Gegensatz zwischen Realismus und Relativismus durchdringt zahlreiche
Kontroversen in der Erkenntnistheorie der Wissenschaften. Für die Statistik
Statistische Argumentation und soziale Debatten 373
eröffnet dieser Gegensatz originelle Aspekte, sobald man ihn mit dem erst-
genannten Gegensatz kombiniert, der zwischen der Sprache der Wissenschaft
und der Sprache des Handelns unterscheidet. Durch diese Kombination lassen
sich vier verschiedene Auffassungen in Bezug auf die statistische Argumenta-
tionsweise ausmachen.22
Im Rahmen der Sprache der Beschreibung postuliert die realistische Posi-
tion, daß es objektive Dinge gibt, die unabhängig vom Beobachter existieren
und über die singulären Kontingenzen hinausgehen (Fall 1). Diese Position ist
typisch für die Sprache Quetelets: es gibt Regelmäßigkeiten und stabile Bezie-
hungen. Das Ziel der Statistik besteht darin, der Realität näher zu kommen“.
”
Die Statistik stellt sich die Frage nach der Zuverlässigkeit der Messungen“;
”
sie spricht die Sprache der Beschreibung und der Kausalität, die durch das
Instrumentarium der mathematischen Statistik formalisiert wurden. Das ist
die Position, die der statistische Diskurs anstreben muß, wenn er sich von
seiner Genese und seinen Anwendungen reinigen“ möchte. Auf jeden Fall ist
”
diese Position derjenige Punkt, an dem sich die anderen drei Positionen ori-
entieren. Aber im Rahmen der Sprache der Wissenschaft ist es auch möglich,
eine Genese und soziale Praktiken zu rekonstruieren, die zu einem verfestig-
ten statistischen Objekt geführt haben (Fall 2). Es gibt historische und soziale
Prozesse der Konstruktion und Verfestigung von Äquivalenzen und mentalen
Schemata. Es ist die Aufgabe der Wissenschaft, diese Prozesse zu rekonstruie-
ren und dabei zu beschreiben, wie die sozialen Tatbestände – durch Bräuche,
durch das Recht oder auf dem Wege sozialer Kämpfe – zu Dingen geworden
sind. Die Sprache dieser Position ist die Sprache der Sozialgeschichte oder die
Sprache einer konstruktiven Wissenssoziologie.23
Die politische und administrative Sprache der Aktion und der sozialen De-
batte verwendet die Statistik oder denunziert sie. Diese Sprache stützt sich auf
die eine oder andere der obengenannten wissenschaftlichen Rhetoriken, unter-
scheidet sich von diesen jedoch durch ihre Normativität. In ihrer objektiven
Version (Fall 3) übernimmt diese Sprache die in der Wissenschaftssprache be-
schriebenen und analysierten Objekte und läßt die Aktion an diesen Objekten
ausführen. Wir brauchen Dinge, die – unabhängig von Partikularinteressen –
einen festen Zusammenhalt aufweisen, damit wir auf diese Dinge einwirken
22
Diese Formulierung ist überwiegend und dankenswerter Weise auf Diskussionen
mit Luc Boltanski und Nicolas Dodier zurückzuführen. Letzterer hat eine Feinstu-
die der Aufzeichnungspraktiken und der statistischen Kodierung auf dem Gebiet
der Arbeitsmedizin durchgeführt (Dodier, 1993, [69]).
23
Durkheim hatte seinerzeit jede dieser beiden Ansichten in seinem Bestreben ver-
treten, aus der Soziologie eine Wissenschaft zu machen. In Der Selbstmord [78]
stützt er sich nach Art von Quetelet auf makrosoziale statistische Regelmäßigkei-
ten. In seiner späteren Zusammenarbeit mit Mauss stellt er in Quelques formes
primitives de classification [79] für primitive Gesellschaften einen Zusammenhang
zwischen Taxonomie und Gesellschaft her. Aber er tut das nicht für die westli-
chen Gesellschaften und für ihre statistischen Mechanismen. Diese Mechanismen
waren allerdings damals weniger entwickelt als heute.
374 Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
Ich habe dieses Buch zwischen 1990 und 1993 geschrieben. Seitdem sind die
Forschungen zur Geschichte der Statistik in verschiedenen Richtungen weiter-
geführt worden, von denen ich in den vorhergehenden Kapiteln einige genannt
habe. Mehrere der zitierten Autoren haben neue Bücher über das Thema vor-
gelegt: Margo Anderson, Ian Hacking, Mary Morgan, Ted Porter und Stephen
Stigler. Weitere Autoren sind dazugekommen, Dissertationen wurden vertei-
digt. Im Übrigen hat das Buch kritische Reaktionen ausgelöst und Kommen-
tare veranlaßt, deren Zusammenfassung sich als nützlich erweist, zumal die
Hinweise oft treffend und anregend sind. Vor allen Dingen sind folgende Fragen
aufgeworfen worden: Was ist der rote Faden, der sich durch die verschiedenen
Kapitel des Buches zieht? Ist das Buch mehr als eine Aneinanderreihung von
uneinheitlichen Essays? Oder, um eine Formulierung aufzugreifen, die wir im
Zusammenhang mit Begriffen der Statistik verwendet hatten: Wie verfaßt man
Bücher, die Bestand haben? Ich versuche hier, diese Fragen zu beantworten.
dern, diese Aktion dann zu organisieren und sie schließlich auszuwerten. Aus
dieser Sicht ist die Dissertation von Luc Berlivet [302] über die Geschichte der
Kampfprogramme gegen Alkoholismus und Nikotinsucht ein gutes Beispiel.
Vincent Spenlehauer [337] hat die Geschichte der Auswertung der öffentlichen
Programme untersucht und dabei insbesondere festgehalten, ob diese Pro-
gramme auf die Statistik zurückgegriffen haben oder nicht. Fabrice Bardet
[300] hat entsprechende Untersuchungen zur Regionalstatistik (und vor allem
zu den Regionaldirektionen des INSEE) durchgeführt. Außerdem hat die Zeit-
schrift Politix, travaux de sciences politiques unter dem Titel L’imagination
statistique eine Sondernummer zur Geschichte der Statistik herausgegeben
(Nr. 25, 1. Quartal 1994).
Die Aufbereitung von Wirtschaftsstatistiken und deren Verwendung in
der Ökonometrie hat Anlaß zu mehreren neuen Arbeiten gegeben. Judy Klein
(1997 [327]) hat die Geschichte der Analyse von Zeitreihen für den Zeitraum
von 1662 bis 1938 untersucht. David Hendry und Mary Morgan veröffentlich-
ten 1995 [322] eine Sammlung von Gründungstexten“ der Ökonometrie. Die
”
Geschichte der volkswirtschaftlichen Gesamtrechnung der englischsprachigen
Länder und der ihnen nahestehenden Länder (Niederlande, skandinavische
Länder) ist in den von W. de Vries (1993 [312]) und Zoltán Kennessey (1994
[326]) herausgegebenen Sammelbänden untersucht worden, aber Frankreich
kommt in diesen Werken so gut wie gar nicht vor. Diese Lücke wurde mit
dem 2001 [342] erschienenen Buch von André Vanoli geschlossen. Es zeigt
sich vor allem, daß die volkswirtschaftliche Gesamtrechnung und die private
Buchführung in den englischsprachigen Ländern wesentlich voneinander ab-
weichen – ganz anders als in Frankreich, das auf eine lange Tradition der Wech-
selwirkung zwischen nationaler Buchführung und Unternehmensbuchführung
zurückblickt.
Zwar ist die Geschichte der Metrologie und des damit zusammenhängen-
den Objektivitätsbegriffes nunmehr – vor allem dank der Arbeit von Lorraine
Daston (1992 [307]) – gut bekannt. Aber die andere große und alte Tradi-
tion der gesellschaftlichen Nutzung der in der kommerziellen Buchführung
verwendeten Zahlen ist in der frankophonen Welt weniger bekannt. In der
anglophonen Welt dagegen, in der die soziale Praxis der verschiedensten Ak-
tivitäten des Geldverkehrs und der Buchprüfung viel älter und viel weiter ver-
breitet ist, gibt es – insbesondere an der London School of Economics (LSE) –
die Forschungsrichtung Buchführung als soziale und institutionelle Praxis“,
”
in der (inspiriert durch französische Autoren wie Foucault und Latour) hi-
storische, anthropologische und philosophische Gesichtspunkte amalgamiert
werden. Diese Richtung artikuliert sich in der 1976 gegründeten Zeitschrift
Accounting, Organizations and Society. Ein von Anthony Hopwood und Pe-
ter Miller 1994 [323] veröffentlichter Sammelband gibt eine Zusammenfassung
dieser eigenständigen Forschungsrichtung, die sich relativ unabhängig von den
neueren Arbeiten zur Geschichte der Statistik, der Wahrscheinlichkeitsrech-
nung und der Ökonometrie entwickelt hat.
378 Nachwort: Wie schreibt man Bücher, die Bestand haben?
Das Hauptziel des Buches Die Politik der großen Zahlen bestand darin, die
internalistische Geschichte der Formalismen und der Werkzeuge – aus der
Sicht der seit den 1970er Jahren entwickelten Wissenschaftssoziologie – mit
der mehr externalistisch orientierten Geschichte der Institutionen und sozialen
Anwendungen der Statistik zu verbinden. Einige Rezensenten (Rosser Matt-
hews, 2000 [334]) haben angemerkt, daß dieses in der Einleitung bekräftigte
ehrgeizige Ziel nur unvollständig erreicht worden ist: vor allem würden die am
ausgeprägesten internalistisch“ angelegten Kapitel (3 und 4) den Eindruck
”
erwecken, sich noch allzu sehr in der Nähe einer traditionellen Geschichte be-
”
deutender Persönlichkeiten“ zu befinden. Auf diese teilweise berechtigte Kritik
kann ich antworten, daß mein Ziel darin bestand, ein Maximum der bereits
verfügbaren internalistischen und externalistischen Arbeiten abzudecken, um
nach Zusammenhängen zwischen beiden Auffassungen zu suchen und nach
Möglichkeit über eine sterile Unterscheidung dieser Auffassungen hinauszuge-
hen. Aber einstweilen spiegelt diese Unterscheidung die soziale und kognitive
Trennung zwischen den Disziplinen und den Wissensgebieten wider und man
kann diese Trennung nicht einfach abschaffen, indem man sie für ungeschehen
erklärt. Auf einer tieferliegenden Ebene ist diese Trennung der Aufgaben und
der Standpunkte das Kernstück eines im Aufbau befindlichen Forschungspro-
gramms zur Soziologie der Statistik.
Seit 1993 haben zahlreiche Arbeiten auf verschiedenen Wegen Fortschritte
in dieser Richtung erzielt. Von den Autoren sind u.a. Michel Armatte, Eric
Brian, Ian Hacking, Ted Porter und Simon Szreter zu nennen. Michel Ar-
matte hat 1995 [298] eine umfassende Dissertation verteidigt, in der er die
Geschichte des linearen Modells“ vom 18. Jahrhundert bis zu den 1940er
”
Jahren analysiert. Hinter diesem nüchternen Titel verbirgt sich eine originelle
Problembehandlung des spontanen Gegensatzes zwischen den Begriffen, die
den Konzepten des Internalismus und des Externalismus vorangingen, wobei
der Gegensatz in vorteilhafter Weise durch eine Analyse mit Hilfe der Syn-
tax , der Semantik und der Pragmatik dargestellt wird: der Autor wendet die
interne Grammatik des Werkzeugs – was man mit ihm sagen möchte und
was es bewirken soll – und vor allem die Interdependenzen und die Interaktio-
nen zwischen den drei genannten Analyse-Ebenen auf statistische Objekte an,
die mit dem linearen Modell“ mehr oder weniger zusammenhängen. Dieses
”
Modell zieht sich somit als roter Faden durch eine umfassende Geschichte der
Wahrscheinlichkeitsrechnung, der Statistik und der Anfänge der Ökonometrie.
Eric Brian untersucht eine andere, für die Geschichte der Wissenschaften
und vor allem für die Geschichte der Statistik charakteristische Spannung –
die Spannung, die zwischen dem eingeordneten, kontingenten und historischen
Charakter der Erkenntnismethoden und deren Anspruch auf Universalität und
Permanenz in Raum und Zeit besteht. Im Falle der Statistik drücken sich die
Wie verbindet man die Aspekte der Geschichte der Statistik? 379
beiden Spannungspole durch die Begriffe Ziffer und Zahl aus24 : Die Ziffern
sind durch die Eintragung numerischer Zeichen unter besonderen Produkti-
”
onsbedingungen“ charakterisiert, während sich die Zahlen dadurch auszeich-
nen, daß ihre Macht in effektiver Weise anderswo, nachträglich oder in einer
”
anderen Skala eingesetzt wird“. Der Autor entwickelte diese Problematik vor
allem in einem Buch über den Verkehr zwischen Gelehrten und Verwaltungs-
fachleuten des 18. Jahrhunderts (Brian 1994 [305]).
Die Analysen von Armatte und Brian ermöglichen auf ihre Weise eine
Neuformulierung der alten und immer wiederkehrenden Fragen zum Status
des von den Statistikern produzierten Wissens und zu den historischen Moda-
litäten ihrer eventuellen Erfolge. Genau diese Frage nach dem Vertrauen in
”
die Zahlen“ wird von Porter (1995 [333]) auf der Grundlage einiger bestimmter
Konfigurationen des 20. Jahrhunderts untersucht. Gegenstand seiner Unter-
suchungen sind einerseits die Ingenieure für Hoch- und Tiefbau in Frankreich
und in den Vereinigten Staaten und andererseits die englischen Versicherungs-
träger. Die allgemeine Idee besteht in der Untersuchung bestimmter Fälle, in
denen gesellschaftlich wirkende Kräfte das durch quantitative Argumente des
homo scientiae“ rationalisierte Wissen dazu verwenden, anderen den Rang
”
abzulaufen, die sich in traditioneller Weise auf das Wissen berufen, das sich
durch seine Nähe zum homo artis“ und zu dessen Intuition auszeichnet.
”
Das Buch The Social Construction of What? von Ian Hacking (1999 [319])
bezieht sich nicht unmittelbar auf die Statistik. Aber die in diesem Buch in
einem so lebendigen und paradoxen Stil aufgeworfenen Fragen treffen direkt
mit den Fragen zusammen, die sich der Historiker und der Soziologe der Stati-
stik stellt: Welcher Sache und wem dienen unsere Forschungen wirklich? Zielt
die Tatsache, daß man den sozial konstruierten“ Charakter der von der
” ”
Wissenschaft“ oder von den Experten“ verwendeten Werkzeuge nachweist,
”
darauf ab, die Wissenschaft und die Experten zu relativieren und ihre Auto-
rität herabzusetzen? Könnte nicht – wie Porter bemerkte – folgendes zutreffen:
Ebenso wie die quantitativen Methoden im 19. Jahrhundert ein Mittel für die
Beherrschten waren, Punkte“ gegen die damals traditionell Herrschenden zu
”
sammeln, so könnte auch die im letzten Drittel des Jahrhunderts stattge-
fundene Dekonstruktion“ ein Mittel gewesen sein, den Hochmut der an den
”
Schalthebeln der Macht sitzenden Wissenschaftler zu mäßigen. Die Debatten
über die Sokal-Affäre25 wären also ein schönes Forschungsgebiet zur Rekon-
24
Im französischen Original ist von chiffres“ und nombres“ die Rede. Im Deut-
” ”
schen kann chiffre“ u.a. Ziffer“ (im Sinne von Zahlzeichen) und Chiffre“ (im
” ” ”
Sinne von Code) bedeuten, während nombre“ die Bedeutung Zahl“ hat.
25 ” ”
Nachdem der Physiker Alain Sokal 1996 in der Zeitschrift Social Text den Artikel
Transgressing the boundaries: Toward a transformative hermeneutics of quantum
gravity veröffentlicht hatte, gab er bekannt, sein Artikel sei eine Parodie, inhalt-
lich höherer Unfug und aus zahlreichen Zitaten bekannter französischer Denker
zusammenmontiert. Das führte zu einer leidenschaftlichen Debatte, ja sogar zu ei-
nem wütenden Streit unter den Intellektuellen. Zusammen mit dem Physiker Jean
Bricmont verfaßte Sokal 1997 ein Buch, das in deutscher Übersetzung unter dem
380 Nachwort: Wie schreibt man Bücher, die Bestand haben?
struktion der Art und Weise, in der die Wissenschaft in den 1990er Jahren
zur letzten Zuflucht des Sakralen geworden war. Hacking gibt – wie es sei-
ne Art ist – keine einfache Antwort auf diese Fragen, liefert aber eine ganze
Reihe von Argumenten und Beispielen, um eine Debatte voranzutreiben, die
von der Sokal-Affäre ernstlich getrübt war. Zum Gegenstand dieser Affäre
verweisen wir insbesondere auch auf den von Baudoin Jurdant (1998 [325])
herausgegebenen Sammelband.
Die Reaktionen, die das Buch Die Politik der großen Zahlen und dessen
1998 erschienene englische Übersetzung auslösten, lassen sich auf zweierlei
Weise analysieren. Einerseits liefert die Vielfalt der Interpretationen – vor
allem entsprechend den akademischen Disziplinen – ein überraschendes Ana-
lyseschema für die epistemologischen und die sozialen Konfigurationsunter-
schiede, die zwischen den Disziplinen bestehen; diese Unterschiede werden
dahingehend analysiert, wie man die statistischen Methoden in den betreffen-
den Disziplinen anwendet und interpretiert. Andererseits weisen die Kritiken
oft auf Zweideutigkeiten, unklare Punkte und Fragen hin, bei denen sich der
Autor seiner Sache nicht sicher war (und es immer noch nicht ist) – aber er
ist in diesem Fall nicht der Einzige, dem es so ergeht.
unumkehrbare Akkumulation des Fortschritts und als Licht, das die Dunkel-
heit vertreibt. Allgemein gesagt hat die neuere Literatur zur Geschichte der
Statistik weniger die Aufmerksamkeit der Ökonomen als die der Soziologen,
Historiker und Politikwissenschaftler erregt – mit Ausnahme einiger Spezia-
listen für die Geschichte des ökonomischen Denkens, die von der modernen
Wissenschaftssoziologie beeinflußt waren.
Zu den Spezialisten für Geschichte der Statistik gehören natürlich die Sta-
tistiker selbst, einschließlich ihrer beiden deutlich voneinander verschiedenen
Spielarten: die Universitätsstatistiker (bei denen es sich im Wesentlichen um
Mathematiker handelt) und die Statistiker an den Institutionen für öffentliche
Statistik. Einige der erstgenannten Spezialisten haben bedeutende Arbeiten
zur Geschichte der mathematischen Statistik verfaßt: Benzécri, Hald, Stigler
und davor auch Kendall, Mosteller und Fienberg. Aus deren Sichtweise auf
die interne Geschichte der Formalisierungen hat das vorliegende Buch keine
ganz neuen Dinge gebracht, da es selbst eher von den Arbeiten dieser Auto-
ren profitiert hat. So hat etwa Fienberg (1999 [315]) bedauert, im Buch keine
Informationen zur Vorgeschichte der Umfragen im 18. Jahrhundert und über
deren Anwendungen in den Volkszählungen gefunden zu haben. Diese Kritiken
sind berechtigt und weisen auf künftige Forschungsrichtungen hin. Umgekehrt
hatten wir bereits gesagt, wie unentbehrlich die Arbeiten von Stephen Stigler
für die Berufsausbildung der Statistiker sind.
Mein Buch geht nicht auf die Rolle der statistischen Verwaltungseinrich-
tungen bei der Durchführung von Forschungsarbeiten zu ihrer eigenen Ge-
schichte ein. Jedoch wurden in einigen Ländern (Frankreich, Vereinigte Staa-
ten, Kanada, Norwegen, Niederlande) Arbeiten zu diesem Thema verfaßt, an
denen sich Universitätshistoriker und Statistiker gemeinsam beteiligten. Zu
derartigen Arbeiten kam es beispielsweise – aber nicht immer – anläßlich von
Jahrestagen der betreffenden Institutionen. Es gibt ein bedeutendes Angebot
an Arbeiten dieser Art – von Autoren, die sich in erster Linie auf Gedenk-
feiern und Identitätsbehauptung orientieren, bis hin zu Autoren, die mehr
auf Wissenschaftlichkeit und Techniken ausgerichtet sind (dieses Spektrum
von Arbeiten wird von Desrosières (2000 [311]) beschrieben). So hat beispiels-
weise das INSEE anläßlich seines fünfzigsten Jahrestages im Jahre 1996 ein
Werk verfaßt, dessen Informationsgehalt sich nicht auf eine einfache Gedenk-
feier reduziert (INSEE, 1996 [324]). In Zeiten, in denen sich – insbesondere
aufgrund der Weiterentwicklung der Strukturen gewisser Behörden (Erwei-
terung der Europäischen Union, Gründung der Europäischen Zentralbank,
Einführung des Euro, Dezentralisierung und Erhöhung der Funktion von Ge-
bietskörperschaften) – die Rolle und die sozialen Anwendungen der Statistik
rasch ändern, sind einige Statistiker darum bemüht, diese Entwicklungen in
eine lange Geschichte einzuordnen.
ren Theorien kein eigenes Darstellungsrecht einräumt. Mit anderen Worten: die
betreffenden Mathematiker verwechseln die Frage Wie sind wir hierher gekom-
”
men?“ mit der hiervon verschiedenen Frage Was geschah in der Vergangenheit?“
”
Kritiken und Diskussionsthemen 385
Einige Rezensenten des Buches haben Kritiken folgender Art geäußert und
entsprechende Diskussionsthemen vorgeschlagen: Heterogenität und mangeln-
der Zusammenhang der verschiedenen Kapitel (Rosser Matthews); übermäßi-
ge Essentialisierung einer hypothetisch über der Geschichte stehenden Stati-
stik; fehlende Klarheit der Positionierung in Bezug auf die großen epistemo-
logischen Alternativen, das heißt in Bezug auf Realismus, Relativismus und
Konstruktivismus (Libby Schweber); Zusammenhang zwischen statistischer
Totalisierung und Analyse des individuellen Handelns (Nicolas Dodier); Ver-
wendung eines unverständlichen französischen Jargons (Charles Murray).
Die Kritik bezüglich der Heterogenität hatte ich bereits erwähnt. Diese
Kritik ist nicht völlig ungerechtfertigt. Eine Möglichkeit, Fortschritte zu er-
zielen, bestünde darin, das Hin- und Herpendeln zwischen den – sich auf Orte,
Zeiten und deutlich umrissene Situationen beziehenden – mikrosoziologischen
Analysen einerseits sowie den Analysen von Totalisierungsstandpunkten und
makrohistorischen Rekapitulationen andererseits zu intensivieren. In diesem
Fall würden die Verbindungen und kontingenten Konfigurationen, mit deren
Hilfe Akteure, Verfahren und Formalismen in – nie jemals endgültig festge-
legten – kognitiven, technischen und sozialen Netzen vereinigt werden, zu
engeren Zusammenhängen zwischen den einzelnen Kapiteln führen, insbeson-
dere zwischen den Kapiteln über formale Werkzeuge und den Kapiteln über
Institutionen und Konstruktionsmethoden der hypothetischen Daten“. Hier
”
liegt ein kollektives Forschungsprogramm für die Zukunft.
Die Essentialismus-Kritik (Schweber, 1996 [336]) ist etwas paradox, da
das gesamte berufsmäßige Streben des Autors genau darauf gerichtet ist, die
Thematik der historischen Kontingenz in den Kreisen der Ökonomen und Sta-
tistiker einzuführen und zu vertiefen – in Kreisen von Personen also, deren
wissenschaftliche, universalistische und zeitlose Kultur in einem diametralen
Gegensatz zu dieser Art von Fragestellung stand. Nichtsdestoweniger ist die
Kritik interessant und verdient es, ernst genommen zu werden. Eine Hypo-
these zieht sich nämlich durch das Buch und versucht (möglicherweise erfolg-
los), dessen verschiedene Kapitel miteinander zu verbinden: Die statistische
Totalisierung wird so aufgefaßt, daß sie mit Hilfe von zugeordneten Äquiva-
lenzkonventionen und Kodierungen die Opferung einer Sache (ausgedrückt in
Form von Singularitäten) impliziert – eine Opferung zugunsten der (per Kon-
vention festgelegten) Konstituierung einer neuen, konsistenten Allgemeinheit,
die sich für das Wissen und für die Koordinierung des Handelns als nützlich
erweist. Diese Hypothese läßt sich in folgender Frage zusammenfassen: Wie
”
erzeugt man Dinge, die einen Zusammenhalt aufweisen?“ Und zwar einen Zu-
sammenhalt im folgenden dreifachen Sinne: die Dinge sind beständig“, sie
” ”
sind miteinander verknüpft“ und sie geben den Menschen Koordinaten vor“.
”
Diese Hypothese scheint nicht darauf hinauszulaufen, die ganze Geschichte der
Statistik in eine zeitlose und transhistorische Vision einzuschließen, sondern
bildet eher ein Mittel zur Soziologisierung einer Gesamtheit von technischen
386 Nachwort: Wie schreibt man Bücher, die Bestand haben?
Ursprünglich bestand sie aus vier Abteilungen: Mathematik; Physik und Che-
mie; Naturgeschichte und Philosophie; historische und philologische Wissen-
schaften. Während der Kulturkampfes“ zwischen katholischer Kirche und
”
laizistischer Bewegung kam 1886 eine fünfte Sektion hinzu: Religionswissen-
schaften. Eine sechste Sektion wurde 1947 gegründet: Wirtschafts- und So-
zialwissenschaften. Nach der Auflösung der ersten beiden Sektionen und der
Verselbständigung der sechsten Sektion zur EHESS (vgl. dort) besteht die
EPHE heute nurmehr aus drei Sektionen.
ETAM, Employés, techniciens et agents de maı̂trise. Angestellte, Techniker
und Meister.
EUROSTAT, European Communities’ Statistical Office. Statistisches Amt der
Europäischen Gemeinschaften (SAEG). Französische Bezeichnung: Office Sta-
tistique des Communautés Européennes (OSCE).
G, government expenditure (öffentliche Ausgaben).
GRO, General Register Office. Haupstandesamt (GB).
HR, House of Representatives. Repräsentantenhaus (USA).
I, investment (Investition).
IAA, Internationales Arbeitsamt. Deutsche Bezeichnung für ILO (vgl. dort).
ICD, International Classification of Diseases, Injuries and Causes of Death.
Internationale Klassifikation der Krankheiten, Verletzungen und Todesursa-
chen.
ILO, International Labor Office. Internationales Arbeitsamt (IAA).
INED, Institut national d’études démographiques. Nationales Institut für
Bevölkerungswissenschaft (Paris).
INSEE, Institut national de la statistique et des études économiques. Natio-
nales Institut für Statistik und Wirtschaftsstudien (gegründet 1946).
IIS, Internationales Institut für Statistik (gegründet 1885, Den Haag).
IIS, Institut international de statistique. Französische Bezeichnung für: Inter-
nationales Institut für Statistik.
ISI, International Statistical Institute. Englische Bezeichnung für: Internatio-
nales Institut für Statistik.
ISUP, Institut de statistique de l’université de Paris.
LSE, London School of Economics.
NBER, National Bureau of Economic Research.
OPCS, Office of Population, Censuses and Surveys.
Anhang: Abkürzungen 391
16. Bienaymé, I.J. (1855): Sur un principe que M. Poisson avait cru découvrir et
qu’il avait appelé loi des grands nombres. Séances et travaux de l’Académie
des sciences morales et politiques 31, 379–389
17. Bloor, D. (1982): Socio-logie de la logique, ou les limites de l’épistémologie.
Editions Pandore, Paris
18. Board Of Trade (1909): Cost of Living of French Towns. Report of an Inquiry
by the Board of Trade. Darling, London
19. Boltanski, L. (1982): Les Cadres, la formation d’un groupe social. Minuit, Paris
20. Boltanski, L., Thévenot, L. (1983): Finding One’s Way in Social Space; a Study
Based on Games. Social Science Information 22 4–5, 631–679
21. Boltanski, L., Thévenot, L. (1991): De la justification. Les économies de la
grandeur. Gallimard, Paris
22. Booth, C. (1889): Labour and Life of the People. London
23. Borel, E. (1920): La statistique et l’organisation de la présidence du Conseil.
Journal de la Société statistique de Paris, 9–13
24. Bourdelais, P., Raulot J.Y. (1987): Une peur bleue. Histoire du choléra en
France, 1832–1854. Payot, Paris
25. Bourdieu, P. (1979): La Distinction. Minuit, Paris
26. Bourdieu, P. (1980): Le Sens pratique. Minuit, Paris
27. Bourguet, M.N. (1988): Déchiffrer la France. La statistique départementale à
l’époque napoléonienne. Editions des archives contemporaines, Paris
28. Bouveresse, J. (1993): L’homme probable. Robert Musil, le hasard, la moyenne
et l’escargot de l’histoire. L’éclat, 30250 Comba
29. Bowley, A. (1906): Presidential Adress to the Economic Section of the British
Association. Journal of the Royal Statistical Society, 540–558
30. Bowley, A. (1908): The Improvement of Official Statistics. Journal of the Royal
Statistical Society 71, 460–493
31. Bowley, A. (1919): The Division of the Product of Industry. An Analysis of
National Income Before the War. Clarendon, Oxford
32. Bowley, A., Stamp, J. (1927): The National Income, 1924. Clarendon, Oxford
33. Box, G. (1980): Sampling and Bayes’ Inference in Scientific Modelling and
Robustness. Journal of the Royal Statistical Society, Ser. A 143, 383–430
34. Bravais, A. (1846): Analyse mathématique sur les probabilités des erreurs de si-
tuation d’un point. Mémoires présentés par divers savants à l’Académie Royale
des Sciences de l’Institut de France 9, 255–332
35. Brian, E. (1989): Statistique administrative et internationalisme statistique
pendant la seconde moitié du XIXe siècle. Histoire et mesure, IV 3–4, 201–224
36. Brian, E. (1991): Le prix Montyon de statistique à l’Académie royale des
sciences pendant la Restauration. Revue de synthèse 2, 207–236
37. Bru, B. (1988): Estimations Laplaciennes. Un exemple: la recherche de la popu-
lation d’un grand Empire, 1785-1812. In: Mairesse J. (éd.) [184], Estimation et
sondages – Cinq contributions à l’histoire de la statistique. Economica, Paris,
7–46
38. Buckle, H. (1857): History of Civilization in England. London
39. Bulmer, M., Bales, K., Sklar, K. (1991): The Social Survey in Historical Per-
spective, 1880–1910. Cambridge University Press, Cambridge
40. Bungener, M., Joël, M.E. (1989): L’essor de l’économétrie au CNRS. Cahiers
pour d’histoire du CNRS 4, 45–78
Literaturverzeichnis 395
41. Bunle, H. (1911): Relation entre les variations des indices économiques et le
mouvement des mariages. Journal de la Société statistique de Paris, März,
80–93
42. Callon, M. (Hrsg.) (1989): La Science et ses réseaux. Genèse et circulation des
faits scientifiques. La Découverte, Paris
43. Chang, W.C. (1976): Statistical Theories and Sampling Practice. In: Owen D.
(ed.) [216], On the History of Statistics and Probability. Marcel Dekker, New
York, 297–315
44. Chateauraynaud, F. (1991): La faute professionnelle. Une sociologie des conflits
de responsabilité. Métailié, Paris
45. Cheysson, E. (1890): Les Budgets comparés de cent monographies de famille.
(Unter Mitarbeit von A. Toque). Botta, Rom
46. Christ, C.F. (1985): Early Progress in Estimating Quantitative Economic Re-
lationship in America. American Economic Review 75 (6), 39–52
47. Cicourel, A. (1964): Method and Measurement in Sociology. The Free Press of
Glencoe, New York
48. Clero, J.P. (1986): Remarques philosophiques sur l’essai de Bayes en vue de
résoudre un problème de la doctrine des chances. In: Publications de l’Institut
de recherches mathématiques de Rennes, IRMAR, université de Rennes I
49. Converse, J. (1987): Survey Research in the United States: Roots and Emer-
gence. University of California Press, Berkeley
50. Coumet, E. (1970): La théorie du hasard est-elle née par hasard? Annales ESC
3, Mai–Juni, 574–598
51. Cournot, A. (1843): Exposition de la théorie des chances et des probabilités.
Hachette, Paris, 1843; Neuauflage 1984. Oeuvres complètes de Cournot, Bd. 1,
Bernard Bru, (éd.), Vrin, Paris
52. Crombie, A.C. (1981): Philosophical Presuppositions and Shifting Interpreta-
tions of Galileo. In: J. Hintikka, D. Gruender and E. Agazzi (eds.), Theory
Change, Ancient Axiomatics and Galileos Methodology. Proc. of the 1978 Pisa
Conference on the History and Philosophy of Science, Reidel, Dordrecht, 284
53. Daston, L.J. (1987) The Domestication of Risk: Mathematical Probability and
Insurance, 1650–1830. In: Krüger L., Daston L., Heidelberger L. (éds) [158],
The Probabilistic Revolution, vol. I, Ideas in History. Cambridge, Massachu-
setts, MIT Press, 237–260
54. Daston, L.J. (1988): Classical Probability in the Enlightenment. Princeton Uni-
versity Press, Princeton
55. Daston, L.J. (1989): L’interprétation classique du calcul des probabilités. An-
nales ESC 3, Mai–Juni, 715–731
56. Delaporte, F. (1990): Le savoir de la maladie. Essai sur le choléra de 1882 à
Paris. PUF, Paris
57. De Marchi, N. (1991): League of Nations Economists and the Ideal of Peace-
ful Change in the Decade of the Thirties. In: Goodwin C.D. (ed.), Economic
and National Security. A History of their interaction. Duke University Press,
Durham, 143–178
58. De Marchi, N., Gilbert, C. (eds) (1989): History and Methodology of Econo-
metrics. Oxford Economic Papers 1, January
59. Desrosières, A. (1977): Eléments pour l’histoire des nomenclatures socioprofes-
sionnelles. In: Pour une histoire de la statistique, tome 1. Neu herausgegeben
1987: Economica, INSEE, Paris, 155–231
396 Literaturverzeichnis
127. Hennock, E.P. (1976): Poverty and Social Theory in England: the Experience
of the Eighteen-eighties. Social History (I), 67–69
128. Hennock, E.P. (1987): The Measurement of Poverty: from the Metropolis to
the Nation, 1880–1920. Economic History Review, 2e série, XL 2, 208–227
129. Henry, L. (1963): Réflexions sur l’observation en démographie. Population 2,
233–262
130. Héran, F. (1984): L’assise statistique de la sociologie. Économie et statistique
168, 23–35
131. Héran, F. (1987): La seconde nature de l’habitus. Tradition philosophique
et sens commun dans le langage sociologique. Revue française de sociologie,
XXVIII, 385–416
132. Hoock, J. (1977): D’Aristote à Adam Smith: quelques étapes de la statistique
allemande entre le XVIIe et le XIXe siècle. In: INSEE 1977. Pour une histoire
de la statistique, tome 1, 1977. Neu herausgegeben 1987: Economica, INSEE,
Paris, 477–492
133. Hooker, R.H. (1901): Correlation of the Marriage Rate with Trade. Journal of
the Royal Statistical Society 64, 485–492
134. Huber, M. (1937): Quarante années de la Statistique générale de la France,
1896–1936. Journal de la Société statistique de Paris, 179–214
135. INSEE (1977): Pour une histoire de la statistique, tome 1: Contributions, 1977.
Neu herausgegeben 1987: Economica, INSEE, Paris
136. INSEE (1987): Pour une histoire de la statistique, tome 2: Matériaux, (J. Af-
fichard, éd.). Economica, INSEE, Paris
137. Jensen, A. (1925): Report on the Representative Method in Statistics. Bulletin
de l’Institut international de statistique 22, livre 1, 359–380
138. Jensen, A. (1925): The Representative Method in Practice, Annexe B. Bulletin
de l’Institut international de statistique 22, livre 1, 381–489
139. John, V. (1884): Geschichte der Statistik. Stuttgart, Enke
140. Jorland, G. (1987): The Saint-Petersburg paradox, 1713-1937. In: Krüger L.,
Daston L. und Heidelberger L. (eds) [158], The Probabilistic Revolution, vol.
I, Ideas in History. MIT Press, Cambridge Massachusetts, 157–190
141. Juglar, C. (1862): Des crises commerciales et de leur retour périodique en
France, en Angleterre et aux Etats-Unis. Paris
142. Kalaora, B., Savoye, A. (1985): La mutation du mouvement le playsien. Revue
française de sociologie, XXVI 2, 257–276
143. Kalaora, B., Savoye, A. (1987): Les Inventeurs oubliés. Frédéric Le Play et ses
continuateurs. CERFISE
144. Kang, Z. (1989): Lieu de savoir social. La Société de Statistique de Paris au
XIXe siècle (1860–1910). Thèse, EHESS, Paris
145. Kendall, M. (1942): The Future of Statistics. Journal of the Royal Statistical
Society, vol. CV, part II, 69–72
146. Kendall, M., Plackett, R.L. (eds.) (1977): Studies in the History of Statistics
and Probability, vol. II. Griffin, London
147. Kendrick, J. (1970): The Historical Development of National-Income Accounts.
History of Political Economy 2, 284–315
148. Keverberg, Baron de (1827): Notes sur Quetelet. Nouveaux Mémoires de
l’Académie royale des sciences et belles lettres de Bruxelles 4, 175–192
149. Keynes, J.M. (1910): Review of K. Pearson: A First Study of the Influence of
Parental Alcoholism on the Physique and Ability of the Offspring. Journal of
the Royal Statistical Society, July, 769–773; December 114–121
400 Literaturverzeichnis
174. Legendre, A.M. (1805): Nouvelles méthodes pour la détermination des orbites
des comètes. Courcier, Paris, 1805
175. Le Goff, J. (1962): Marchands et banquiers au Moyen-Age. PUF, Paris
176. Le Mée, R. (1975): Statistique de la France. La Statistique générale de la France
de 1888 à 1870. Service de Microfilm, Paris
177. Lenoir, M. (1913): Études sur la formation et le mouvement des prix. Giard et
Brière, Paris
178. Lévy, M. (1975): L’information statistique. Seuil, Paris
179. Livi, R. (1896): Sulla interpretazione delle curve seriali in antropometria. Atti
della Società Romana di Antropologia 3, 2152
180. Lottin, J. (1912): Quetelet, statisticien et sociologue. Paris
181. Luciani, J., Salais, R. (1990): Matériaux pour la naissance d’une institution
l’Office du travail (1890–1900). Genèses, Sciences sociales et histoire 3, 83–108
182. Mach, E. (1904): La Mécanique, exposé historique et critique de son déve-
loppement. É. Bertrand, Hermann, Paris. Französische Übersetzung von Die
”
Mechanik in ihrer Entwicklung“ (1883)
183. Mac Kenzie, D. (1981): Statistics in Britain, 1865-1930. The Social Construc-
tion of Scientific Knowledge. Edinburgh University Press, Edinburgh
184. Mairesse, J. (Hrsg.) (1988): Estimation et sondages. Cinq contributions à
l’histoire de la statistique. Economica, Paris
185. Malinvaud, E. (1988): Econometric Methodology at the Cowles Commission:
Rise and Maturity. Econometric Theory 4, 187–209
186. Malinvaud, E. (1991): Voies de la recherche macroéconomique. Odile Jacob,
Paris,
187. Mansfield, M. (1988): La construction sociale du chômage: l’émergence d’une
catégorie en Grande-Bretagne. IEPE, document de travail 8803, Paris
188. March, L. (1905): Comparaison numérique de courbes statistiques. Journal de
la Société statistique de Paris, 255–277
189. March, L. (1910): Essai sur un mode d’exposer les principaux élements de la
théorie statistique. Journal de la Société statistique de Paris, 447–486
190. March, L. (1925): Observations sur la méthode représentative et sur le projet
de rapport relatif à cette méthode. Annexe D. Bulletin de l’IIS 22, livre 1,
444–451
191. Marietti, P.G. (1947): La statistique générale en France. Imprimerie du Gou-
vernement, Rufisque
192. Maroussem, P. du (1900): Les Enquêtes. Pratique et théorie. Paris
193. Menard, C. (1977): Trois formes de résistance aux statistiques: Say, Cournot,
Walras. In: Pour une histoire de la statistique, tome 1, 1977. Neu herausgegeben
1987, Economica, INSEE, Paris, 417–429
194. Merllié, D. (1987): Le suicide et ses statistiques: Durkheim et sa postérité.
Revue philosophique 3, 303–325
195. Metz, K. (1987): Paupers and Numbers: The Statistical Argument for Social
Reform in Britain during the Period of Industrialization. In: Krüger L., Daston
L. und Heidelberger L. (Hrsg.) [158], The probabilistic Revolution, vol. I Ideas
in History. MIT Press, Cambridge Mass., 337–350
196. Meusnier, N. (1987): Jacques Bernoulli et l’Ars conjectanda. Université de
Haute Normandie, IREM, Rouen
197. Mirowski, P. (1989): The Probabilistic Counter-Revolution, or How Stochastic
Concepts Came to Neoclassical Economic Theory. Oxford Economic Papers 41
(1), 217–235
402 Literaturverzeichnis
220. Pearson, E. (1938): Karl Pearson. An Appreciation of Some Aspects of His Life
and Work. Cambridge University Press, Cambridge
221. Pearson, E., Kendall, M. (Hrsg.) (1970): Studies in the History of Statistics
and Probability, vol. I. Griffin, London
222. Pearson, K. (1896): Mathematical Contributions to the Theory of Evolution,
III: Regression, Heredity and Panmixia. Philosophical Transactions of the Roy-
al Society of London (A) 187, 253–318
223. Pearson, K. (1912): La Grammaire de la science. Ins Französische übersetzt von
Lucien March, Alcan, Paris. Englischer Originaltitel (1892): The Grammar of
Science. Walter Scott, London
224. Pearson, K. (1920): Notes on the History of Correlation. Biometrika 12, 25–45
225. Pearson, K., Heron, D. (1913): On Theories of Association. Biometrika 9, 159–
315
226. Perrot, J.C. (1977): La statistique régionale à l’époque de Napoléon. In: INSEE,
Pour une histoire de la statistique 1, 233–253
227. Perrot, J.C. (1992): Une histoire intellectuelle de l’économie politique. EHESS,
Paris
228. Perrot, M. (1974): Les Ouvriers en grève. France 1871-1890. Mouton, Paris
229. Perrot, M. (1977): Premières mesures des faits sociaux: les débuts de la sta-
tistique ciminelle en France (1780–1830). In: INSEE, Pour une histoire de la
statistique 1, 125–137. Neu herausgegeben 1987, INSEE, Economica
230. Peuchet, J. (1805): Statistique élémentaire de la France. Paris
231. Piquemal, J. (1974): Succès et décadence de la méthode numérique en France,
à l’époque de Pierre Louis. Médecine de France 250, 11–22
232. Plackett, R.L. (1972: The Discovery of the Method of Least Squares. Biome-
trika 59, 239–251
233. Poisson, S.A. (1837): Recherches sur la probabilité des jugements en matière
criminelle et en matière civile, précédées des règles générales de calcul des
probabilités. Bachelier, Paris
234. Polanyi, K. (1983): La grande transformation: aux origines politiques et
économiques de notre temps. Gallimard, Paris
235. Pollak, M. (1985): Sociologie de la science. In: Encyclopedia Universalis. Les
enjeux, 625–629
236. Pollak, M. (1986): Un texte dans son contexte. L’enquête de Max Weber sur
les salariés agricoles. Actes de la recherche en sciences sociales 65, 69–75
237. Pollak, M. (1993): Une identité blessée. Métailié, Paris
238. Popkin, R. (1964): The History of Scepticism from Erasmus to Descartes. Van
Gorkum, Assen, Netherlands
239. Porte, J. (1961): Les catégories socio-professionnelles. In: Friedmann G. und
Naville P., Traité de sociologie du travail, tome I. Armand Colin, Paris
240. Porter, T.M. (1986): The Rise of Statistical Thinking. Princeton University
Press, Princeton
241. Quetelet, A. (1832): Sur la possibilité de mesurer l’influence des causes qui
modifient les éléments sociaux. Lettre à M. de Villermé. Correspondance
mathématique et publique 7, 321–346
242. Quetelet, A. (1835): Sur l’homme et le développement de ses facultés, ou Essai
de physique sociale. Bachelier, Paris
243. Quetelet, A. (1846): Lettres à S.A.R. le Duc Régnant de Saxe Cobourg et Go-
tha, sur la théorie des probabilités, appliquée aux sciences morales et politiques.
Hayez, Brüssel
404 Literaturverzeichnis
270. Szreter, S. (1984): The Genesis of the Registrar General’s Social Classification
of Occupations. The British-Journal of Sociology, vol. XXXV 4, December,
529–546
271. Szreter, S. (1991): The GRO and the Public Health Movement in Britain,
1837–1914. Social History of Medicine 4 (3), December, 435–463
272. Thévenot, L. (1984): L’enregistrement statistique; une mesure décisive. Collo-
que du Conseil national de la statistique
273. Thévenot, L. (1986): Les investissements de forme. In: Les Conventions
économiques. Cahiers du Centre d’études de l’emploi 29. PUF, Paris, 21–71
274. Thévenot, L. (1990): La politique des statistiques. Les origines sociales des
enquêtes de mobilité sociale. Annales ESC 6, 1275–1300
275. Tinbergen, J. (1937): An Economic Approach To Business Cycle Problems.
Hermann, Paris
276. Tinbergen, J. (1939): Statistical Testing of Business-Cycle Theories; vol. I A
Method and its Application to Investment Activity; vol. II Business Cycles in
the United States of America, 1919–1932. Société des Nations, Genf
277. Tocqueville, A. de (1856): L’Ancien Régime et la Révolution, 1856. Neuausga-
be: Gallimard, 1967, Folio, Paris
278. Topalov, C. (1991): La ville, terre inconnue: l’enquête de Charles Booth et le
peuple de Londres, 1889–1891. Genèses, sciences sociales et histoire 5, 5–34
279. Venn, J. (1866): The Logic of Chance. Macmillan, London
280. Vignaux, P. (1991): Nominalisme. Encyclopedia universalis
281. Villermé, L.R. (1845): Sur l’institution par le gouvernement belge d’une com-
mission centrale de statistique, et observations sur les statistiques officielles
publiées en France par les divers ministères. Journal des économistes, tome
XV, 130–148
282. Villey, M. (1975): La formation de la pensée juridique moderne. Cours
d’histoire de la philosophie du droit. Montchrestien, Paris
283. Vining, R., Koopmans, T.C. (1949): Methodological Issues in Quantitative
Economics. Review of Economics and statistics 31, 77–94
284. Volle, M. (1982): Histoire de la statistique industrielle. Economica, Paris
285. Ward, R., Doggett, T. (1991): Keeping Score: The First Fifty Years of the
Central Statistical Office. CSO, London
286. Westergaard, H.L. (1932): Contributions to the history of statistics. King, Lon-
don
287. Witt, J. de (1671): Waerdye van Lyf-Renten Naer proportie van Los-Renten.
s’Graven-Hage. Reprint in: Die Werke von Jakob Bernoulli, Vol. 3, 327–350
288. Woolf, S. (1981): Contributions à l’histoire des origines de la statistique en
France 1789–1815. In: La Statistique en France à l’époque napoléonienne. Cen-
tre Guillaume Jacquemyns, Brüssel
289. X-Crise (1982): De la récurrence des cycles économiques. Economica, Paris
290. Yule, U. (1897): On the Theory of Correlation. Journal of the Royal Statistical
Society 60, 812–854
291. Yule, U. (1899): An Investigation into the Causes of Changes in Pauperism in
England, Chiefly During the Last two Intercensal Decades, I. Journal of the
Royal Statistical Society 62, 249–295
292. Yule, U. (1909): Les applications de la méthode de corrélation aux statistiques
sociales et économiques. Bulletin de VIE, premiére livraison, 265–277
293. Yule, U. (1911): An Introduction To the Theory of Statistics. Griffin, London,
1911.
406 Literaturverzeichnis
297. Anderson, M.J., Fienberg, S.E. (1996): Who Counts? The Politics of Census-
Taking in Contemporary America. Russell Sage Foundation, New York
298. Armatte, M. (1995): Histoire du modèle linéaire. Formes et usages en statisti-
que et économétrie. Thèse EHESS, Paris
299. Armatte, M., Desrosières, A. (2000): Méthodes mathématiques et statistiques
en économie: nouvelles questions sur d’anciennes querelles. In: J.-P. Beaud
und J.-G. Prévost, (éds.), L’ère du chiffre. Systèmes statistiques et traditions
nationales. Presses universitaires du Québec, Montréal, 431–481
300. Bardet, F. (2000): La statistique au miroir de la région. Éléments pour une
sociologie historique des institutions régionales du chiffre en France depuis
1940. Thèse de science politique, université de Paris-I, Panthéon-Sorbonne
301. Beaud, J.-P., Prévost, J.-G. (éds) (2000): L’ère du chiffre. Systèmes statistiques
et traditions nationales. Presses universitaires du Québec, Montréal
302. Berlivet, L. (2000): Une santé à risques. L’action publique de lutte contre
l’alcoolisme et le tabagisme en France (1954–1999). Thèse de science politique,
université de Rennes-I, Rennes
303. Blondiaux, L. (1998): La fabrique de l’opinion. Une histoire sociale des sonda-
ges. Seuil, Paris
304. Blum, A. (2000): La purge de 1924 à la Direction centrale de la statistique.
Annales HSS 2, 249–282
305. Brian, E. (1994): La mesure de l’État. Administrateurs et géomètres au XVIIIe
siècle. Albin Michel, Paris
306. Callens, S. (1997): Les maı̂tres de l’erreur. Mesure et probabilité au XXe siècle.
PUF, Paris
307. Daston, L. (1992): Objectivity and the Escape from Perspective. Social Studies
of Science 22, 597–618
308. Daston, L. (2000): Why statistics tend not only to describe the world but to
change it. Review of The Politics of Large Numbers. London Review of Books
13, April, 35–36
309. Derosières, A. (1997): Démographie, science et société: le cas français. In: Cha-
steland, J.-C., Roussel, L., Les contours de la démographie au seuil du XXIe
siècle. INED-PUF, Paris, 57–93
310. Derosières, A. (1999): La commission et l’équation: une comparaison des plans
français et néerlandais entre 1945 et 1980. Genèses 34, März, 28–52
311. Derosières, A. (2000): L’histoire de la statistique comme genre: styles d’écriture
et usages sociaux. Genèses 39, Juni, 121–137
312. De Vries W. (éds) (1993): The Value Added of National Accounting. Nether-
land Central Bureau of Statistics, Voorburg
Literaturverzeichnis 407
313. Dodier, N. (1996): Les sciences sociales face à la raison statistique (note criti-
que). Annales HSS 2, März–April, 409–428
314. Dupoirier, E., Parodi, J.-L. (éds) (1997): Les indicateurs sociopolitiques au-
jourd’hui. L’Harmattan, Paris
315. Fienberg, S.E. (1999): Statistics in the Social World. Review of The Politics of
Large Numbers. Science 283, 26. März, S. 2025
316. Fienberg, S.E., Tanur, J.M. (1996): Reconsidering the fundamental contribu-
tions of Fisher and Neyman on experimentation and sampling. International
Statistical Review 64, 237–253
317. Georgakakis, D. (1994): Compte-rendu de La politique des grands nombres.
Politix 25, 153–160
318. Gollac, M. (1997): Des chiffres insensés? Pourquoi et comment on donne un
sens aux données statistiques. Revue française de sociologie, vol. XXXVIII,
5–36
319. Hacking, I. (1999): The Social Construction of What? Harvard University
Press, Cambridge, Massachusetts
320. Hald, A. (1990): A History of Probability and Statistics and Their Applications
before 1750. Wiley, New York
321. Hald, A. (1998): A History of Mathematical Statistics, from 1750 to 1930.
Wiley, New York
322. Hendry, D.F., Morgan, M.S. (eds) (1995): The Foundations of Econometric
Analysis. Cambridge University Press, Cambridge
323. Hopwood A., Miller, P. (eds) (1996): Accounting as Social and Institutional
Practice. Cambridge University Press, Cambridge, 1994.
324. INSEE (1996): Cinquante ans d’INSEE, ou la conquête du chiffre. Imprimerie
nationale-INSEE, Paris
325. Jurdant, B. (éd.) (1998): Impostures scientifiques. Les malentendus de l’affaire
Sokal. La Découverte/Alliage, Paris
326. Kennessey, Z. (ed.) (1994): The Account of Nations. IOS Press, Amsterdam
327. Klein, J.L. (1997): Statistical Visions in Time. A History of Time Series Ana-
lysis, 1662–1938. Cambridge University Press, Cambridge
328. Marks, H. (1999): La médecine des preuves. Histoire et anthropologie des essais
cliniques (1900–1990). Les Empêcheurs de penser en rond. Le Plessis-Robinson
329. Martin, O. (1997): La mesure de l’esprit. Origines et développements de la
psychométrie (1900–1950). L’Harmattan, Paris
330. Mespoulet, M. (1999): Personnel et production du bureau statistique de la
province de Saratov. Histoire d’une professionnalisation interrompue (1880–
1930). Thèse EHESS, Paris
331. Murray, C. (1999): Statistical jargon. The Public Interest, Spring, 133–135
332. Patriarca, S. (1996): Numbers and Nationhood. Writing statistics in nine-
teenth-century Italy. Cambridge University Press, Cambridge
333. Porter, T.M. (1995): Trust in Numbers. The Pursuit of Objectivity in Science
and Public Life. Princeton University Press, Princeton
334. Rosser Matthews, J. (2000): Review of The Politics of Large Numbers. Ethics,
January, 416–418
335. Sangolt, L. (1997): The Politics of Counting: producing official statistics on the
North Sea oil industry in Norway and Great Britain, 1966–1986. University of
Bergen
336. Schweber, L. (1996): L’histoire de la statistique, laboratoire pour la théorie
sociale. Revue française de sociologie, vol. XXXVII, 107–128
408 Literaturverzeichnis
344. Armatte, M. (2001): Developments in statistical thinking and their links with
mathematics. In: [356], 137–166
345. Baltagi, B.H. (2001): The mathematical aspects of econometrics. In: [375], 67–
81
346. Barth, F., Haller, R. (1985): Stochastik. Ehrenwirth Verlag GmbH, München
347. Bauer, H. (1991): Wahrscheinlichkeitstheorie. de Gruyter, Berlin
348. Beck-Bornholdt, H.-P., Dubben, H.-H. (2003): Der Hund, der Eier legt. Er-
kennen von Fehlinformation durch Querdenken. Rowohlt Taschenbuch Verlag
GmbH, Reinbek bei Hamburg
349. Beck-Bornholdt, H.-P., Dubben, H.-H. (2003): Der Schein der Weisen. Irrtümer
und Fehlurteile im täglichen Denken. Rowohlt Taschenbuch Verlag GmbH,
Reinbek bei Hamburg
350. Bayart, D., Crépel, P. (1994): Statistical control of manufacture. In: [394],
1386–1391
351. Belhoste, B. (2001): The École Polytechnique and mathematics in nineteenth-
century France. In: [356], 15–30
352. Böttcher, M., Gross, H.E., Knauer, U. (1994): Materialien zur Entstehung der
mathematischen Berufe. Daten aus Hochschulstatistiken sowie Volks- und Be-
rufszählungen von 1800 bis 1990. Algorismus. Studien zur Geschichte der Ma-
thematik und der Naturwissenschaften (Hrsg. M. Folkerts). Heft 12, Institut
für Geschichte der Naturwissenschaften, München
353. Bohley, P. (2000): Statistik. Einführendes Lehrbuch für Wirtschafts- und So-
zialwissenschaftler. 7. Auflage, R. Oldenbourg Verlag, München
354. Bos, H., Mehrtens, H., Schneider, I. (1981): Social History of Nineteenth Cen-
tury Mathematics. Birkhäuser Verlag, Basel
355. Bottazzini, B. (2001): From Paris to Berlin: Contrasted images of nineteenth-
century mathematics. In: [356], 31–47
356. Bottazzini, U., Dahan Dalmedico, A. (editors) (2001): Changing Images in
Mathematics. From the French Revolution to the New Millenium. Routledge,
London
Literaturverzeichnis 409
Hooker R.H. 315 Laplace P.S. 11, 22, 29, 33, 64, 65,
Hoover H. 217, 223–225, 232, 233 67, 71, 73, 74, 78, 89–91, 99, 100,
Hopwood A. 377 103–105, 183, 235, 302, 317, 318,
Huber M. 174, 177, 178, 305 340
Hume D. 61, 68 Largeault J. 79
Humières D. d’ 18 Latour B. 6, 17, 20, 24, 377
Huygens C. 19, 22, 28, 83, 85 Lavoisier A.L. 42
Huygens L. 83 Lawson T. 339
Lazarsfeld P. 21, 23, 24
Jarvis E. 215 Le Bras H. 178
Jefferson T. 213 Le Goff J. 54
Jensen A. 251, 252, 257, 258, 260 Le Play F. 90, 139, 170, 172, 175, 182,
Jevons S. 324, 326, 327 236, 238–241, 245, 246, 248, 259,
Joël M.E. 184, 353 281, 294
John V. 25 Lebesgue H. 313
Jorland G. 62 Lécuyer B. 15, 17, 32, 94, 96, 181
Juglar C. 324, 339 Legendre A.M. 70, 71, 73, 76, 144
Jurdant B. 380 Legoyt A. 170, 172
Lehfeldt R. 353
Kalaora B. 182, 294 Leibniz G.W. 57, 58, 60, 260, 262
Kang Z. 169 Lenoir M. 120, 180, 183–185, 313, 316,
Kendall M. 66, 143, 150, 356, 384 320, 338, 353, 357
Kennessey Z. 377 Levasseur E. 172, 178, 182
Kepler J. 354, 355 Lévy M. 178
Kersseboom W. 28 Lexis W. 78, 102, 106–108, 115, 117,
Keufer A. 174 131, 142, 163, 256, 314, 337, 338
Keverberg A. 99, 100, 105, 235, 317 Lie E. 376
Keynes J.M. 52, 98, 179, 319, 322, Liesse A. 177
333–336, 338, 348, 350, 351, 368, Linné C. 80, 266–271, 293, 307
371 Livi R. 109
Kiaer A.N. 227, 235, 240, 251–257, 260 Lloyd B.B. 269
King G. 348 Locke J. 61
Klein J. 377 Lottin J. 92
Klein L. 346, 347 Louis P. 94–96, 98, 307
Knapp G.F. 256 Luciani J. 174
Kocka J. 301
Kolmogorow A.N. 69, 183, 318 Mac Kenzie D. 17, 117, 130, 143, 144,
Koopmans T. 313, 320, 346, 347, 160, 161
353–357 Mach E. 118, 121, 124, 127, 149, 339
Kramarz F. 18, 296 Magaud J. 17
Krüger L. 15 Mairesse J. 16, 177
Kruskal W. 252 Malinvaud E. 184, 351, 353, 370
Kuisel R. 176, 179 Mansfield M. 192, 284
Kuznets S. 348–350 March L. 120, 137, 149, 169, 173–182,
185, 202, 252, 261, 315, 316, 320,
Labrousse E. 46, 359 357
Ladrière P. 360 Marchand 386
Laganier J. 278, 280, 282 Marietti P. 39
Lamarck J.B. 271 Marks H. 381
Namensverzeichnis 417
Office of Population, Censuses and politische Ökonomie 193, 278, 311, 334
Surveys 187, 192 politischer Arithmetiker 26, 40, 85,
Oktoberkrise 217 235, 264, 318
one with another 82 Polizei 265
opinion polls 376 Polizist 69, 142
opportunities 231 polls 229
Ordinalskala 141, 191, 290, 365 pollster 229
Ordnung 104, 267, 275 poor law unions 150, 285
Ordnung aus Chaos 319 poor laws 150
organizistisch 247 Port Royal 65
orthogonale Achsen 163 Positivismus 124
Osteuropa 242 Präfekt 38, 43, 75, 169, 171, 181, 195
ostpreußische Grundbesitzer 204 Präfekten-Enquete 29, 40, 42
ostpreußische Landarbeiter 207 Präfektur 37
outdoor relief 150, 284 präskriptiv 7, 9
Pragmatik 378
Panmixie 147 pre-election surveys 229
Paradigma 340 Preisbewegung 316
Parameter 13, 161, 344 Preisbildung 180, 316
Parameterschätzung 152, 321 Preisindex 80, 126, 185
Pariser Kommune 284 Preußisches Statistisches Bureau 201
Parodi-Dekrete 368 Prioritätsstreit 73, 144
Parodi-Kategorien 296 probabilisierter Glaubensakt 59
pars pro toto 235 probabilistische Methoden 256
partielle Korrelation 151 probabilistische Revolution 15
partielle Regression 151 probabilité 60
Pascalsche Wette 57 probability 60
Pauperismus 151, 156–160, 192 profession 282, 292
Peergruppe 6 professional classes 299
Pendel 325 professionals 148, 292, 293, 299
Pensionskassen 368 professions libérales 299
Periodogramm 326, 327 Prostitution 94
Permanenz 12, 82, 361, 374 Protektionismus 249
Philanthropie 150 Protektionisten 283
philanthropische Gesellschaften 166 protektionistische Politik 204
Physik 314, 319, 324, 326, 329, 338 Psychoanalyse 242
Physik des 19. Jahrhunderts 183 Psychometrie 118, 156, 162, 164, 266,
physikalische Gewißheit 60 381
Physiokraten 34, 35, 279 Psychometriker 265
Physiokratie 278 Psychophysiker 146
physiokratisches Denken 293 Psychophysiologie der Empfindungen
Plancksche Konstante 320 121
Planifikation 175, 179, 276 public health 186
Plankommissariat 177, 178, 185 public health movement 170
Pocken 160 Punktwolke 163
Pockenimpfung 63, 64 Pyrrhonismus 58
Politikwissenschaft 376, 381 Pythagoreer 128
politische Arithmetik 19, 21–23,
26–28, 33, 45, 99 Quadrat 133
Stichwortverzeichnis 431