Der Rückzug des Todes

 

 

DER EPIDEMIOLOGISCHE ÜBERGANG IN DEUTSCHLAND

WÄHREND DES 19.  UND 20. JAHRHUNDERTS*)

 

 

Die gesellschaftliche Bedeutung des säkularen Sterblichkeitsrückgangs

 

Seit dem Beginn der amtlichen Statistik um die Mitte des 19. Jahrhunderts ist in den westlichen Industrieländern die durchschnittliche Lebenserwartung (von Kriegsjahren abgesehen) ständig angestiegen. Betrug sie bei der Gründung des Deutschen Reiches noch rd. 36 Jahre bei Männern und 38 Jahre bei Frauen, so ist sie inzwischen bei Männern auf rd. 78 Jahre und bei Frauen auf rd. 83 Jahre angestiegen. Sie hat sich also bei beiden Geschlechtern während dieses Zeitraums mehr als verdoppelt. Dieser Entwicklung liegt vor allem ein drastischer Rückgang der Säuglingssterblichkeit seit dem frühen 20. Jahrhundert zugrunde und ein etwas weniger ausgeprägter Sterblichkeitsrückgang bei Kindern und Jugendlichen. Wenig verändert hat sich die Sterblichkeit im Reproduktionsalter. Ein merklicher Rückgang der Sterblichkeit fand jedoch auch in den Altersklassen über 60 Jahre statt. Man kann diesen Sachverhalt so umschreiben: Die gewaltige Zunahme der durchschnittlichen Lebenserwartung bedeutet vor allem, dass Menschen, einmal geboren, bis auf wenige Ausnahmen ein langes Leben vor sich haben. Dagegen hat sich das Leben für alle diejenigen, die Kindheit und Jugend hinter sich haben, nur unwesentlich verlängert.

 

Von größter Bedeutung ist nun aber, dass das Leben für die meisten Menschen etwa gleich lang geworden ist. Im Gegensatz zu früheren Jahrhunderten, in denen der Tod  zwar seine stärkste Beute unter Säuglingen, Kleinkindern und alten Menschen holte,  jedoch auf allen Lebensaltersstufen spürbar seine Sense schwang, rafft er heutzutage die bei weitem meisten Menschen zwischen dem 75. und 85. Lebensjahr  dahin. Es fand demnach eine extreme Konzentration des Sterbealters statt. Der Tod hat sich nicht nur aus Kindheit und Jugend weitgehend zurückgezogen, sondern überhaupt aus den Altersstufen bis zum 70. Lebensjahr. Und da diese Entwicklungstendenzen für den bei weitem größten Teil der Bevölkerung in den westlichen Industrieländern gelten, muss demnach auch die soziale Ungleichheit vor dem Tod, die noch im 19. und frühen 20. Jahrhundert sehr ausgeprägt war, stark zurückgegangen sein. Mehr und mehr sind die Menschen somit vor dem Tod tatsächlich alle gleich.

 

Die Ursachen für diese global beschriebenen Veränderungstendenzen sind zunächst in grundlegenden Wandlungen des Sterblichkeitsgeschehens zu sehen, oft bezeichnet als Wandel des Krankheits- und Todesursachen-Panoramas. Viele Krankheiten sind aus den westlichen Industrieländern ganz verschwunden; andere haben ihren Charakter verändert; einige konnten unter gesellschaftliche bzw.  medizinische Kontrolle gebracht werden. Wieder andere Krankheiten sind dagegen seit der Mitte des 19. Jahrhunderts auf dem Vormarsch. Diese Entwicklungen und ihre Ursachen werden im Folgenden unter dem Oberbegriff Epidemiologischer Übergang dargestellt.

 

*) Leicht bearbeitete Version der unter demselben Titel erfolgten Veröffentlichung im Konstanzer Universitätsverlag, Konstanz 1992 (Konstanzer Universitätsreden H. 186). Mit Rücksicht auf die ursprüngliche Form als Vortrag wurde auf Fußnoten verzichtet. Diese finden sich in dem Reprint in: Historical Social Research – Historische Sozialforschung, Vol. 23 (1998), No. 1/2, S. 4-43. Dort sowie in der ursprünglichen  Veröfffentlichung auch die Tabellen und Schaubilder des Anhangs, der hier leider nicht sichtbar gemacht werden kann.

 

 

Worin besteht die gesellschaftliche und wirtschaftliche Bedeutung dieses Übergangs? Die Bedeutungsaspekte sind so vielfältig, dass nur auf einige schlagwortartig verwiesen werden soll. Da ist zum einen der Aspekt, der derzeitig Mentalitätshistoriker wie Arthur Imhof beschäftigt, dass nämlich die meisten Menschen mit einer gesicherten Lebensspanne von etwa 80 Jahren rechnen können. Für immer mehr Menschen wird deshalb das Problem eines Lebensplans, einer Aufgabenstellung für verschiedene unterscheidbare Lebensphasen, wichtig. Besonders gilt das für die ständig länger werdende Phase nach dem Ausscheiden aus dem Erwerbsleben. Da diese Phase wiederum für die  meisten Menschen, zumindest in Deutschland, durch das Sozialversicherungssystem  und staatliche Fürsorge- bzw. Pensionskassen finanziert wird, die sich aus Beiträgen  und Steuerleistungen der aktiv Erwerbstätigen alimentieren, liegt die  wirtschaftliche Bedeutung der Sterblichkeitsveränderungen auf der Hand:  Tendenziell wächst der Bevölkerungsanteil der zu Finanzierenden stetig, während  entsprechend der Bevölkerungsanteil der Finanziers zurückgeht. Dies Problem erscheint um so gravierender, wenn man sich klarmacht, dass nicht nur die verlängerte Lebensphase nach dem Ausscheiden aus dem Erwerbsleben der Unterstützung bedarf, sondern auf der anderen Seite auch die sich für immer mehr Menschen deutlich ausweitendende erwerbslose Ausbildungsphase in Kindheit und Jugend.

 

Ein weiterer Problemaspekt ist darin zu sehen, dass sich zwar das durchschnittliche Sterbealter nach hinten verschoben hat, ohne dass jedoch die letzten Lebensjahrzehnte etwa frei von Krankheit wären. Vielmehr beinhalten die Veränderungen des Krankheits-Panoramas in den höheren Lebensaltern vor allem eine Zunahme der sogenannten Multi-Morbidität. Es könnte bei oberflächlichem Hinsehen so scheinen, als ob wir immer länger leben, um uns immer längere Phasen des Lebens mit Krankheiten zu plagen. Auch die Zunahme der Pflegebedürftigkeit wirft, speziell unter den modernen gesellschaftlichen Bedingungen, große Probleme auf – Stichwort: Pflegeversicherung.

 

Die vielen Lebensjahrzehnte, die die meisten Menschen, von gravierenden

Krankheiten und von Todesbedrohung befreit, durchleben können, werfen ebenfalls Probleme auf. Die Aufforderung zur Entwicklung eines Lebensplans betrifft keineswegs nur das höhere Lebensalter. Angesichts der Unverbindlichkeit der großen sinnstiftenden Wertsysteme und Ideologien in der modernen Gesellschaft stellt sich für immer mehr Menschen bei wachsendem Wohlstand, rückläufigen Arbeitsbelastungen und zunehmender Freizeit drängend die Frage nach dem Sinn des Lebens. Die Tatsache, dass man über seine körperlichen und geistigen Kräfte jahrzehntelang beschwerdefrei verfügen kann, ohne ein generell akzeptiertes, verbindliches Ziel vorgegeben zu finden, unterwirft viele Menschen einem Begründungszwang, dem sie kaum gewachsen sind: Was soll ich mit meinen Kräften tun? Wem nützt das? Wohin führt das alles? Wahrscheinlich hat der ständig wachsende Anteil psychotherapeutisch behandlungsbedürftiger Menschen in unseren Gesellschaften mit dieser belastenden Sinnfrage zu tun. Die Bedeutung der langfristigen Veränderungen des Krankheits- und Sterblichkeitsgeschehens erschöpft sich natürlich keineswegs in den genannten Problemen. Vielmehr sollte die positive Kehrseite ausdrücklich erwähnt werden. Sie ist in einer Zunahme der durchschnittlichen Leistungsfähigkeit der Erwerbsbevölkerung zu sehen, deren Beitrag zur Steigerung der

gesamtwirtschaftlichen Produktivität und zum Wachstum des Sozialprodukts bisher noch nicht befriedigend gemessen worden ist. Die enorme Zunahme krankheits- und schmerzfreier Lebensjahre, die Verlagerung der Todesbedrohung in ein hohes Lebensalter bedeuten eine generelle Zunahme von Lebenschancen. Immer mehr Menschen ist es für immer längere Zeit ihres Lebens möglich, ihr körperliches, geistiges und seelisches Potenzial zu entwickeln und auszuleben und somit in einem modernen Sinne glücklich zu sein.

 

Im Folgenden sollen nun die großen Veränderungen des Krankheits- und Sterblichkeitsgeschehens unter dem Oberbegriff Epidemiologischer Übergang konkreter nachgezeichnet werden. Die Phasen dieses Übergangs und die jeweiligen wichtigsten Merkmale werden dargestellt. Anschließend sind die Erklärungsansätze zu skizzieren, die derzeit international diskutiert werden. Dabei wird besonderes Gewicht auf die Untersuchungen gelegt, die die deutschen Verhältnisse betreffen.  Schließlich soll der Frage nachgegangen werden, ob denn die Deutschen nicht nur durchschnittlich immer länger leben, sondern auch langfristig gesünder geworden sind.

 

 

Globale Entwicklungslinien

 

Der langfristige Sterblichkeitsrückgang hat natürlich in den westlichen Industrieländern durchaus keinen einheitlichen Verlauf gehabt. Dennoch kann man, wenn man von den Details genügend abstrahiert, eine Art Modellverlauf behaupten, den James Riley wie folgt charakterisiert hat: Nach 1670 begannen in  Europa und Nordamerika (mit Varianten hinsichtlich des Beginns von einer größeren Region zur anderen) die rohen Sterblichkeitsziffern zu fallen. Bis zur Mitte des 20. Jahrhunderts war die Sterblichkeit von ca. 30 bis 40 pro Tausend auf ca. 10 pro Tausend gefallen. Dieser säkulare Sterblichkeitsrückgang fand in zwei Phasen statt. Die beiden Phasen waren durch ein Plateau erneut gestiegener Sterblichkeit während des zweiten Drittels des 19. Jahrhunderts getrennt, als die ersten großen Urbanisierungswellen auf die demographische Entwicklung durchschlugen. Diese Beschreibung trifft auch auf Deutschland zu. Während der 1820er bis 1840er Jahre sank die Sterblichkeit, der Wiederanstieg fand während der 1850er und 1860er Jahre statt, seit Mitte der 1870er Jahre fiel die Sterblichkeit dann trendmäßig bis zur Gegenwart. Unklar ist allerdings, wie sich die Sterblichkeit im 18. und frühen 19.  Jahrhundert entwickelte. Die kürzlich von Arthur Imhof vorgelegten Schätzungen der Lebenserwartung zwischen 1740 und 1850 in verschiedenen deutschen Regionen lassen allerdings den Schluss zu, dass in Deutschland spätestens seit den  1770er Jahren ein langfristiger Sterblichkeitsrückgang stattfand, der demnach erst  um die Mitte des 19. Jahrhunderts für einige Jahrzehnte unterbrochen wurde.  (Vgl. SCHAUBILD 1 im Anhang)

 

Zuverlässiger sind die entsprechenden Angaben für die USA und England. Hier wurde während der 1970er und 1980er Jahre ein neuer Indikator erarbeitet: die langfristige Veränderung der durchschnittlichen Körpergröße von Menschen. Entsprechende Massendaten fielen vor allem beim Militär an, darüber hinaus in größerem Umfang beim Sklavenhandel. Für die Entwicklung in Deutschland während des späten 18.  und frühen 19. Jahrhunderts wurde ein erster Analyseversuch mit Größendaten von Schülern (Hohe Carlsschule, Stuttgart) vorgenommen.

 

Eine für die USA entwickelte Kurve des Größenwachstums von Männern seit dem frühen 18. Jahrhundert zeigt folgenden Verlauf (vgl. SCHAUBILD 2 im Anhang): Der bemerkenswerteste Aspekt dieser Kurve ist ihre Übereinstimmung mit dem  vorher skizzierten Modellverlauf des Sterblichkeitsrückgangs, zu dem sie sich  spiegelbildlich verhält. Bis zum Beginn der 1830er Jahre stieg das Größenwachstum von Männern in den USA, dann sank es mehrere Jahrzehnte lang deutlich, um erst ab den 1890er Jahren wieder anzusteigen, diesmal verstärkt und bis zur Gegenwart durchgehalten. Nur nebenbei erwähnt sei, dass das Größenwachstum in diesem Zusammenhang meist nicht unmittelbar als Indikator des durchschnittlichen Gesundheitszustands interpretiert wird, sondern als Ausdruck des Ernährungszustands (Nutritional Status). Damit ist nicht das Ausmaß der Nahrungszufuhr gemeint; Veränderungen der Körpergröße indizieren vielmehr die Relation zwischen Nahrungsmenge und ihrer Nährstoffstruktur einerseits, den entsprechenden Anforderungen des Körpers andererseits. Ob die Nahrungszufuhr hinsichtlich Menge und Zusammensetzung angemessen ist, hängt von den körperlichen Belastungen (Arbeit usw.), vom Klima und von sonstigen Lebensumständen ab, besonders auch von der Exponiertheit gegenüber bestimmten Krankheitserregern.

 

Ähnliche Kurven wie für die USA sind auch von Roderick Floud u. a. für England entwickelt worden und stimmen weitgehend mit der Entwicklung des Größenwachstums in den USA überein. Somit darf der vorhin skizzierte Modellverlauf der Sterblichkeitsentwicklung seit dem 18. Jahrhundert als gesichert gelten, dessen wichtigste, erklärungsbedürftige Merkmale die Zweiteilung des Rückgangs und der zwischenzeitliche Wiederanstieg der Sterblichkeit um die Mitte des 19. Jahrhunderts herum sind.

 

 

Ein Leitkonzept für Deskription und Interpretation:

der Epidemiologische Übergang

 

Das Konzept des Epidemiologischen Übergangs konkretisiert das bekanntere, übergreifende Konzept des Demographischen Übergangs. Bei letzterem handelt es sich um die modellhafte Fassung des natürlichen Bevölkerungswachstums, das während des langfristigen gesellschaftlichen Modernisierungsprozesses bestimmte Phasen durchläuft. Diese sind durch typische Beziehungen zwischen Fruchtbarkeits- und Sterblichkeitsniveaus geprägt. Zu Beginn des Demographischen Übergangs öffnet sich die „Bevölkerungsschere“, indem die Sterblichkeit zu sinken beginnt, während die Fruchtbarkeit, noch von traditionellen Normen gesteuert, in traditionelle Verhaltensweisen eingebettet, auf hohem Niveau verharrt. In der  zweiten Übergangsphase schließt sich die „Schere“ wieder, da nun die Fruchtbarkeit  auf die veränderten ökonomischen, sozialen und demographischen Bedingungen  reagiert: Der säkulare Geburtenrückgang setzt ein. Ist er abgeschlossen, haben sich Fruchtbarkeit und Sterblichkeit auf einem relativ niedrigen Niveau eingependelt. Die Zuwachsrate der Bevölkerung ist in der Folgezeit klein und abhängig von periodischen Fruchtbarkeitsschwankungen, die keinen Trend aufweisen. Vielmehr hängt das Ausmaß der bewusst betriebenen Geburtenkontrolle von verschiedensten wechselnden, oft zufälligen, wenn nicht sogar im Sinne von Moden auftretenden Anreizen und Impulsen ab.

 

Als Epidemiologischer Übergang wird nun die trendmäßige Entwicklung der Sterblichkeit in den verschiedenen Phasen des Demographischen Übergangs begriffen. Modelliert werden Wechselwirkungen zwischen dem durchschnittlichen Gesundheitszustand einer Bevölkerung und dem sozio-ökonomischen Wandel.

 

In diesem von Abdel Omran entwickelten Konzept werden drei Phasen unterschieden:  1. das vormoderne „Zeitalter der Seuchen und Hungersnöte“. Die durchschnittliche Sterblichkeit weist starke Fluktuationen um ein hohes Niveau auf, ohne dass sich eine langfristige Rückgangstendenz ausbilden könnte. Die Lebenserwartung bei Geburt liegt in der Regel unter 40 Jahren. 2. Das „Zeitalter der rückläufigen großen Epidemien“, während dessen sich allmählich ein sinkender Sterblichkeitstrend durchsetzt. Noch wesentlicher sind die Verringerungen der Sterblichkeitsschwankungen um diesen Trend herum. Die Lebenserwartung bei der Geburt steigt allmählich auf rd. 50 Jahre an. 3. Das „Zeitalter der degenerativen und gesellschaftlich verursachten Krankheiten“. Während dieser Phase pendelt sich die Sterblichkeit auf niedrigem Niveau ein und weist nur noch sehr geringe Schwankungen auf. Die Lebenserwartung steigt auf über 70 Jahre an.  Dies Konzept hat primär deskriptiven Charakter und stellt empirische Generalisierungen dar. Es gewinnt an analytischer Schärfe, wenn die zentrale Variable, die durchschnittliche (rohe) Sterblichkeitsziffer, nach Alter und Geschlecht sowie insbesondere nach Todesursachen differenziert wird. Das Konzept ist kürzlich in bestimmten Punkten konkretisiert worden, die den historisch und gesellschaftlich so wichtigen Übergang von der Phase eins zur Phase zwei betreffen, also die Bedingungen des Einsetzens des eigentlichen Übergangs. So haben besonders Michael Flinn und Stephen Kunitz darauf aufmerksam gemacht, dass bereits während des 18. Jahrhunderts, das nach den vorliegenden Datierungsversuchen für die westlichen Industrieländer typischerweise noch der Phase eins des Epidemiologischen Übergangs zugerechnet wird, bereits wichtige Veränderungen stattfanden. Bestimmte vormoderne Seuchen wie Pest und Lepra, deren Ausbreitung stark mit den traditionellen Formen der Kriegsführung verbunden war, traten, nicht zuletzt wegen der veränderten Militärorganisation und -strategie, kaum noch in diesen Ländern auf. Die um so gewichtiger werdenden epidemischen Infektionskrankheiten (Pocken, Masern, Scharlach, Keuchhusten usw.) verloren mit wachsender Verkehrs- und Kommunikationsdichte während des 18. und frühen 19.  Jahrhunderts ihren altersunspezifischen Charakter und wurden in wachsendem  Maße zu typischen Kinderkrankheiten, die primär Säuglinge und Kleinkinder  bedrohten. Überlebten diese eine frühzeitige Infektion, erwarben sie gegen diese Krankheiten in der Regel lebenslange Immunität. Daraus folgt, dass bereits gegen  Ende der Phase eins des Epidemiologischen Übergangs in vielen Regionen ein  allmählicher Rückgang der Erwachsenensterblichkeit einsetzen konnte, während die  Säuglings- und Kindersterblichkeit zunächst weiter ungünstigen, ja sich  möglicherweise sogar mit der beginnenden Urbanisierung verschlechternden  Bedingungen unterworfen blieben.

 

Empirische Befunde zum Epidemiologischen Übergang in Deutschland

 

Die Terminierung der Phasen

 

In Deutschland ist das Konzept des Epidemiologischen Übergangs bisher kaum aufgegriffen worden. Imhof und Spree haben sich um eine Datierung der Phasen bemüht – mit teilweise abweichendem Resultat. In seiner bekannten Studie zur deutschen Bevölkerungsentwicklung während der letzten 300 Jahre schreibt Imhof, die Phase eins des Epidemiologischen Übergangs habe in Deutschland bis zum Ende des 19. Jahrhunderts gedauert. Erst um die Jahrhundertwende habe nämlich die durchschnittliche Lebenserwartung bei der Geburt die Grenze von 50 Jahren erreicht. Für die Phase zwei, die zentrale Phase des Epidemiologischen Übergangs, bleibt somit kaum Zeit, denn schon während des frühen 20. Jahrhunderts setzt die Phase drei ein. Der von Imhof in den Vordergrund gestellte Schwellenwert von 50 Jahren für die Lebenserwartung bei der Geburt wird dem von Omran vorgelegten Konzept nicht gerecht. Offensichtlich markiert dieser Wert das Ende, nicht den Anfang der Phase zwei. Dass diese Phase etwa mit dem Ersten Weltkrieg zu Ende  geht und dass nach dessen Ende das bis heute anhaltende „Zeitalter der degenerativen und gesellschaftlich verursachten Krankheiten“ beginnt, ist zwischen  Imhof und Spree unstrittig.

 

Aus den Erläuterungen zum Konzept des Epidemiologischen Übergangs lassen sich  allerdings drei Datierungskriterien für den Beginn der Phase zwei ableiten, denn  dieser Beginn soll ja charakterisiert sein durch das Verschwinden von Jahren  sogenannter offener Bevölkerungskrisen (mit Sterbeüberschüssen), durch das  Einsetzen des langfristigen Rückgangs der Sterblichkeit und vor allem durch eine  Verstetigung der Sterblichkeitsentwicklung. Daraus ergeben sich die folgenden operationalisierten Datierungskriterien:

 

– Zahl und Häufigkeit von Jahren mit Sterbeüberschüssen

– Trendrichtung der durchschnittlichen Sterblichkeitsziffer

– Variationskoeffizient der Sterblichkeitsziffer.

 

Wendet man diese Kriterien auf das (durchaus unvollständige und teilweise problematische) statistische Material zur Sterblichkeitsentwicklung in Deutschland  während des späten 18. und frühen 19. Jahrhunderts an, erhält man das folgende  Ergebnis:

 

– In vielen Teilen Deutschlands begann bereits im späten 18. Jahrhundert ein Rückgang der durchschnittlichen Sterblichkeit, der sich trendmäßig (also von kurzfristigen Schwankungen abgesehen) bis über die Mitte des 19. Jahrhunderts fortsetzte.

 

– Die Schwankungsintensität der Sterblichkeit nahm in weiten Teilen Deutschlands bereits im späten 18. und frühen 19. Jahrhundert ab; diese Tendenz verstärkte sich seit den 1820er Jahren noch.

 

– In den meisten größeren Regionen Deutschlands lagen die Maxima der Sterblichkeitsentwicklung während der ersten Hälfte des 19. Jahrhunderts in den 1830er Jahren (den Jahren der ersten großen Cholera-Epidemien). Außerdem gab es in den darauffolgenden Jahren nur noch in sehr wenigen Regionen bzw. auf lokaler Ebene Sterbeüberschüsse (offene Bevölkerungskrisen). Imhof bemerkt dazu, dass seit den 1820er Jahren das Zeitalter der offenen Bevölkerungskrisen durch  dasjenige der verdeckten Bevölkerungskrisen (in denen die Geburtenüberschüsse  aufgrund stark angestiegener Sterblichkeit minimiert werden) abgelöst worden sei. Nimmt man diese Ergebnisse zusammen, darf behauptet werden, dass sich der  durchschnittliche Gesundheitszustand der deutschen Bevölkerung während des  späten 18. und in der ersten Hälfte des 19. Jahrhunderts tendenziell gebessert hat.  Spätestens seit den beiden Cholera-Einbrüchen während der 1830er Jahre (1831/32 und 1837) löste die Phase zwei des Epidemiologischen Übergangs im größten Teil Deutschlands das „Zeitalter der Seuchen und Hungersnöte“ endgültig ab. Allerdings profitierten von den Veränderungen des Sterblichkeitsgeschehens vor  allem Erwachsene; Jugendliche und ältere Kinder kaum; Kleinkinder und Säuglinge  in der Regel gar nicht. Diese Aussage ist im Folgenden durch einen kurzen Blick auf  die verfügbaren Daten zur altersspezifischen Sterblichkeit während des 19.  Jahrhunderts zu konkretisieren.

 

Entwicklungstendenzen der altersspezifischen Sterblichkeit während der Phase zwei des Epidemiologischen Übergangs

 

Die folgenden Aussagen sind anhand von statistischem Material aus Preußen gewonnen, das jedoch als für ganz Deutschland repräsentativ gelten darf, denn die Sterblichkeits-Differenzen zwischen den westlichen und den östlichen  Regierungsbezirken Preußens, die hinter den preußischen Durchschnitten  verborgen sind, entsprachen etwa den Sterblichkeitsunterschieden zwischen  Nordwest-Deutschland und Südost-Deutschland. Die grundlegenden Informationen sind in der TABELLE 1 (im Anhang) dargestellt.

 

Die klarste Entwicklung zeigt sich bei der Säuglingssterblichkeit, die nach dieser Berechnung während des ganzen 19. Jahrhunderts tendenziell zunahm. Über den Gesamtzeitraum hin stieg die Säuglingssterblichkeit um 28% an. Diese Aussage ist ein wenig durch die Wahl der Stichjahre in der Tabelle verzerrt. Dem SCHAUBILD 3 (im Anhang) sind die jährlichen Werte zugrunde gelegt. Die Trendlinien verdeutlichen, dass der langfristige Anstieg der Säuglingssterblichkeit in den frühen 1870er Jahren seinen Abschluss fand. Anschließend ergab sich durchschnittlich eine leichte Senkung der Säuglingssterblichkeit bis zur Jahrhundertwende; dann setzte ein starker Fall ein.

 

Bei den übrigen Altersklassen bilden die 1830er Jahre, für die hier das Cholera-Jahr  1837 steht, eine Art Wasserscheide: bis dahin stiegen die Sterblichkeitsziffern in der  Regel an, nahmen anschließend jedoch, wenn auch teilweise sehr langsam, ab. Am  deutlichsten ist der Rückgang gegenüber der hohen Sterblichkeit während der  1830er Jahre schon in den folgenden Jahrzehnten bei der Sterblichkeit der Über-60-Jährigen; erkennbar allerdings auch noch bei den 15 – 30-Jährigen. Relativ schwach dagegen bei den Kindern und Jugendlichen bis zu 15 Jahren, die die wichtigsten Rückgänge der Sterblichkeit erst im letzten Jahrzehnt des 19. Jahrhunderts erlebten.  Hervorzuheben ist, dass die Über-60-Jährigen bereits während der 1840er und 1850er Jahre annähernd das niedrige Sterblichkeitsniveau des Jahres 1825, als die Agrarpreise besonders tief standen und die Reallöhne entsprechend hoch, realisierten. Darauf stützt sich die Aussage, dass diese Altersklasse relativ früh von den Veränderungen profitierte, durch die die Phase zwei des Epidemiologischen Übergangs charakterisiert war.

 

Die relativ ungünstige Entwicklung der Überlebenschancen von Säuglingen während des 19. Jahrhunderts beruhte auf mehreren Faktoren. An dieser Stelle sei zunächst die rapide Verschlechterung der Überlebensbedingungen von unehelichen Säuglingen hervorgehoben. Im SCHAUBILD 4 (im Anhang) ist die Säuglingssterblichkeit in Preußen nach der Legitimität der Säuglinge differenziert. Man sieht, besonders gut nachvollziehbar anhand der linearen Trendlinien, dass zwar beide Komponenten der Säuglingssterblichkeit, die der ehelichen wie der unehelichen Säuglinge, langfristig anstiegen. Jedoch lag die Unehelichen-Sterblichkeit nicht nur während des betrachteten Zeitraums stets deutlich höher als die der ehelichen Säuglinge, sie stieg auch sehr viel stärker an. Während die eheliche Säuglingssterblichkeit von 1816/18 bis 1864/66 um 21% bei Knaben und um 23% bei Mädchen anstieg, erhöhte sich im selben Zeitraum die Sterblichkeit der unehelichen Säuglinge um 34% bei Knaben und um 37% bei Mädchen. Rd. 11% des Zuwachses der durchschnittlichen Säuglingssterblichkeit sind allein auf den

Zuwachs der Sterblichkeit unehelicher Säuglinge zurückzuführen. Dabei erhöhte sich die Unehelichen-Quote gleichzeitig um 1,4% Punkte bei Knaben (von 6,95 auf 8,34%) bzw. um 1,3% Punkte bei Mädchen (von 7,16 auf 8,47%).

 

Die hier skizzierten Entwicklungstendenzen der altersspezifischen Sterblichkeit,  wonach von den Veränderungen während der Phase zwei des Epidemiologischen  Übergangs zunächst besonders Erwachsene profitierten, später Jugendliche und  Kleinkinder, erst kurz vor dem Ersten Weltkrieg auch die Säuglinge, soll im Folgenden durch die wichtigsten Veränderungen des Todesursachen-Panoramas  erklärt werden.

 

Veränderungen den Todesursachen-Panoramas während der Phase zwei des Epidemiologischen Übergangs Die Entwicklung bis 1874

 

Das Konzept des Epidemiologischen Übergangs rückt die langfristigen Veränderungen des Krankheits- und Todesursachen-Panoramas in den Mittelpunkt des Interesses. Das kommt bereits klar in der Bezeichnung der drei Phasen zum Ausdruck. Allerdings bleiben dort die Bezüge zu bestimmten Krankheiten bzw.  Todesursachen diffus, da auf sehr pauschal umschriebene Krankheitsgruppen (große Seuchen, epidemische Krankheiten, degenerative Krankheiten) abgestellt wird. Das Konzept geht von Begriffen aus, die nicht operationalisiert sind und sich deshalb einer direkten medizinalstatistischen Umsetzung entziehen. Vielmehr sind sie eher geeignet, bestimmte Assoziationen auszulösen, die den Historischen Demographen oder Medizinhistoriker veranlassen, die spärlichen und in vieler Hinsicht problematischen Angaben zu den im 18. und 19. Jahrhundert

vorherrschenden Krankheiten in der Weise unter die vom Konzept vorgegebenen Phasencharakteristika zu subsumieren, dass diese plausibel erscheinen. Es ist insofern nicht erstaunlich, dass die meisten wissenschaftlichen Referenzen in Bezug auf das Konzept des Epidemiologischen Übergangs methodologisch einen Status haben, den man als illustrative Umschreibung von Vorurteilen bezeichnen kann. Der Versuch einer medizinalstatistischen Überprüfung des Konzepts für ein bestimmtes Land in einer abgegrenzten Periode wirft dagegen schwerwiegende, teilweise gar nicht lösbare Probleme auf, je weiter man in der Geschichte zurückgeht. Obwohl statistische Unterlagen über Todesursachen in westlichen Industrieländern seit dem späten 18. Jahrhundert in relativ großer Zahl verfügbar sind, ist dies Material, das im Übrigen bisher nur selten aufbereitet und ausgewertet wurde, bis ins späte 19. Jahrhundert hinein meist kaum interpretierbar. Und auch im 20. Jahrhundert bleiben natürlich viele Unsicherheiten. Gelegentlich ist deshalb gefolgert worden, dass die Beschäftigung mit der Todesursachen-Statistik in der Regel sinnlos sei; die Ergebnisse müssten als so problematisch eingeschätzt werden, dass ihnen keinerlei wissenschaftlicher Wert zukomme. Derartige defätistische Schlüsse stützen sich vor allem auf Studien, in denen auf klinischem Weg zustande gekommene Diagnosen von Todesursachen (auf Totenscheinen in bestimmten

Krankenhäusern) durch Sektion in der Pathologie überprüft wurden. Die in derartigen Studien aufgedeckten Fehlerquoten sind tatsächlich beeindruckend.  Dennoch ist die Todesursachen-Statistik im Großen und Ganzen keineswegs wertlos.  Das hängt nicht zuletzt mit dem Gesetz der großen Zahl zusammen. Mikrostudien, die mit kleinen Fallzahlen operieren, aber auch Aussagen, die sich auf relativ seltene Todesursachen stützen, müssen das Argument der Unsicherheit gegen sich gelten lassen. Wenn man jedoch die Todesursachen zu größeren Gruppen (z.B. Akute  Infektionskrankheiten des Kinderalters, Tuberkulose, Herz-/Kreislauf-Krankheiten  etc.) aggregiert und auf genügend große Fallzahlen achtet, ergeben sich  Entwicklungstendenzen über die Zeit hin, die aus mehreren Gründen höchst  plausibel erscheinen: Sie entsprechen den Berichten von zeitgenössischen Ärzten  über vorherrschende Krankheiten in ihrem Patientengut; sie sind mit bestimmten  demographischen Entwicklungen und den für diese herangezogenen sozio- ökonomischen Erklärungen kompatibel. Nicht zuletzt aber werden viele Analyseergebnisse durch Übereinstimmungen (oder auch durch erklärbare Nichtübereinstimmungen) im interregionalen und internationalen Vergleich gestützt. Das ist vor allem wichtig in Bezug auf Auswertungen der Todesursachen- Statistik im 19. und frühen 20. Jahrhundert. Die Unsicherheiten und Fehler scheinen überregional und international ähnlich groß gewesen zu sein oder in dieselbe Richtung zu weisen. Entwicklungstendenzen sind ableitbar, die in Bezug auf das  konkrete Niveau der Sterblichkeit an bestimmten Todesursachen möglicherweise  unzuverlässig sind, wesentliche Niveauunterschiede zwischen verschiedenen  größeren Krankheitsgruppen jedoch ebenso zuverlässig spiegeln wie die Richtung  der langfristigen Veränderung.

 

Es bleibt ein weiteres Problem, das wohl letzten Endes nicht lösbar ist. Vom späten 18. Jahrhundert bis ins späte 19. Jahrhundert hinein änderten sich nicht nur häufig die Krankheitsbezeichnungen, die in der Todesursachen-Statistik auftreten.  Vielmehr stehen dahinter mehrfache grundlegende Veränderungen der medizinischen Krankheitstheorien. Oft ist mit dem modernen Krankheitsverständnis ein Nachvollzug dessen, was sich im späten 18. oder frühen 19. Jahrhundert hinter bestimmten Diagnosen verbarg, gar nicht mehr leistbar.  Während dieser langen Zeitspanne wechselten nicht nur die Bezeichnungen für bestimmte Krankheiten, sondern es veränderte sich eben auch das Bezeichnete. Wie Imhof ausführt, ist häufig eine Übersetzung der Termini aus der einen Theorie in die andere nicht möglich. Allerdings lassen sich seit dem frühen 19. Jahrhundert gelegentlich gewisse Gruppen von Krankheitsbezeichnungen bilden, die sehr global mit spezifischen Krankheitsbildern nach modernem Verständnis identifizierbar sind. Der folgende Versuch, Veränderungslinien im Todesursachen-Panorama während der Phase zwei des Epidemiologischen Übergangs auszumachen, beschränkt sich zunächst auf die Todesursachen-Statistik Preußens zwischen 1816 und 1874. Während dieser Periode blieb die offizielle Todesursachen-Nomenklatur konstant. Die zweite Teilperiode der Phase zwei (ab 1875) wird ebenfalls anhand preußischen statistischen Materials untersucht. Jedoch existierte von 1875 an eine stark modifizierte Todesursachen-Klassifikation. Wenn einige Ergebnisse nur für den Zeitraum 1816 bis 1866 gelten, dann wegen der 1866 eingetretenen starken Gebietsveränderungen und der kriegsbedingten Verzerrungen des Todesursachen- Spektrums.

 

Zunächst ist zu fragen, welche Todesursachen in der preußischen Statistik während dieses Zeitraums überhaupt unterschieden wurden. Das Statistische Bureau fasste die Fülle der tatsächlich gemeldeten Todesursachen zu 12 Gruppen zusammen:

–      Altersschwäche („das natürliche Lebensziel haben erreicht und sind an Entkräftung

gestorben“)

–      Gewaltsamer Tod: Selbstmord

–      Gewaltsamer Tod: allerlei Unglücksfälle

–      Im Kindbett gestorben

–      Pocken

–      Wasserscheu oder Hundswuth

–      Innere Krankheiten: Akute (schnell tötend)

–      Innere Krankheiten: Chronische (langwierig)

–      Blut-, Stick- und Schlagflüsse

–      Äußere Krankheiten

–      Nicht bestimmbare Krankheiten

–      Totgeborene

 

Von diesen Gruppen sind nicht interpretierbar: Altersschwäche, weil eine ganz unspezifische Restkategorie; Wasserscheu oder Hundswuth, da nicht nachvollziehbar; Nicht bestimmbare Krankheiten. Das ist jedoch nicht problematisch, da die Kategorie Wasserscheu/Hundswuth stets weniger als ein Promille der Todesfälle ausmachte und Altersschwäche sowie unbestimmbare Krankheiten zusammen stets maximal 20% der Todesfälle auf sich vereinigten. D.h., rund 80% aller Todesfälle entfielen auf die restlichen, in gewisser Weise durchaus interpretierbaren Todesursachen. (Vgl. dazu TABELLE 2 im Anhang). Von den verbleibenden Todesursachen-Gruppen haben bei weitem die größte Bedeutung die Akuten und die Chronischen Inneren Krankheiten. Sie machen zusammen stets zwei Drittel und mehr aller Todesfälle aus. Deutlich geringeren Anteil an den Todesursachen, aber immerhin noch sichtbare Größenordnungen von ungefähr 6 – 9% verursachten die Blut-, Stick- und Schlagflüsse. Zu vernachlässigende Größenordnungen entfielen auf die Pocken und auf die sogenannten äußeren Krankheiten (das sind gewisse Geschwüre, Schwämme, Brüche usw.; in der Regel weniger als 2% der Todesfälle).  Drei Gruppen von Todesursachen vereinigten demnach in der Zeit zwischen 1816 und 1874 regelmäßig mehr als 75% aller Todesfälle auf sich.

 

Welche Krankheiten verbergen sich in den beiden großen Gruppen der Inneren Krankheiten? Für die Zeit ab 1843 liegt eine Statistik aus Berlin vor, die die beiden Gruppen in jeweils mehr als 40 einzelne Krankheiten unterteilt. Daraus ist zu entnehmen, dass die meisten Todesfälle in der Gruppe der Akuten Inneren Krankheiten durchschnittlich vom Typhus, von Brechdurchfall und Durchfall der Kinder, von Gehirnentzündungen (inkl. der sogenannten Gehirnhöhlen-Wassersucht) und von Entzündungen des Brustfells bzw. der Lunge verursacht wurden. Die gewichtigste Chronische Innere Krankheit war die Lungenschwindsucht, mit weitem Abstand gefolgt von Abzehrung (Marasmus), Krämpfen, allgemeiner und Brust-Wassersucht sowie schließlich Magenerweichung.  Aufgrund der so ermittelten Gewichte kann die Entwicklungstendenz der Sterblichkeit an Akuten Inneren Krankheiten als Indikator für die Sterblichkeit an gastro-intestinalen Infekten sowie an Entzündungen der Atemwege/Lunge interpretiert werden. Im Fall der Chronischen Inneren Krankheiten erscheint es nicht unsinnig, diese als Indikator für die Entwicklung der Sterblichkeit an Lungen-Tuberkulose und an Herz-bzw. Kreislauf-Krankheiten aufzufassen.

 

Welche Veränderungen des Todesursachen-Spektrums spiegeln sich nun in der Statistik? Die wichtigsten Tendenzen sind: langfristiger Anstieg der Sterblichkeit an Akuten Inneren Krankheiten, langfristiger Rückgang der Sterblichkeit an Chronischen Inneren Krankheiten. (Vgl. SCHAUBILD 5 im Anhang). Diese Tendenz ist bei den Akuten Inneren Krankheiten besonders ausgeprägt, wenn man von den klar erkennbaren Epidemiejahren absieht, in denen vorübergehend stark überhöhte Sterblichkeitsniveaus erreicht wurden. Die Tendenz zur Abnahme der Sterblichkeit an Chronischen Inneren Krankheiten wiederum ist vor allem seit den frühen 1830er Jahren gut nachvollziehbar. Langfristig nahm auch die Sterblichkeit an den Blut-, Stick- und Schlagflüssen ab. Alle anderen Todesursachen wiesen dagegen keinen ausgesprochenen Trend auf.

 

Aus epidemiologischer Sicht kann man folgern, dass der nach dem Einbruch der Cholera zu Beginn der 1830er Jahre sich abzeichnende allmähliche leichte Rückgang  der Durchschnittssterblichkeit in Preußen im Wesentlichen getragen wurde von  einem Rückgang der Sterblichkeit an Chronischen Inneren Krankheiten, vornehmlich also der Sterblichkeit an Lungen-Tuberkulose und an Herz-/Kreislauf- Krankheiten. Er wurde dagegen bis zu einem gewissen Grad aufgehalten durch die  Zunahme der Sterblichkeit an Akuten Inneren Krankheiten, hier besonders durch  die Zunahme der Sterblichkeit an gastro-intestinalen Infekten, die primär Kinder  und Säuglinge dahinrafften. Das wiederum erklärt die oben erwähnte Tendenz einer frühzeitigen Abnahme der Erwachsenensterblichkeit im Gegensatz zu dem deutlichen Anstieg der Säuglingssterblichkeit während des Untersuchungszeitraums. Diese globalen Tendenzaussagen sollen im Folgenden  anhand der differenzierten Todesursachen-Statistik für die Stadt Berlin  versuchsweise konkretisiert werden.

 

Die Sterblichkeitsstatistik für Berlin ist hier deshalb interessant, weil sie insgesamt 41 unterschiedliche Todesursachen ausweist und bis 1780 zurückreicht. Der Nachteil ist, dass die Interpretierbarkeit einzelner Todesursachen-Angaben zweifelhaft ist. Außerdem liegen die Werte nur im Abstand von jeweils 10 Jahren vor.  Die folgenden Aussagen haben deshalb einen hypothetischen Charakter. Die wichtigsten Ausgangsinformationen vermittelt SCHAUBILD 6 (im Anhang). Man sieht, dass die Entwicklung der durchschnittlichen Sterblichkeit in Berlin zwei Phasen aufwies: von dem hohen Niveau um 1790 fiel sie bis 1820 um rd. ein Drittel. Bis 1830 stieg sie erneut auf ein relativ hohes Niveau, fiel dann aber bis 1860 um rd. 14%. Fasst man,  gemäß der bereits erwähnten Systematik der Preußischen Statistik, die Akuten und  Chronischen Inneren Krankheiten jeweils zusammen, zeigt sich, dass der Verlauf der  Durchschnittssterblichkeit gut durch die Entwicklung der Chronischen Inneren  Krankheiten gespiegelt wird. Ihr Anteil an allen Todesursachen betrug um 1780 etwas über 50% und sank bis 1860 auf rd. 44%. Damit blieben die Chronischen Inneren Krankheiten die beherrschende Gruppe von Todesursachen. Ihr Rückgang „erklärt“ zwei Drittel des gesamten Sterblichkeitsrückgangs zwischen 1780 und 1860.

 

Von 1790 – 1820 wurde das Absinken der Sterblichkeit zu etwa 10% auch von der etwas weniger gewichtigen Gruppe der Akuten Inneren Krankheiten mitgetragen, deren Sterblichkeitsziffer sich während dieses Zeitraums auf rd. die Hälfte reduzierte.  Allerdings fand dann nach 1820 der auch im Beispiel des preußischen Gesamtstaats beobachtete Anstieg der Sterblichkeit an diesen Krankheiten statt, der den trendmäßigen Rückgang der Chronischen Inneren Krankheiten teilweise kompensierte, und zwar mit einem negativen Beitrag von rd. 36%.

 

Von besonderem Interesse sind nun die einzelnen Todesursachen, die in den beiden größeren Gruppen zusammengefasst wurden. Die entsprechenden Informationen enthält TABELLE 3 (im Anhang). Blickt man zunächst auf die Chronischen Inneren Krankheiten, fallen vier Todesursachen auf, die zu Beginn des Untersuchungszeitraums wie auch an dessen Ende jeweils das größte Gewicht besaßen: die Lungen- und Halsschwindsucht, gefolgt von der Abzehrung, den Krämpfen und schließlich der Bauch- und allgemeinen Wassersucht. Auffällig ist, dass die Lungen- und Halsschwindsucht nicht das beschriebene Verlaufsmuster der Chronischen Inneren  Krankheiten bestimmte, sondern selbst einen U-förmigen Verlauf aufwies: Sie hatte  1780 etwa dasselbe Niveau wie 1860 und wies den niedrigsten Wert um 1810 auf.  Das Entwicklungsmuster der Chronischen Inneren Krankheiten scheint vielmehr von den drei anderen Komponenten bestimmt worden zu sein, vom Rückgang der Sterblichkeit an Abzehrung, an Krämpfen und an Bauchwassersucht. Diese drei Todesursachen bezeichnen allerdings sämtlich keine identifizierbaren Krankheiten, sondern Symptome. Deshalb ist nicht angebbar, welche Veränderungen des Krankheits-Panoramas sich hinter dem Rückgang der Gestorbenenanteile dieser drei Todesursachen verbergen. Möglicherweise handelte es sich auch primär um Veränderungen der Wahrnehmung von Krankheiten bzw. um einen Wandel der Diagnostik.

 

Bei den Akuten Inneren Krankheiten ist die Situation etwas unübersichtlicher, da mehrere Todesursachen annähernd gleich große Gestorbenenanteile auf sich vereinigten. Besonders auffällig ist der starke Rückgang der Pocken seit dem frühen 19. Jahrhundert. Während dieser Zeit rückläufig war auch der Gestorbenenanteil des  gastrisch-nervösen Fiebers. Ihren Anteil langfristig gesteigert haben die Entzündungen der Lunge und des Brustfells, ebenso die Todesursache Gehirnentzündung bzw. hitzige Gehirnhöhlen-Wassersucht und schließlich die Entzündungen des Halses und der Luftröhre. Gestiegen ist auch der Gestorbenenanteil von Durchfall und Ruhr. Man kann diese Todesursachen mit dem Typhus und den gastrisch-nervösen Fiebern zur Gruppe der gastro-intestinalen  Infekte zusammenfassen. Sie wäre demnach die gewichtigste Gruppe von Todesursachen innerhalb der Akuten Inneren Krankheiten, deren Anteil bis zum Ende des Untersuchungszeitraums nicht trendmäßig zurückgegangen ist.  Gemeinsam mit den Entzündungen, besonders der Atemwege, erklären sie den tendenziellen Anstieg der Sterblichkeit an Akuten Inneren Krankheiten.

 

Berücksichtigt man allerdings, dass der relativ hohe Sterblichkeitswert für 1850 ganz offensichtlich auf eine Cholera-Epidemie zurückzuführen ist, dann muss man wohl eher von einer langfristigen Stagnation der Sterblichkeit an Akuten Inneren  Krankheiten ausgehen. Die infektiösen Kinderkrankheiten sind jedenfalls, wie an den Todesursachen Masern und Keuchhusten abzulesen, in dieser Gruppe von Todesursachen und unter Berücksichtigung der Tatsache, dass keine Altersklassen unterschieden wurden, tendenziell unwichtiger geworden.

 

Die Befunde in Bezug auf Berlin entsprechen im Großen und Ganzen den für Preußen insgesamt abgeleiteten Ergebnissen. Die Analyse der differenzierteren Sterblichkeitsstatistik hat einige zusätzliche Informationen erbracht. Besonders hinsichtlich des für die Gesamtentwicklung so wichtigen Rückgangs der Sterblichkeit an Chronischen Inneren Krankheiten wird die Interpretation infrage gestellt, dafür primär einen Rückgang der Tuberkulose-Sterblichkeit verantwortlich zu machen. Andererseits wird die Vermutung gestützt, dass vor allem Erwachsene betreffende Krankheiten die Abnahme der Sterblichkeit an Chronischen Inneren Krankheiten bewirkten. Bezüglich der Akuten Inneren Krankheiten darf angenommen werden, dass der langfristige Rückgang der Sterblichkeit an infektiösen Kinderkrankheiten, besonders an Pocken, durch die Zunahme der Sterblichkeit an Entzündungen der Atemwege und vor allem an gastro-intestinalen Infekten mindestens kompensiert wurde. Das deckt sich mit einem von Imhof geäußerten Eindruck. Nimmt man die Cholera-Jahre hinzu, dann stieg die Sterblichkeit an Akuten Inneren Krankheiten sogar bis zur Mitte des 19.  Jahrhunderts tendenziell an, bedingt durch die langfristig zunehmende Virulenz von gastro-intestinalen Infekten verschiedenster Art.

 

Während der späten 1860er und frühen 1870er Jahre stieg die Sterblichkeit in Preußen, nicht zuletzt bedingt durch die Kriege und ihre Nachwirkungen, deutlich an. Die schon erwähnten Tendenzen der Veränderungen des Todesursachen-Panoramas setzten sich beschleunigt fort, wobei neben der Cholera auch Typhus und Ruhr sowie, allerdings letztmalig, die Pocken epidemisch auftraten. Das „Zeitalter der rückläufigen großen Epidemien“ war also bis in die 1870er Jahre hinein keineswegs frei von Epidemien. Die Jahre schwerer Epidemien wurden jedoch seltener, ihre Wirkung blieb häufiger regional, wenn nicht sogar lokal begrenzt. Vor allem schlugen die Epidemien nicht mehr auf die demographische Entwicklung durch. Zudem erscheinen die großen Epidemien seit den 1870er Jahren zunehmend als Quasi-Unfälle, die schon mit den damals verfügbaren

gesellschaftlichen-medizinischen Mitteln weitgehend hätten vermieden werden

können. Das gilt z.B. für die Pocken-Epidemie von 1871/72, die auf einer allzu liberalen Handhabung der Pocken-Impfungen, vor allem im preußischen Staat, beruhte. Und noch mehr gilt das für die kürzlich von Richard Evans so gründlich und faszinierend analysierte Cholera-Epidemie in Hamburg von 1892, deren Gewalt primär auf Unterlassungssünden und die Ignoranz der Stadtregierung zurückzuführen ist.

 

Die Entwicklung seit 1875

 

Da wir seit 1875 in der Preußischen Statistik eine differenziertere und nicht zuletzt  verbesserte Nomenklatur der Todesursachen besitzen, lassen sich die grundlegenden Wandlungen des Todesursachen-Panoramas während der zweiten  Phase des „Zeitalters der rückläufigen großen Epidemien“ gut herausarbeiten. Die jährlich ausgewiesenen 30 Todesursachen wurden, der Übersichtlichkeit wegen und um langfristige Vergleiche mit der seit 1892 vorliegenden Todesursachen-Statistik des Deutschen Reichs zu ermöglichen, zu 16 Gruppen zusammengefasst, die gelegentlich auf 14 reduziert werden mussten. In TABELLE 4 (im Anhang) sind die todesursachenspezifischen Sterblichkeitsziffern sowie die Veränderungsraten und  die Erklärungsanteile der einzelnen Todesursachen für drei Stichjahre, 1876, 1910  und 1972, zusammengestellt, wobei sich die Daten 1876 auf Preußen, 1910 auf das  Deutsche Reich und 1972 auf die Bundesrepublik Deutschland beziehen. Hier interessiert zunächst nur die Periode bis 1910. Während dieses Zeitraums fiel die Durchschnittssterblichkeit um über 33%. Dies Ergebnis wurde nicht zuletzt bewirkt durch die Abnahme der Sterblichkeit an Akuten Infektionskrankheiten, besonders des Kindesalters, (= Gruppen C und D), auf die ein Viertel des durchschnittlichen Sterblichkeitsrückgangs zurückzuführen ist. Rd. ein Sechstel trug die Abnahme der Tuberkulosesterblichkeit bei. Am wichtigsten aber war der Rückgang der Verdauungskrankheiten (inkl. Typhus), auf dessen Konto rd. 41% der Abnahme der Durchschnittssterblichkeit ging.

 

Auffällig sind einige gegenläufige Tendenzen. So setzte sich die ungünstige Entwicklung bei den Infektionskrankheiten der Atemwege fort, die vermutlich schon während der ersten zwei Drittel des 19. Jahrhunderts den allgemeinen Sterblichkeitsrückgang gebremst hatten. Retardierend wirkte auch die Todesursache Neubildungen, bes. Krebs. Dass die Gruppe Sonstige Benannte Todesursachen einen Sterblichkeitsanstieg bis 1910 förderte, beruhte vor allem auf der Zunahme der Krankheiten des Nervensystems, ist aber leider im Detail nicht nachvollziehbar. Die genannten Hemmfaktoren eines fortgesetzten

Sterblichkeitsrückgangs verweisen jedenfalls bereits auf die anschließende dritte  Phase des Epidemiologischen Übergangs, in der das Sterblichkeitsgeschehen  zunehmend von degenerativen und gesellschaftlich bedingten bzw. durch solche  Krankheiten bestimmt wird, die stark von der privaten Lebensführung der  Menschen beeinflusst werden.

 

 

Veränderungstendenzen des Todesursachenpanoramas seit dem Ersten Weltkrieg

 

Im 20. Jahrhundert ergeben sich natürlich völlig neue Möglichkeiten einer detaillierten Untersuchung der langfristigen Veränderungen des Todesursachen- Panoramas. Seit 1892 bemühte sich das Kaiserliche Gesundheitsamt um eine reichseinheitliche Todesursachen-Statistik, die zugleich internationalen Absprachen genügen sollte. Während des letzten Jahrzehnts vor dem Ersten Weltkrieg wurde diese Statistik immer vollständiger. Allerdings begnügte sie sich immer noch mit relativ groben gruppenmäßigen Zusammenfassungen der Todesursachen.  Angesichts der bereits erwähnten, noch in der Bundesrepublik häufig geäußerten Kritik an der inzwischen sehr differenzierten Todesursachen-Statistik aufgrund der Unsicherheit einzelner Diagnosen, kann diese Not einer relativ undifferenzierten Statistik aber auch aus den oben dargelegten Gründen als Tugend gelten. Da zudem eine Vergleichbarkeit mit den Daten für das späte 19. Jahrhundert gewährleistet werden sollte, wurde die am preußischen Material entwickelte Gruppeneinteilung der Todesursachen auch für das 20. Jahrhundert beibehalten. Die komprimierten Ergebnisse eines solchen Vergleichs fasst die TABELLE 4 (im Anhang) zusammen. Das Schlussjahr 1972 wurde gewählt, weil eine Fortschreibung der Gruppeneinteilung bis Ende des Jahrhunderts aufgrund der letzten Revisionen der ICD (des international gültigen Klassifikationsschemas für Todesursachen) nicht mehr möglich erscheint.

 

Über diesen langen Zeitraum (1910 bis 1972) reduzierte sich die durchschnittliche Sterblichkeit um mehr als die Hälfte. Die schon für das letzte Drittel des 19. Jahrhunderts

hervorgehobenen Tendenzen des Wandels des Todesursachen-Panoramas setzten sich überwiegend fort. Der Rückgang der Sterblichkeit an Akuten Infektionskrankheiten und an Tuberkulose „erklärt“ etwa 45% des durchschnittlichen Sterblichkeitsrückgangs.  Fast 38% trug der Rückgang der Sterblichkeit an Gastro-intestinalen Infekten (inkl.  Typhus) bei und fast 14% gehen auf Konto des Rückgangs der Sterblichkeit an Angeborener Lebensschwäche. Die beiden zuletzt genannten Gruppen von Todesursachen betrafen vornehmlich das Säuglingsalter. Ihr hoher Beitrag zum durchschnittlichen Sterblichkeitsrückgang ist Ausdruck des dramatischen Rückgangs der Säuglingssterblichkeit seit Beginn des 20. Jahrhunderts. Als gegenläufige, den durchschnittlichen Sterblichkeitsrückgang tendenziell aufhaltende Todesursachen treten hervor die Herz- und Kreislaufkrankheiten sowie die Neubildungen (hauptsächlich Krebs). Die langfristige Zunahme der Sterblichkeit an diesen Todesursachen hat im Aggregat der Gesamtsterblichkeit immerhin ein Gewicht von fast 40%. Diese Entwicklungen setzten erst unmittelbar vor dem Ersten Weltkrieg zögernd ein und beschleunigten sich seitdem, bes. seit 1950. Dennoch konnten sie während des 20. Jahrhunderts den fortgesetzten Fall der

durchschnittlichen Sterblichkeit nicht verhindern. Auf diese beiden Gruppen von  Todesursachen sowie auf die ebenfalls den Sterblichkeitsrückgang aufhaltende,  wenn auch nicht so gewichtige Todesursache Unfälle bezieht sich die Bezeichnung  der nach dem Ende des Ersten Weltkriegs sich durchsetzenden Phase des  Epidemiologischen Übergangs als „Zeitalter der gesellschaftlich bedingten  Krankheiten“. Ob allerdings die Dramatisierung, die die Zunahme der Sterblichkeit an Herz- und Kreislaufkrankheiten sowie an Neubildungen, besonders an Krebs, während der letzten Jahrzehnte erfahren hat, gerechtfertigt erscheint, soll im Folgenden anhand einiger differenzierter epidemiologischer Maße geprüft werden.  Ein solches Maß ist das durchschnittliche oder mittlere Sterbealter.

 

 

Zum Mittleren Sterbealter

 

Das Mittlere Sterbealter pro Todesursache ist eine selten berechnete, aber relativ anschauliche und komplexe Messziffer. Sie bringt zum Ausdruck, wie sich im  Durchschnitt der betrachteten Population das Alter der an bestimmten Krankheiten  gestorbenen Menschen verändert hat, und gestattet es somit, die Bedeutung  einzelner Krankheiten für das Sterblichkeitsgeschehen über den schlichten  Gestorbenenanteil hinaus zu erfassen. Da das Mittlere Sterbealter stets durch die Altersstruktur der Bevölkerung beeinflusst wird, ist es bei dieser Messziffer unumgänglich, eine Altersstandardisierung vorzunehmen. Die langfristigen Veränderungstendenzen diskutiere ich anhand von Berechnungen, bei denen ich für jedes Stichjahr mit der Altersstruktur der jeweiligen Sterbetafelpopulation standardisiert habe. Dadurch entspricht das Mittlere Sterbealter der Gesamtpopulation jeweils der Lebenserwartung eines Neugeborenen. Man erhält einen impliziten Maßstab für die Bedrohlichkeit der betreffenden Krankheiten:  Erreichen die Menschen, ehe sie an bestimmten Krankheiten sterben, durchschnittlich ein Alter, das über der Lebenserwartung bei der Geburt liegt,  scheint kaum ein Grund für eine besondere Furcht vor diesen Krankheiten zu bestehen. Anders, wenn sich herausstellt, dass eine Krankheit typischerweise Menschen frühzeitig, sozusagen in der Blüte ihrer Jahre, dahinrafft.

 

In SCHAUBILD 7 (im Anhang) ist zu erkennen, dass bereits 1901 Herz-/ Kreislaufkrankheiten (Gruppe I) und Krebs (Gruppe M) bei Männern durchschnittlich erst mit über 60 Jahren als Todesursache wirksam wurden. Das durchschnittliche Alter, mit dem man an Herz-/ Kreislaufkrankheiten oder an Neubildungen (Krebs) starb, lag demnach schon zu Beginn des Jahrhunderts recht hoch und erhöhte sich im Zeitablauf kontinuierlich. Dabei verringerte sich der Abstand zur Mittleren Lebenserwartung nur leicht; stets blieb das Mittlere Sterbealter deutlich über der durchschnittlichen Lebenserwartung. Zu einer Dramatisierung dieser Todesursachen als Killer besteht kein Anlass. Hier deuten sich im übrigen Erfolge des medizinischen Systems an, vor allem in der Nachkriegszeit, die es ermöglichten, das Mittlere Sterbealter an Herz-/ Kreislaufkrankheiten ständig weiter zu erhöhen.

 

Hinzuweisen ist auf einige Veränderungen des Mittleren Sterbealters bei Todesursachen, die in SCHAUBILD 8 (im Anhang) dargestellt sind. Hier deuten sich u. a.  Wandlungen des Charakters bestimmter Krankheiten an. Das gilt z. B. für die Krankheiten des Verdauungssystems (Gruppe L): Waren das bis 1901 eindeutig Magen-Darm-Infekte des Kindesalters, bes. von Säuglingen (vgl. dazu auch SCHAUBILD 9 im Anhang), muss man sich wohl seit 1925 ganz andere Krankheiten darunter  vorstellen, die erst in höherem Alter als Todesursache wirksam wurden.

 

Das Mittlere Sterbealter an ausgewählten Todesursachen ergab ein differenziertes Bild wichtiger Tendenzen des Epidemiologischen Übergangs seit dem späten 19.  Jahrhundert. Deutlich wurde u. a., dass bestimmte Todesursachen ihren Charakter grundsätzlich änderten, hier exemplifiziert anhand der Verdauungskrankheiten.  Andererseits ließ sich zeigen, dass die Todesursachen Herz-/Kreislauf-Krankheiten und Neubildungen (Krebs) doch wohl nicht die gesellschaftliche Bedrohlichkeit besitzen, die ihnen gern zugesprochen wird, jedenfalls dann nicht, wenn wir akzeptieren, dass wir nicht unsterblich sind (auch wenn uns das schwerfällt). Im Großen und Ganzen handelt es sich um die Todesursachen, die uns eben im hohen Alter treffen. Sie reißen uns nur in Ausnahmefällen unverhofft aus der „Mitte des Lebens“ hinweg. Dieser Befund wird im Folgenden weiter konkretisiert und in spezifischer Weise gewichtet, indem die auf das Konto bestimmter Todesursachen gehenden  sogenannten Verlorenen Lebensjahre berechnet werden.

 

 

 

Zu den Verlorenen Lebensjahren infolge vorzeitigen Todes an bestimmten Krankheiten

 

Die Verlorenen Lebensjahre scheinen begrifflich das Gegenstück zu den Gewonnenen Jahren zu sein, die Arthur Imhof seit Beginn der 1980er Jahre diskutiert.  Allerdings betrachtet Imhof schlicht die Zunahme der Lebenserwartung. Für die teilweise ja durchaus gegenläufigen Entwicklungen, die dennoch diese Zunahme bewirkten, bietet der Indikator Lebenserwartung keinerlei Anhaltspunkte. Dagegen stellen die Verlorenen Lebensjahre eine aussagefähige Maßzahl für das Resultat von Veränderungen des Sterblichkeitsgeschehens dar. Ausgehend von der altersspezifischen Sterblichkeit an bestimmten Krankheiten wird ermittelt, wie groß  die Differenz zwischen dem tatsächlich realisierten Sterbealter und der ferneren  Lebenserwartung in der betreffenden Altersklasse ist; und das pro Todesursache.  Die Verlorenen Jahre können primär als Maß für den entgangenen ökonomischen Nutzen potenziell zu lebender weiterer Jahre aufgefasst werden, die jedoch aufgrund des vorherrschenden Mortalitätsgeschehens entfallen. Deshalb ist das Maß in der epidemiologischen Effizienzkontrolle von spezifischen gesundheitspolitischen Maßnahmen sehr beliebt. Es impliziert, das ist nicht zu verkennen, eine ökonomische Verwertungsperspektive, der man sich jedoch nicht blind ergeben muss.

 

Die Zahl der Verlorenen Jahre sinkt demnach in dem Umfang, in dem bestimmte Krankheiten als Todesursachen seltener werden und/oder in dem weniger Menschen in jungen Jahren von Krankheiten hinweggerafft werden. Die Messziffer setzt eine strikte Altersstandardisierung voraus. Als Maßstab für diejenigen Jahre, die als „verloren“ bezeichnet werden können, dient in meinen Berechnungen die Mittlere Fernere Lebenserwartung der einzelnen Altersklassen lt. jeweiliger Sterbetafel (sogenanntes Lebenserwartungs-Konzept, LEK). Ob eine Reduzierung  der Verlorenen Lebensjahre (pro Todesursache) auf einer Verringerung der Letalität  der betreffenden Krankheit oder auf einer Verlagerung der Inzidenz in höhere  Altersklassen beruht, lässt sich durch Vergleich mit dem Mittleren Sterbealter bzw.  mit den altersspezifischen Sterblichkeitsziffern ermitteln.

 

In den TABELLEN 5-7 (im Anhang) habe ich die wichtigsten Ergebnisse der hier erstmalig für die lange Periode von 1910 bis 1972 in Deutschland durchgeführten Berechnungen von Verlorenen Lebensjahren dargestellt. Die absoluten Werte der Verlorenen

Lebensjahre sind, für sich genommen, irrelevant: sie stellen nicht interpretierbare Kunstprodukte dar. Einen Sinn ergeben sie stets nur im Vergleich, entweder zwischen verschiedenen Todesursachen oder über die Zeit hin. In Bezug auf  TABELLE 5 sei hervorgehoben, dass sich die Summe der Verlorenen Jahre von 1910  bis 1972 stark verringert hat – ein Befund der mit der Entwicklung der standardisierten Sterblichkeitsziffern übereinstimmt. Die Abnahme betrug bei den Männern 67%, bei den Frauen 75%.

 

Aufschlussreich sind die Zuwachsraten für verschiedene Teilperioden. Mehr als die Hälfte des Fortschritts wurde, das mag erstaunen, bereits in der Teilperiode bis 1938 erzielt; und auch bis 1925 verringerten sich die Verlorenen Lebensjahre schon jeweils um 27% (Männer) bzw. 30% (Frauen). D. h., in der kurzen Periode von 1910  bis 1925, die zudem durch den Ersten Weltkrieg, die Revolutions- und die  Inflationsjahre belastet war, fand mehr als ein Drittel des bis in die 1970er Jahre realisierten Rückgangs der Verlorenen Lebensjahre statt. Und in den 28 Jahren von 1910-1938 war der gesundheitliche Zugewinn in Form von zusätzlich zu durchlebenden Jahren bei Männern und Frauen jeweils größer als in den 22 Jahren Bundesrepublik von 1950 bis 1972. Das spricht für eine erstaunliche Irrelevanz der kurativen Medizin in Bezug auf die „Volksgesundheit“ während der ersten Jahrzehnte nach dem Zweiten Weltkrieg – trotz des schon damals vom Gesundheitssystem beanspruchten rasch wachsenden Ressourcenverbrauchs. Das hat sich seit den 1970er Jahren geändert. Seitdem hat die Medizin besonders bei dem gewichtigen Killer Herz-/ Kreislaufkrankheiten große Fortschritte zu verzeichnen, die eine deutliche Erhöhung des Mittleren Sterbealters bewirkten und somit einen erheblichen Rückgang an Verlorenen Lebensjahren.

 

Hinweisen möchte ich auf die Zuwächse an Verlorenen Lebensjahren, die bis heute  bei Neubildungen/Krebs (Gruppe M) und nicht zuletzt bei Gewaltsamem Tod, d.h.  vor allem bei Unfällen (Gruppe O), stattfanden. Allerdings relativiert sich der Befund bei Krebs etwas aufgrund des gestiegenen Mittleren Sterbealters. Dagegen macht das relativ niedrige Sterbealter bei den Unfällen, das im Übrigen während der letzten Jahre durch zunehmende Konzentration auf Verkehrsunfälle weiter gesunken ist, auf ein dringendes gesundheits- bzw. gesellschaftspolitisches Problem aufmerksam.  Denn es sind ja vor allem junge Menschen, die sich da zu Tode fahren. Den Ursachen für diesen Befund kommt man näher, wenn man TABELLE 6 (im Anhang) inspiziert. Hier sind die Zuwachs- bzw. Abnahmeraten der einzelnen Todesursachen mit ihrem Anteil an den Verlorenen Lebensjahren 1910 (dazu TABELLE 7 im Anhang) gewichtet worden, um ihren jeweiligen Beitrag zur Gesamtrate bestimmen zu können. Es zeigt sich, dass bis 1925 der Rückgang der Verdauungskrankheiten (Gruppe L) den größten Beitrag zum Rückgang der Verlorenen Lebensjahre geleistet hat (ein Drittel). Darauf beruhte, wie erwähnt, die während dieser Zeit stattfindende dramatische Senkung der Säuglingssterblichkeit. Jeweils rd. 13% des Rückgangs verursachten Abnahmen der Sterblichkeit an Infektionen des Kinderalters (Gruppe C) und an Lungen-Tuberkulose (Gruppe E). Der relativ hohe Beitrag der Sonstigen benannten Todesursachen (Gruppe P) von rd. 23% dürfte dagegen primär auf Umstellungen und Verbesserungen von Diagnosen beruhen.

 

In der Nachkriegszeit kehrten sich die bis 1938 wirksamen Trends im Großen und Ganzen nicht um. Hinzuweisen ist auf die wenigen Ausnahmen. Das sind einerseits die Krankheiten der Neugeborenen (Gruppe A), die offenbar nach dem Krieg stärker unter Kontrolle gebracht werden konnten als zuvor. Darüber hinaus ergab sich eine  Trendwende bei den Akuten Infekten (Gruppen C und D), die seit dem Ende des Zweiten Weltkriegs kausal therapiert werden können (Stichwort: Antibiotika), so dass sie (trotz relativ niedrigen Anteils dieser Todesursachengruppe an der Sterblichkeit bereits um 1910) bis 1972 doch ein Beitrag zur Verringerung der  Verlorenen Lebensjahre um rd. 13% leistete.

 

Abschließend sei noch einmal auf die Todesursachen eingegangen, die die Phase 3 des Epidemiologischen Übergangs kennzeichnen. Anhand der Berechnungen in TABELLE 6 (im Anhang) konnte der früher ermittelte Befund bestätigt werden, dass die Herz-/ Kreislaufkrankheiten in der Gegenwart keine wirkliche Bedrohung darstellen. Die Entwicklung der spezifischen Sterblichkeit trug sogar bis 1972, wenn auch minimal, zu einer Verringerung der Verlorenen Lebensjahre bei (-2%). Die Entwicklung bei

Neubildungen, bes. Krebs, erhöhte zwar die Verlorenen Lebensjahre bis 1972, aber ebenfalls nur sehr geringfügig (+3%). Und auch die Sterblichkeitszunahme infolge von Unfällen, vor allem von Verkehrsunfällen, konnte die langfristige Abnahme der Verlorenen Lebensjahre nicht aufhalten (+2%). Getragen wurde der Rückgang der Verlorenen Lebensjahre von den Sterblichkeitsrückgängen bei Akuten und Chronischen Infektionskrankheiten, dabei besonders hervorzuheben die Tuberkulose (Gruppe E), die Lungen- und Brustfell-Entzündungen (Gruppe G) und  die Verdauungskrankheiten (Gruppe L).

 

Ganz anders das Bild, wenn man fragt, welche Todesursachen denn nun 1972 auf dem stark verringerten Sterblichkeitsniveau und bei gegenüber 1910 um 2/3 reduzierter Summe Verlorener Lebensjahre diese Größe „regieren“. Dann zeigt uns TABELLE 7 (im Anhang), dass es klar 4 Gruppen von Todesursachen sind: die Angeborene Lebensschwäche (Gruppe A), die Herz-/Kreislauf-Krankheiten (Gruppe I), die Neubildungen (Gruppe M) und die Unfälle (Gruppe O). Allerdings hat die Untersuchung gezeigt, dass diese 4 Todesursachengruppen ganz unterschiedlich hinsichtlich des gesellschaftlich-medizinischen Interventionsbedarfs beurteilt werden können. Dieser Interventionsbedarf erscheint in Bezug auf die große Masse der Herz-/Kreislauf-Todesfälle und die Neubildungen gering, da es sich im Wesentlichen um Zugewinne in sehr hohen Altersklassen handeln würde. Hier geht es, überspitzt formuliert, primär um eine Auseinandersetzung mit dem nachvollziehbaren, aber nicht selbstverständlichen Wunsch nach Unsterblichkeit.  Auch in Bezug auf die Angeborene Lebensschwäche kann man kaum von einem dringenden gesellschaftlichen Interventionsbedarf sprechen, denn die Säuglingssterblichkeit ist bereits minimal (mehr als 99% aller lebendgeborenen Kinder überleben das 1. Lebensjahr). Am dringlichsten erweist sich, so gesehen, der Bedarf, die Unfallrisiken zu senken. Doch das ist, erkennbar, kein medizinisch zu lösendes Problem.

 

 

Erklärungen des säkularen Sterblichkeitsrückgangs

 

Die internationale Diskussion

 

Die wahrscheinlichen Ursachen des säkularen Sterblichkeitsrückgangs werden seit langem kontrovers diskutiert. In Deutschland gibt es zwar immer noch Anhänger des sogenannten „Medizinischen Modells“, wonach der säkulare Sterblichkeitsrückgang ausschließlich oder doch primär auf Fortschritte der Medizin in Theorie und Therapie zurückgeführt wird.

 

In England und den USA ist die Diskussion dagegen seit den 1960er Jahren durch die Auseinandersetzung mit den Thesen des Sozialmediziners McKeown geprägt. Er schloss die Lücke zwischen Medizin und den Sozialwissenschaften und indem er mehrere denkbare, sich ergänzende Determinanten des Sterblichkeitsrückgangs systematisch diskutierte und gewichtete. Diese sind:

 

  1. Fortschritte in der medizinischen Versorgung und Therapie

 

  1. Verringerung der Virulenz bestimmter Krankheitserreger

 

  1. Erwerb von Immunität durch die Menschen aufgrund von natürlicher Selektion oder von genetischen Veränderungen oder durch Immunisierungsmaßnahmen

 

  1. Verbesserungen der öffentlichen und privaten Hygiene, besonders durch Ausbau der gesundheitsrelevanten Infrastruktur

 

  1. Ernährungsverbesserungen.

 

Umstritten ist immer noch, in welchem Umfang einzelne dieser Faktoren oder in bestimmter Kombination, zu welcher Zeit, direkt oder indirekt den Sterblichkeitsrückgang bestimmten. McKeown wendet eine Methode an, die er selbst als das Sherlock-Holmes-Prinzip bezeichnet: Wenn wir das Unmögliche eliminiert haben, muss das, was verbleibt, so unwahrscheinlich es erscheinen mag, die Wahrheit sein. Im Mittelpunkt der Diskussion steht bei ihm als wichtigster Block empirischer Informationen eine Statistik der Sterblichkeit in England und Wales, differenziert nach Todesursachen, für die Stichjahre 1838/54, 1901 und 1971. Nach gründlicher Prüfung der genannten Faktoren, denen er jeweils ganze Kapitel in seinen Büchern widmete, kommt er zu folgendem Resultat:

 

ad 1. Medizinische Versorgung bzw. Therapie hatten vor Entwicklung/ Einführung der Antibiotika seit den späten 1930er Jahren, schwerpunktmäßig ja erst nach 1945, kaum unmittelbaren (kausal zurechenbaren) Einfluss auf den Sterblichkeitsrückgang.

 

ad 2. Zufällige Veränderungen der Erreger von Infektionskrankheiten stellen eine willkürliche und wissenschaftlich unbefriedigende Erklärung des großen Wandels des Sterblichkeitsgeschehens dar, die zudem empirisch ungesichert ist. Viele dieser Krankheiten sind im Übrigen in den weniger entwickelten Ländern nach wie vor präsent. Warum sollten die Erreger nur in den entwickelten Industrienationen ihren Charakter geändert haben? Allerdings mag es Ausnahmen geben, so z. B. das Scharlachfieber, das aus unerklärlichen Gründen im Laufe des 19. Jahrhunderts an Virulenz verloren hat.

 

ad 3. Die gezielte Immunisierung durch Impfung war nur im Fall der Pocken seit dem frühen 19. Jahrhundert auf breiterer Basis erfolgreich. Dadurch wurden die regelmäßigen Pocken-Epidemien in vielen Teilen Europas seltener und verloren an Gewicht. McKeown schließt jedoch aus, dass das Nachlassen der Pockeninzidenz und -letalität den Trend der Sterblichkeitsentwicklung bestimmt haben könne. Dazu war ihr Gewicht innerhalb des Todesursachen-Spektrums zu gering und wurde – wie Imhof gezeigt hat – praktisch sofort durch andere Krankheiten, besonders durch die Magen-Darm-Infekte, ersetzt.

 

ad 4. Hygienemaßnahmen (bes. im Sinne der Städte-Assanierung) wurden erst nach der Mitte des 19. Jahrhunderts wirksam, verursachten jedoch rd. 1/5 der in der zweiten Hälfte des 19. Jahrhunderts erfolgten Sterblichkeitssenkung.

 

ad 5. Den am frühesten einsetzenden und während des ganzen 18. und 19.  Jahrhunderts anhaltenden Einfluss auf den Sterblichkeitsrückgang übten nach McKeown Verbesserungen des Ernährungszustands aus. Für das wichtigste Indiz hält er in diesem Zusammenhang den Rückgang der Tuberkulose-Sterblichkeit. Erste einschlägige Statistiken liegen ihm zwar erst seit 1838 vor. Von da an war jedoch die rückläufige Tuberkulose-Inzidenz für einen großen Teil des Rückgangs der Durchschnittssterblichkeit verantwortlich. Und zwar ergibt sich für die Periode 1838-1901, dass der Rückgang der Tuberkulose-Sterblichkeit (-56%) 33% des  Rückgangs der Durchschnitts-Sterblichkeit

(-22%) bewirkt hat.

 

McKeown argumentiert nun wie folgt: Für ihn ist ausgemacht, dass die Sterblichkeit während des 18. Jahrhunderts sank (auch das übrigens nur eine Vermutung, die sich auf eine Analogie zu den verfügbaren schwedischen Daten stützt). Tuberkulose war vermutlich auch im 17. und 18. Jahrhundert ein major killer. Seit Beginn der Todesursachen-Registrierung in England und Wales, also seit 1838, sinkt die Tuberkulose-Sterblichkeit. Deshalb, so folgert er, liegt die Vermutung auf der Hand, dass die Tuberkulose-Sterblichkeit auch in den Jahrzehnten zuvor rückläufig war. Als plausibelste Ursache für den globalen Sterblichkeitsrückgang im 18. Jahrhundert und für den von der Tuberkulose angeführten weiteren Rückgang während des 19. Jahrhunderts kommt nach McKeown nur ein verbesserter Ernährungszustand aufgrund gewachsener Agrarproduktivität und Leistungsfähigkeit des Transportsektors in Betracht. Im späten 19. Jahrhundert wurde der Einfluss der Ernährungs-Komponente weiter verstärkt durch die Entwicklung der Lebensmittelhygiene, besonders durch die Pasteurisierung. Sie bewirkte u. a., dass die Säuglingssterblichkeit, die zwischen 20% und 30% der Gesamtsterblichkeit ausmachte, seit der Wende zum 20. Jahrhundert drastisch zurückging, nicht zuletzt aufgrund von Verbesserungen der künstlichen Säuglingsernährung. Dazu trug allerdings auch der im späten 19. Jahrhundert einsetzende säkulare Geburtenrückgang bei.

 

Soweit ein Blick auf die Thesen McKeowns, die bis heute sehr einflussreich sind. Ihre  Überzeugungskraft gewinnen sie vor allem durch die deutliche Einschränkung der  Bedeutung des oben genannten „Medizinischen Modells“, das den Blick für die großen sozialhistorischen und demographischen Veränderungen und deren  Auswirkungen auf die Sterblichkeit jahrzehntelang verstellt hatte. Allerdings ist auch durchaus Kritik gegenüber McKeown vorgebracht worden, vor allem gegen die starke Betonung der Ernährungs-Komponente. Auch wurde seine Methode infrage gestellt.

 

Die derzeit wohl gründlichste Kritik des Ansatzes, der Methoden und der Ergebnisse von McKeown hat Szreter vorgelegt. Auf sie sei deshalb im Folgenden exemplarisch eingegangen. Szreter charakterisiert sein eigenes Vorgehen wie folgt: Zunächst wird das Timing des Sterblichkeitsrückgangs überprüft. Dabei spielt eine wichtige Rolle die durch die Forschungsergebnisse von Wrigley und Schofield zur englischen Bevölkerungsentwicklung zwischen 1541 und 1871 neu eröffnete Möglichkeit, bestimmte Sterblichkeitstrends bis in das 17. Jahrhundert zurück zu verfolgen, während sich McKeown mit schlecht gestützten Annahmen begnügen musste.  Außerdem wird betont, dass städtische und ländliche Verhältnisse während des 19.  Jahrhunderts deutlich divergierten und dass die Sterblichkeitsentwicklung während  der zweiten Hälfte des 19. Jahrhunderts von den städtischen Verhältnissen bzw. von  den Veränderungen der Raumstrukturen zugunsten wachsender  Bevölkerungsanteile der Städte dominiert wurde.

 

Vor diesem Hintergrund kann nun gezeigt werden, dass den öffentlichen Hygienemaßnahmen die Schlüsselrolle bei der Bekämpfung derjenigen Krankheiten  zukam, die während des zweiten Drittels des 19. Jahrhunderts die rasch wachsenden  Städte heimsuchten und dort zunächst die Sterblichkeit in die Höhe trieben.  Politische Aktivitäten und die aus ihnen resultierenden präventiven Hygienemaßnahmen (besonders Ausbau der gesundheitsrelevanten Infrastruktur) leiteten die Sterblichkeitssenkung seit ca. 1870 ein und trugen sie bis zur Jahrhundertwende.

 

Damit wird der „unsichtbaren Hand“ eines globalen steigenden Lebensstandards bzw. verbesserter Ernährung eine Absage erteilt. Diese Faktoren waren zwar nicht unwichtig, jedoch unterstützten sie nur die durch die präventive Hygiene eingeleiteten Entwicklungen.

 

Die Detailkritik an McKeown betrifft vor allem seine übermäßige und einseitige Betonung des Rückgangs der Tuberkulose-Sterblichkeit. Der Hauptkritikpunkt ist in diesem Zusammenhang, für die von McKeown behauptete Rückläufigkeit der Tuberkulose-Sterblichkeit im 18. und frühen 19. Jahrhundert fehle schlicht die statistische Evidenz.

Darüber hinaus nimmt Szreter an, dass zwischen Bronchitis/Influenza und Tuberkulose Abgrenzungsprobleme bestanden; ein Teil des späteren Tuberkulose– Rückgangs sei auf veränderte Diagnosen zurückzuführen. Der seit den späten 1860er Jahren sichtbare Tuberkulose-Rückgang und der gleichzeitige Anstieg der Sterblichkeit an Bronchitis bzw. Influenza müssten gegeneinander aufgerechnet werden. Dann reduziert sich der Beitrag, der sogenannten air-borne diseases (der durch Tröpfchen-Infektion übertragenen Krankheiten) zum Sterblichkeitsrückgang auf etwa 20%. Das ist aber nur wenig mehr als der gemeinsame Beitrag des Rückgangs von bestimmten water-borne diseases wie Typhus, Ruhr und Cholera. Da der Rückgang der water-borne diseases früher einsetzte als der Tuberkulose-Rückgang sollte letzterer nicht als originärer und primärer Faktor, sondern als sekundärer, abgeleiteter Effekt der sanitären Reformen betrachtet werden.

 

Die Sanitärreformen gewinnen in dieser Argumentation eine so große Bedeutung, weil sie nicht nur die water-borne diseases reduzierten, sondern auch vielen air-borne diseases, besonders der Tuberkulose, sozusagen den Boden entzogen. Szreter geht es darum, die Wichtigkeit von Gesundheitspolitik, vor allem von öffentlicher Hygienepolitik, zu betonen. Ob es sich nun um Infrastrukturausbau oder um Hygieneaufklärung handelte: in jedem Fall waren Aktivitäten notwendig, um Reaktionen auf der Seite der Sterblichkeit auszulösen.

 

Weniger überzeugend sind die Implikationen dieser Kritik für die Erklärung des Sterblichkeitsrückgangs im 18. und frühen 19. Jahrhundert. Hier stützt sich Szreter auf Wrigley und Schofield, die den Fruchtbarkeitsanstieg für das Bevölkerungswachstum verantwortlich machen und die Ernährungshypothese von McKeown ablehnen. Dieser Kritik ist jedoch durch die oben erwähnten Forschungsergebnisse der Height-Health-Forschung (Robert Fogel, Roderick Floud,  John Komlos u. a.) weitgehend der Boden entzogen worden.

 

Ein Beispiel für die Fruchtbarkeit dieses Ansatzes und zugleich für die Art und Weise, wie der zentrale Indikator Nutritional Status gehandhabt wird, ist die von Fogel geleistete Auflösung des sogenannten Peerage Paradoxons. Das Peerage Paradoxon besteht darin, dass die Lebenserwartung von Kindern des englischen Adels bis zur Mitte des 18. Jahrhunderts bei der Geburt nicht höher war als die der  Durchschnittsbevölkerung, obwohl doch die Ernährungsbedingungen im Adel  prinzipiell sehr viel besser gewesen sind als in der Durchschnittsbevölkerung. Dies Phänomen wird häufig als Argument gegen die These McKeowns angeführt, vor allem Ernährungsverbesserungen hätten den säkularen Sterblichkeitsrückgang bewirkt. Fogel verdeutlicht, dass das Paradoxon nur dann nicht lösbar erscheint, wenn man mit Ernährung ausschließlich Nahrungsmengen meint. Man müsse jedoch auf die konkreten Formen der Ernährung und die Zusammensetzung der Nahrung, speziell im Säuglings- und Kleinkindalter, eingehen – und da unterschieden sich Adel und einfaches Volk nicht wesentlich: Beider Säuglinge wurden vor allem mit Papp (Mehlbrei) oder Wassergrütze aufgezogen. Außerdem wurden die Säuglinge des Adels stark schon im vorgeburtlichen Stadium durch exzessiven

Alkoholgenuss der Mütter geschädigt. Toxische Substanzen, wie Alkohol, Opium und übergroße Mengen Salz, wurden den Säuglingen des Adels besonders häufig verabreicht. Hinzu kamen im Kleinkindalter Formen der Fehlernährung, von denen adlige Kinder stärker als die der Unterschichten betroffen waren, nämlich die durch geschmackliche Vorurteile gesteuerte Vermeidung von Gemüse und Milchprodukten.  Die Nahrung im Adel erscheint typischerweise überlegen hinsichtlich des Kalorien- und Proteingehalts, war jedoch durch einen Mangel an den Vitaminen A, C und D gekennzeichnet.

 

Soweit eine Illustration für die Handhabung des Konzepts des Nutritional Status. Ein Hauptergebnis der Height-Health-Forschung ist nun aber, dass sich während des 18. und frühen 19. Jahrhunderts der Nutritional Status großer Populationen in den USA, in England und in Österreich deutlich verbessert hat – abzulesen an der starken Zunahme der durchschnittlichen Körpergröße erwachsener Männer. Damit ist für das Ernährungsargument von McKeown die bisher fehlende Evidenz gewonnen worden: Verbesserungen des Ernährungszustands im Bevölkerungsdurchschnitt dürften der wichtigste Faktor für den Sterblichkeitsrückgang im 18. Jahrhundert und im ersten Drittel des 19. Jahrhunderts gewesen sein.

 

Im Übrigen belegen meine eigenen Forschungen, dass für große Teile Deutschlands ebenfalls seit den 1780er Jahren langfristig sinkende Trends der Sterblichkeit anzunehmen sind. Vieles spricht dafür, diese Entwicklungen primär auf Ernährungsverbesserungen zurückzuführen. Weitere Einflüsse (z. B. eine starke Reduzierung der Insekten als potenzielle Krankheitsüberträger infolge von

Drainagemaßnahmen usw.) werden in der Literatur diskutiert. Deren Bedeutung für den Sterblichkeitsrückgang wurde jedoch bisher empirisch nicht stringent untermauert. Sie müssen deshalb als hypothetisch gelten. Außerdem ist nicht zu übersehen, dass die These einer langfristig verbesserten Ernährung durch diese Argumente eher gestützt, aber nicht ersetzt wird.

 

Ein weiteres wichtiges Ergebnis der Height-Health-Studien, das erst aufgrund der konsistenten Messungen vom frühen 18. Jahrhundert bis in die Gegenwart so deutlich zutage treten konnte, ist der vorübergehende Rückgang der durchschnittlichen Körpergrößen und der Wiederanstieg der Sterblichkeit um die Mitte des 19. Jahrhunderts. Das löste eine neue Runde in der bereits seit Jahrzehnten anhaltenden Kontroverse über die Entwicklung des Lebensstandards im Gefolge der Industriellen Revolution aus. Am ausgeprägtesten ist in dieser Beziehung die Diskussion der englischen Verhältnisse, weil bisher akzeptierte Resultate infrage gestellt werden. Die etablierte Hypothese lautete: Während der zweiten Phase der Industriellen Revolution, ca. ab 1820, stiegen in England die Reallöhne der Arbeiter. Nun zeigen die Ergebnisse der Height-Health-Forschungen, dass zur selben  Zeit etwa 2 Generationen lang jedoch die Körpergrößen durchschnittlich  zurückgingen und die Sterblichkeit anstieg. Wie soll das möglich sein?  In den Blickpunkt werden durch dies scheinbare Paradox die speziellen Gesundheitsschädigungen in den industriellen Agglomerationen gerückt. Jeffrey Williamson, der sich in dieser Diskussion besonders engagiert hat, drückte den  bisher zu wenig berücksichtigten Sachverhalt im Titel eines seiner Aufsätze mit dem  Bild von den „Urban Disamenities and Dark Satanic Mills“ aus. Inzwischen setzt sich  die Interpretation durch, dass die tatsächlich während der ersten Hälfte des 19.  Jahrhunderts in England durchschnittlich gestiegenen Reallöhne nicht den Stress der neuartigen und oft desaströsen Lebens- und Arbeitsbedingungen in den industriellen Agglomerationen  kompensieren konnten; die Gesundheitsschädigungen schlugen vielmehr voll auf die  Sterblichkeit wie auch auf die Körpergröße (vom Säuglingsalter an) durch. Das wirft nun allerdings die Frage umso dringlicher auf, wodurch und seit wann diese Gesundheitsschädigungen wieder abgebaut bzw. hinsichtlich ihrer Effekte auf Körpergröße und Sterblichkeit kompensiert wurden?

 

Ganz klar ist, dass die Bedingungen für die Wiederaufnahme des Größenwachstums bzw. für den erneuten säkularen Sterblichkeitsrückgang andere gewesen sind als im späten 18.  Jahrhundert. In der Diskussion um die Urban Disamenities wird für England vor allem dem Faktor Sanitation Movement und in dessen Gefolge dem Ausbau der gesundheitsrelevanten Infrastruktur sowie der Verbreitung von Maximen einer verbesserten öffentlichen und Individualhygiene eine Schlüsselrolle zugemessen. Auch McKeown hat diesem Faktorenbündel ja, wie oben zitiert, für das späte 19. Jahrhundert eine größere Bedeutung beigemessen, indem er es pauschal für ca. 1/5 des Sterblichkeitsrückgangs verantwortlich machte.

 

Soweit der skizzenhafte Überblick über die internationale Diskussion von Ursachen  des säkularen Sterblichkeitsrückgangs im 18. und 19. Jahrhundert. Nicht unproblematisch erscheint mir nun allerdings, wie der Indikator Körpergröße bzw.  Nutritional Status als Erklärungsfaktor für den Sterblichkeitsrückgang im 20.  Jahrhundert eingesetzt wird. Fogel bietet auf der Basis von Daten für 7 europäische Staaten zwischen 1880 und 1971, die Floud erarbeitet hat, folgendes Erklärungsmodell an:

 

ln ST = 30.788 – 5.385 ln H – 0.036 ln Y – 0.007 T, t =     (5.292)  (-4.534)     (-0.382)     (-4.040) dabei sind ST = rohe Sterblichkeitsziffer

 

H  = Größe erwachsener Männer  Y  = reales Pro-Kopf-Einkommen  T  = Zeit-Term (1880 = 1)

 

In diesem Regressions-Modell wird der Rückgang der Sterblichkeit erklärt durch zwei signifikante Faktoren: erstens durch die Zunahme der Körpergröße, die für Nutritional Status steht, zweitens durch die Zeit. Mir erscheint dieser Ansatz allerdings zu grob, gemessen an der Informationsfülle, die uns allein schon im Bereich der Sozial-, Medizinal-, Bevölkerungs- und Wirtschaftsstatistik seit Ende des 19. Jahrhunderts zur Verfügung steht. Während man für das 18. und frühe  19. Jahrhundert den Nutritional Status, differenziert erläutert, für eine interessante und fruchtbare Erklärende halten kann, bietet er, ohne mit anderen inhaltlich spezifizierten Variablen kombiniert und durch diese dann wahrscheinlich relativiert  zu werden, eine Catch-All- oder besser: eine Schlage-tot-Erklärung. Darüber hinaus dürfte der Ansatz erheblich durch die Interdependenz der Erklärenden verzerrt sein, besonders durch die Multikollinearität zwischen Körpergröße und Pro-Kopf- Einkommen. Ich halte den Ansatz schlicht für inadäquat.

 

Fruchtbarer erscheint es mir, zunächst das Explanans, die Sterblichkeit, stärker zu differenzieren. Dabei ist vor allem an die Aufgliederung nach Geschlecht, Altersklassen und Todesursachen zu denken. Man kann dann rasch erkennen, dass die großen Unterschiede, die sich ergeben, und zwar sowohl hinsichtlich des Niveaus der Sterblichkeit wie hinsichtlich ihrer Veränderungen während des 20.  Jahrhunderts, meist ganz unterschiedlich ansetzende Erklärungen nahelegen.

 

Elemente einer Erklärung des Sterblichkeitsrückgangs in Deutschland seit den 1870er Jahren

 

Im Folgenden wird keine generelle und umfassende Erklärung des Sterblichkeitsrückgangs seit dem späten 19. Jahrhundert angestrebt. Vielmehr rückte der epidemiologische Ansatz die zu unterschiedlichen Zeitpunkten jeweils besonders bedeutsamen Gruppen von Todesursachen und deren altersspezifische Inzidenz in den Mittelpunkt. Auf diese Weise wurden wichtige Aspekte des globalen Prozesses sichtbar, die jeweils spezifische Erklärungen erfordern und zugleich auch ermöglichen.

 

Oben war deutlich geworden, dass von 1910 bis 1972 der Rückgang der Verdauungskrankheiten (Gruppe L) den größten Beitrag zum Rückgang der Verlorenen Lebensjahre geleistet hat. Am stärksten war dieser Beitrag in der Phase bis 1925 (ein Drittel). Darauf beruhte wiederum die während dieser Zeit stattfindende dramatische Senkung der Säuglingssterblichkeit.

 

Hinsichtlich der Ursachen dieser Entwicklung lässt sich nun behaupten: Das Verschwinden der Säuglinge und Kleinkinder aus der Gruppe der an Verdauungskrankheiten Gestorbenen ist ein Beleg für die Erfolge bei der Bekämpfung der Säuglingssterblichkeit während der ersten beiden Jahrzehnte des 20. Jahrhunderts. Die wichtigsten Maßnahmen waren: 1. Hygienische Aufklärung der Mütter bezüglich Zubereitung und Aufbewahrung von Säuglingsnahrung; 2.  Stillpropaganda und Gewährung von Stillprämien; 3. Milchküchen sowie Milchzuteilungen in den Großstädten; 4. Verbesserter Mutterschutz; 5. Angebot von preiswerter und angemessener künstlicher Säuglingsnahrung. Dies Maßnahmenbündel bewirkte, dass sich innerhalb von rd. zwei Jahrzehnten die Säuglingssterblichkeit mehr als halbierte, weil der Hauptkiller, die Verdauungskrankheiten, ausgeschaltet werden konnten. Das relative Gewicht der

einzelnen Faktoren und die konkrete Art ihres Zusammenspiels sind bisher ungenügend geklärt. Spezifische Fallstudien fehlen.

 

Allerdings ist nicht zu vergessen, dass zur Gruppe der Verdauungskrankheiten bis 1910 auch solche des Erwachsenenalters zu rechnen sind (Typhus, Ruhr, Cholera usw.). Ihr Einfluss auf die Sterblichkeit konnte ebenfalls drastisch gemindert werden, muss aber anderen Ursachen zugerechnet werden als denen, die für den Rückgang der Säuglingssterblichkeit geltend gemacht wurden. Hier ist primär an die in den 1870er Jahren zunächst in den Großstädten beginnende, später immer größere Breitenwirkung gewinnende Assanierungsbewegung zu denken. Darunter werden alle Maßnahmen der öffentlichen Hygiene gefasst, besonders zentrale Versorgung mit gereinigtem Trinkwasser und Kanalisierung, aber auch Straßenreinigung,  Müllbeseitigung, Anlage von kontrollierten Schlachthöfen usw.

 

Für die deutschen Verhältnisse hat u. a. John Brown den Versuch unternommen, den Beitrag der Städte-Assanierung zur Senkung der städtischen Sterblichkeit während des späten 19. und frühen 20. Jahrhunderts zu messen. Und zwar prüft er deren Auswirkung auf die rohe Sterblichkeitsziffer, auf die Säuglingssterblichkeit sowie auf die Sterblichkeit an Typhus und an Magen-Darm-Infekten. Als Erklärende fungieren: Anteil der an die Kanalisation angeschlossenen Häuser, Anteil der an die filtrierte zentrale Wasserversorgung angeschlossenen Häuser, Anteil der auf unfiltriertes Grundwasser zurückgreifenden Häuser, Arztdichte und Krankenhausbetten-Dichte. Die Daten beziehen sich einerseits auf 29 mittlere und große preußische Städte, andererseits, in einem zweiten Berechnungsschritt, auf alle deutschen Städte mit 15.000 u. mehr Einwohnern.

 

Die Regressionsergebnisse sprechen dafür, dass den sanitären Verbesserungen ein statistisch signifikanter Einfluss auf den Rückgang aller genannten Sterblichkeitsziffern beigemessen werden muss. Am stärksten war der Einfluss auf den Rückgang der Typhus-Sterblichkeit (53%) und auf die Säuglingssterblichkeit (51%). Geringer der messbare Einfluss auf den Rückgang der Sterblichkeit an Magen-Darm-Infekten (43%); noch geringer der Einfluss auf die Durchschnitts-Sterblichkeit (34 %). Der Reallohnanstieg hatte regelmäßig keine merkliche Bedeutung für die Veränderungen der zu erklärenden Variablen.

 

Nach Brown hätte demnach in Deutschland die Städte-Assanierung einen größeren Beitrag zum Sterblichkeitsrückgang geleistet (rd. ein Drittel) als in England und Wales (nach McKewon nur 20%). Dieser Effekt kann u.a. schon dadurch zustande kommen, dass McKeown, obwohl selbst Arzt, die Wechselwirkungen zwischen den verschiedenen Einflüssen auf die Sterblichkeit nicht genügend in Rechnung stellt.  Dazu gehört seine Eingrenzung der Wirksamkeit von Infrastrukturmaßnahmen ausschließlich auf die Magen-Darm-Infekte und andere sogenannte water-borne oder food-borne diseases. Er sieht nur die durch Assanierungsmaßnahmen erreichte Verringerung der Exponiertheit gegenüber den entsprechenden Krankheitserregern. Die Möglichkeit, dass verbesserte Wasserversorgung, Abwässerbeseitigung sowie damit einhergehende Intensivierung der öffentlichen und privaten Hygiene auch die sogenannten air-borne diseases, also die durch Tröpfchen- und Kontaktinfektion hervorgerufenen Krankheiten (bes. Tuberkulose, aber auch die meisten infektiösen  Kinderkrankheiten, wie Masern, Scharlach, Keuchhusten usw.), beeinflusst haben könnten, berücksichtigt McKeown nicht. In Bezug auf die air-borne diseases wird als  Reduktionsfaktor einzig auf die Ernährungsverbesserungen verwiesen. Das ist jedoch, wie Robert Fogel betont, kurzsichtig, insofern als die Reduktion der water- und food-borne diseases, in erster Linie Magen-Darm-Infekte, die Fähigkeit der  Menschen steigerte, durch adäquate Nahrungsaufnahme und Nahrungsverarbeitung  ihren Nutritional Status zu verbessern und damit ihre Resistenz gegenüber air- borne diseases. Diese Effekte lassen Browns höhere Bewertung des Einflusses der  Assanierungsmaßnahmen auf den Sterblichkeitsrückgang plausibel erscheinen. Auf andere, bisher vernachlässigte Faktoren, die zum Sterblichkeitsrückgang  beigetragen haben dürften, verweist das oben erwähnte Resultat meiner  Berechnungen, wonach rd. 13% des Rückgangs der Verlorenen Lebensjahre bis 1972 verursacht wurden durch die Abnahme der Sterblichkeit an Infektionen des  Kindesalters (Gruppe C) und an der Lungen-Tuberkulose (Gruppe E). Welche Ursachen sind hier anzunehmen?

 

Zu berücksichtigen sind wieder mehrere zusammenwirkende Faktoren: 1. Verringerung der Exponiertheit gegenüber Krankheitserregern infolge zunehmender öffentlicher und Individualhygiene sowie verringerter Wohndichte; 2. Steigerung der Resistenz gegenüber Krankheiten aufgrund von verbessertem Nutritional Status; in Bezug auf die Tuberkulose zusätzlich: 3. Verringerung der  Belastungen am Arbeitsplatz durch organisatorische und technische Fortschritte sowie durch Arbeitszeitreduzierung; 4. (seit dem Ende des Zweiten Weltkriegs)  erfolgreiche medizinische Intervention.

 

Der relativ hohe Beitrag von rd. 23%, den die Sonstigen Benannten Todesursachen  (Gruppe P) zum Rückgang der Verlorenen Lebensjahre leisteten, dürfte dagegen, wie  erwähnt, primär auf Umstellungen und Verbesserungen von Diagnosen beruhen.  Hinzuweisen ist noch auf Todesursachen, die erst nach dem Zweiten Weltkrieg nennenswert zum Sterblichkeitsrückgang beitrugen. Ihre Entwicklung macht deutlich, dass seitdem völlig veränderte, weil stark verbesserte Interventionschancen der Medizin bestehen. Hier sind z. B. zu erwähnen die Krankheiten der Neugeborenen (Gruppe A), die offenbar nach dem Krieg stärker  unter Kontrolle gebracht werden konnten und seitdem ebenfalls zum weiteren  Rückgang der Verlorenen Lebensjahre beitrugen. Das dürfte ein Beleg für die enormen Anstrengungen auf dem Gebiet der Perinatalmedizin seit den 1960er Jahren sein. Darüber hinaus ergab sich eine Trendwende bei den Akuten Infektionskrankheiten, die seit Kriegsende kausal therapiert werden können. Das trug, wie erwähnt, trotz des relativ niedrigen Anteils, den die Akuten Infektionskrankheiten an der Sterblichkeit bereits um 1910 nur noch besaßen, doch bis 1972 mit rd. 13% zur Verringerung der Verlorenen Lebensjahre bei.

 

Soweit die verschiedenen Elemente einer Erklärung des Sterblichkeitsrückgangs, die  sich aus einer differenzierten epidemiologischen Betrachtung ergeben. Warum sich  der Tod in den westlichen Industrieländern während der letzten 120 Jahre so stark  aus dem Leben der Menschen zurückgezogen hat – von Kriegen und Katastrophen  abgesehen -, warum er sich im Prinzip erst während des achten Lebensjahrzehnts  unausweichlich vor den Menschen aufrichtet und mit welchen Krankheiten er dann droht, konnte verdeutlicht werden. Es bleibt die Frage, ob die Zeitgenossen denn nun während der somit gegenüber unseren Vorfahren gewonnenen zusätzlichen Lebensjahre gesünder geworden sind.

 

 

Ausblick: Wurden die Deutschen während der letzten 120 Jahre gesünder?

 

Was für eine dumme Frage, möchte man denken. Natürlich sind wir durchschnittlich gesünder geworden! Man schaue sich doch nur um: Wann in unserer Geschichte hat es jemals so viele kräftige, gut gebaute, schöne, ständig vielerlei Freizeitaktivitäten und Genüssen frönende Menschen gegeben? Wann jemals versuchten so viele Menschen, freiwillig die Grenzen ihrer so offenkundig gestiegenen Leistungsfähigkeit zu erproben, im Marathonlaufen, im Bergsteigen, im Tieftauchen, im Dauertanzen usw. Man kann auch auf die großen Scharen von Senioren verweisen, die studieren, aktiv Sport treiben und um den ganzen Erdball reisen. Diese Impressionen wirken überzeugend. Aber sind sie die ganze Wahrheit? Verbergen sie nicht Vieldeutiges?  Suchen wir also nach zuverlässigen Informationen, ohne die Widersprüche zu eliminieren. Möglicherweise kann die Antwort auf die Leitfrage nicht so eindeutig ausfallen, wie mancher das gernhätte.

 

Zunächst die positive Seite. Erinnert sei als erstes an die bereits eingangs erwähnte, stark erhöhte Lebenserwartung bei der Geburt. Diese Zunahme der Lebenserwartung ist die Grundlage der ständigen Zunahme des Anteils älterer Menschen in unserer Gesellschaft. Da zugleich durch den Geburtenrückgang die jüngeren Jahrgänge stark dezimiert sind und auch nicht in entsprechendem Umfang wieder nachwachsen werden, hat sich der Altersaufbau der Bevölkerung seit dem späten 19. Jahrhundert dramatisch verändert. Die Pyramide, deren breite Basis im 19. Jahrhundert die vielen Kinder und Jugendlichen bildeten, hat sich zur Urne gewandelt, die auf einer immer schmaler werdenden Basis steht. Die wichtigste Konsequenz ist der oben differenziert analysierte Wandel des Todesursachen- Panoramas, der während des 20. Jahrhunderts bis heute geprägt ist durch Zunahme des Anteils der chronisch-degenerativen Krankheiten als Todesursachen. Vorläufiges Fazit: Wir werden eben immer älter, bleiben vielleicht auch lange gesund; aber mit höherem Alter muss irgendwann der Tribut gezahlt werden, denn wir nutzen uns ab und sind nach wie vor nicht unsterblich.

 

Diese These soll kurz mit den vorliegenden Befunden zum Morbiditäts-Spektrum konfrontiert werden. Jetzt geht es also nicht um Todesfälle, sondern um die in der

Bevölkerung insgesamt vorhandenen Krankheiten, bevor sie tödlich werden. Hier sei  Heinrich Schipperges zitiert, der in seiner „Geschichte des kranken Menschen“ Folgendes schreibt: „Im ‚Großraum Medizin‘ erleben wir besonders dramatisch den seit einigen Jahrzehnten vor sich gehenden Panoramawandel der Krankheiten, der  uns – nach der Beherrschung der akuten Infektionskrankheiten – mit einem Heer an Kranken und Leidenden konfrontieren wird (…). Wir werden es (…) am Ausgang der achtziger Jahre nahezu ausschließlich mit Chronisch-Kranken zu tun haben: mit  Langzeit-Patienten, die 30, 40 Jahre am gleichen Leiden laborieren, mit Mehrfach-Geschädigten, die mehrere Gebrechen zugleich zu verkraften haben, (…) mit  Vielfach-Leidenden, deren längeres Altern potenziertes Leiden weiterschleppt.“ (S.  292) Schipperges führt Daten als Beleg an. So wurde etwa in einer Tübinger Klinik bei 11.000 Patienten ermittelt, „dass 16% der Klinikpatienten über 60 Jahre 5 Krankheitsdiagnosen erkennen ließen, in der Altersstufe über 70 Jahre sogar 29%.  Jeder dritte ältere Mensch könnte demnach fünf Krankheiten gleichzeitig mit sich herumschleppen, von den nicht diagnostizierten Wehwehchen gar nicht zu reden.“ (S. 303) Die Mediziner sprechen in diesem Zusammenhang von Multimorbidität.

 

Damit sind wir also zu den negativen Aspekten der herrschenden Gesundheitsverhältnisse gelangt. Das ungünstige Bild kann vor allem durch Hinweis auf so häufige und kostenintensive chronische Dauerleiden wie Rheuma, Arthrose, Bluthochdruck, Bronchitis, Diabetes, verschiedenste Allergien und psychische Störungen abgesichert werden. Sie nehmen in der Bevölkerung ständig zu, auch in jüngeren Altersgruppen, etwa von der Lebensmitte an, und die Medizin kann keine dauerhaft wirksame Abhilfe schaffen. Die Kosten sind gewaltig: So beziffert die “Gesundheitsberichterstattung des Bundes“ im H. 49 (2010), S. 22, z. B. für 2006 allein die volkswirtschaftlichen Gesamtkosten der Rheumatischen Erkrankungen in der BRD mit rd. 4 Mrd., das ohne den Produktionsausfall zu berücksichtigen, der wahrscheinlich eine Verdoppelung der Kosten bedeutet. Ich muss mein erstes Fazit demnach korrigieren: Mit unserer Gesundheit ist es offenbar nicht nur bergauf gegangen, und es sind nicht nur die sozusagen natürlichen Leiden des gewachsenen Anteils älterer Menschen, die die Erfolgsbilanz beeinträchtigen.

 

Man kann noch einige Negativ-Indikatoren ergänzen, z. B. auf den erstaunlichen Anstieg der Arzt- und Apothekendichte während der letzten 120 Jahre verweisen.  Ähnlich die Entwicklung im Krankenhausbereich, wo ebenfalls bis heute eine Vervielfachung der Bettendichte gegenüber dem späten 19. Jahrhundert, ja noch gegenüber der Situation der 1930er Jahre realisiert wurde.  Und natürlich kostet das alles! Kein Wunder, wenn die Ausgaben für Gesundheit im weitesten Sinne allein innerhalb der letzten zwei Jahrzehnte beunruhigend gewachsen sind, wie manche behaupten: explosionsartig. Diese Ausgaben stiegen beispielsweise von 159 Mrd. € im Jahre 1992 auf 356 € im Jahre 2016 an und haben sich somit allein während der letzten zwei Jahrzehnte mehr als verdoppelt, übrigens auch pro Kopf der Bevölkerung. Der Anteil am Bruttosozialprodukt wuchs inzwischen auf 11,3% an. D. h., wir geben mehr als 11% unserer gesamten Wirtschaftsleistung für Gesundheitszwecke aus, Kosmetika, Nahrungsergänzungsmittel, präventive Sportprogramme samt Zubehör etc. nicht mitgerechnet. Deutlicher kann der enorm gewachsene Stellenwert dieses Aspekts für unser modernes Leben nicht dokumentiert werden!

 

Die sogenannte Kostenexplosion im Gesundheitswesen hat allerdings viele Gründe  und spiegelt nicht direkt eine Verschlechterung des durchschnittlichen  Gesundheitszustandes der Bevölkerung. Sie macht vor allem klar, dass wir –  überzeugt von dem fraglosen Wert des sozialen Guts „Gesundheit“ – nichts  unterlassen wollen, um durch Geldleistungen sowie durch Konsum von Medikamenten und gesundheitlichen Dienstleistungen alles für unsere Gesundheit  getan zu haben, was möglich und sinnvoll erscheint.

 

Lassen Sie mich zunächst die widersprüchlichen Indikatoren bilanzieren.  Harte Facts auf der positiven Seite sind:

 

– die Verlängerung der Lebenserwartung

– die stark gesunkenen Sterblichkeitsziffern, vor allem in den jüngeren Altersklassen

– die Dominanz von Alterskrankheiten im Todesursachen-Spektrum

– der relativ geringe Anteil von einzelnen Todesursachen, die Menschen vor dem

  1. Lebensjahr dahinraffen

– die sinkende Tendenz bei einigen von diesen „Killern“.

 

Negativ fallen ins Gewicht:

 

– die ständige Zunahme der Arzt-, Apotheken- und Krankenbettendichte

– die dramatisch steigenden Gesundheitskosten

– die steigende Tendenz der Frühinvalidität

– die wahrscheinliche Zunahme von Krankheiten, die schon in jüngeren Jahren auftreten,

sich überlagern und den Menschen jahrzehntelang plagen können (Allergien, Bronchitis,

Bluthochdruck, Rheuma)

– die ständige Zunahme psychischer Störungen.

 

Allerdings ist nicht zu übersehen, dass fast alle negativen Indikatoren Ausdruck eines spezifischen modernen Krankheitsverständnisses sind und direkt von diesem abhängen.

  1. B. sind die Frühinvaliden und erst recht die Frührentner keineswegs sämtlich Krüppel. Ich möchte mich diesem Problem von der Seite des subjektiven Krankheitsempfindens her nähern. Darüber gibt es erwartungsgemäß sehr wenig konkrete Informationen. Dennoch lassen sich diesbezüglich begründete Aussagen treffen.

 

  1. B. hat der Sozial- und Medizinhistoriker Edward Shorter Umfragen zur Häufigkeit des Arztbesuchs in den USA während der 1920er Jahre mit solchen aus den 1980er Jahren verglichen. Dabei stellte er fest, dass der „Durchschnittsamerikaner“ während der 1920er Jahre maximal einmal pro Jahr zum Arzt ging, heute tut er das dagegen zwei- bis dreimal jährlich. Für Deutschland ermittelte man bei Frauen und Männern zusammen in der Altersklasse von 18 bis 79 Jahren im Zeitraum von 2008 bis 2011 durchschnittlich 9,2 Arztbesuche pro Jahr. Zugenommen hat nach Shorter auch der Anteil der Amerikaner, die ihren Gesundheitszustand als eher schlecht einschätzen.

 

Entsprechende Umfragen in der BRD bestätigen die amerikanischen Befunde.  Zwar schätzt die überwiegende Zahl der Deutschen (72%-75%) Gesundheit als gut bis sehr gut ein, doch nimmt dieser Anteil schon ab dem mittleren Lebensalter stark ab und liegt bei den über 60Jährigen deutlich unter 50%. Insgesamt hat der Anteil derjenigen, die sich große Sorgen um die eigene Gesundheit machen, während des 21. Jahrhunderts stetig leicht zugenommen und liegt inzwischen bei etwa 22%. Mehr als ein Drittel der Deutschen nimmt eine Verschlechterung der eigenen Gesundheit wahr. Offensichtlich ist die Sorge um den eigenen körperlichen Zustand und die Aufmerksamkeit für irgendwelche Krankheitssymptome stark gewachsen. Kehrt sich das durch hohe Lebenserwartung, niedrige Sterblichkeit und blühende Gesundheit in den ersten Lebensjahrzehnten charakterisierte Bild, das ich zunächst entworfen habe, nun doch gänzlich um?

 

Fragen wir nach den Ursachen für die genannten problematischen Entwicklungen.  In der Literatur werden drei Gründe genannt:

 

  1. die gewachsene Isolierung des einzelnen Menschen, vor allem durch den Zerfall der Familien (Lockerung der Generationenkette, Zunahme der Scheidungshäufigkeit und Abnahme der Heiratsquote) und die damit einhergehende Verunsicherung (Zunahme der Identitätsprobleme etc.);

 

  1. die Lenkung der Aufmerksamkeit auf Körperprobleme und die Verbreitung von Krankheitsfurcht durch die Massenmedien;

 

  1. die Verallgemeinerung der Krebsangst, bes. im Sinne des Zusammenhangs von Rauchen und Lungenkrebs.

 

Ich bin der Meinung, dass hiermit wichtige Elemente unseres modernen Gesellschaftslebens bezeichnet werden, die durchaus dazu beitragen können, die starke Zunahme des subjektiven Krankheitsgefühl verständlich zu machen. Aber sie sind selbst erklärungsbedürftig. Man muss fragen, welche Determinanten hinter der Zunahme der Scheidungshäufigkeit oder der Gier nach Informationen über Krankheiten und andere Körperprobleme in den Massenmedien wirksam sind. Um die Bedeutung der genannten Faktoren zu relativieren, sei zunächst auf die erstaunliche Tatsache verwiesen, dass das Krankheitsempfinden offenbar bei beiden Geschlechtern ungleich ist; und natürlich verändert sich die Häufigkeit der Arztbesuche mit höherem Alter. Das zeigen die Arztbesuchsziffern von Frauen und Männern im Jahr 2007, die gesetzlich versichert waren und überhaupt im Jahr mindestens einmal zum Arzt gingen: In der Altersklasse von 20- 30 Jahren, also im jüngeren Erwachsenenalter, konsultierten Männer durchschnittlich mindestens fünfmal pro Jahr einen Arzt, Frauen in dieser Altersklasse jedoch dreimal so oft. Bei den 60-65Jährigen hatten Männer durchschnittlich bereits 20 bis 22 Arztbesuche pro Jahr, Frauen 25 bis 30. Erst bei den Über70-Jährigen war die Häufigkeit der Arztkontakte pro Jahr mit mehr als 30 bei beiden Geschlechtern etwa gleich.

 

Den obengenannten Erklärungsfaktoren sind beide Geschlechter in gleicher Weise ausgesetzt. Insofern verweisen die Geschlechtsdifferenzen des Krankheitsempfindens und Gesundheitsverhaltens auf andere, bisher vernachlässigte Einflüsse: Einerseits begreifen Männer nach wie vor ihre Gesundheit häufiger im Sinne des späten 19. Jahrhunderts, nämlich als selbstverständlich solange vorhanden, wie man „eben noch kriechen kann“. Andererseits sind Frauen nicht nur in dieser Hinsicht anders, geben nicht nur eher Beeinträchtigungen ihrer Gesundheit zu und suchen dann ärztliche Hilfe. Sie sind auch bei bestem Wohlbefinden häufiger als Männer gezwungen, zum Arzt zu gehen, z.B. um sich die „Pille“ verschreiben zu lassen oder um sich der Krebsvorsorge zu unterziehen.  Demnach sind in unser Gesundheits- und Versicherungssystem Mechanismen eingebaut, die die Zahl der Arztbesuche, hier vor allem bei Frauen, schon in jungen Jahren in die Höhe treiben.

 

Dasselbe gilt in Bezug auf die Praxis der Krankschreibung: Man darf sich aufgrund versicherungsrechtlicher Zwänge in der Regel erst dann, auch bei leichten Gesundheitsbeeinträchtigungen, kurzfristig von der Arbeit befreien, wenn man sich vom Arzt hat krankschreiben lassen. Man muss erst einmal zum Arzt gehen, um Bagatellerkrankungen, die schon immer die Menschen gelegentlich plagten, wie Erkältungen, vernünftig, nämlich mit Zimmer- oder Bettruhe ausheilen zu können.  Das bedeutet jedoch keineswegs, dass wir immer kränker geworden sind. Dazu kommt die nach wie vor höchst ungleiche Beteiligung beider Geschlechter an der Kinderbetreuung: In der bei weitem überwiegenden Zahl der Fälle, in denen Kinder erkranken, sind es die Frauen, die deren Betreuung übernehmen und sich insofern ggf. vom Arzt krankschreiben lassen müssen.

 

Ein weiterer Faktor ist das veränderte eigentliche Gesundheitsverständnis in unserer modernen Gesellschaft. Z. B. definiert die Weltgesundheitsorganisation (WHO), Gesundheit umfasse nicht nur Arbeitsfähigkeit und Schmerzfreiheit, sondern darüber hinaus subjektives Wohlbefinden (seelische Balance) und die Fähigkeit zu erfolgreicher sozialer Integration. Etwas vereinfacht kann man sagen:  Gesund ist nach diesem Verständnis eigentlich nur derjenige, der sich glücklich fühlt und bei dem der Arzt auch keine Krankheitszeichen finden kann. Verschärft wird das Problem durch die von Arthur Imhof herausgestellte Tatsache, dass mit dem  Verlust der religiös bestimmten Jenseits-Perspektive, mit dem Verlust des Lebens nach dem Tode, für die meisten Menschen in den westlichen Industrieländern nur  noch das Diesseits bleibt. Das eine irdische Leben wird dadurch ungeheuer aufgewertet. Es mit allen Fasern zu genießen und um jeden Preis zu verlängern, dabei den Körper als Vehikel intensiv zu beobachten und vor Krankheiten zu schützen, ist die sozusagen logische Konsequenz. Diese Entwicklung trägt dazu bei, ein Gesundheitsverständnis zu etablieren, das uns die Hinnahme von Schmerzen und leichten körperlichen Beeinträchtigungen verbietet und unsere Sensibilität gegenüber allen möglicherweise schädlichen Umweltelementen stark gesteigert hat.

 

Nur das gilt demnach als gesundes und erstrebenswertes Leben, das voll ist von sinnlich erfahrenen Sensationen und frei von Schmerz und psychischem Leid, frei  auch von bohrenden Sinnfragen und dem belastenden Gefühl der inneren Leere.  Hinter den genannten Bedingungen für das vermehrte Krankheitsgefühl sind zwei Basisprozesse wirksam: die weit fortgeschrittene Individualisierung und die im Zusammenhang damit deutlich erschwerte Identitätsfindung. Diese Prozesse stiften auch den Zusammenhang zwischen den an sich relativ disparaten nachgelagerten Erklärungsfaktoren.

 

Es kann als sicher gelten, dass die Zahl der Menschen, die sich in dem bezeichneten  Sinne nicht gesund fühlen, vor allem nämlich, weil sich dies andauernde Glücksgefühl, die seelische Balance, gekoppelt mit körperlichem Wohlbefinden, nicht  einstellen will, nach dem Zweiten Weltkrieg enorm gewachsen ist. Das Gefühl, zum Streben nach dieser Art Glück geradezu verpflichtet zu sein, ist m. E. zur allgemeinsten Krankheitsursache geworden. Verschärft wird die Problematik durch die erwähnte Individualisierung. Jeder muss seinen ganz individuellen Weg zum Glück finden. Es gibt keine verbindlichen moralischen Normen, nicht einmal Sitten und Gebräuche, die uns den sicheren Weg zu einem glücklichen Leben weisen würden. Auf dem freien Markt gibt es zwar viele unverbindliche Angebote, Ratschläge, Schulen, Sekten usw. Hier auszuwählen, für sich selbst das Richtige zu finden – das überfordert jedoch immer mehr Menschen. Nicht zuletzt deshalb sind so viele von uns ständig von der Depression bedroht, von dem nagenden Zweifel, ob man denn tatsächlich alles aus sich gemacht habe, was drinsteckt, ob man denn tatsächlich alles Glück erfahren habe, dessen man fähig sei. Die häufigste Frage, die sich die Zeitgenossen stellen, ist wohl die: War das schon alles? Soll’s das bereits gewesen sein: dieser Beruf, diese Freundschaft, diese Ehe, diese Kinder? Weil die Zweifel schmerzen, verschreiben die Ärzte solche Mengen an Psychopharmaka und schmerzlindernden Mitteln. Deshalb auch steigen ständig der Alkohol- und der Drogenkonsum.

 

Nach diesen Ausführungen lautet meine Antwort auf die hier gestellte Leitfrage:  Objektiv leben nicht nur immer mehr Menschen immer länger. Im Sinne des späten 19. Jahrhunderts sind sie auch immer längere Phasen ihres Lebens so gesund und kräftig, wie keine frühere Generation. Aber subjektiv fühlen sich immer größere Teile unserer Mitmenschen beeinträchtigt, ja krank, und das bereits in jungen Jahren. Und nun der entscheidende Punkt: Unsere Gesellschaft ist in immer stärkerem Umfang bereit, dies verbreitete Unwohlsein, dies vor allem seelisch bedingte Leiden, die allgemeine Depression ob der unsicheren Identität und des so  unsteten Glücks, als Krankheit zu legitimieren. So gesehen, sind wir im 20. Jahrhundert, den vielen positiven Indikatoren zum Trotz, nicht gesünder geworden, werden vielmehr weiter immer kränker werden. Es sei denn, wir unterzögen unser emphatisch aufgeladenes Gesundheitsverständnis einer ernüchternden Korrektur.  Das aber ist eingebettet in Basisprozesse langfristigen gesellschaftlichen Wandels, die nicht willkürlich aufgehalten und partiell korrigiert werden können. Ich möchte deshalb mit der paradoxen Behauptung schließen, dass unser vermehrtes Leiden der Preis langfristig verbesserter durchschnittlicher Gesundheit ist.

 

ZITIERTE LITERATUR

 

Brown, J. C.: Public Health Reform and the Decline in Urban Mortality. The Case of Germany, 1876-1912. Paper presented to the 10th International Economic History Congress, Leuven, 20.-24.8.1990.

Bundesministerium für Gesundheit (Hg.): Daten des Gesundheitswesens 2016.

Feinstein, C.: The Rise and Fall of the Williamson Curve. In: Journal of Economic History, 48 (1988).

Flinn, M.: The European Demographic System 1500-1820. Brighton 1981.

Floud, R., u.a.: Height, Health and History. Nutritional Status in the United Kingdom, 1750-1980. Cambridge usw. 1990.

Fogel, R. W.: The Escape from Hunger and Premature Death, 1700-2100. Europe, America, and the Third World. Cambridge usw. 2004.

Fogel, R. W.: Nutrition and the Decline in Mortality since 1700: Some Preliminary   Findings. In: Engerman, S. L., u. Gallman, R. E. (Hg.): Long-Term Factors in American Economic Growth. Chicago u. London 1986.

Gesundheitsberichterstattung des Bundes: Gesundheit in Deutschland 2015.

Imhof, A. E.: Lebenserwartungen in Deutschland vom 17. bis 19. Jahrhundert.  Weinheim 1990.

Imhof, A. E.: From the Old Mortality Pattern to the New: Implications of a Radical Change from the Sixteenth to the Twentieth Century. In: Bulletin of the History of Medicine, 59 (1985).

Imhof, A. E.: Die gewonnenen Jahre. Von der Zunahme unserer Lebensspanne seit dreihundert Jahren… München 1981.

Junge, B., u. Hoffmeister, H.: Das mittlere Sterbealter für ausgewählte Todesursachen und die Mortalitätsstruktur in der Bundesrepublik Deutschland 1958 und 1978. In:  Lebensversicherungsmedizin, 39 (1987), H. 2.

Kearns, G.: The Urban Penalty and the Population History of England. In:

Brändström, A., u. Tedebrand, L.-G. (Hg.,): Society, Health and Population during the Demographic Transition. Stockholm 1988.

Komlos, J.: Height and Social Status in Eighteenth-Century Germany. In: Journal of Interdisciplinary History, 20 (1990).

Komlos, J.: Nutrition and Economic Development in the Eigtheenth-Century Habsburg Monarchy: An Anthropometric History. Princeton 1989.

Kunitz, S.: Speculations on the European Mortality Decline. In: Economic History Review, Sec. Ser., 36 (1983).

McKeown, T.: Food, Infection, and Population. In: Journal of Interdisciplinary History, 14 (1983).

McKeown, T.: The Modern Rise of Population. London 1976.

McKeown, T., u. Record, R. G.: Reasons for the Decline of Mortality in England and Wales during the Nineteenth Century. In: Population Studies, 16 (1962).

McKeown, T., u. Brown, R. G.: Medical Evidence Related to English Population Changes in the Eighteenth Century. In: Population Studies, 9 (1955).

Mokyr, J.: Has the Industrial Revolution been Crowded Out? Some Reflections on Crafts and Williamson. In: Explorations in Economic History, 24 (1987).

Möhlmann, H., u. Zollmann, P.: Die gesundheitliche Situation in der Bundesrepublik Deutschland. Beschreibende Auswertung der Wellen 1 und 2 des Sozioökonomischen Panels. Universität Frankfurt/M. 1990, o. J. (SFB 3, Arbeitspapier 280).

Otto, R., u. a.: Seuchen und Seuchenbekämpfung in deutschen Städten während des 19. und frühen 20. Jahrhunderts. In: Medizinhistorisches Journal, 25 (1990).

Riley, J.: The Eighteenth-Century Campaign to Avoid Disease. Houndmills und London 1987.

Riley, J. C.: Insects and the European Mortality Decline. In: American Historical Review, 91 (1986).

Schicke, R. K.: Ökonomie des Gesundheitswesens. Göttingen 1981.

Schipperges, H.: Homo Patiens. München 1985.

Shorter, E.: The Health Century. New York 1987.

Shorter, E.: Bedside Manners. The Troubled History of Doctors and Patients. New York 1985.

Spree, R.: „Volksgesundheit“ und Lebensbedingungen in Deutschland während des frühen 19. Jahrhunderts. In: Kümmel, W. (Hg.): Jahrbuch des Instituts für Geschichte der Medizin der Robert Bosch Stiftung, Bd. 7, Stuttgart 1990.

Statistisches Bundesamt (Hg.): Datenreport 2018. Bonn 2018.

Statistisches Bundesamt (Hg.): Datenreport 1989. Stuttgart 1989.

Szreter, S.: The Importance of Social Intervention in Britain’s Mortality Decline c.  1850 – 1914: a Re-interpretation of the Role of Public Health. In: Social History of Medicine, 1 (1988), S. 1-37.

Willamson, J. G.: Coping With City Growth During the British Industrial Revolution.  Cambridge usw. 1990.

Williamson, J. G.: Urban Disamenities, Dark Satanic Mills, and the British Standard of Living Debate. In: Journal of Economic History, 41 (1981).

Woods, R., u. Hinde, P. R. A.: Mortality in Victorian England: Models and Patterns. In:  Journal of Interdisciplinary History, 18 (1987).

Woods, R., u. Woodward, J. (Hg.): Urban Disease and Mortality in Nineteenth-Century England. London u. New York 1984.

Wrigley, E. A., u. Schofield, R. S.: The Population History of England, 1541-1871: A Reconstruction. Cambridge, Mass., 1981.

 

 

 

 

Werbung

„Volksgesundheit“ und Lebensbedingungen in Deutschland während es frühen 19. Jahrhunderts

 

 

 

„Volksgesundheit“ und Lebensbedingungen in Deutschland

                        während des frühen 19. Jahrhunderts[1]

 

 

(

 

 

                        Gliederung

 

  1. Einleitung

 

1.1                  Gesundheit und ärztliche Versorgung

1.2                  Sozialhistorischer Forschungsstand

1.3                  Begriffe, Konzepte, Ansatz

1.4                  Zum Aufbau

 

  1. Indikatoren der „Volksgesundheit“ seit der Mitte des
  2. Jahrhunderts

 

2.1                  Die Konzepte des Demographischen und des Epidemiologischen
Übergangs

2.2                  Das sozio-ökonomische Epochenproblem: Der Pauperismus

2.3                  Die Entwicklung der Sterblichkeit in Deutschland

2.3.1               Methodische Vorbemerkungen

2.3.2               Sterblichkeitstendenzen seit dem späten 18. Jahrhundert

2.3.3               Entwicklung der altersspezifischen Sterblichkeit

2.3.4               Veränderungen des Todesursachen-Spektrums

2.4                  Fazit: Die Entwicklung der „Volksgesundheit“ im Spiegel der empirischen Ergebnisse

 

  1. Tendenzen des Wandels der Lebensbedingungen und deren
    Auswirkungen auf die „Volksgesundheit“

 

3.1                  Modellierung des Zusammenhangs von „Volksgesundheit“ und
Lebensbedingungen

3.2                  Empirische Belege

3.2.1               Das agrarische Übergangs-„Modell“: Leezen

3.2.2               Das protoindustrielle Übergangs-„Modell“: Spenge

 

  1. Fazit: „Volksgesundheit“ und Pauperimus

 

  1. Einleitung

 

1.1       Gesundheit und ärztliche Versorgung

 

Während des späten 18. und weit in das 19. Jahrhundert hinein hatten die Menschen eine Einstellung zu Gesundheit und Krankheit, die wenig mit unserer modernen, medikalisierten Vorstellung zu tun hat.[2] Ge­sundheit bedeutete vor allem Arbeitsfähigkeit und war im Prinzip göttliche Gnade. Krankheit dagegen wurde als alltäglicher Begleiter und ständige Bedrohung erfahren; man konnte sich weder präventiv vor ihr schützen noch kurativ gezielt von ihr befreien. Entsprechend machten die meisten Menschen Krankheiten im Rahmen von Familie und Haushalt mit Selbstdiagnose und Selbstmedikation ab. Ärzte wurden fast nie hinzugezogen. Hindernisse waren allein schon die mangelnde Verfügbarkeit aufgrund der niedrigen Arztdichte[3] und die allzu hohen Kosten. Vor allem fehlte aber wohl in der Regel auch das Bewusstsein, dass man von einer ärztlichen Konsultation im Krankheitsfall nennens­werte Hilfe zu erwarten habe.[4]

 

Hier deutet sich nun ein Problem von erheblicher Reichweite an. Wenn während der ersten Hälfte des 19. Jahrhunderts die meisten Menschen ihre Krankheiten ohne Arzt „abmachten“, dann existieren kaum zuver­lässige Zeugnisse von den Krankheiten der „großen Masse“ und von den Ursachen ihres Sterbens, die im Wege der gesundheitlichen Versorgung der Bevölkerung angefallen wären. Anhand welcher Quellen kann aber in dieser Situation der Historiker die Entwicklung des durchschnitt­lichen Gesundheitszustandes einer Bevölkerung rekonstruieren? Die nur sporadischen Zeugnisse aus ärztlicher Hand bieten kein sicheres und umfassendes Bild, da sie auf viel zu kleine Ausschnitte der Ge­sellschaft beschränkt sind.

 

Darüber hinaus ist erstaunlich, wie wenig sich die zeitgenössischen Ärzte überhaupt für die „Volksgesundheit“ interessierten, selbst wenn sie als Verfasser sogenannter Medizinischer Topographien aus­drücklich zur Beobachtung und Berichterstattung gesundheitsrelevan­ter lokaler Umstände verpflichtet waren oder sich dazu aus eigenem Antrieb berufen fühlten. Zwischen 1770 und 1850 sind ca. 60 Medizi­nische Topographien über deutsche Orte veröffentlicht worden.[5] Aus­sagen über den Gesundheitszustand in der beobachteten Bevölkerung und über die Krankheits- bzw. Sterblichkeitsverhältnisse enthalten sie nur in geringem Umfang. Die entsprechenden Aussagen wirken perspek­tivisch verzerrt, sind unzulänglich begründet und insgesamt wenig erhellend, es sei denn für die Zwecke eng begrenzter und dann durch zusätzliches Material fundierter Lokalstudien.[6]

 

Man kann mit gutem Grund behaupten, dass im frühen 19. Jahrhunderts kein Zusammenhang zwischen ärztlicher Versorgung und durchschnittli­chem Gesundheitszustand der Bevölkerung bestanden hat in dem Sinne, dass die ärztliche kurative Tätigkeit kaum Einfluss auf die „Volksge­sundheit“ hatte.[7] Anders ist möglicherweise die Bedeutung der medi­zinalpolizeilichen Maßnahmen zu beurteilen. Besonders die hoheitli­chen, meist im kommunalen Rahmen erfolgten Bemühungen um die Eindäm­mung der großen Seuchen, aber auch die Ausbreitung der Pockenschutz-Impfung seit dem Beginn des 19. Jahrhunderts können durchaus einen Beitrag zur Hebung der „Volksgesundheit“ geleistet haben – obwohl auch das umstritten ist.[8] Festzuhalten ist, dass weder kurative noch präventive ärztliche Aktivitäten während des frühen 19. Jahrhunderts in ausreichendem Umfang geeignete Zeugnisse hinterlassen haben, die als Quellen zur Rekonstruktion der „Volksgesundheit“ dienen könnten. Möglicherweise hat das mit dazu beigetragen, dass die Medizinge­schichte in Deutschland bisher keinen nennenswerten Beitrag zur Ge­schichte der „Volksgesundheit“ geleistet hat.

 

Dennoch finden sich in der Literatur Aussagen zur Entwicklung der „Volksgesundheit“ in früherer Zeit. Sie stützen sich in erster Linie nicht auf medizinische, sondern auf demographische Informationen[9]: Von den Sterblichkeitsveränderungen wird auf Variationen des Gesund­heitszustands geschlossen. Dies Vorgehen ist prinzipiell nicht un­problematisch.[10] Allerdings darf es als um so angemessener gelten, je unmittelbarer sich der Zusammenhang zwischen Erkrankung und Tod darstellt. Das gilt vor allem dann, wenn akute Infektionskrankhei­ten, die relativ rasch verlaufen und eine hohe Letalität besitzen, das Krankheits- und Sterblichkeitsgeschehen beherrschen. Je mehr je­doch in einer Bevölkerung chronische Krankheiten und Mehrfachschädi­gungen dominieren, desto lockerer wird der Zusammenhang zwischen Er­krankung und Tod, desto weniger eignet sich die Mortalität als Indi­kator der Morbidität bzw. der „Volksgesundheit“.[11] Aufgrund von Ver­schiebungen in der Altersstruktur der Gestorbenen und im Todesursa­chen-Spektrum ist die Sterblichkeit heute ein weniger geeigneter Ge­sundheitsindikator als im frühen 19. Jahrhundert. Seinerzeit starben rd. 50% der Menschen im Säuglings- und Kindesalter. Und wenn sie äl­ter wurden, herrschten akute Krankheiten vor, die entweder rasch zur Genesung oder zum Tode führten. Chronische Krankheiten und Mehrfachschädigungen waren in der Bevölkerung insgesamt erheblich seltener als heute. Allerdings waren sie – wie heute[12] – im höheren Alter die Regel, das jedoch bei deutlich geringerem Bevölkerungsanteil dieser Altersgruppen. Unter solchen Bedingungen können Sterblichkeitsveränderungen mit Fug und Recht als Ausdruck für Gesundheitsänderungen gedeutet werden.[13]

 

Auf der Grundlage von Interpretationen demographischer Kennziffern, vor allem der Mortalitätsentwicklung, ist inzwischen ein Kenntnis­stand erreicht worden, der einige Sozialhistoriker dazu ermutigt hat, sich zur Entwicklung der „Volksgesundheit“ seit dem späten 18. Jahrhundert in Deutschland zu äußern. Der hier vorliegende For­schungsstand scheint der angemessene Ausgangspunkt für eine erneute Auseinandersetzung mit diesem Gegenstand zu sein.

 

1.2       Sozialhistorischer Forschungsstand

 

Conze spricht in seinem Überblick zur „Sozialgeschichte 1800-1850“ von einer allmählichen „Hebung der Volksgesundheit“, die sich vor allem im deutlichen Rückgang der durchschnittlichen Sterblichkeit manifestiert habe.[14] Allerdings seien die rasch wachsenden gesell­schaftlichen Unterschichten von den Gesundheitsverbesserungen kaum erreicht worden, besonders nicht während der 1830er und 1840er Jahre.

 

Eine ähnliche Aussage findet sich bei Ute Frevert. Sie zitiert eine zeitgenössische Autorität, den Berliner Medizinprofessors Johann Ludwig Casper, der in den 1820er Jahren Berechnungen der durchschnittlichen Lebensdauer, differenziert nach sozialen Ständen, vorgenommen und 1835 publiziert hat. Nach Casper hat „sich die Sterblichkeit im Vergleich zum vergangenen Jahrhundert erheblich verringert und die allgemeine Lebenserwartung erhöht“. Diese Fortschritte kamen jedoch fast ausschließlich den wohlhabenderen Gesellschaftsschichten zugute. „Die Unterschichten dagegen waren nach wie vor in ihrer Lebensfähigkeit übermäßig stark bedroht. Seuchen und Mangelkrankheiten waren im 19. wie im 18. Jahrhundert ständiger Gast in den Behausungen der ärmeren Leute; die soziale Ungleichheit vor Krankheit und Tod hatte sich im Bewusstsein der >öffentlichen Meinung< gegenüber dem 18. Jahrhundert eher noch verschärft“.[15]

 

Auch Imhof geht von einer globalen tendenziellen Sterblichkeitsab­nahme in Deutschland seit dem späten 18. Jahrhundert aus.[16] Eine sehr klare Formulierung der These findet sich bei Wehler.[17] Das Bevölkerungswachstum seit der Mitte des 18. Jahrhunderts müsse durch regional und altersspezifisch unterschiedliche, aber insgesamt durchschlagende Sterblichkeitssenkungen bewirkt worden sein. Sie fanden vor allem in den nördlichen und westlichen Provinzen Preußens statt und hier zunächst bei den Altersklassen der 10-14jährigen, et­was später bei den 1-3jährigen und schließlich bei den 10-19jährigen insgesamt. Die süddeutschen Staaten und die preußischen Ostprovinzen waren von diesen Veränderungen weitgehend ausgeschlossen, ebenso in allen Regionen Erwachsene in den höheren Altersklassen und die Säuglinge.

 

Im Gegensatz zu den vorgenannten Autoren konstatiert Rürup jedoch ausdrücklich, dass sich bei Geburten- wie Sterblichkeitsziffern von 1817-1870 keine eindeutigen Veränderungen erkennen lassen. So fanden auch auf keiner Altersstufe merkliche Zunahmen der Lebenserwartung zwischen dem frühen 19. Jahrhundert und den 1870er Jahren statt. Im jüngeren Erwachsenenalter betrug der Zuwachs maximal 2 Jahre, im höheren knapp

1 Jahr. „Insgesamt vollzog sich das Bevölkerungswachstum in Deutschland bis 1870 also weiterhin auf der Grundlage hoher Ge­burten- und Sterberaten. Anders als in früheren Jahrhunderten war die Spanne zwischen diesen Raten jetzt aber beständig groß genug, um einen anhaltenden Bevölkerungsüberschuss entstehen zu lassen. Die traditionellen Wachstumsbremsen – Kriege, Hungersnöte, Seuchen -, die früher eine hohe >Krisensterblichkeit< bewirkt hatten, wurden nur noch in begrenztem Umfang wirksam und verursachten jedenfalls keinen vollständigen Trendwechsel mehr.“[18]

 

Fasst man den Forschungsstand bezüglich der Entwicklungstendenzen der „Volksgesundheit“ während des frühen 19. Jahrhunderts zusammen, so hat sich diese offenbar durchschnittlich gebessert. Das jedoch in so starker regionaler und vermutlich altersspezifischer und sozialer Differenzierung, dass bevorzugten Regionen bzw. sozialen und Alters­gruppen stets auch benachteiligte gegenübergestellt werden können. Schließlich war der Prozess nicht einlinig: Auf Perioden stärkerer durchschnittlicher Besserung, vor allem in Form von Sterblichkeits­senkungen, folgten immer wieder rückläufige Phasen, während derer sehr hohe Sterblichkeitsniveaus realisiert wurden. Allerdings dürf­ten sich seit dem frühen 19. Jahrhundert die Ursachen und Bedingun­gen für Verbesserungen oder Verschlechterungen der „Volksgesundheit“ deutlich gewandelt haben, z. B. in dem Sinne, dass auch heftige Epide­mien oder wirtschaftliche Notlagen nur selten Sterbeüberschüsse be­wirkten. Der folgende Beitrag setzt sich zur Aufgabe, diesen Forschungsstand zu überprüfen und zu differenzieren.

 

1.3       Begriffe, Konzepte, Ansatz

 

Der zentrale Begriff „Volksgesundheit“ steht hier für durchschnitt­lichen Gesundheitszustand einer Bevölkerung. Sein wichtigster Indi­kator ist – analog zum älteren Verständnis und zum regelmäßigen Vor­gehen in der Literatur – die Sterblichkeit. Auch wenn diese, was leider in der einschlägigen Literatur selten genug geschieht, tatsächlich nach Geschlecht, Alter, Beruf und/oder Regionen differen­ziert wird, bleibt die Sterblichkeit – wie gesagt – ein grober, allerdings brauchbarer Indikator für Gesundheit. Angemerkt sei je­doch, dass diesem Vorgehen ein restriktives Gesundheitsverständnis zugrunde liegt: Es ist von unserer heutigen Auffassung, wonach Ge­sundheit als Wohlbefinden und Schmerzfreiheit sowie als Bedingung für ein sozial und wirtschaftlich produktives Leben begriffen wird, weit entfernt und meint schlicht eine möglichst niedrige Virulenz von zum Tode führenden Krankheiten in einer Population.

 

Die Sterblichkeit (in verschiedenen Differenzierungen) ist also die Hauptvariable der folgenden Darstellung. Gelegentlich kann sie durch die Betrachtung des Todesursachen-Spektrums ergänzt werden. Damit ist klar, dass sich die Untersuchungen auf der Grenze zwischen Sozi­algeschichte der Medizin und Historischer Demographie bewegen. Der letzteren verdanken wir ja die Zahlenreihen, mit denen der Gegen­stand bis ins frühe 19. Jahrhundert und ggf. sogar zurück bis ins 18. verfolgt werden kann. Darüber hinaus sind an der Grenze zwischen den beiden Disziplinen die Konzepte entwickelt worden, die überhaupt erst erlauben, die hier vorgegebene Themenstellung ernst­haft als globale zu formulieren. Ohne Konzepte bzw. modellhafte Ver­knüpfungen wohldefinierter Begriffe wäre es sinnlos, über die „Volksgesundheit“ auf gesamtgesellschaftlicher Ebene reden zu wol­len. Man könnte nur den Gesundheitszustand einzelner Menschen oder sehr kleiner Gruppen beschreiben. Die Konzepte des Demographischen und des Epidemiologischen Übergangs jedoch liefern einen Bezugsrah­men, mit Hilfe dessen Lebensbedingungen und „Volksgesundheit“ im Zu­sammenhang erfasst werden können.

 

1.4       Zum Aufbau

 

–          Im 2. Teil werden einleitend die genannten Konzepte knapp erläutert, die es gestatten, einen Zusammenhang zwischen „Volksgesundheit“ und Lebensbedingungen zu postulieren. Sie werden ergänzt um eine Skizze des sozio-ökonomischen Hauptproblems der Epoche, des „Pauperismus“, der bestimmte Erwartungen hinsichtlich der Entwicklung der „Volksgesundheit“ nahelegt.

 

–          Mit Bezug darauf sind anschließend Indikatoren der „Volksgesundheit“ zu diskutieren, und zwar seit der Mitte des 18. Jahrhunderts, um die Veränderungen des frühen 19. Jahrhunderts in eine Perspektive zu stellen. Das zentrale Anliegen ist der Versuch, die Entwicklung der altersspezifischen Sterblichkeit auf unterschiedlichen Aggregationsniveaus während der ersten
Hälfte des 19. Jahrhunderts zu messen.

 

–          Zusammenhänge von Lebensbedingungen und „Volksgesundheit“ werden im 3. Teil als Ausblick auf Forschungsdesiderata zunächst in Form von Quasi-Modellen skizziert, die unterschiedliche Reaktionen der „Volksgesundheit“ auf die sozio-ökonomischen Randbedingungen zu interpretieren gestatten. Die „Modelle“ sind
schließlich mit empirischem Material zu belegen.

 

 

  1. Indikatoren der „Volksgesundheit“ seit der Mitte des
  2. Jahrhunderts

 

2.1       Die Konzepte des Demographischen und des Epidemiologischen Übergangs

 

Beim Konzept des Demographischen Übergangs handelt es sich um die modellhafte Fassung des natürlichen Bevölkerungswachstums, das wäh­rend des langfristigen gesellschaftlichen Modernisierungsprozesses bestimmte Phasen durchläuft. Diese sind durch typische Beziehungen zwischen Fruchtbarkeits- und Sterblichkeitsniveaus geprägt.[19] Zu Be­ginn des Übergangs öffnet sich die „Bevölkerungsschere“, indem die Sterblichkeit zu sinken beginnt, während die Fruchtbarkeit, noch von traditionellen Normen gesteuert, auf hohem Niveau verharrt. In der zweiten Übergangsphase schließt sich die „Schere“ wieder, da nun die Fruchtbarkeit auf die veränderten Lebensbedingungen und normativen Vorgaben reagiert. Familienplanung und Geburtenkontrolle werden zunehmend gesellschaftlich akzeptiert und von immer mehr Gruppen in der Bevölkerung praktiziert; der säkulare Geburtenrückgang setzt ein. Ist er abgeschlossen, haben sich Frucht­barkeit und Sterblichkeit auf einem relativ niedrigen Niveau einge­pendelt. Die Zuwachsrate der Bevölkerung ist klein und abhängig von periodischen Fruchtbarkeitschwankungen, die vom Ausmaß der bewusst betriebenen Geburtenkontrolle gesteuert werden.

 

Das Konzept des Epidemiologischen Übergangs ergänzt das eben skizzierte und beschreibt die trendmäßige Entwicklung der Sterblichkeit in den verschiedenen Phasen des Demographischen Übergangs. Implizit modelliert es Wechselwirkungen zwischen dem durchschnittlichen Ge­sundheitszustand einer Bevölkerung und dem sozio-ökonomischen Wan­del.[20] Unterschieden werden drei Phasen, 1. das vormoderne „Zeital­ter der Seuchen und Hungersnöte“, 2. das „Zeitalter der rückläufigen großen Epidemien“ und 3. das „Zeitalter der degenerativen und ge­sellschaftlich verursachten Krankheiten“. Während der

  1. Phase ver­stetigt sich bereits die Sterblichkeit und beginnt zu sinken. Ent­sprechend kann die Lebenserwartung bei der Geburt von ca. 20-40 Jahren auf rund 50 Jahre ansteigen. In der bis heute andauernden 3. Phase pendelt sich die Sterblichkeit auf niedrigem Niveau ein, und die Lebenserwartung bei Geburt steigt auf 70 Jahre und mehr.

 

Analytisch brauchbar wird das Konzept des Epidemiologischen Über­gangs, wenn die zentrale Variable, die durchschnittliche Sterblich­keit, nach Alter und Geschlecht sowie nach Todesursachen differen­ziert wird. Es ist kürzlich in bestimmten Punkten konkretisiert wor­den, die besonders für die hier untersuchte Periode bedeutsam sind.[21] Demnach fanden bereits gegen Ende der Phase 1 wichtige Wand­lungsprozesse statt, die die Merkmale der Phase 2 zu präzisieren ge­statten: Diese ist geprägt durch einen starken Rückgang der zunehmend nicht mehr epidemisch auftretenden Infektionskrankheiten, die zu Kinderkrankheiten werden, und durch eine nur sehr langsame Eindämmung der Virulenz von relativ unspezifischen gastro-intestinalen Infekten (sogenannter Diarrhoe-Komplex), die wiederum primär Säuglinge und Kleinkinder bedrohten. So erklärt sich, warum gegen Ende der Phase 1 typischerweise ein allmählicher Rückgang der Erwachsenen-Sterblich­keit einsetzt, während die Kindersterblichkeit erst in der Phase 2 trendmäßig zu sinken beginnt, die Säuglingssterblichkeit sogar erst gegen Ende derselben.

 

Die beiden Konzepte liefern einige Hypothesen für die vorliegende Untersuchung. Z. B. kann gefolgert werden, dass sich die „Volksgesund­heit“ durchschnittlich bereits gegen Ende der Phase 1 des Epidemio­logischen Übergangs gebessert hat, nämlich im Sinne eines leichten Rückgangs und einer ersten Verstetigung der Erwachsenensterblichkeit. Diese Entwicklung müsste sich verstärkt und auf die Altersklassen der Kinder und Jugendlichen ausgeweitet haben, sobald sich in der deutschen Gesellschaft die Phase 2 des Epidemiologischen Übergangs durchsetzte. Und im Verlauf der Phase 2 sollten alle Alters­klassen, ausgenommen die Säuglinge, und nahezu alle sozialen Schichten deutliche Stabilisierungen ihrer Gesundheit und eine spürbare Verlängerung ihrer Lebenserwartung verzeichnen können.

 

Das Konzept des Epidemiologischen Übergangs und die Datierungen der Phasen sind nun allerdings fast ausschließlich anhand von histori­schem Material aus England, den USA und Frankreich gewonnen worden. Die genannten Folgerungen bezüglich der „Volksgesundheit“ können nicht einfach auf Deutschland übertragen werden. Da Studien zum Epi­demiologischen Übergang anhand von deutschem Material bisher nur in ersten Ansätzen vorliegen[22], sind vielmehr einige grundsätzliche Fragen, die sich aus dem Konzept ergeben, ungeklärt. Z. B. ist die ganz entscheidende Datierung der Phase 2 strittig, damit die Datie­rung des Übergangsprozesses überhaupt, denn der Beginn von Phase 1 und das Ende von Phase 3 sind sowieso offen.[23]

 

Als Arbeitshypothese wird im Folgenden davon ausgegangen, dass das „Zeitalter der Seuchen und Hungersnöte“ in Deutschland während des späten 18. Jahrhunderts seinem Ende zuging und dass sich während der 1820er/30er Jahre die Phase 2 des Epidemiologischen Übergangs durch­setzte.[24] Dieser Datierungsversuch soll anhand zusätzlicher und breiterer Informationen überprüft werden. Dabei wird vor allem auf die dem Konzept inhärente Vorstellung zurückgegriffen, dass das Ende der Phase 1 und der Beginn der Phase 2 durch die Verringerung und das allmähliche Ausbleiben von Jahren offener Bevölkerungskrisen mit Sterbeüberschüssen sowie durch eine Verstetigung und beginnende trendmäßige Senkung der durchschnittlichen Sterblichkeit charakteri­siert seien.[25] Es ergeben sich folgende (operationalisierte) Datie­rungskriterien:

 

–          Zahl und Häufigkeit von Jahren mit Sterbeüberschüssen

–          Trendrichtung der durchschnittlichen Sterblichkeitsziffer

–          Variationskoeffizient der Sterblichkeitsziffer.[26]

 

Ein massives Problem wirft nun aber die Tatsache auf, dass für das 18. und frühe 19. Jahrhundert (bis 1815) in der Regel keine zuver­lässigen längeren Bevölkerungsreihen in Deutschland vorhanden sind. Für das späte 18. Jahrhundert wird die Frage nach den o. g. Verände­rungen der Sterblichkeit deshalb primär anhand von lokalstatisti­schem Material untersucht. Als Sterblichkeits-Indikator fungiert da­bei das Verhältnis von Gestorbenen zu Geburten (in v.H.).[27] Die Fol­gerungen können natürlich nur tentativ sein. Ab 1815 steht dann ein umfangreicheres bevölkerungsstatistisches Material zur Verfügung, sodass mit echten Sterblichkeitsziffern gearbeitet werden kann.[28]

 

 

2.2       Das sozio-ökonomische Epochenproblem: Der Pauperismus

 

Die Datierungs-Hypothese ist, wie gesagt, auf einige empirische Evi­denz gestützt. Eine Überprüfung erscheint jedoch nicht nur deshalb geboten, weil die Evidenz besser abgesichert werden sollte. Vielmehr stellt allein der Hinweis auf die Möglichkeit, dass innerhalb Deutschlands während der ersten Hälfte des 19. Jahrhunderts die Durchschnittssterblichkeit sich verstetigt habe und zu sinken begann, eine ausgesprochene Herausforderung für den Wirtschafts- und Sozialhistoriker dar. Das späte 18. und frühe 19. Jahrhundert (bis 1850/60) sind bekannt als eine Epoche, die durch starke wirtschaft­liche Strukturveränderungen geprägt war: Agrarreformen; Frühindu­strialisierung und Proletarisierung sowie – als Konsequenz – Pauperismus.[29] Vor allem zwei Prozesse bewirkten die seit den 1830er Jahren deutlich wahrgenommene, neuartige und heftig beklagte Massenverarmung: Der eine Faktor ist das Vordringen der Kommerzialisierung und Kapitalisierung der Landwirtschaft seit dem späten 18. Jahrhundert. Die damit einhergehende Modernisierung und der Ausbau der Produktion vergrößerten den agrarischen Arbeitskräftebedarf und die Zahl bäuerlicher bzw. kleinbäuerlicher Erwerbsstellen, förderten aber andererseits auch die Proletarisierung. Zugleich stieg die Agrarproduktivität stark an, sodass eine wachsende Bevölkerung, gerade auch außerhalb des Agrarsektors, ernährt werden konnte. Als der andere Faktor gilt das Wachstum und die im späten 18. Jahrhundert erreichte Hochblüte des protoindustriell-handelskapitalistisch organisierten Verlagswesens. Dieser Prozess, der nicht zuletzt durch die Entstehung von Zonen verdichteten ländlichen Gewerbes (Textilherstellung; Kleineisengewerbe; Holzverarbeitung, z. B. Spielzeugherstellung) geprägt war, schuf ebenfalls in großem Stil neue Erwerbsmöglichkeiten und proletarische Existenzen.

 

Beide Prozesse hielten das fortgesetzte Bevölkerungswachstum in Gang. In den 1830er Jahren öffnete sich dann jedoch die „malthusianische Falle“: Das Bevölkerungswachstum überschritt „eine Art Sättigungs­grenze der Wirtschaft“.[30] Es eilte dem unter den gegebenen Bedingungen möglichen Wachstum der Wirtschaft und des Arbeitsplatzangebots deutlich voraus.

 

Die Erwartungen hinsichtlich der Entwicklung der Lebensbedingungen der breiten Masse der Bevölkerung sind ambivalent: Die Massen­verelendung traf vor allem die sich ständig absolut und relativ ver­mehrenden Unterschichten. Deren Lebensbedingungen dürften sich kaum vor Ende der 1860er Jahre gebessert haben. Dafür spricht auch die Entwicklung des Reallohns, der während des Zeitraums 1820-1869 ten­denziell sank und erst seit den 1870er Jahren stieg.[31] Andererseits profitierten gewisse Gruppen ländlicher Produzenten (Mittel- und Großbetriebe) sowie Handel- und Gewerbetreibender von den neuen öko­nomischen Bedingungen und Chancen. Als Beleg sei darauf hingewiesen, dass die Agrarproduktivität während dieser Zeit im Mittel stets schneller wuchs als die Bevölkerung. Das beruhte nicht zuletzt auf einer auch durch die Agrarreformen vorangetriebenen Ökonomisierung des Einsatzes der Arbeitskräfte in der Landwirtschaft, durch den sich wiederum die in den feudalen Verhältnissen bisher versteckt gebliebene Arbeitslosigkeit (u. a. saisonale Unterbeschäftigung) vor allem für die vielen Landlosen in offene Arbeitslosigkeit wandelte.[32] Erinnert sei auch an den per­manenten relativen Überschuss an anlagefähigem Kapitel in Deutschland bis in die 1850er Jahre hinein.[33] Dieser bestand trotz der hohen In­vestitionstätigkeit während der 1830er und 1840er Jahre, die Richard Tilly aufgezeigt hat.[34] Man darf folgern, dass sich die Lebensbedin­gungen großer Gruppen der Bevölkerung auseinander entwickelten, dass insofern die soziale Ungleichheit zunahm. Für die große Masse muss allerdings von deutlichen Verschlechterungen ausgegangen werden.

 

Vor diesem Hintergrund erscheint nun die Hypothese einer durch­schnittlichen Sterblichkeitsverstetigung und -senkung während der ersten Hälfte des 19. Jahrhunderts äußerst gewagt. Sie impliziert, dass auch in den ständig weiter verarmenden Unterschichten immer mehr Men­schen überlebt haben. Ihr Gewicht war nämlich in der Bevölkerung so groß, dass es auf den Verlauf der Durchschnittssterblichkeit durchschlagen musste. Diese konnte nur trendmäßig zu sinken beginnen, wenn sich während der schwierigsten Phase des Pauperismus auch die Überlebenschancen der Unterschichten gebessert hätten. Aus dem Forschungsüberblick bei Wehler ist eher das Gegenteil zu folgern.[35] Je­doch waren, was bereits betont wurde, nicht nur die sozialen, son­dern auch die regionalen Disparitäten groß. Sie wuchsen sogar noch bis ins späte 19. Jahrhundert. Somit ist es notwendig, die Tendenzen der Sterblichkeitsentwicklung im Folgenden möglichst konkret und in regionaler Differenzierung zu untersuchen.

 

 

2.3       Die Entwicklung der Sterblichkeit in Deutschland

 

2.3.1    Sterblichkeitstendenzen seit dem späten 18. Jahrhundert

 

In diesem Abschnitt wird die These überprüft, dass seit dem späten 18. Jahrhundert die Sterblichkeit in Deutschland trendmäßig zu sin­ken begann und sich dabei verstetigte. Die Kennziffern der Sterb­lichkeitsentwicklung[36] wurden für verschiedene Teilperioden berech­net, die sich durch unterschiedliche Sterblichkeitsbedingungen aus­zeichnen: 1740-80, 1780-1805 und 1816-1868. Von 1740 bis 1780 stieg der Sterblichkeitsindikator in fast allen Orten an (vgl. Tabellen 1 u. 2 im Anhang).[37] Dagegen sank er überwiegend bereits zwischen 1780 und 1805. Das folgt auch aus den Berechnungen mit echten Sterblich­keitsziffern, die allerdings nur wenige Orte/Regionen betreffen (vgl. Tabelle 2 im Anhang).[38] Dass aber nach 1816 mit Sicherheit ein trendmäßiger Sterblichkeitsrückgang in großen Teilen Deutschlands stattfand, teilweise als Fortsetzung aus der 2. Teilperiode, belegt das Ergebnis der Trenduntersuchungen für die Periode 1816-1868. Es ist methodisch gut abgesichert, weil anhand echter Sterblichkeitsda­ten für größere Regionen berechnet (vgl. Tabelle 3 im Anhang).[39]

 

Ein Problem werfen in diesem Zusammenhang die sehr niedrigen Sterb­lichkeitswerte der Jahre 1819-1826 auf. Die anschließend zunächst bis zum Beginn der 1830er Jahre wieder ansteigenden Ziffern verzer­ren viele Trendverläufe. Deshalb wurden zusätzlich Trends für die Teilperiode 1830-68 berechnet. Seit Beginn der 1830er Jahre fallen die Trends für die größeren deutschen Staaten durchweg, mit Ausnahme von Bayern (vgl. Schaubild 1). Auffällig ist das unterschiedliche Niveau der Durchschnittssterblichkeit, das in den Trends zum Aus­druck kommt. Das obere und das untere Extrem bilden Württemberg mit einer sehr hohen Sterblichkeit, die auch gegen Ende der Untersu­chungsperiode noch weit über dem deutschen Durchschnitt lag, und – deutlich nach unten abgesetzt – Schleswig-Holstein. In den übrigen Staaten lag die Sterblichkeit auf einem vergleichbar mittleren Ni­veau.

 

Der Trend für Preußen ist ein grober Mittelwert über abweichende re­gionale Tendenzen. Sie kommen in Schaubild 2 zum Ausdruck, in dem die Sterblichkeitstrends für ausgewählte preußische Provinzen darge­stellt sind. Auch hier fallen alle Trends im Prinzip. Die Ausnahme bildet Ostpreußen, wo – ähnlich wie in Bayern –  die Sterblichkeit bis zum Ende der Untersuchungsperiode trendmäßig anstieg. Insgesamt lag das Sterblichkeitsniveau in den drei östlichen Provinzen stets 20%-25% über dem der Westprovinzen (inkl. Brandenburg).[40] Auffällig schließlich, dass die Rate der Trendsenkung in fast allen Provinzen etwa gleich groß war, nur dass man eben von einem jeweils anderen Ni­veau ausging.

 

Man kann als erstes Fazit festhalten, dass die eingangs formulierte These haltbar ist, wonach in vielen Teilen Deutschlands bereits im späten 18. Jahrhundert ein Rückgang der durchschnittlichen Sterb­lichkeit begann, der sich im überwiegenden Teil Deutschlands trend­mäßig bis zum Ende des 2. Drittels des 19. Jahrhunderts fort­setzte.[41]

 

Weniger eindeutig fällt die Prüfung der Variationskoeffizienten aus, mit Hilfe derer die Schwankungsintensität der Sterblichkeit bzw. ihres Indikators gemessen wird (vgl. Tabellen 1-3 im Anhang). In fast allen Regionen nahm zwar die Schwankungsintensität von der 1. zur 2. Periode ab. Andererseits stieg sie in der Zeit von 1816-68 in einigen Fällen auch wieder an.

 

Cum grano salis darf dennoch gefolgert werden, dass die Schwankungs­intensität der Sterblichkeit in weiten Teilen Deutschlands bereits im späten 18. und frühen 19. Jahrhundert abnahm und dass sich diese Tendenz seit den 1820er Jahren noch verstärkte.

 

Allerdings gilt diese Aussage keineswegs für alle Regionen in glei­cher Weise. Nicht nur hatten die Sterblichkeitstrends in den ver­schiedenen Regionen Deutschlands ein unterschiedliches Niveau. Noch krasser waren die Differenzen der Schwankungsbreite um die Trends. Diesen Sachverhalt verdeutlicht Schaubild 3, in dem die Sterblich­keitsentwicklung für Bayern, Württemberg und Ostpreußen zwischen 1830-1868 dargestellt ist. Es handelt sich – wie bereits anhand der Trendverläufe gezeigt – um Regionen mit besonders ungünstiger Sterb­lichkeitsstruktur. Um einen historisch relevanten Maßstab dafür zu bieten, wurden die jeweiligen Sterblichkeitsziffern auf diejenige von Schleswig-Holstein (= 100) bezogen. Man kann deshalb sofort er­kennen, um wieviel Prozent die Sterblichkeit in den betrachteten Re­gionen über derjenigen von Schleswig-Holstein lag. Während in den 1830er und 1840er Jahren vor allem die württembergische Sterblich­keit diejenige von Schleswig-Holstein um 60%-80% übertraf, erreichte Ostpreußen in den späten 1840er und frühen 1850er Jahren Spitzenab­weichungen von über 100%. Fast dieselben Werte errechnen sich übri­gens für die Provinz Posen.

 

Dass diese extremen Übersterblichkeitsverhältnisse in annähernd dem­selben Maße auch innerhalb Preußens gelten, zeigt Schaubild 4, in dem als Bezugsmaßstab der Trend der preußischen Durchschnittssterb­lichkeit fungiert. Die Sterblichkeitsziffern von Schleswig-Holstein lagen mit geringen Schwankungen um etwa 20% unter dem preußischen Trend, die von Ostpreußen und Posen mit starken Schwankungen häufig um 50%-80% darüber. Bemerkenswert ist in diesem Zusammenhang, dass sich die Sterblichkeitsbedingungen in den preußischen Ostprovinzen von denen fast aller anderen preußischen Provinzen und der übrigen deutschen Staaten unterschieden. Nach den Epidemie-Jahren 1831/32 senkte sich nämlich das Sterblichkeitsniveau in den Ostprovinzen bis Mitte der 1840er Jahre, vor allem relativ zum preußischen Durchschnitt. Dagegen verschlechterte es sich absolut und relativ stark von etwa 1845 bis 1855. Hier machten die Ostprovinzen nochmals Jahre mit Bevölkerungskrisen (Sterbeüberschüssen) durch und reali­sierten überhaupt erst ihre Sterblichkeitsmaxima.

 

In allen übrigen größeren Regionen lagen die Sterblichkeitsmaxima in den 1830er Jahren, und Sterbeüberschüsse traten zu der Zeit schon längst nicht mehr auf, selbst nicht in Jahren kurzfristig stark er­höhter Sterblichkeit. (Vgl. dazu die Daten in Tabelle 4 im Anhang). Zwar stieg in vielen Regionen die Sterblichkeit während der Mitte der 1840er Jahre nochmals an. Aber so hohe Niveaus wie 1831/32 bzw. 1837 erreichte sie nur in den preußischen Ostprovinzen bzw. in ande­ren primär agrarisch geprägten Gebieten.

 

Imhofs o. g. These von der Ablösung des Zeitalters der offenen Be­völkerungskrisen durch das der larvierten seit den 1820er Jahren ist zu modifizieren: Die Wende fand während der 1830er Jahre statt, und zwar im Durchschnitt der größeren deutschen Staaten, nicht jedoch in allen Unterregionen. Nicht nur die preußischen Ostprovinzen, sondern auch Teile anderer deutscher Staaten (bes. Bayerns und Württembergs) dürften bis in die 1850er Jahre hinein immer wieder von offenen Bevölkerungskrisen heimgesucht worden sein.

 

Dennoch und vor allem auf höherem Aggregationsniveau erscheint die Aussage haltbar, dass seit dem späten 18. Jahrhundert eine allmähli­che Verstetigung des Bevölkerungswachstums in Deutschland stattfand und dass im größten Teil Deutschlands die Durchschnittssterblichkeit in immer mehr Regionen trendmäßig zu sinken begann, spätestens seit den 1830er Jahren. Das „Zeitalter der Seuchen und Hungersnöte“ ging während des betrachteten Zeitraums zu Ende. Das heißt aber: Außer in den genannten Problemregionen haben sich während der Pauperismus-Pe­riode die Überlebenschancen auch der Unterschichten gebessert.[42] Um so dringlicher stellt sich die Frage nach den konkreten Bedingungen, unter denen dies geschehen konnte.

 

 

2.3.2    Entwicklung der altersspezifischen Sterblichkeit

 

Um den möglichen Einflussfaktoren näher zu kommen, sollte der bisher skizzierte Sterblichkeits-Befund differenziert werden. Zu fragen ist, welche Altersklassen in welchem Umfang am Sterblichkeits­rückgang beteiligt waren. Mit Blick auf Westeuropa hat Anderson die globale These aufgestellt, dass vor allem Erwachsene, hier primär die Altersgruppe der 20-30jährigen, den Sterblichkeitsrückgang trugen.[43] Dagegen behauptet Lee, dass während der ersten Hälfte des 19. Jahrhunderts vor allem die Altersklassen 1-3 und 10-29 Jahre einen Zuwachs ihrer Lebenserwartung realisierten.[44] Insgesamt erscheint aber die Entwicklung der altersspezifischen Sterblichkeit während des frühen 19. Jahrhunderts, besonders auf aggregierter Ebene, noch so unklar, dass sie anhand eigener Berechnungen für den Zeitraum 1816-1867 überprüft werden soll.[45] Im Folgenden zunächst die wichtigsten Tendenzen aus den Daten für das Königreich Preußen (vgl. Schaubild 5 und Tabelle 5 im Anhang).

 

 

–          Alle Altersklassen realisierten während der 1820er Jahre ein Sterblichkeitsminimum. Anschließend stieg die Sterblichkeit teilweise wieder deutlich an und hatte Höhepunkte während der 1830er und 1850er Jahre. Insgesamt allerdings kann – wie oben dargestellt – von einem sinkenden Trend der Durchschnittssterblichkeit seit den 1830er Jahren ausgegangen werden.

 

–          Im Gegensatz zu diesem Trendverlauf nahm die Säuglingssterblichkeit über die Untersuchungsperiode hin trendmäßig zu.

 

–          Das gilt auch für die Altersklasse 1-14 Jahre insgesamt: Hier fand bis 1851 ein Sterblichkeitsanstieg statt. Erst danach sank die Sterblichkeit tendenziell.

 

–          In der Teilaltersklasse 1-5 Jahre (erst ab 1837 berechenbar) wies die Sterblichkeit bis 1867 ebenfalls keinen trendmäßigen Rückgang auf. In der anderen Teilklasse, den 5-14jährigen, gab es allerdings nach 1851 einen starken Rückgang.

–          Während sich in der Altersklasse 15-60 Jahre zunächst ein Sterblichkeitsanstieg bis 1837 einstellte, kann anschließend ein Rückgang bis 1867 konstatiert werden.

 

–          Am meisten profitierte offenbar die Altersklasse über 60 Jahre, deren Sterblichkeit – wenn auch unter großen Schwankungen – tendenziell rückläufig war und während der 1860er Jahre sogar den bis dahin niedrigsten Wert von 1820 klar unterschritt.

 

Fasst man diese Detailinformationen zusammen, dann bleiben als Al­tersklassen, die zumindest nach 1837 eine Verbesserung der Sterb­lichkeitsverhältnisse realisierten und insofern den Trend der preußischen Durchschnittssterblichkeit trugen, Kinder und Jugendliche zwischen die 5- 15 Jahre, die 15-40jährigen und die Alten über 60 Jahre. Kinder unter 5 Jahre und Säuglinge erlebten in der ersten Hälfte des 19. Jahrhunderts keinen trendmäßigen Sterblichkeitsrückgang. Die bei einigen Altersgruppen sichtbaren Anzeichen für eine Verbesserung der Überlebensbedingungen nach 1857 dürfen nicht zu hoch bewertet werden, weil die Beobachtungsperiode sehr kurz ist und während der 1870er Jahre meist noch einmal eine Verschlechterung folgte.

 

Auch die Berechnung altersspezifischer Sterblichkeitsziffern für das Königreich Sachsen zeitigt keine wesentlich anderen Ergebnisse (vgl. Schaubild 6 und Tabelle 6 im Anhang). Leider liegen die Grunddaten erst ab 1834 vor, doch wird auf diese Weise immerhin ein Vergleich mit den preußischen Werten nach Überschreiten des Sterblichkeits-Ma­ximums möglich.

 

–          Zunächst die bereits oben erwähnte Globalinformation zur Erinnerung: Im Durchschnitt aller Altersklassen sank die Sterblichkeit trendmäßig bis zum Ende der 1860er Jahre.

 

–          Davon wich die Säuglingssterblichkeit stark ab, indem sie 1849 ihren niedrigsten Wert erreichte und in der Folgezeit tendenziell wieder anstieg.

 

 

–          Stark schwankend, aber keinesfalls trendmäßig sinkend stellt sich die Sterblichkeit der Kinder und Jugendlichen von 1-14 Jahre dar. Hier könnte allerdings differenziert werden, indem man die 1-6jährigen von den 7-14jährigen unterscheidet: Beide Altersklassen haben zwar um 1849 ein Sterblichkeitsmaximum, aber bei den

1-6jährigen liegt die Sterblichkeit während der frühen 1860er Jahre über dem Niveau der 1830er Jahre, bei den 7-14jährigen dagegen darunter. Bei Letzteren kann also von einer längerfristigen tendenziellen Sterblichkeitssenkung gesprochen werden.

 

–          Auffällig ist, dass bei den Erwachsenen im Erwerbsalter zwischen 15 und 60 Jahren die Sterblichkeit während des Untersuchungszeitraums nahezu stabil war. Sie sank demnach nicht. Das gilt im Prinzip für alle Untergruppen dieser Altersklasse. Die
Stabilität war jedoch in den höheren Altersklassen ab 40 Jahre größer als bei den Jüngeren.

 

–          Einen deutlichen Sterblichkeitsrückgang erlebten dagegen die Altersklassen über 60 Jahre, nachdem 1843 das Maximum überschritten war.

 

Der trendmäßige Rückgang der durchschnittlichen Sterblichkeit seit den späten 1830er Jahren wurde also in Preußen wie in Sachsen von bestimmten Altersgruppen getragen. Mit Sicherheit nicht beteiligt waren die Säuglinge und die Kinder bis zum 5. Lebensjahr, deren Sterblichkeit trendmäßig eher anstieg. Dagegen erscheinen in Sachsen die Kinder über 5 Jahre und in beiden Staaten die Jugendlichen und Erwachsenen von 15 bis ca. 40 Jahre sowie die alten Menschen über 60 Jahre als diejenigen Altersklassen, die zur Sterblichkeitssenkung beitrugen.

 

Eine regionale Differenzierung erscheint wünschenswert. Die Ermitt­lung altersspezifischer Sterblichkeitsziffern für ausgewählte preußische Provinzen stellt eine Annäherung dar. Leider können die Berechnungen erst mit dem Jahr 1843 beginnen und auch nur relativ grobe Altersklassen berücksichtigen. Die Ergebnisse sind in den Tabellen 7-10 im Anhang dargestellt.[46] Im Folgenden werden die Kenn­ziffern für die preußischen Provinzen miteinander verglichen. Dabei bleiben die großen Niveauunterschiede außer acht, die wie folgt cha­rakterisiert werden können: In allen betrachteten Altersklassen lag die Sterblichkeit in den Provinzen Ostpreußen, Westpreußen, Posen und Schlesien sowie in der Stadt Berlin typischerweise über dem preußischen Durchschnitt, am höchsten in Posen, während die in Bran­denburg (ohne Berlin) leicht, die in der Rheinprovinz und in Westfa­len deutlich unterdurchschnittlich ausfielen. Demnach waren die Sterblichkeitsverhältnisse insgesamt in den erstgenannten Regionen erheblich ungünstiger als in den letztgenannten. Ebenso wird nicht auf die Niveauunterschiede zwischen Frauen und Männern eingegangen, die darin bestehen, dass Frauen in allen ausgewiesenen Altersklassen und im Prinzip zu allen Zeitpunkten eine teilweise erheblich niedri­gere Sterblichkeit als die Männer aufwiesen.[47]

 

Hier kommt es einzig auf die trendmäßige Entwicklung der altersspe­zifischen Sterblichkeit an. Das folgende Schema vermittelt einen Überblick über die fraglichen Tendenzen in den verschiedenen Regio­nen.

 

 

Entwicklungstendenz[48] der altersspezifischen Sterblichkeit[49]

   in ausgewählten preußischen Provinzen von 1843 bzw. 1849 bis 1867

 

Altersklasse (in Jahren)

 

Provinz

 

Sex 0<1 1<14 15-60 >60
Posen

 

w

m

– (1855)

– (1849)

– (1852)

– (1852)

– (1852)

– (1858)

– (1855)

– (1855)

Westpreußen

 

w

m

– (1858)

– (1858)

– (1852)

– (1852)

– (1852)

– (1852)

– (1855)

– (1855)

Ostpreußen

 

w

m

– (1852)

– (1852)

– (1852)

– (1852)

– (1855)

– (1855)

– (1855)

– (1855)

Schlesien

 

w

m

+

+

+

+

– (1855)

– (1855)

– (1855)

– (1855)

Stadt Berlin

 

w

m

+

+

+

+

– (1849)

– (1849)

– (1849)

– (1849)

Brandenburg

 

w

m

+

+

+

+

– (1852)

– (1855)

– (1855)

– (1855)

Westfalen

 

w

m

– (1858)

-(1858)

+

+

0

+

– (1855)

– (1855)

Rheinprovinz

 

w

m

– (1858)

– (1858)

+

+

0

+

– (1858)

– (1855)

 

Das Ergebnis dieser Übersicht ist durchaus überraschend. Mit Blick auf die verschiedenen Altersklassen erscheinen vor allem folgende Tendenzen bemerkenswert:

 

  1. Soweit überhaupt eine Senkungstendenz ausmachbar ist, setzte sie sich in der Regel relativ spät durch, nämlich erst im Verlauf der 1850er Jahre. Prinzipiell gilt das für die Altersklasse über 60 Jahre, die in allen Provinzen nach 1855 eine Sterblichkeitssenkung erlebte (Ausnahme: Berlin, dort bereits seit 1849). Etwas früher begann die Senkungstendenz in der Altersklasse 15-60 Jahre, oft nach 1852, in Berlin wiederum bereits 1849. Eine beachtliche Ausnahme machen hier die Westprovinzen.

 

  1. Die westlichen Provinzen weisen ein gänzlich anderes Entwicklungsmuster der altersspezifischen Sterblichkeitsziffern als die mittleren und östlichen Provinzen auf. Kinder und Erwachsene bis zum 60. Lebensjahr erfuhren hier nach 1849 keinen trendmäßigen Sterblichkeitsrückgang.

 

  1. Ein drittes wichtiges Ergebnis scheint zu sein, dass in den östlichen Provinzen (mit Ausnahme Schlesiens) während der 1850er Jahre sogar eine Senkung der Säuglingssterblichkeit stattfand.

 

Betrachtete man diese Resultate für sich, wären sie verwirrend: Es wäre ganz unerklärlich, wie die durchschnittlichen Senkungen der Sterblichkeit, besonders in den oben erwähnten Altersklassen, seit Ende der 1830er Jahre zustande gekommen sein sollten. Aber die re­gionalen Besonderheiten verweisen auf die Lösung des Rätsels: Die westlichen Provinzen Preußens hatten ja, wie oben gezeigt, seit den frühen 1830er Jahren einen deutlich ausgeprägten Rückgang der durch­schnittlichen Sterblichkeit erlebt. Daran waren offenbar vor allem ältere Kinder und Jugendliche bzw. junge Erwachsene beteiligt. Die sinkende Trendrichtung tritt aber nur in Erscheinung, wenn die 1830er Jahre in die Untersuchung einbezogen werden; in dieser Periode hatten die westlichen und mittleren preußischen Provinzen ihre Sterblichkeitsmaxima. Blendet man diese Periode aus und setzt erst Ende der 1840er Jahre ein, auf einem gegenüber den frühen 1850er Jahren relativ niedrigen Niveau, so finden in der Folgezeit bis Ende der 1860er Jahre keine langfristigen Sterblichkeitsrückgänge mehr statt. Anders in den Ostprovinzen: Hier liegen die Maxima der Durchschnittssterblichkeit erst Anfang der 1850er Jahre. Deshalb ergeben sich auch erst in der Folgezeit sinkende Sterblichkeitstrends.

 

Will man nach diesen Interpretationen nochmals zur Ausgangsfrage zu­rückkehren, welche Altersklassen zum durchschnittlichen Sterblich­keitsrückgang während der ersten Hälfte des 19. Jahrhunderts beitru­gen, ist man in einer schwierigen Lage. Die Datenlücken gestatten es nicht, die Entwicklung der altersspezifischen Sterblichkeit für größere Aggregate (preußische Provinzen) während des Zeitraums vor 1849 anhand statistischer Kennziffern zu untersuchen. Man kann nur aus den Besonderheiten des obigen Schemas einerseits, den bekannten Trendverläufen der Durchschnittssterblichkeit in den preußischen Provinzen andererseits einige indirekte Schlüsse ableiten. Zumindest für Berlin, Brandenburg, die Rheinprovinz und Westfalen darf wohl gefolgert werden, dass in den Altersklassen 1-14 und 15-60 Jahre die Sterblichkeitsmaxima jeweils bereits während der frühen 1830er Jahre überschritten wurden. Gemessen daran realisierten diese Altersklas­sen in den genannten Regionen tatsächlich schon vor 1850 tenden­zielle Sterblichkeitssenkungen. Im Fall von Schlesien sprechen dage­gen alle Informationen dafür, dass während des Untersuchungszeitraums keine trendmäßige Sterblichkeitssenkung in den jüngeren Altersgrup­pen stattfand. Die Ostprovinzen wiederum erscheinen als Nachzügler, bei denen die oben konstatierten Tendenzen der Sterblichkeitssenkung nach 1852 oder 1855 zudem problematisch sind, weil der verbleibende Betrachtungszeitraum zu kurz ist.

 

Die von Lee und Wehler vertretene These bezüglich der Entwicklung der altersspezifischen Sterblichkeit muss vor dem Hintergrund dieser Ergebnisse vorsichtiger beurteilt werden: Soweit sie kleine Kinder (bis zum 5. bzw. 7. Lebensjahr) betrifft, gilt sie sicher nicht im Durchschnitt solcher Staaten wie Preußen und Sachsen. Dass aber Kin­der und Jugendliche oberhalb dieser Altersgrenze möglicherweise be­reits während der ersten Hälfte des 19. Jahrhunderts trendmäßige Rückgänge ihrer Sterblichkeit, vor allem in den nord-westlichen und mittleren preußischen Provinzen, erfahren haben, ist mit den hier dargestellten Berechnungen und Überlegungen verträglich. Anderer­seits nehmen Lee und Wehler nicht an, dass die Sterblichkeit in den Altersklassen zwischen 15 und 30 bzw. 15 und 40 Jahre gesunken sein könnte. Das wiederum erscheint nun doch ziemlich wahrscheinlich, und zwar auch in den Ostprovinzen. Als sicher kann gelten, dass die Sterblichkeit der Übersechzigjährigen generell abgenommen hat.

 

Die regionalen Muster dieser Entwicklungen lassen sich wegen der Da­tenmängel nicht klar genug herausarbeiten. Allerdings gibt es inzwi­schen einschlägiges Material aus Familien-Rekonstitutions-Studien, das zur Überprüfung der genannten These und zur Präzisierung der re­gionalen Variationen herangezogen werden kann. Einschlägige Mo­dellrechnungen auf breiterer Materialbasis präsentiert z. B. Knodel, dessen neueste Studie wohl den Stand der historisch-demographischen Forschung in Bezug auf Deutschland markieren dürfte. Er benutzt Da­ten für 14 Dörfer aus verschiedenen deutschen Regionen, die anhand eines Modells standardisiert werden, um die Entwicklung der Wahr­scheinlichkeit von Neugeborenen in Ost-, Nord-, West- und Süd­deutschland zu schätzen, vor dem 10. Lebensjahr zu sterben. Es zeigt sich, dass diese Wahrscheinlichkeit in allen Regionen während der er­sten Hälfte des 19. Jahrhunderts – im Vergleich zum 18. Jahrhundert – deutlich abgenommen hat, in einigen Fällen schwächer (Baden, Bay­ern), in anderen stärker (Friesland, Waldeck).[50] In einer anderen Auswertung dieser Daten kommt Knodel zu dem Schluss, dass die Überlebenschancen der Altersklassen 1 < 5 Jahre und 5 < 15 Jahre seit der Mitte des 18. Jahrhunderts im Durchschnitt seines Dörfer-Samples langfristig gewachsen sind.[51] Weitere Beispiele finden sich bei Imhof. Danach nahm die Lebenserwartung sowohl der 1jährigen, als auch die der 15- und der 50jährigen bis zur Mitte des 19. Jahrhunderts gegenüber 1780/1809 zu.[52] Diese Daten gelten für die Region Schwalm in Nordhessen.

 

Insgesamt deutet sich an, dass auf lokaler Ebene Daten gefunden werden können, die die fragliche These bestätigen. Andererseits scheint es, dass die widersprechenden Fälle (die man vermutlich in Bayern, Württemberg und in Teilen der ostelbischen Provinzen Preußens finden dürfte) nicht gleich gut aufgearbeitet sind. Die Reichweite von Folgerungen aus dem lokalen Material ist prinzipiell fraglich. Darüber hinaus bietet die Fülle der verfügbaren, im Detail jeweils variierenden Ergebnisse wenig Chancen, übergreifende Erklärungsmuster zu finden. Plausible Ansätze dazu gibt es bisher im Grunde nur für die regionalen Variationen der Säuglingssterblichkeit – und auch die sind nicht sehr elaboriert, so dass der Phantasie beim Erfinden neuer Hypothesen offenbar kein Zwang angelegt zu werden braucht.[53]

 

Die Veränderungen der Sterblichkeit im Kinder-, Jugendlichen- und Erwachsenenalter während der ersten zwei Drittel des 19. Jahrhunderts sind bisher nicht einmal versuchsweise erklärt worden. Anknüpfungspunkte könnte der Wandel des Todesursachen-Spektrums bie­ten, da die unterschiedliche Prävalenz von Krankheiten und Todesur­sachen auch auf die unterschiedliche Betroffenheit der Altersklassen verweist. Mehr dazu im folgenden Abschnitt, der allerdings über An­deutungen noch nicht hinauskommt. Die regionale Differenzierung wird hier außer acht gelassen.

 

 

2.3.3    Veränderungen des Todesursachen-Spektrums

 

Das Konzept des Epidemiologischen Übergangs stellt primär auf Verän­derungen des Todesursachen-Spektrums ab, von denen bisher nur am Rande die Rede war. Lassen sich die Veränderungen im deutschen Fall genauer datieren? Das zu prüfen ist sehr schwer, weil die Interpre­tation der Krankheitsbezeichnungen aus dem späten 18. und frühen 19. Jahrhundert – soweit überhaupt statistische Informationen der Art vorliegen – fast unüberwindliche Schwierigkeiten aufwirft. Dennoch scheinen beim derzeitigen Forschungsstand folgende Thesen haltbar zu sein:

 

  1. Die „großen Seuchen“ früherer Jahrhunderte waren bis zur Mitte des 19. Jahrhunderts verschwunden. Auch die neuen „großen Killer“ wie die Cholera erlangten meist nur regional oder lokal begrenzte Bedeutung.

 

Im preußischen Durchschnitt betrug z. B. 1831 die Cholera-Sterblich­keit 2,5 Promille. Die Gesamtsterblichkeit dieses Jahres stellte sich auf 35,6 Promille. Die Cholera machte demnach ganze 7% der Sterblichkeitsrate aus, die nach Abzug der Cholera-Toten mit 33,1 Promille immer noch – wahrscheinlich infolge einer Grippeepidemie – deutlich über den vorangegangenen und nachfolgenden Mittelwerten lag (Sterblichkeits-Mittel 1828-30 = 30,1 Promille, 1832-34 = 31,6 Pro­mille).[54] Allerdings waren einzelne Regionen sehr stark betroffen, bes. die Regierungsbezirke Bromberg, Marienwerder, Königsberg und die Stadt Berlin, wo die Cholera deutlich die Durchschnittssterb­lichkeit beeinflusste. Das gilt auch für die folgenden, jedoch rela­tiv weit auseinander liegenden Epidemiejahre. Dennoch ist sicher, dass die Cholera nie die Breitenwirkung älterer Seuchen erlangen konnte. Die Bedeutung dieser und anderer akuter Infektionskrankhei­ten ist im 19. Jahrhundert auch nicht annähernd mit der der Tuberku­lose zu vergleichen, die regelmäßig mindestens 10% der Gesamtsterb­lichkeit verursachte, in den Altersklassen über 30 Jahre meist sogar bis zu 50%.

 

  1. Andererseits hatten sich die Human-Crowd Diseases zu Kinderkrankheiten gewandelt. (Vgl. zur Illustration einige Zahlen aus der bayerischen Statistik, Tabelle 11 im Anhang).

 

  1. Darüber hinaus war durchschnittlich die Sterblichkeit an Pocken und in vielen Regionen auch die an Typhus, Ruhr, Tuberkulose und Keuchhusten trendmäßig rückläufig geworden.

 

  1. Andererseits hatten sich meist saisonal konzentrierte Magen-Darm-Infektionen („Sommergipfel“) zur Haupttodesursache bei Säuglingen und Kleinkindern entwickelt.[55]

 

Diese Wandlungen des Todesursachen-Spektrums unterstützen die bisher dargestellten Thesen zu den Grundlagen der durchschnittlichen und altersspezifischen Sterblichkeitsentwicklung. Mit allen Vorbehalten (wegen bisher ausstehender einschlägiger Untersuchungen) kann gefol­gert werden, dass das Ausbleiben der „großen Seuchen“ und die zumin­dest partielle Rückläufigkeit der unter 3. genannten Krankheiten als Todesursachen für eine Senkung der durchschnittlichen Sterblichkeit spricht. Die Bedeutung akuter Infektionskrankheiten für das Säug­lings- und Kleinkindalter und das Fehlen von wirksamen Abwehr- und Therapiemitteln macht es wiederum wahrscheinlich, dass Sterblich­keitssenkungen in diesen Altersklassen nur über deutliche Verbesse­rungen der Pflege und besonders der Ernährung der Kinder durchsetz­bar gewesen wären. Das Vordringen der Magen-Darm-Infekte jedoch spricht dagegen, dass derartige Verbesserungen bis zur Mitte des 19. Jahrhunderts in nennenswertem Maße Platz gegriffen haben. Insgesamt nahm angesichts des Bedeutungsverlusts derjenigen Krankheiten und Todesursachen, die gegenüber sozialen Unterschieden relativ indiffe­rent sind und als sozusagen „blindes Schicksal“ größere Populationen überfallen (Seuchen und akute Infektionskrankheiten), der Einfluss der sozio-ökonomischen Lebensbedingungen (Arbeits-, Einkommens-, Er­nährungs- und Wohnverhältnisse) auf die „Volksgesundheit“ während dieser Periode zu. Es etablierte sich eine zunehmend stärker ausge­prägte soziale Ungleichheit vor Krankheit und Tod.[56] Diese spiegelt sich auch primär in den regionalen Sterblichkeitsdifferenzen.

 

2.4       Fazit: Die Entwicklung der „Volksgesundheit“ im Spiegel der empirischen Ergebnisse

 

Die Trends und globalen Messergebnisse machen deutlich, dass sich die „Volksgesundheit“ während des späten 18. und der ersten Hälfte des 19. Jahrhunderts tendenziell gebessert hat. Im Verlauf der 1830er Jahre löste die Phase 2 des Epidemiologischen Übergangs in großen Teilen Deutschlands das Zeitalter der Seuchen und Hungersnöte end­gültig ab. Die Aussage muss allerdings differenziert werden: Es pro­fitierten offenbar vor allem die Erwachsenen von den die Sterblich­keit senkenden Entwicklungen, Jugendliche und Kinder ab dem 5. bzw. 7. Lebensjahr seltener, Kleinkinder und Säuglinge in der Regel gar nicht. Zudem waren die gewerbeintensiven Regionen begünstigt, die landwirtschaftlich geprägten dagegen überwiegend benachteiligt. Dar­aus folgt, gemessen an der Höhe der Durchschnittssterblichkeit (oder auch der Säuglingssterblichkeit), ein Gefälle von Süd-Osten nach Nord-Westen. Den durchschnittlichen Gesundheitsverbesserungen bei den mittleren und oberen Gesellschaftsschichten stand jedoch eine Stagnation und periodische Verschlechterung derselben in den Unter­schichten gegenüber. Die Hypothese des Pauperismus als zunehmender Massenverarmung eben der absolut und relativ wachsenden Unterschichten ist verträglich mit Verbesserungen der „Volksgesundheit“, abge­leitet aus trendmäßig sinkenden Sterblichkeitsziffern. Allerdings müssten die Bedingungen, unter denen das möglich ist, wohl konkreti­siert werden. Das soll im Folgenden geschehen.

 

 

 

  1. Tendenzen des Wandels der Lebensbedingungen und deren Auswirkungen

            auf die „Volksgesundheit“

 

Die folgenden Ausführungen stellen eine Sichtung von vorliegenden demographischen Studien dar, die unter der hier entwickelten Frage­stellung neu interpretiert werden. Sie haben den Stellenwert der Be­gründung von Desiderata weiterer Forschung.

 

3.1       Modellierung des Zusammenhangs von „Volksgesundheit“ und Lebensbedingungen

 

Die sozialgeschichtliche Literatur ist in Bezug auf die Klärung der oben bezeichneten Zusammenhänge wenig hilfreich. Ihr Anliegen war es vielmehr bisher vor allem, darzustellen, warum und wie sich während der ersten Hälfte des 19. Jahrhunderts unter dem Signum des Paupe­rismus die Überlebenschancen immer größerer Bevölkerungsgruppen ver­schlechterten und deren Sterblichkeit in die Höhe trieben.[57] Was da­gegen fehlt sind Hinweise auf sozio-ökonomische Verhältnisse, die unter den Bedingungen der Pauperismus-Epoche ein – wie auch immer elendes – Überleben und eine Senkung der Sterblichkeit erlaubten. Solche Verhältnisse lassen sich durchaus angeben.

 

Die gesuchte Verbindung von „Volksgesundheit“ und sozio-ökonomischen Lebensbedingungen könnten am ehesten sogenannte demo-ökonomische „Modelle“ herstellen, die Veränderungen der Bevölkerungsentwicklung auf den sozialen Wandel beziehen. Bestimmte Konstellationen der wichtigsten demographischen Kennziffern in Frühphasen und während des Demographischen Übergangs (Geburten- und Sterbeziffer, natürli­ches Bevölkerungswachstum, Heiratshäufigkeit und -alter) werden ver­knüpft mit den sie jeweils bedingenden sozio-ökonomischen Faktoren. Faktisch handelt es sich um idealtypische Konstrukte. Im Folgenden sollen zwei bedeutsame Übergangs-„Modelle“ herausgegriffen werden, die sich als das agrarische und das protoindustrielle bezeichnen lassen. Sie münden i. d. R. früher oder später in das industriell-urbane „Modell“.[58] Daneben gibt es natürlich weitere und vor allem Mischformen. Hier sind zunächst reine Formen anhand von Kennziffern formal zu beschreiben. Sie werden im Rahmen dieses Aufsatzes interpretiert als Überlebens-„Modelle“, da sie gute Überlebens­chancen für größere Bevölkerungsgruppen indizieren. Vom Idealtyp des vormodernen agrarischen „Modells“, das eine durch Brauchtum und soziale Kontrolle gesteuerte Abstimmung zwischen Nahrungsspielraum und Bevölkerungswachstum impliziert, wurde in beiden Übergangs-„Modellen“ abgewichen. Allerdings begünstigten die Konstellationen der Übergangs-„Modelle“ – ein Aspekt, der bisher in der Literatur eher vernachlässigt wurde – die verschiedenen Altersklassen in un­terschiedlicher Weise. Somit sind sie geeignet, nicht nur sinkende Trends der Durchschnittssterblichkeit zu erklären, sondern vor allem Variationen der Trendrichtung in verschiedenen Altersklassen, und das im Hinblick auf systematisch mit den demographischen Variablen interagierende sozio-ökonomische Faktoren.

 

Das agrarische Übergangs-„Modell“ ist charakterisiert durch stei­gende eheliche und traditionell niedrige uneheliche Fruchtbarkeit, leicht zunehmende Heiratsquote und unverändert hohes Heiratsalter bei Erstehe sowie durch sinkende Säuglings- und Kindersterblichkeit bei niedriger Jugendlichen- und Erwachsenensterblichkeit. Dagegen wird das protoindustrielle Übergangs-„Modell“ gekennzeichnet durch hohe eheliche und mäßig hohe uneheliche Fruchtbarkeit, hohe Heirats­quote, verbunden mit relativ niedrigem Heiratsalter bei Erstehe, durch tendenziell sogar steigende Säuglings- und Kindersterblichkeit bei sinkender Sterblichkeit der Jugendlichen und Erwachsenen. Diese Konstellationen hält das folgende Schema fest:

 

                                   Zwei demo-ökonomische Übergangs-„Modelle“

 

Variablen agrarisches Modell

 

protoindustrielles Modell
eheliche Fruchtbarkeit

 

++ ++
uneheliche Fruchtbarkeit

 

+
Heiratsquote

 

+ ++
Heiratsalter bei Erstehe

 

+
Sterblichkeit der

 

        Säuglinge

 

++
       Kinder

 

+
       Jugendlichen

 

       Erwachsenen

 

Legende: ++ = sehr groß/hoch; + = relativ groß/hoch; – = sinkend/niedrig

 

 

Die Variablen-Konstellationen hängen systematisch mit sozio-ökomi­schen Faktoren zusammen wie Erb- und Heiratsgewohnheiten („Prinzip der Stelle und der Nahrung“), Umfang des Heimgewerbes (Verlagswesen, Protoindustrie), Bevölkerungs- und Gewerbedichte, langfristige Konjunktur der Haupterwerbszweige, Intensität der Müttererwerbstätigkeit bzw. Arbeitsbelastung der Frauen und Mütter, typische Ernährungsweise der Säuglinge und Kleinkinder, Hygiene- und Wohnverhältnisse etc.[59] Je nachdem, welches „Modell“ nun in einer Region vorherrschte, ergaben sich daraus spezifische Muster der Bevölkerungsentwicklung und – abzulesen an den unterschiedlichen Trendrichtungen der altersspezifischen Sterblichkeit – auch der „Volksgesundheit“. In beiden „Modellen“ ist rasches Bevölkerungswachstum möglich: Im zweiten „Modell“ wird dies vor allem durch eine Zunahme der Heiratsquote, relativ niedriges Heiratsalter, steigende Geburtenziffer und sinkende Sterblichkeit der Jugendlichen und Erwachsenen bewirkt. Im ersten „Modell“ hängt die Bevölkerungszunahme dagegen eher von dem Umfang ab, in dem die Säuglings- und Kindersterb­lichkeit sinkt. Imhof hat, ohne sich ausdrücklich auf diese „Modelle“ zu beziehen, im Hinblick auf die demographischen Konse­quenzen eine analoge Gegenüberstellung vorgenommen, für die er die Begriffe System der Erhaltung und System der Verschwendung von Menschenleben prägte.[60] Die beiden „Modelle“ oder auch Systeme sol­len im Folgenden anhand beispielhafter empirischer Daten illustriert werden.

 

 

3.2       Empirische Belege

 

3.2.1    Das agrarische Übergangs-„Modell“: Leezen[61]

 

Während des späten 18. Jahrhunderts setzte im Kirchspiel Leezen in Holstein eine „Bevölkerungsexplosion“ ein. Sie wurde vornehmlich ge­tragen durch eine periodische Zunahme der Heiratsquote, einen leich­ten Anstieg der ehelichen Fruchtbarkeit und einen deutlichen Rück­gang der Säuglings- und Kindersterblichkeit sowie einen schwächeren der Erwachsenensterblichkeit. Das Bevölkerungswachstum beschleunigte sich vom Ende der 1820er bis in die 1840er Jahre hinein noch einmal, da die Zahl der Geburten weiter anstieg, während die Sterblichkeit trendmäßig sank. Erst seit dem Ende der 1840er Jahre schloss sich die Bevölkerungsschere, als der Geburtenrückgang einsetzte. Das Be­völkerungswachstum stabilisierte sich auf niedrigerem Niveau.

 

Hervorzuheben ist: Leezen realisierte während der ersten Hälfte des 19. Jahrhunderts einen sinkenden Trend der Durchschnittssterblich­keit. Diese ging von 28,1 (pro 1000 Lebende) in den Jahren 1767/71 über 21,6 (1803), 21,2 (im Mittel der Stichjahre 1835, 1840 und 1845) auf 18,4 im Jahre 1855 zurück.[62] Gegenüber dem späten 18. Jahrhundert sanken aber in Leezen nicht nur die Erwachsenen-, son­dern vor allem auch die Säuglings- und die Kindersterblichkeit ten­denziell. Dadurch nahm die Lebenserwartung dieser Altersklassen spürbar zu, was die folgende Übersicht verdeutlicht. Im übrigen sei darauf hingewiesen, dass hinsichtlich dieser Entwicklung keine sozia­len Differenzen (zwischen „Groß“- und Kleinbauern sowie Landarbei­tern) feststellbar sind.[63]

 

 

 

Sterbewahrscheinlichkeit von Kindern bis zum 15. Lebensjahr

                        in Leezen zwischen 1720 und 1869[64]

 

von 1.000 Lebendgeborenen starben bis zum Alter von

 

2 J. 5 J. 10 J. 15 J.

 

1720/1769

 

180 252 310 338
1770/1819

 

225 289 323 348
1820/1868

 

147 194 223 234

 

Auch die höheren Altersklassen realisierten während der ersten Hälfte des 19. Jahrhunderts Zugewinne ihrer Lebenserwartung, die jedoch weit weniger spektakulär ausfielen als die im Kinder- und Jugendlichenalter. Diese Entwicklung fand – wie Gehrmann hervorhebt – Entsprechungen in anderen norddeutschen Regionen, so in der Schwalm (Nordhessen) sowie in Holstein (Neuenbrook, Marne und Hohenfelde).[65] Sie unterscheidet sich dagegen stark von den Entwicklungen in proto-industriell geprägten Regionen – wie unten noch gezeigt wird – und von den in der Literatur häufig behandelten Regionen in Bayern, Württemberg sowie in den preußischen Ostprovinzen, wo Säuglings- und Kindersterblichkeit hoch waren und tendenziell während des frühen 19. Jahrhunderts sogar anstiegen.[66] Diese Situation verweist auf spezifische sozio-ökonomisch bestimmte Lebensbedingungen in Norddeutschland, die sich von denen in anderen Teilen Deutschlands unterschieden, hier aber –  und das ist in der Historischen Demographie ja bisher die Ausnahme – anhand des Fallbeispiels Leezen konkretisiert werden können.

 

In aller gebotenen Kürze die wichtigsten sozio-ökonomischen Fakto­ren, die die skizzierten demographischen Tendenzen bewirkten:[67] Die Einführung der holsteinschen Koppelwirtschaft im späten 18. Jahrhun­dert entlastete die Frauen von schwerer Feldarbeit; sie konnten nun länger stillen. Davon profitierten besonders die Säuglinge und Kleinkinder. Positiv wirkte auch der Übergang zur Milchwirtschaft, besonders zur Butterherstellung, seit den 1820er Jahren. Dadurch etablierten sich neue Sauberkeitsstandards, die die sogenannte künstliche Ernährung der Kleinkinder hygienischer machten und Infek­tionsrisiken minderten. Nach einer vorübergehenden Agrarkrise 1818-27 schuf eine gute landwirtschaftliche Absatzlage von 1828 bis Mitte der 1860er Jahre Beschäftigungschancen und ausreichende Einkommen für alle Bevölkerungsschichten. Insbesondere scheint sich schon im späten 18. Jahrhundert die Ernährungssituation der dem Säuglingsal­ter Entwachsenen deutlich gebessert zu haben. Die Resistenz gegen­über Infektionskrankheiten wuchs offenbar, was durch die Abnahme und das schließliche Ausbleiben der auf Mangel- und Fehlernährung beru­henden Frühjahrskrisen seit den späten 1760er Jahren indiziert wird.[68] In Leezen etablierte sich ein System der Erhaltung von Men­schenleben.

 

Die Intensivierung der Landwirtschaft bei gleichzeitiger allmähli­cher Besserung der Ertragslage konservierte andererseits bis Mitte des 19. Jahrhunderts den Kontrollmechanismus des Bevölkerungswachs­tums, der für das Ancien Regime typisch war: Das Heiratsalter blieb relativ hoch, ebenso die Wiederverheiratungsquote bei nur geringfügig steigender Heiratsquote; systematische Geburtenbeschränkung fand nicht statt. D. h., die ökonomischen Veränderungen und die dadurch ermöglichte günstige Versorgungslage bewirkten in Leezen gerade keine grundsätzliche Veränderung des demographischen Verhaltens, ob­wohl das anhaltende Bevölkerungswachstum im Prinzip nicht unproble­matisch war. Die wirtschaftliche Situation trug vielmehr die Bevöl­kerungsexpansion unter Beibehaltung der traditionellen Normen, bis sich die dörfliche Gemeinschaft seit der Mitte des 19. Jahrhunderts, nicht zuletzt aufgrund exogener Faktoren (Abwanderungssog in die Städte etc.), allmählich aufzulösen begann.[69]

 

 

3.2.2    Das protoindustrielle Übergangs-„Modell“: Spenge[70]

 

In dem durch verlegtes Heimgewerbe (Leinenspinnerei und -weberei) geprägten Kirchspiel Spenge bei Bielefeld begann während des späten 18. Jahrhunderts ein starker Geburtenanstieg, der sich bis in die 1830er Jahre (von einzelnen Krisenjahren abgesehen) fortsetzte. Die Zahl der Sterbefälle wuchs trendmäßig nicht im selben Umfang, so dass sich ein langfristiges Bevölkerungswachstum einstellte.

 

Charakteristisch war ein großer „Bevölkerungsdurchsatz“ – Mager spricht in diesem Zusammenhang von dem „heißen demographischen Klima Spenges“.[71] Das bedeutete: Relativ hohe Heiratsquote und niedriges Heiratsalter, besonders der Frauen; in Jahren guter Konjunktur stei­gende Raten unehelicher Geburten; insgesamt hohe (wenn auch infolge fehlender Bevölkerungsdaten nicht exakt zu bestimmende) Geburtenzif­fer, zumal Geburtenkontrolle nicht nachweisbar ist. In Spenge eta­blierte sich ein typisches Regime der Verschwendung von Menschenle­ben. Das kommt besonders in der relativ hohen Säuglings- und Kinder­sterblichkeit zum Ausdruck: Nur rd. die Hälfte der Geborenen er­reichte das 15. Lebensjahr.[72]

 

 

 

Säuglings- und Kindersterblichkeit in Spenge 1769/78-1859/68

                        (pro 100 Lebendgeburten)[73]

 

Periode Säuglingssterblichkeit Kindersterblichkeit

 

1769/1778

 

15,3 36,7
1779/1788

 

22,2 54,9
1789/1798

 

18,8 37,9
1799/1808

 

16,1 39,7
1809/1818

 

20,0 36,9
1819/1828

 

18,1 34,6
1829/1838

 

22,5 41,7
1839/1848

 

17,8 43,3
1849/1858

 

17,8 37,6
1859/1868

 

19,1 36,4

 

Die Situation verschlechterte sich noch während der 1830er/40er Jahre, der Endphase der Protoindustrialisierung. Zwar nahm die Säug­lingssterblichkeit während der 1840er Jahre etwas ab, doch stieg da­für die Kindersterblichkeit weiter an. Betroffen davon waren vor al­lem die Kinder der landlosen und fast ausschließlich von der Heimar­beit lebenden Heuerlinge, deren Sterblichkeit deutlich über der der Bauernkinder lag. Auffällig ist jedoch, dass die Lebenserwartung der Altersklassen ab 10 Jahre relativ gut war. Sie war während der er­sten Hälfte des 19. Jahrhunderts bei 10- und 15jährigen – trotz der schlechten Vergleichbarkeit der Periodenabgrenzungen – größer als z. B. in Leezen und hatte sich gegenüber den Verhältnissen im späten 18. Jahrhundert gesteigert.[74] Die Gesundheits- und Überlebensbedin­gungen der Säuglinge und Kleinkinder waren demnach im späten 18. Jahrhundert sehr ungünstig und verschlechterten sich im frühen 19. Jahrhundert sogar weiter. Dagegen profitierten die älteren Kinder, die Jugendlichen und Erwachsenen im längerfristigen Durchschnitt ge­sundheitlich von den Versorgungsbedingungen des protoindustriellen „Modells“.

 

Was waren die wichtigsten ökonomischen Hintergrundsfaktoren? Schlechte Wohnverhältnisse, mangelnde Hygiene, unzulängliche Ernäh­rung, vor allem zu früh einsetzende, permanente Mitarbeit im heimge­werblichen Arbeitsprozess machten bes. die Kinder zu den „Hauptleid­tragenden“ der Ausbreitung der Protoindustrie. Die Säuglinge waren durch die hohe Arbeitsbelastung der Mütter benachteiligt, die das Stillen erschwerte oder sogar unmöglich machte. Von den wirtschaft­lichen Bedingungen profitierten andererseits die Jugendlichen und Erwachsenen. Ihr zeitweise sogar gutes Einkommen erlaubte eine reichliche, ja selbst in Krisenphasen eine zumindest ausreichende Versorgung mit Nahrungsmitteln über den Markt. Nachhaltige Bevölke­rungskrisen gab es nur noch 1779 und 1781. Die gelegentlichen Ster­beüberschüsse im 19. Jahrhundert hinterließen keine nennenswerten Spuren. Die Bevölkerung Spenges hatte sich durch die protoindustri­elle Heimarbeit dem Gefahrenbereich der traditionellen Krisenmorta­lität weitgehend entzogen.

 

Die im ökonomischen Bereich ausgelösten Prozesse und Weichenstellun­gen bestimmten stark das demographische Verhalten: Solange die gute Konjunktur für Leinen anhielt, erhöhte sich die Heiratsquote, sank das Heiratsalter und stieg die Illegitimitätsquote. Das ließ die Ge­burtenziffer trendmäßig ansteigen. Als andererseits im Laufe der 1830er Jahre das Leinengewerbe in seine strukturelle Dauerkrise ab­sackte und Spenge zum typischen Pauperismusgebiet wurde, stieg das Heiratsalter wieder, ging die Heiratsquote zurück und nahm die Ille­gitimitätsquote ab. Der Übergang zu den Verhaltensweisen des indu­striell-urbanen „Modells“ konnte nicht vollzogen werden; stattdessen fand vorübergehend eine Art Rückkehr zu einem etwas deformierten agrarisch-traditionellen demographischen Muster statt.

 

Bei Spenge dürfte es sich auch in dem Sinne um ein demo-ökonomisches „Modell“ handeln, als anzunehmen ist, dass viele protoindustriell ge­prägte Regionen aufgrund ähnlicher sozio-ökonomischer Bedingungen die dargestellte Konstellation demographischer Variablen realisier­ten.[75] Andere „Modelle“ sind denkbar, lassen sich hier aber nicht konkretisieren. So könnte beispielsweise Oberschwaben (Württemberg) ein „Modell“ für jene Regionen abgeben, in denen hohe Fruchtbarkeit und gleichzeitig aber extrem hohe Säuglings- und Kindersterblichkeit trotz günstiger Überlebensbedingungen der älteren Kinder, der Ju­gendlichen und Erwachsenen doch nur zu mäßigem Bevölkerungswachstum führen. Auch hier ist das Nicht-Stillen der Säuglinge und die Fehl­ernährung der Kleinkinder als Hauptursache der überhöhten Sterb­lichkeit anzusehen.[76] Doch waren die ökonomischen Bedingungen für die starke Arbeitsbelastung der Mütter und die gelegentlich als Gleichgültigkeit gedeutete Einstellung zum Überleben der Kinder in dieser Region andere als in der Protoindustrie. Oberschwaben würde eine Variante des agrarischen Übergangs-„Modells“ abgeben, das mit Leezen kontrastiert, indem es ein System der Verschwendung von Men­schenleben im agrarischen Milieu repräsentiert.

 

Insgesamt kann die Konkretisierung derartiger demo-ökonomischer Mo­delle zur Interpretation von abweichenden Entwicklungen der alters­spezifischen Sterblichkeit (hinsichtlich der unterschiedlichen Ten­denzen in verschiedenen Altersklassen und/oder Regionen) als For­schungsdesiderat gelten. Hier sollte der potenzielle Ertrag eines solchen Ansatzes skizziert werden.

 

 

 

  1. Fazit: „Volksgesundheit“ und Pauperismus

 

Seit den 1820er Jahren, teilweise bereits im späten 18. Jahrhundert setzte in vielen Regionen Deutschlands ein trendmäßiger Rückgang der durchschnittlichen Sterblichkeit ein. Zugleich verstetigte sich die Sterblichkeitsentwicklung. Nur in wenigen Regionen Deutschlands gab es während der ersten Hälfte des 19. Jahrhunderts noch Jahre mit Sterbeüberschüssen. Fast überall waren die „offenen Bevölkerungskri­sen“ des Ancien Regime den „verdeckten“ gewichen. Zahlreiche Indika­toren sprechen insofern dafür, dass sich in dieser Zeit die Ablösung der ersten Phase des Epidemiologischen Übergangs durch die zweite Phase vollzog.

 

Der Sterblichkeitsrückgang betraf – soweit bisher zu sehen – primär die Erwachsenen, abgeschwächt auch die Jugendlichen, während sich die Sterblichkeit der Kinder und Säuglinge überwiegend kaum verän­derte. Teilweise stieg die Säuglings- und Kleinkindersterblichkeit sogar noch während der ersten Hälfte des 19. Jahrhunderts an. Unter diesem Aspekt waren die Differenzen zwischen unterschiedlich struk­turierten Wirtschaftsregionen und sozialen Gruppen allerdings sehr groß. Die regionalen Differenzen spiegeln sich zudem in unterschied­lichen Häufigkeiten der alters- und geschlechtsspezifischen Todesur­sachen. Sie verweisen auf deutliche Abweichungen in denjenigen Di­mensionen der allgemeinen Lebensbedingungen großer Bevölkerungsgrup­pen, die einen Einfluss auf die „Volksgesundheit“ besitzen. Als sol­che Dimensionen kommen in Betracht die Arbeitsbedingungen sowie die Einkommens-, Wohn- und Ernährungsverhältnisse. Diese hängen systema­tisch mit demographischen Variablen wie Heiratshäufigkeit und -alter sowie Fruchtbarkeit zusammen.

 

Um zu zeigen, wie sich der Einfluss der Lebensbedingungen auf die „Volksgesundheit“ erfassen lässt, wurden bestimmte Konstellationen der Dimensionen der Lebensbedingungen und der demographischen Vari­ablen idealtypisch modelliert. Anhand empirischer Daten wurden ein agrarisches und ein protoindustrielles Übergangs-„Modell“ beschrie­ben. Dabei wurde deutlich, dass sich in beiden „Modellen“ Chancen für die Verbesserung der „Volksgesundheit“ während des frühen 19. Jahr­hunderts ergaben – allerdings aus sehr unterschiedlichen Gründen und mit abweichenden Konsequenzen für die Betroffenen, speziell für die verschiedenen großen Altersklassen. Zugleich ließ sich zeigen, dass beide „Modelle“ auf vorübergehenden ökonomischen Bedingungen beruh­ten und sich deshalb in der zweiten Hälfte des 19. Jahrhunderts auf­lösten. Weitere „Modelle“ sind denkbar, können aber im Rahmen dieses Aufsatzes nicht spezifiziert werden. Die hier skizzierten Zusammen­hänge wurden als Überlebens-„Modelle“ charakterisiert, und zwar in dem Sinne, dass sie plausibel machen, warum bestimmte Altersklassen der Bevölkerung während des frühen 19. Jahrhunderts Senkungen der Sterblichkeit und eine Zunahme ihrer Lebenserwartung realisieren konnten. Sie verweisen auf Überlebensbedingungen, die selbst unter dem Vorzeichen des Pauperismus leichte Verbesserungen, und zwar auch in den Unterschichten, sowie den Beginn derjenigen großen Wandlungen der „Volksgesundheit“ zuließen, die als charakteristisch für die Phase 2 des Epidemiologischen Übergangs postuliert werden.

 

 

Der Weg zur Durchsetzung des hier nicht näher behandelten industri­ell-urbanen „Modells“ führte allerdings in großen Teilen Deutsch­lands, besonders auch in den rasch wachsenden Städten, durch eine längere Phase zunächst nochmals ansteigender durchschnittlicher Sterblichkeit und sich verschlechternder „Volksgesundheit“ während der 1870er und 1880er Jahre, ehe sich die Verhältnisse seit den 1890er Jahren grundsätzlich zum Besseren wendeten.

 

Fußnoten

[1]  Die Arbeiten an diesem Aufsatz wurden durch ein Projekt der Universität Konstanz gefördert. Der Verfasser dankt besonders Herrn Olaf Gerndt, M.A., für die umfangreichen Sterblichkeitsberechnungen. Veröffentlicht in Kümmel, W. F. (Hg.): Jahrbuch des Instituts für Geschichte der Medizin der Robert Bosch Stiftung, Bd. 7 für das Jahr 1988. Stuttgart 1990, S. 75-113.

Aus technischen Gründen ist es leider nicht möglich, die Tabellen und Schaubilder aus dem Anhang der Veröffentlichung hier zu reproduzieren. Ich bitte um Entschuldigung und muss interessierte Leser auf die genannte Publikation verweisen. Allerdings kann der Anhang auch als Datei beim Verfasser angefordert werden. Email: reinhardspree@googlemail.com

[2]  Vgl. u. a. Stolberg, M.: Umgang mit Krankheit und Pflegebe­dürftigkeit aus historischer Sicht. In: IKOL e.V. (Hg.): Zur Zu­kunftsentwicklung pflegender Versorgung. Referate und Diskussions­beiträge des Symposiums am 26. 6. 1987…, S. 8-16 (vervielf. MS); Un­schuld, P. U.: Zum Gesundheitsbegriff im 19. und 20. Jahrhundert. Beitrag zum Symposium „Bewertung von Gesundheit. Kriterien der Taug­lichkeit“. Akademie für Sanitätswesen der Bundeswehr, München, 12. 12. 1987 (vervielf. MS); Winau, R.: Krankheitsbegriff und Krank­heitskonzept. In: Rapp, F., u. Schütt, H.-W. (Hg.): Begriffswandel und Erkenntnisfortschritt in den Erfahrungswissenschaften. Berlin: Technische Universität 1987, S. 131-147. Zur Medikalisierung vgl. Spree, R.: Soziale Ungleichheit vor Krankheit und Tod. Zur Sozialgeschichte des Gesundheitsbereichs im Deutschen Kaiserreich. Göttingen 1981, S. 138-162; Labisch, A., u. Spree, R. (Hg.): Medizinische Deutungsmacht im sozialen Wandel. Bonn 1989, passim.

[3] Vgl. Zahlen aus der ersten Hälfte des 19. Jahrhunderts und eine Diskussion der Gründe für die Ungleichverteilung der verschiedenen Arztkategorien auf Stadt und Land bzw. auf wohlhabendere und weniger entwickelte Regionen deutscher Territorialstaaten: für Preußen bei Huerkamp, C.: Der Aufstieg der Ärzte im 19. Jahrhundert. Vom gelehrten Stand zum professionellen Experten: Das Beispiel Preußens. Göttingen 1985, Kap. 2; für Bayern bei Probst, C.: Die Medizinalreform in Bayern am Beginn des 19. Jahrhunderts und der Bestand an Krankenanstalten. In: Schadewaldt, H., u. Wolf, J. H. (Hg.): Krankenhausmedizin im 19. Jahrhundert. (Fs. f. H. Goerke), München 1983, S. 183-194; für Württemberg bei Drees, A.: Die Ärzte auf dem Weg zu Prestige und Wohlstand. Sozialgeschichte der württembergischen Ärzte im 19. Jahrhundert. Münster 1988, S. 163-172.

[4] Anders hat die Situation im Adel und im gehobenen Bürgertum ausgesehen, vgl. bes. Lachmund, J., u. Stollberg, G.: Zur medikalen Kultur des Bildungsbürgertums um 1800. Eine soziologische Analyse anhand von Autobiographien. In: Kümmel, W. F. (Hg.): Jahrbuch des Instituts für Geschichte der Medizin der Robert Bosch Stiftung, Bd. 6 für das Jahr 1987, Stuttgart 1989, S. 163-184. Für die ländlichen Verhältnisse Stolberg, M.: Heilkunde zwischen Staat und Bevölkerung. Angebot und Annahme medizinischer Versorgung in Oberfranken im frühen 19. Jahrhundert. Med. Diss. Technische Universität München 1986.

[5] Vgl. bezüglich der veröffentlichten Topographien besonders die Auswertung bei Brügelmann, J.: Der Blick des Arztes auf die Krank­heit im Alltag 1779-1850. Medizinische Topographien als Quelle für die Sozialgeschichte des Gesundheitswesens. Phil. Diss. Freie Uni­versität Berlin 1982. Ergänzend die älteren Beschreibungen dieser Quellen (in der Reihenfolge ihres Publikationsdatums) Fischer, A.: Beiträge zur Kulturhygiene des 18. und zu Beginn des 19. Jahrhun­derts im Deutschen Reiche. Leipzig 1928; Zeiss, H.: Medizinische To­pographien als volkskundliche Quellen. In: Archiv für Bevölkerungs­wissenschaft (Volkskunde) und Bevölkerungspolitik, 5 (1935); Brandl­meier, K. P.: Medizinische Ortsbeschreibungen des 19. Jahrhunderts im deutschen Sprachgebiet. Berlin 1942; Jusatz, H.: Die Bedeutung der medizinischen Ortsbeschreibungen des 19. Jahrhunderts für die Entwicklung der Hygiene. In: Artelt, W., u. Rüegg, W. (Hg.): Der Arzt und der Kranke in der Gesellschaft des 19. Jahrhunderts. Stutt­gart 1967.

Dazu kommen zahlreiche unveröffentlichte und bisher kaum aus­gewertete Topographien in den Archiven der deutschen Bundesstaaten, besonders für die drei süddeutschen Staaten. Vgl. als gelungenes Beispiel der laufenden Auswertungen unveröffentlichten topographischen Materials aus Bayern, die C. Probst in München betreut, Stolberg: Heilkunde.  Einen einschlägigen Bestand beschreibt Zorn, W.: Medizinische Volkskunde als sozialgeschichtliche Quelle. Die bayerische Bezirksärzte-Landesbeschreibung von 1860/62. In: Vierteljahrschrift für Sozial- und Wirtschaftsgeschichte, 69 (1982), S. 219-231.

[6] Der Verfasser hat 56 dieser Topographien in dem Projekt der Universität Konstanz „Die Entwicklung der >Volksgesundheit< in Deutschland, 1780-1850“ systematisch im Hinblick auf die Informatio­nen zu den Krankheits- und Sterblichkeitsverhältnissen, zur Stadt- und Wohnhygiene, zur Ernährungssituation, zu den Arbeitsbedingungen und zur Säuglings- bzw. Kleinkindpflege auswerten lassen. Über die vorläufigen Ergebnisse liegt ein Bericht vor unter dem Titel „Auf dem Wege zu einer historischen Epidemiologie für Deutschland – spä­tes 18. und frühes 19. Jahrhundert“.

[7] Sehr pauschal findet sich diese These bereits bei Anderson, O. W.: Age-specific Mortality in Selected Western European Countries with particular Emphasis on the Nineteenth Century. In: Bulletin of the History of Medicine, 29 (1955), S. 249; prononciert dazu in zahlreichen Studien vor allem McKeown, vgl. u.a. zusammenfassend McKeown, T.: The Modern Rise of Population. London 1976, S. 152-163. Zeitgenössische Ärzte äußerten sich drastisch über die Hilflosigkeit ihres Berufsstandes in Fragen der Therapie, z. B. Hirschel, B.: Com­pendium der Geschichte der Medicin von den Urzeiten bis auf die Ge­genwart… 2. Aufl., Wien 1862,

  1. 544-547. Zur „Vertrauenskrise“, die auf das „therapeutische Chaos jener Jahrzehnte folgte“, auch Ferber, C. v.: Soziologie für Mediziner. Eine Einführung. Berlin usw. 1975, S. 14.

[8] Überraschend dagegen die globalen positiven Wertungen der Effekte der Gesundheitspolitik und der Ansätze zu einer medizini­schen Versorgung im frühen 19. Jahrhundert in einiger neuerer Lite­ratur, bes. bei Lee, W. R.: Germany. In: Ders. (Hg.): European Demo­graphy and Economic Growth. London 1979,

  1. 149-160; Ders.: The Me­chanism of Mortality Change in Germany, 1750-1850. In: Medizinhisto­risches Journal, 15 (1980), S. 244-268.

Bezüglich der Pockenschutzimpfung vgl. Huerkamp, C.: The History of Smallpox Vaccination in Germany: A First Step in the Medicalization of the General Public. In: Journal of Contemporary History, 20 (1985),

  1. 617-635. Hier fehlt eine Darstellung des Gewichts der Pocken als Todesursache vor und nach der Einführung der Impfung. Entsprechend wirkt die Behauptung, die Pockenschutzimpfung habe einen positiven Einfluss auf den Sterblichkeitsrückgang gehabt, unge­nügend begründet. Die notwendige statistische Grundlage liefert da­gegen Mercer, primär für England, aber auch unter Einbeziehung deut­scher Daten. Er kommt zu dem Ergebnis, dass die Einführung der Pockenschutz-Impfung ganz maßgeblich zur Senkung der Durchschnitts­sterblichkeit seit Beginn des 19. Jahrhunderts beigetragen habe, und zwar in Deutschland im Umfang eines Rückgangs der Sterblichkeit um ca. 5 Promille. Vgl. Mercer, A. J.: Smallpox and Epidemiological-Demographic Change in Europe: The Role of Vaccination. In: Population Studies, 39 (1985), 2, S. 303 u. 306ff.

Skeptisch bezüglich der behaupteten Wirkung der Pockenschutz­impfung auf die Durchschnittssterblichkeit in der ersten Hälfte des 19. Jahrhunderts ist z. B. Brügelmann, und zwar wegen der von ihm nachgewiesenen Schwierigkeiten, die Pockenschutzimpfung als Neuerung in der einfachen Bevölkerung zu popularisieren, und mit Verweis auf das multifaktorielle Krankheitsgeschehen. Der die Sterblichkeit sen­kende Effekt der Pockenreduktion wurde durch ein Vordringen der gastro-intestinalen Infekte kompensiert. Vgl. Brügelmann, J.: Medi­kalisierung von Säuglings- und Erwachsenenalter in Deutschland zu Beginn des 19. Jahrhunderts aufgrund von medizinischen Topographien. In: Imhof, A. E. (Hg.): Leib und Leben in der Geschichte der Neu­zeit. Berlin 1983, bes. S. 183ff.; ebenso Imhof, A. E.: From the Old Mortality Pattern to the New: Implications of a Radical Change from the Sixteenth to the Twentieth Century. In: Bulletin of the History of Medicine, 59 (1985), 1, S. 4.

Die Effizienz der übrigen seucheneindämmenden medizinalpoliti­schen Maßnahmen bis zur Mitte des 19. Jahrhunderts schätzt Evans in seiner neuesten seuchenhistorischen Monographie gering ein, vgl. Evans, R. J.: Death in Hamburg. Society and Politics in the Cholera Years 1830-1910. Oxford 1987, passim. Hier nimmt Riley eine originelle, wahrscheinlich etwas überzogene Gegenposition ein, der den Be­strebungen zur Umwelthygiene und besonders zur Eindämmung der Mias­men seit dem späten 18. Jahrhundert (Kanalisierung, Zirkulation von Wasser in Zisternen , Trockenlegung von Sümpfen und anderen Feucht­gebieten, Straßenreinigung, Verwendung von Schwefelstäbchen gegen Insekten im Haus, Reform des Beerdigungswesens etc.) eine indirekte große Bedeutung für die Sterblichkeitsrückgänge beimisst. Dadurch wurden die als Krankheitsüberträger fungierenden Insekten dezimiert. Vgl. Riley, J. C.: Insects and the European Mortality Decline. In: American Historical Review, 91 (1986), S. 833-853.

[9] Vgl. als wichtigstes Beispiel für Deutschland Imhof, A. E.: Die gewonnenen Jahre. Von der Zunahme unserer Lebensspanne seit dreihundert Jahren. (…) München 1981.

[10] Vgl. die Kritik bei Riley, J. C.: Disease without Death: New Sources for a History of Sickness. In: Journal of Interdisciplinary History, 17 (1987), S. 538f.

[11] Vgl. auch die Überlegungen zu angemessenen Gesundheitsindi­katoren bei Spree: Soziale Ungleichheit,

  1. 22-29.

[12] Vgl. Schipperges, H.: Homo Patiens. Zur Geschichte des kran­ken Menschen. München u. Zürich 1985,

  1. 291ff.

[13] Vgl. die zusammenfassenden Bemerkungen zur langfristigen Entwicklung des Krankheits- bzw. des Todesursachen-Spektrums bei Im­hof: From the Old Mortality Pattern. Zu den Veränderungen im späten 19. Jahrhundert im Detail Spree, R.: Veränderungen des To­desursachen-Panoramas und sozio-ökonomischer Wandel – Eine Fallstu­die zum „Epidemiologischen Übergang“. In: Gäfgen, G. (Hg.): Ökonomie des Gesundheitswesens. Berlin 1986, S. 73-100.

[14] Vgl. Conze, W.: Sozialgeschichte 1800-1850. In: Zorn, W. (Hg.): Handbuch der deutschen Wirtschafts- und Sozialgeschichte. Bd. 2, Stuttgart 1976, S. 454f.

[15] Frevert, U.: Krankheit als politisches Problem 1770-1880. Soziale Unterschichten in Preußen zwischen medizinischer Polizei und staatlicher Sozialversicherung. Göttingen 1984, S. 126.

[16] Vgl. Imhof: Die gewonnenen Jahre, bes. S. 80, 164ff., 199ff. Sein Belegmaterial bezieht sich auf Berlin und einige nordhessische Dörfer (Schwalm).

[17] Vgl. Wehler, H.-U.: Deutsche Gesellschaftsgeschichte. Bd. 2, München 1987, S. 21-24.

[18] Rürup, R.: Deutschland im 19. Jahrhundert 1815-1871. Göttin­gen 1984, S. 22-29, das Zitat S. 29.

[19] Vgl. u. a. Schmid, J.: Einführung in die Bevölkerungssoziolo­gie. Reinbek b. Hamburg 1976, S. 277-292; auf S. 282 die illustrie­rende Standard-Graphik. Speziell zur deutschen Entwicklung Mar­schalck, P.: Bevölkerungsgeschichte Deutschlands im 19. und 20. Jahrhundert. Frankfurt/M. 1984, S. 122-127.

[20] Vgl. Omran, A. R.: The Epidemiologic Transition. A Theory of the Epidemiology of Population Change. In: Milbank Memorial Fund Quarterly, 49 (1971), S. 509-538; Ders.: Epidemiologic Transition in the Uni­ted States. The Health Factor in Population Change. In: Population Bulletin, 32 (1977), S. 1-42.

[21] Vgl. Flinn, M.: The Stabilisation of Mortality in Pre-indu­strial Western Europe. In: Journal of European Economic History, 3 (1974), S. 285-318; Ders.: The European Demographic System 1500-1820. Brighton 1981, bes. S. 62, 95ff., 101; Kunitz, S. J.: Speculations on the European Mortality Decline. In: Economic History Review, Sec. Ser., 36 (1983), S. 349-363.

[22] Vgl. Imhof: Die gewonnenen Jahre, S. 198-212; Rothenbacher, F.: Zur Entwicklung der Gesundheitsverhältnisse in Deutschland seit der Industrialisierung. In: Wiegand, E., u. Zapf, W. (Hg.): Wandel der Lebensbedingungen in Deutschland. Wohl­fahrtsentwicklung seit der Industrialisierung. Frankfurt/M. u. New York 1982, S. 356-363.

[23] Imhof datiert den Beginn der Phase 2 widersprüchlich: Einer­seits spricht er davon, dass die Phase 1 in Deutschland bis zum Ende des 19. Jahrhunderts gedauert habe; dabei verweist er als Kriterium auf die Entwicklung der durchschnittlichen Lebenser­wartung. Vgl. Imhof: Die gewonnenen Jahre, S. 199. Ande­rerseits liest er aus den vitalstatistischen Daten für Berlin ab, dass seit den 1820er Jahren eine merkliche Verstetigung des Bevölke­rungswachstums stattgefunden habe und das „Zeitalter der offenen Be­völkerungskrisen“ durch das der verdeckten abgelöst worden sei. Das könne als Hinweis auf das Ende des „Zeitalters der Seuchen und Hun­gersnöte“ (nach Omran), also als Ende der Phase 1 des Epidemiologi­schen Übergangs, interpretiert werden. Vgl. ebenda, S. 202. Rothen­bacher wiederum setzt den Beginn der Phase 2 mit den 1870er Jahren an – unter Hinweis auf den stattgefundenen Wandel des Todesursachen-Spektrums. Vgl. Rothenbacher: Zur Entwicklung, S. 361.

[24] Der Verfasser hat bereits an anderer Stelle versuchsweise den Beginn der Phase 2 auf die 1820er/30er Jahre datiert. Als Krite­rium dienten die von Imhof erwähnte Verstetigung der durchschnittli­chen Sterblichkeit und die stattgefundenen Veränderungen des To­desursachen-Spektrums (Ausbleiben der großen Seuchen im überregiona­len Maßstab; Wandel der altersunspezifischen Human-Crowd Diseases zu Kinderkrankheiten; Einsetzen des trendmäßigen Rückgangs der Sterb­lichkeit an bestimmten Infektionskrankheiten, bes. Pocken, Typhus und Tuberkulose). Vgl. Spree: Veränderungen, S. 78.

[25] Vgl. dazu auch – mit Rückgriff auf Chaunu – Flinn: The Euro­pean Demographic System, S. 94f.

[26] Der Variationskoeffizient als Quotient aus Standardabwei­chung und arithmetischem Mittel (in v. H.) misst die Schwankungsin­tensität einer Zeitreihe im Mittel.

[27] Vgl. zu diesem Vorgehen u. a. Mercer: Smallpox, S. 288ff.

[28] Vgl. bes. Kraus, A.: Quellen zur Bevölkerungsgeschichte Deutschlands 1815-1875. Boppard 1980.

[29] Vgl. die Zusammenfassung des Forschungsstands bei Wehler: Deutsche Gesellschaftsgeschichte, Bd. 2,

  1. 281-296. Zum Prozess und zur Bedeutung der Proletarisierung Tilly, Ch.: Proletarianization: Theory and Research. In: Ders.: As Sociology Meets History. New York usw. 1981, S. 179-189.

[30] Wehler: Deutsche Gesellschaftsgeschichte, Bd. 2, S. 285.

[31] Vgl. Gömmel, R.: Realeinkommen in Deutschland. Ein interna­tionaler Vergleich (1810-1914). Nürnberg 1979,

  1. 9 u. 12 (Vorträge zur Wirtschaftsgeschichte, H. 4).

[32] Von 1820-1850 wuchs die Arbeitsproduktivität in der Land­wirtschaft um rd. 60%, die deutsche Bevölkerung dagegen nur um rd. 35%. Vgl. Helling, G.: Zur Entwicklung der Produktivität in der deutschen Landwirtschaft im 19. Jahrhundert. In: Jahrbuch für Wirt­schaftsgeschichte, (1966/ 1), S. 134 u. 140. Die Bevölkerungsdaten u. a. bei Hoffmann, W. G., u. a.: Das Wachstum der deutschen Wirt­schaft seit der Mitte des 19. Jahrhunderts. Berlin usw. 1965, S. 172f. Zur These des Ökonomisierungsprozesses vor allem Borchardt, K.: Die Industrielle Revolution in Deutschland. München 1972, S. 37f.

[33] Vgl. dazu Borchardt, K.: Zur Frage des Kapitalmangels in der ersten Hälfte des 19. Jahrhunderts in Deutschland. In: Jahrbücher für Nationalökonomie und Statistik, 173 (1961), S. 401-421.

[34] Vgl. Tilly, R.: Capital Formation in Germany in the Nine­teenth Century. In: Cambridge Economic History of Europe, Bd. 7, T. 1, Cambridge 1978, S. 382-441.

[35] Vgl. Wehler: Deutsche Gesellschaftsgeschichte, Bd. 2, S. 288.

[36] Kennziffern, mit denen im Folgenden argumentiert wird, sind: die durchschnittliche Sterblichkeit (bzw. da, wo keine echten Sterb­lichkeitsziffern aufgrund fehlender Bevölkerungsdaten berechnet wer­den können, der oben definierte Sterblichkeitsindikator); der lineare Trend sowie der Variationskoeffizient der Sterblichkeit.

[37] Die Berechnungen für die Teilperiode 1740-1780 beziehen sich auf folgende Orte: 8 Kirchspiele aus der nordwestdeutschen Küstenre­gion; das Kirchspiel Spenge bei Bielefeld; das Dorf Rudow bei Ber­lin; die südwest- bzw. süddeutschen Städte Hanau, Lenggries, Memmingen und Pforzheim. Die Grunddaten wurden folgenden Quellen entnommen: Ehr­hart, G. v.: Physisch-medicinische Topographie der Königlich Baie­rischen Stadt Memmingen im Illerkreis. Memmingen 1813; Kopp, J. H.: Topographie der Stadt Hanau in Beziehung auf den Gesundheits- und Krankheitszustand der Einwohner. Frankfurt/M. 1807; Lorenzen-Schmidt, K.-J.: Ländliche Familienstrukturen in der nordwestdeut­schen Küstenregion 1750-1870. Engelbrechtsche Wildnis 1987; Meyer, W.: Untersuchungen über die Mortalität in der evangelischen Kirchen­gemeinde Rudow von 1681 bis 1929. Med. Diss. Freie Universität Ber­lin 1981; Roller, J. C.: Erster Versuch einer Beschreibung der Stadt Pforzheim mit besonderer Beziehung auf das Wohl seiner Bewohner. Heidelberg 1812; Scherer, W.: Medizinhistorische Demographie der Pfarrei Lenggries für den Zeitraum von 1620-1900. Med. Diss. Techni­sche Universität München 1980; Peter, H.-W.: Die Bevölkerungsent­wicklung in einer protoindustriellen Region: Kirchspiel Spenge 1768/69-1868. Universität Bielefeld 1983 (unveröff. Staatsexamensar­beit).

[38] In der 2. Teilperiode wurden zusätzlich echte Sterblich­keitsziffern berechnet für Schleswig-Holstein, die Grafschaft Lippe und das württembergische Dorf Laichingen. Die Grunddaten wurden fol­genden Quellen entnommen: Bulst, N., u. Hoock, J.: Bevölkerungsent­wicklung und Aktivitätsstruktur als statistisches und polizeiliches Problem in der Grafschaft Lippe in der zweiten Hälfte des 18. Jahr­hunderts. In: Bulst, N., u. a. (Hg.): Bevölkerung, Wirtschaft und Gesellschaft (…). Trier 1983; Gudme, A. C.: Die Bevölkerung der beiden Herzogthümer Schleswig und Holstein in früheren und späteren Zeiten. Altona 1819; Ders.: Schleswig-Holstein. Eine statistisch-geogra­phisch-topographische Darstellung dieser Herzogthümer, nach gedruck­ten und ungedruckten Quellen. Bd. 1, Kiel 1833; Helwig, A.: Beiträge zur Mortalitäts-Statistik der Stadt Mainz von Anfang dieses Jahrhun­derts bis incl. 1872. Mainz 1873; Kraus: Quellen. Die Daten für Laichingen (Schwäb. Alb) wurden dem Verf. von Hans Medick überlassen, dem an dieser Stelle dafür herzlich gedankt sei. Sie entstammen der von ihm durchgeführten und bisher unveröffentlichten Familien-Rekonstitutionsstudie über Laichingen von 1654-1858.

[39] Die Trendberechnungen erfolgten für das Königreich Preußen und seine Provinzen, das Großherzogtum Mecklenburg-Schwerin, die Königreiche Sachsen, Württemberg und Bayern sowie das Großherzogtum Baden. Alle Grundda­ten aus Kraus: Quellen.

[40] Der Sterblichkeitstrend der Provinz Westfalen ist mit dem der Rheinprovinz fast identisch und wurde deshalb in Schaubild 2 nicht mit aufgenommen.

[41] Für Europa generell behauptet dies auch Flinn: The European Demographic System, S. 91, 95, 101. Bezüglich der deut­schen Entwicklung konstatiert Robert Lee, dessen klares Statement al­lerdings nicht sehr überzeugend abgesichert wirkt: „The fall in mor­tality in the 18th and 19th centuries, together with the gradual disappearance of the traditional mortality crises effectively laid the basis for the modern growth in total population as a whole. Furthermore there is every indication that this process was equally evident in the case of Germany“. Lee: The Mechanism, S. 244.

[42] Diese Folgerung wird durch weitere Befunde gestützt. Z. B. hat Shorter festgestellt, dass das Alter der ersten Menarche in Frankreich während der ersten Hälfte des 19. Jahrhunderts aufgrund verbesserter Ernährungsverhältnisse durchschnittlich gesunken ist. Das dürfte auf Deutschland übertragbar sein. Vgl. Shorter, E.: L’age des premières règles en France, 1750-1950. In: Annales ESC, 36 (1981), S. 495-511. Knodel wiederum vermutet, dass sich der Gesundheitszustand von Müt­tern durchschnittlich gebessert hat. Dabei stützt er sich vor allem auf sinkende Raten vorgeburtlicher Sterblichkeit. Vgl. Knodel, J. E.: Demographic Behavior in the Past. A study of fourteen German village populations in the eighteenth and nineteenth centuries. Cam­bridge usw. 1988, S. 280f. Schließlich meint Flinn, dass die Instabi­lität der Sterblichkeit im späten 18. und frühen 19. Jahrhundert ab­nahm und ihr Fall einsetzte, weil sich Häufigkeit und letale Auswir­kungen von Kriegen und Hungersnöten verringerten, während gleichzei­tig die Epidemien „handhabbarer“ wurden. Mit dem letzten Argument wird auf das Ausbleiben der Pest und auf die Pockenschutzimpfungen verwiesen. Die Ernährungsverbesserungen führt er auf die Intensivie­rung der Agrarproduktion und die Verbreitung neuer Früchte, vor allem auf den Kartoffel- und den Maisanbau, zurück. Vgl. Flinn: The Stabilization, S. 302, 309ff. u. 316ff.

[43] Vgl. Anderson: Age-specific Mortality, S. 250.

[44] Vgl. Lee: Germany, S. 156, und das Belegmaterial auf S. 188. Wehler stützt sich bei seiner oben zitierten gleichlau­tenden Aussage offenbar auf Lee; vgl. Wehler: Deutsche Gesell­schaftsgeschichte, Bd. 2, S. 23.

[45] Tabelle 5 im Anhang basiert auf folgenden Quellen:

Dieterici, W.: Die Statistischen Tabellen des Preußischen Staats nach der amtlichen Aufnahme des Jahres 1843. Berlin 1845. Ders.: Die Bevölkerung des Preußischen Staats nach der amtlichen Aufnahme des Jahres 1846. Berlin 1848. Ders.: Über die Vertheilung der Bevölkerung nach dem Geschlecht und Alter im Preußischen Staate. In: Abhandlungen der Königlichen Akademie der Wissenschaften in Ber­lin. Berlin 1848. Ders.: Handbuch der Statistik des preußischen Staats. Berlin 1861. Engel, E.: Das Anwachsen der Bevölkerung im Preußischen Staate seit 1816; Ders.: Die Sterblichkeit und die Lebenserwartung im preußischen Staate und besonders in Berlin. In: Zeitschrift des Königlich Preußischen Statistischen Bureaus, 1 (1861), S. 9-31 und

  1. 321-353. Hoffmann, J. G.: Übersicht der Bodenfläche und Bevölkerung des preußischen Staats. Aus den für das Jahr 1817 amtlich eingezogenen Nachrichten. 2. unveränderter Abdruck, Berlin 1819. Ders.: Die Bevölkerung des Preußischen Staats nach dem Ergebnisse der zu Ende des Jahres 1837 amtlich aufgenommenen Nach-richten in staatswirthschaftlicher, gewerblicher und sittlicher Beziehung. Berlin 1839. Ders.: Darstellung der Bevölkerungs-, Geburts-, Ehe- und Sterblichkeitsverhältnisse, welche im preußischen Staate in den 15 Jahren 1820 bis mit 1834 bestanden (…). In: Abhandlungen der Königlichen Akademie der Wissenschaften zu Berlin, Berlin. 1843. Jahrbuch für die amtliche Statistik des Preußischen Staats, 1 (1863). Mittheilungen des statistischen Bureau’s in Berlin, hg. von Dieterici, 14 (1858) (= Übersicht des Ergebnisses der Volkszählung im Preußischen Staate im December des verflossenen Jahres 1858), S. 209-214. Preußische Statistik, hg. vom Königlichen Statistischen Bureau in Berlin. Bde. V, X, XVI, XVII, XXIX u. XLIIIa, Berlin 1864, 1867, 1869, 1870, 1874 u. 1879. Tabellen und amtliche Nachrichten über den Preußischen Staat für das Jahr 1849, hg. von dem statistischen Bureau zu Berlin. 1 und 2, Berlin 1851; (…) für das Jahr 1852, Berlin 1855; (…) für das Jahr 1855, Berlin 1858; (…) für das Jahr 1858, Berlin 1860. Zedlitz, L. Frh. v.: Die Staatskräfte der preußischen Monarchie unter Friedrich Wilhelm III. Berlin 1828. Zeitschrift des Königlich Preußischen Statistischen Bureaus, 2 (1862).

[46] Vgl. die Quellen in Fn. 45.

[47] Diese Ergebnisse stehen in einem gewissen Kontrast zu der These Shorters, dass Frauen zwischen 5 und 30 bzw. 40 Jahren in der ersten Hälfte des 19. Jahrhunderts typischerweise eine höhere Sterb­lichkeit als Männer aufgewiesen hätten. Allerdings streuen Shorters statistische Belege regional stark und beziehen sich auf unter­schiedlich abgegrenzte Altersklassen, sind also mit den hier präsen­tierten nur bedingt vergleichbar. Vgl. Shorter, E.: A History of Women’s Bodies. New York 1982, S. 228-231.

[48] Eine längerfristig sinkende Tendenz, die sich nicht nur auf den Vergleich des letzten mit dem vorletzten Wert der Zeitreihe be­zieht, wird durch das Zeichen – und die Angabe des Jahres mit dem betreffenden vorangegangenen Sterblichkeitsmaximum (in Klammern) ge­kennzeichnet; 0 = keine Tendenz; + = Tendenz steigend.

[49] Vgl. die Originalziffern in den Tabellen 7-10 im Anhang.

[50] Vgl. Knodel: Demographic Behavior, bes. S. 59.

[51] Vgl. Knodel, J.: Demographic Transitions in German Villages. In: Coale, A. J., u. Watkins, S. C. (Hg.): The Decline of Fertility in Europe. Princeton 1986, S. 347.

[52] Imhof: Die gewonnenen Jahre, S. 80. Die genauen Werte sind nicht angegeben; Imhof stellt sie nur graphisch dar.

[53] Vgl. z. B. den soliden, wenn auch allzu knappen Erklärungsan­satz, der ganz auf die Häufigkeit des Stillens oder Nicht-Stillens abstellt, bei Knodel: Demographic Behavior, passim, bes. S. 52 f. Die notwendige Ergänzung (Arbeitsbedingungen/ -belastungen der Mütter) liefert zusammengefasst Lee, W. R.: The Impact of Agra­rian Change on Women’s Work and Child Care in Early-Nineteenth-Cen­tury Prussia. In: Fout, J. C. (Hg.): German Women in the Nineteenth Century. A Social History. New York u. London 1984, S. 234-255; Ders.: Primary Sector Output and Mortality Changes in Early XIXth Century Bavaria. In: Journal of Economic History, 6 (1977), S. 133-162. Phantasievolle Ausweitung dieser Ansätze durch Betonung der un­terschiedlichen Mentalitäten in der Bevölkerung infolge von Kriegs­einwirkungen bei Imhof, A. E.: Unterschiedliche Säuglingssterblich­keit in Deutschland, 18. bis 20. Jahrhundert – Warum? In: Zeit­schrift für Bevölkerungswissenschaft, 7 (1981), S. 343-382. Von Im­hof inspiriert, dann aber weitgehend nur noch spekulativ Ottmüller, U.: Speikinder – Gedeihkinder. Kommunikationstheoretische Überlegun­gen zu Gestalt und Funktion frühkindlicher Sozialisation im bäuerli­chen Lebenszusammenhang (…). Phil. Diss. Freie Universität Berlin 1986. Bei Ottmüller hat die unterschiedliche regionale Betroffenheit durch Kriege in der Vergangenheit schließlich zu mehr oder weniger latenter Männerfeindschaft bei den in diesen Regionen (oft erst Ge­nerationen später) lebenden Frauen und zu daraus resultierender Am­bivalenz gegenüber dem Leben der Kinder geführt.

[54] Wg. der Grippe-Hypothese vgl. Köllmann, W.: Bevölkerungsge­schichte 1800-1970. In: Zorn (Hg.):  Handbuch, Bd. 2, S. 11f.

[55] Vgl. dazu allgemein Kunitz: Speculations, S. 352. Daten bei Imhof: From the Old Mortality Pattern, S. 5.

[56] Vgl. Kunitz: Speculations, S. 354f.

[57] Beispielhaft für die hier in Frage gestellte Sichtweise vor allem Kuczynski, J.: Darstellung der Lage der Arbeiter in Deutsch­land von 1789 bis 1849. Berlin 1961, S. 317-351. In diesem Sinne aber auch noch die neuere einschlägige Darstellung von Frevert: Krankheit, S. 116-148. Allgemeiner Fischer, W.: Armut in der Geschichte. Göttingen 1982, S. 56-82.

[58] Vgl. zur Fassung dieser Zusammenhänge in drei „Modellen“ vor allem Hohorst, G.: Von der Agrargesellschaft zum Industriekapitalis­mus: Der Kernprozess der „demographischen Transition“ in Deutschland. In: Bade, K. J. (Hg.): Auswanderer, Wanderarbeiter, Gastarbeiter. Ostfildern 1984. In eine regionale Fallstudie eingebunden Ders.: Protoindustrialisierung im Übergang zum industriellen Kapitalismus: Die demoökonomische Entwicklung im Kreis Hagen und seinen Amtsbezirken 1817-1863. In: Scripta Mercaturae, 16 (1982), S. 110-138.

[59] Vgl. die einschlägige Literatur, bes. die Beiträge von Me­dick zu dem Band Kriedte, P., u. a.: Industrialisierung vor der Indu­strialisierung. Göttingen 1977, S. 90-193; Clarkson, L. A.: Proto-Industrialization. The First Phase of Industrialization? London 1985; Hohorst: Protoindustrialisierung; Ders.: Von der Agrargesellschaft.

[60] Imhof: Unterschiedliche Säuglingssterblichkeit, S. 369ff.

[61] Die folgenden Ausführungen stützen sich auf Gehrmann, R.: Leezen 1720-1870. Ein historisch-demographischer Beitrag zur Sozial­geschichte des ländlichen Schleswig-Holstein. Neumünster 1984, bes.

  1. 80ff. (Vitalstatistik), 131ff. (Säuglingssterblichkeit), 222ff. (Fruchtbarkeit).

[62] Vgl. Gehrmann: Leezen, S. 80. Die Daten für 1767/71 aufgrund einer schriftlichen Mitteilung des Verfassers v. 21. 1. 1988.

[63] Vgl. Gehrmann: Leezen, S. 95f.

[64]   Nach Gehrmann: Leezen, S. 93.

[65] Vgl. Gehrmann: Leezen, S. 95.

[66] Vgl. dazu bes. Imhof: Unterschiedliche Säuglingssterblich­keit; Lee: The Impact; Ders.: Primary Sector Output.

[67]   Vgl. Gehrmann: Leezen, S. 28-54, 162-171.

[68]   Vgl. Gehrmann: Leezen, S. 115-124.

[69] Das bedeutet einen Verlust der strukturell vermittelten sozialen Kontrolle. In­dikator: Sinken der Geburtlichkeit seit den späten 1840er Jahren, und zwar gemäß der „Aufwuchshypothese“, die Gehrmann für angemessen hält. Vgl. Gehrmann: Leezen, S. 233f., 259f., 300f.

[70] Die Ausführungen folgen der unveröff. Staatsexamensarbeit von Peter: Die Bevölkerungsentwicklung, und den teilweise darauf aufbauenden Aufsätzen von Mager, W.: Spenge vom frühen 18. Jahrhundert bis zur Mitte des 19. Jahrhunderts. In: Ders. (Hg.): Ge­schichte der Stadt Spenge. Spenge 1984, S. 93-161; Ebeling, D., u. Klein, P.: Das soziale und demographische System der Ravensberger Protoindustrialisierung. In: Hinrichs, E., u. Zon, H. van (Hg.): Be­völkerungsgeschichte im Vergleich: Studien zu den Niederlanden und Nordwestdeutschland. Aurich 1988, S. 27-48.

[71] Mager: Spenge, S. 104ff.

[72] Vgl. Mager: Spenge, S. 110.

[73] Vgl. Ebeling u. Klein: Das soziale und demographische Sy­stem, S. 34.

[74] Vgl. die Daten bei Peter: Die Bevölkerungsentwicklung, S. 74.

[75] In diese Richtung gehen auch die vergleichenden Interpreta­tionen des Materials bei Ebeling u. Klein: Das soziale und demogra­phische System, passim, und die dort zitierte Literatur.

[76] Vgl. das Material bei Kull: Beiträge zur Statistik der Be­völkerung des Königreichs Württemberg. In: Württembergische Jahrbücher für Statistik und Landeskunde (1874), T. 1, S. 143-150.

 

 

 

Jugendmusik im Sozialen Wandel

 

Jugend-Musik im Sozialen Wandel

 

[zum folgenden Text sollte man die Musikbeispiele hören/ gut kennen; das macht die Ausführungen einleuchtender]

 

Jugend-Musik: Der große „Bruch“ Mitte der 1950er Jahre

 

Die bis Ende der 1950er Jahre vorherrschende materielle Dürftigkeit in großen Teilen der Gesellschaft/ Jugend bedeutete: keine eigenen Plattenspieler oder Tonbandgeräte; etwa ab 1957/58 gelegentlich ein eigenes Koffer-Radio; d.h. das dominante Medium ist bis Ende der 1950er Jahre eindeutig das Radio gewesen. Insofern herrschte eine Abhängigkeit von der Programmgestaltung in deutschen Sendern, die amerikanische/ausländische Entwicklungen weitgehend ignorierte und auch keine spezifischen Jugendangebote machte; wichtigste Sendung deshalb die wöchentliche Hitparade der jeweiligen regionalen Radiostation, in Berlin während der späten 1950er und frühen 1960er Jahre „Die Schlager der Woche“ mit Fred Ignor.[1] In vielen Regionen West-Deutschlands und in Berlin gab es aber eine Alternative, die viel attraktiver war, als die Programme der westdeutschen Stationen: die Soldatensender der Amerikaner (AFN) u. der Engländer (BFBS).[2] Vor allem die AFN-Sendung „Frolic at Five“ brachte stets die neuesten Entwicklungen vom US-amerikanischen Musikmarkt. Die Musikangebote des AFN waren deshalb besonders interessant und selbst denjenigen in den USA in gewisser Weise voraus, als sie wegen der vielen farbigen Angehörigen der US-Besatzung die in den USA bis in die frühen 1960er Jahre übliche Trennung in „weiße“ und „schwarze“ Sender bzw. Musik ignorierte. Man konnte in Deutschland also sowohl die Musik der „schwarzen“ wie der „weißen“ Sender hören – und wusste meist gar nicht, dass in den USA im Rundfunk Rassentrennung herrschte. Um aber Radio hören zu können, gab es oft heftige Auseinandersetzungen mit den Eltern, nicht nur weil als einziges deren Radiogerät im Wohnzimmer verfügbar war, sondern häufig auch weil sie die von den Jugendlichen präferierte „Urwald-Musik“ ablehnten.[3]

 

Erst um 1957/58 begann sich in der BRD allmählich ein kleiner Markt für Schallplatten mit jugendspezifischer Popmusik (inkl. Jazz) auszubilden. Das verschärfte jedoch nur den Kampf um den elterlichen, später um den eigenen Plattenspieler. Offensichtlich legte der Wunsch nach einem Leben mit der Popmusik nahe, die Hits der Zeit im Kopf zu haben, sie vor dem inneren Ohr abzuspielen oder sie gelegentlich vor sich hin zu singen. Das beförderte die Beliebtheit auch seichterer, aber eben sehr melodiöser amerikanischer Schlager.

 

Was hörte man Mitte der 1950er Jahre im deutschen Radio? Z. B.

 

 

Heideröslein

 

Durch die grüne Heide ging ein Mädchen jung und schlank

und ein junger Jägersmann ging auch den Weg entlang.

Pflückte ihr ein Röslein rot und zog den grünen Hut,

sprach sie an, ja, wie es ein Verliebter eben tut.

 

Oh Heideröslein, nimm dich in acht,

oh Heideröslein, was der Jäger macht.

Er pflückt‘ die Rose und gab sie dir,

oh Heideröslein, er will dein Herz dafür.

 

Oder, zugleich das Fernweh befriedigend:

 

Rote Rosen, rote Lippen, roter Wein

 

Rote Rosen, rote Lippen roter Wein,

Und Italiens blaues Meer im Sonnenschein,

Rote Rosen, rote Lippen roter Wein,

Laden uns ein, laden uns ein!

 

Das liebte die Mehrheit der Schlager hörenden Erwachsenen[4]; notgedrungen war das auch der Stoff, aus dem das Geträller vieler Jugendlicher bestand. Man hörte es ja täglich im Radio.

 

Dem entsprachen die US-Schlager während der frühen 1950er Jahre, die sowohl musikalisch als auch textlich den deutschen kaum überlegen waren, aber von Jugendlichen wegen des ausländischen Appeals oft vorgezogen wurden. Sie waren deshalb in den Musik-Boxes der Milchbars sehr häufig vertreten und wurden auch auf Tanzfesten gern gespielt.

 

Doris Day: What Ever Will Be

 

Doch 1955 fand ein Erdbeben statt, das tendenziell die Jugend spaltete: Der Rock ’n ‚ Roll brach ein. Gern wird in diesem Zusammenhang auf Bill Haley und seinen Nr. 1-Hit „Rock around the clock“ sowie den Film „Saat der Gewalt“ verwiesen, der den Song sowohl im Vor- wie im Abspann benutzte. Doch ist dieser Rockabilly-Song allein schon durch das Auftreten und die Stimme Bill Haleys eher ein sehr rhythmischer Foxtrott als eine Innovation. Anders dagegen Elvis Presleys 1956 aufgenommener Hit „Hound Dog“. Ursprünglich war das ein R&B-Stück, das für eine Blues-Sängerin, Big Mama Thornton, geschrieben und 1952 veröffentlicht worden war.[5] Aber die Coverversion durch Elvis Presley stellte eine Innovation dar, indem er den R&B für Weiße adaptierte und damit den Rock’n Roll prägte.[6]

 

Elvis Presley: Hound Dog

 

 

Gerade Hound Dog macht die Explosivität des Rock besonders deutlich:

 

wild und hart in Rhythmus und Instrumentierung (das gab es allerdings bereits bei Swing, Jitterbug, Jive und Boogie Woogie, deshalb wichtiger:)

die ausdrückliche Mischung von schwarzem Ausdruck, schwarzem Rhythmus und schwarzem Lebensgefühl mit weißer Melodik und Form –

und das vorgetragen von einem Weißen!

 

Wegen der Rassendiskriminierung in den USA kam es (und dafür war Elvis das „Einfallstor“) zwischen 1955 und 1960 zu einer Dominanz weißer Rocksänger im weißen Radio, also auch in Europa. Das Muster war Bill Haley, musikalisch deutlich am Stil der älteren Swing-Combos orientiert, ohne jeden negroiden Einschlag. Vorherrschend wurde der „entschärfte“ Rock. Auch Elvis machte seine Super-Karriere dann in den 1960er Jahren eigentlich mehr wegen der langsameren Love-Songs. In den späten 1950er Jahren hatte er harte weiße Konkurrenten wie Gene Vincent, Jerry Lee Lewis, Pat Boone oder Buddy Holly. Die schwarzen Größen wie Chuck Berry, Little Richard oder Bo Diddley wurden noch lange außerhalb des Einflussbereichs des AFN, also im Mainstream der Schlagerparaden, im deutschen Radio nicht wahrgenommen.

 

Bill Haley: Rock Around the Clock

 

Tatsächlich wurde auf diese Weise eine Wurzel, genauer: ein wichtiger Bestandteil des Rock ’n‘ Roll unterdrückt: der R&B. Er kam erst seit rd. 1960 in weiße Sender, erst seitdem wurden schwarze Rock-Sänger allgemeiner bekannt.

 

Dafür 2 Beispiele der viel älteren, den Rock weitgehend vorwegnehmenden R&B-Musik, die bei Schwarzen in den Städten seit den späten 1940er Jahren extrem populär, aber auf weißen Sendern bis Ende der 50er Jahre – so auch in Deutschland – nicht zu hören war. Hier Fats Domino und Ray Charles als Leitfiguren, deren Ausstrahlung bis heute spürbar ist.

 

Typisch für die schwarze Musik auch, dass als Lead-Instrument meist nicht die Gitarre, sondern das Klavier fungiert – so wie später im Soul die elektrische Orgel, und immer wichtig: das Saxophon.

 

Fats Domino: Blue Monday

Ray Charles: What’d I Say

 

Der Rock brachte für die Jugendlichen vieles auf einmal:

 

– den Rhythmus

– ein neues, heißes Lebensgefühl

– starke Körperlichkeit

– das (mehr geahnte) Versprechen von Sinnlichkeit

– vor allem aber: die Abgrenzung von den Erwachsenen

 

damit wurde  Rock zum Identifikations- und Protestmedium

 

Darüber hinaus wichtig, dass viele Texte keineswegs banal waren und sich vor allem nicht auf fetzenhafte Messages wie Rock oder Roll oder Shake beschränkten. Oft wurden dagegen die Jugendlichen sehr direkt angesprochen, wurden ihre Gefühle, Gedanken, Probleme unmittelbar zum Gegenstand gemacht.

 

Gene Vincent: Bluejean Bop

Chuck Berry: Schoolday

 

Um die Rockmusik herum entstand eine neue ausdrücklich jugendbezogene Musikkultur, die die Erwachsenen sowohl durch ihre Form, aber auch durch die Texte ausschloss. Die Musik eröffnete den Jugendlichen dagegen eine eigene Welt. Und das war historisch neuartig!!!

 

Natürlich setzte diese Entwicklung einiges voraus:

Gestiegenen Lebensstandard = eigene Treffpunkte (Milchbars und Tanz-Lokale mit Musik-Boxes; Kinos), eigene Radios und Plattenspieler.

Der spezifische Markt für Jugendliche kündigte sich etwa ab 1957/58 an.

 

Auch die Deutschen zogen nach. Man kreierte seinen eigenen Bill Haley: Peter Kraus. Eine ganz entschärfte Nummer, eben gut für schwach isolierte Neubau-Sozialwohnungen, für das Rendezvous neben und unter dem Nierentisch. Eine Musik, die den Rock mit dem deutschen Schnulzenstil verband.

 

Peter Kraus: Mach dich schön

 

Liebe und Sexualität waren das zentrale Thema vieler populärer Songs in den späten 1950er Jahren. Natürlich war das kein neues Thema, aber es wurde auf neue Weise ausgedrückt. Im Gegensatz zur schwarzen Musik, wo man Sex oft sehr direkt ansprach, kamen im Rock sexuelle Anspielungen seltener und nur versteckt vor. Dafür war die Inbrunst der vorgeblichen Gefühle, insbesondere die Sehnsucht, um so stärker; eine neue Intensität des Ausdrucks wurde erreicht.

 

Brian Hyland: Sealed With A Kiss

Paul Anka: You Are My Destiny

 

Klar, dass die sexuelle Not die Sehnsucht speiste. Man klagte, dass die Erwachsenen die junge Liebe als Teenage Affection abtaten. Einzig Heirat ließe einen ans Ziel der Wünsche gelangen. Aber die erschien nicht möglich, weil man doch noch so jung war. Daher der Weltschmerz, das Leid. (Dennoch war besonders in den USA die Tendenz zur sehr frühen Heirat mit 20 oder 21 Jahren stark ausgeprägt).

 

Im Übrigen wurde mit dem Wunsch nach Heirat die herrschende Moral letztlich voll anerkannt. So endete der große Umbruch der 1950er Jahre quasi auf halber Strecke.

 

Beach Boys: I’m So Young

 

 

Jugend-Musik der 1960er Jahre:

Neue Massenkultur zwischen Kultureller Avantgarde und Wahnsinn

 

Seit Mitte der 1950er Jahre hatte sich im Bereich der Jugend-Musikkultur eine soziale Polarisierung ausgebildet: Auf der einen Seite Arbeiterjugendliche, Lehrlinge usw., allgemeiner: Angehörige der Unterschichten, die frühzeitig Rockmusik und dazu gehörige Kleidungsmerkmale in ihren Lebensstil integrierten. Sie wurden von der Mittelschicht-Öffentlichkeit als Halbstarke oder Rocker diskreditiert. Auf der anderen Seite Oberschüler und Studenten (damals max. 12%-15% eines Jahrgangs), also eindeutig (bis auf wenige Ausnahmen) Angehörige der Mittel- und Oberschichten, die sich für Jazz begeisterten und das Publikum der Jazzlokale stellten. So jedenfalls die Präsentation in der Öffentlichkeit.

 

Nach außen hin wurden die unterschiedlichen musikalischen Präferenzen sehr betont. So machten Oberschüler und Studenten einen großen Bogen um die Kneipen, in denen sich die Rocker trafen. Das waren für sie die Halbstarken- oder Rocker-Treffs. Und in den Jazzlokalen verkehrten wiederum keine Rocker oder, anders gesagt: dort verkehrten in der Regel keine Unterschicht-Jugendlichen. Auf den öffentlichen Festen der Oberschüler und Studenten, z.B. auf Schulbällen oder Faschingsfesten der Kunsthochschulen, spielten grundsätzlich nur Jazzbands. Höhepunkte dieser Jazzkultur waren die sommerlichen Riverboat-Shuffles.

 

Man symbolisierte das auch in der Kleidung – jedenfalls soweit das die Eltern bzw. der eigene Geldbeutel erlaubten. Die Jazzer zogen sich seit den späten 1950er Jahren am liebsten eine grüne Armee-Parka an (im Winter mit Futter), dazu Jeans, Schuhe mit weichen Kreppsohlen; man trug – angelehnt an die Existentialisten-Mode – gern schwarze lange Pullover und Schals; Haarschnitt der Jungen scheitellos mit Fransen in die Stirn, sogenannter Cäsarenschnitt, bei Mädchen meist Pony und Pferdeschwanz. Ein besonderes Merkmal der Mädchen waren schwarze französische Lackmäntel.

 

Rocker dagegen trugen (wenn sie dazu die Mittel besaßen) schwarze Lederkleidung und feste Stiefel – eben Motorrad-Kleidung, und wenn auch nur einzelne Teile davon, denn die meisten Unterschicht-Jugendlichen hatten kein Motorrad, sondern höchstens ein Moped. Dennoch parkten vor den so genannten Halbstarken-Treffs, besonders in den Großstädten, oft die schweren Maschinen in 30-50 Dreierreihen. Sehr beeindruckend! (Beispiel: die „Kajüte“ im zerbombten „Tusculum“ in Alt-Tegel).

 

Tatsächlich war die Abgrenzung über Musikvorlieben jedoch nur äußerlich. Im privaten Bereich gab es jede Menge Oberschüler und Studenten, die für Rockmusik schwärmten, sich die Musik am Radio reinzogen und seit den späten 1950ern entsprechende Platten kauften. (Z.B. tanzten wir auf unseren Klassenfeten und privaten Parties seit ca. 1957 fast ausschließlich nach Rockmusik. Gelegentlich lief mal „Icecream“ von Chris Barber oder etwas Ähnliches. Aber das war eher die Ausnahme, schon weil man nach Rock viel interessanter tanzen konnte). Die Polarisierung war in der Außendarstellung ziemlich strikt. Über die Doppelmoral oder Schizophrenie dachte kaum ein Jugendlicher nach. Man nahm die soziale Distanzierung als selbstverständlich hin. Genau das änderte sich Anfang der 1960er Jahre mit dem Aufkommen des Beat, der in dieser Hinsicht eine soziale Revolution anbahnte.

 

 

Exkurs: Amateur-Jazz und Skiffle; selbst Musik machen

 

Doch zunächst noch ein wichtiges Element des Lebensstils Jugendlicher, das ich bisher vernachlässigt habe. Das Besondere am Leben mit Musik in den späten 1950er und frühen 1960er Jahren war das Selbst-Musizieren. Der Traum vieler Jugendlicher, vor allem männlicher, war es, in einer Jazzband zu spielen. Deshalb gab es in jeder größeren deutschen Stadt eine Vielzahl von Amateurbands. In Berlin, Frankfurt und Hamburg z.B., den Hochburgen des Jazz, gab es Ende der 1950er Jahre Hunderte von Jazzbands, die teilweise nur privat übten und für sich selbst musizierten, gelegentlich auch auf privaten oder Schulfesten spielten. Die besten Amateurbands traten 1 oder 2 Mal pro Woche in den verschiedenen Jazzclubs bzw. Jazzlokalen auf, die ja teilweise an jedem Abend Bands live spielen ließen. Höhepunkte waren die Jazzfestivals der Großstädte, die Wettbewerbscharakter hatten. Die Festivalsieger einer Stadt wurden für das Bundesfestival gemeldet, dessen Beste in Radio und Fernsehen auftraten und auf einen Schallplattenvertrag hofften. Die bedeutendsten Amateur-Bands kannte man in ganz Deutschland, so aus Hamburg die Old Merrytale Jazzband, die Barrelhouse Jazzband, die Riverside Jazzband, die Oimel Jazz Youngsters und die Jailhouse Band, aus Celle die Old Heide Town Ramblers, aus Düsseldorf die Feetwarmers,  aus Frankfurt die Two Beat Stompers, oder aus Berlin die Spree City Stompers, Papa Ko’s Jazzin‘ Babies, die Red Onions, die Storyville-Jazzband und die Tower-Jazzband. Das waren alles zumindest Halb-Amateure, oft noch Oberschüler, die eben fast ihre ganze Freizeit in das Jazzen steckten.

 

Jazz zu spielen setzte aber mindestens den Besitz eines Instruments voraus, am besten eines Blasinstruments. Für viele Jugendliche war das unerreichbar, nicht zuletzt weil die Eltern nicht bereit waren, statt der Geige oder Flöte eine Trompete zu finanzieren. Begünstigt waren da die Jugendlichen, die zunächst in eine kirchliche Blaskappelle gingen. Mit 15/16 Jahren wechselten sie dann oft zum Jazz. Für andere, die nicht an ein Blasinstrument kamen, blieb als Ausweg der heute fast völlig vergessene Skiffle.[7] Diese liedhafte Musik ist vor allem durch die Instrumente charakterisiert: Gesang, ergänzt durch das Kazoo, begleitet von Banjo oder Gitarre, evtl. Ukulele, Kisten-Baß und Waschbrett. Das damals in den meisten Wohnungen noch vorhandene Waschbrett (Ende der 1950er Jahre hatten erst 8% aller Haushalte eine Waschmaschine!) mit der geriffelten Eisenblech-Oberfläche wurde zum Musikinstrument, zum Schlagzeug-Ersatz. Man spielte es, indem man mit Mutters Fingerhüten an den Fingern rhythmisch über das Blech strich oder darauf trommelte.

 

Die Instrumente waren billig und meist irgendwie vorhanden. Am auffallendsten der Baß. Er wurde i.d.R. als Teekisten-Baß gebaut, d.h., man befestigte am oberen Boden einer möglichst großen, geschlossenen Kiste eine Schnur, die mit einem Besenstil gespannt werden konnte. Auf diese Schnur haute man rhythmisch mit einem Holzstock, und durch die unterschiedliche Spannung der Schnur mit dem Besen gab es hellere oder dunklere rumpelnde Geräusche. Das absolut Primitive und Improvisierte gehört zum Skiffle, z.B. auch das Kazoo, das sich wie ein geblasener Kamm anhört und oft auch durch einen solchen ersetzt wurde. Oder man erzeugte dumpfe Töne mit einer Membrane, die über eine Milchkanne gespannt war. Skiffle ist eben Arme-Leute-Musik!

 

In Großstädten gab es Ende der 1950er und Anfang der 1960er Jahre etwa so viele Skiffle- wie Jazzbands, d.h. jeweils Hunderte! Sie traten ebenfalls gelegentlich öffentlich auf, häufiger jedoch spielten sie nur für sich selbst, zum Spaß. Einige wenige englische Skiffle-Groups machten Plattenaufnahmen. Am bekanntesten wurden die Skiffle Bands von Lonnie Donegan und Ken Coyler. Lonnie Donegan spielte in Chris Barbers Jazz Band Banjo, Ken Coyler, der ursprüngliche Bandleader, Trompete. Viele spätere Beatgrößen, so auch John Lennon, Paul McCartney, Ringo Starr (als Gruppe: The Quarrymen), Eric Clapton, die Rolling Stones, Van Morrison haben zunächst längere Zeit in Skiffle-Bands gespielt. (Ein bekannter deutscher Chanconnier, Reinhard May, war Anfang der 1960er Jahre zunächst der Gitarrist der Rotten Reddish Skiffle Guys in Berlin-Hermsdorf). Nachdem seit Mitte der 1960er Jahre jahrzehntelang Skiffle auf Schallplatten und im Radio praktisch nicht verfügbar war, sind inzwischen einige alte Skiffle-Platten wieder aufgelegt worden und vor allem einige interessante Sampler mit sonst kaum bekannten Gruppen produziert worden, z. B. die 3er CD The Best of Skiffle (2002) oder die LP Kings of Skiffle, aus der ich einen ganz typischen Song herausgreife.

 

Ray Bush and the Avon City’s Skiffle: How Long Blues

 

Man möchte am liebsten mitsingen – das ist typisch für den Skiffle. Musik zum Selbermachen, Mitmachen, Mitsingen. „Skiffle was a way of letting loose; very often it released the performers from their shyness, it was a way of getting involved, of creating music and happiness for oneself and for anyone else who would care to listen or to join in.“[8]

 

Dennoch ging der Skiffle wie der Amateurjazz als Element der Jugendkultur ganz schnell zwischen 1963 und 1965 unter – platt gewalzt vom Beat. Ganz selten greifen große Musiker mal Elemente des Skiffle kurzfristig auf. Beispiele: Anfang der 1970er Jahre die Gruppe Mungo Jerry mit In the Summertime und Lady Rose; 1974 der Ex-Faces-Gitarrist und Sänger, Ronnie Lane, der inzwischen an Krebs gestorben ist (ein von Eric Clapton organisiertes Hilfskonzert für ihn bzw. seine Familie vereinigt seit Mitte der 1980er Jahre regelmäßig die englische Rock- und Blues-Elite im Februar in der Royal Albert Hall in London); ich denke hier an einige Nummern auf dem Album Anymore for Anymore, bes. an die Version von Careless Love Blues. Nicht zu vergessen – mein Favorit, Mark Knopfler, mit den Notting Hillbillies 1990 und dem Railroad Worksong (Take This Hammer). Und schließlich eine interessante Live-CD aus Belfast, wo sich 1999 Chris Barber, Lonnie Donnegan und Van Morrison zum Skiffeln getroffen haben, The Skiffle Sessions.

 

Um 1960 herum also der Höhepunkt dieser Entwicklung, in der Jazz und Skiffle, vor allem als selbstgemachte Musik, eindeutig ein wichtiges Element des Lebensstils von Jugendlichen geworden waren; allerdings fast ausschließlich von Mittel- und Oberschicht-Jugendlichen, und hier wieder schwerpunktmäßig in den Großstädten. Doch wenige Jahre später war das vorbei, so gründlich, dass man sich nur wundern kann, wie wenig übrig geblieben ist.

 

-.-

 

Deshalb zurück zu der Art Musik, die in die Zukunft führte. Das war Anfang der 1960er Jahre immer noch der Rock in seinen gezähmten, teilweise verzerrten, aber eben gut hörbaren Varianten. Im folgenden 2 Beispiele, die für die direkte Anknüpfung an Gefühle und Gedanken von Jugendlichen im Text stehen.

 

Im ersten Beispiel geht es um das eigene Zimmer, das eigene Reich, die von Jugendlichen so dringend benötigte Rückzugsmöglichkeit.

 

Beach Boys: In My Room

 

Und im zweiten Beispiel haben wir den Song, der allen Studenten der Universität München, bes. den Geisteswissenschaftlern, gewidmet zu sein scheint („I am not an A-Student, but I try to be“):

 

Sam Cooke: Wonderful World

 

So beliebt der Rock damals war, so sehr war er doch in der Krise. In den führenden deutschen Tanzlokalen mit primär jugendlichem Publikum trat diese Krise offen zutage. Im Berliner Old Eden Saloon z. B. gab es seit den späten 1950er Jahren 4 verschieden spezialisierte Räume: einen Jazzroom, eine Piano-Bar, einen Rock-/Beatroom und einen Mixed-Room, in dessen Music-Box alle Stile gemischt waren, vom Jazz über R&B bis zum Rock. Dort hörte ich z.B. an einem Abend des Sommers 1961 hintereinander Ray Charles What’d I Say, Chubby Checker Let’s Twist Again und Art Blakey & The Jazz Messengers Blues March for Europe, jeweils Höhepunkte ihres Genres, aber eben total verschiedene Stile, die nur dort gemischt werden konnten, weil viele GIs das Lokal präferierten. Zugleich liefen auf 3 verschiedenen Leinwänden Hobby-Filme des Inhabers, des Playboys Rolf Eden, meist Bildberichte von Parties auf seiner Jacht oder dergl. Im Rock-Room war stets die Crème der tanzwütigen Berliner Jugend versammelt, und man tanzte 1960/61 dort u.a. nach Rockmusik, aber selten. Häufiger waren Twist, Locomotion, Madison, Hullygully, Shake, Surf, La Bamba usw. – dabei auffällig viele Formationstänze.

 

Der Rock befand sich zu Beginn der 1960er Jahre offenkundig in einer Krise. Es gab keinen dominanten oder prägenden Musik-Stil mehr. Entsprechend differenzierte sich das Lebensgefühl der Jugend aus. Viele Moden und viele Aktivitäten bestanden nebeneinander.

 

Besonders weite Verbreitung fand der Tanz La Bamba, praktisch eine einzige Nummer, die allerdings in mehreren Cover-Versionen existiert und dennoch einen eigenen Tanzstil provozierte. Hier die Musik in der Version, die 1962 der absolute Hit der Saison war und von Kampen auf Sylt bis Berchtesgaden in sämtlichen Tanz-Schuppen und -Bars lief. Dass der dazu gehörige Tanzstil eine typische Erfindung der Jugend war, ist klar, denn er ist so kräftezehrend, dass die älteren Damen und Herren in den Edel-Bars meist nach einer halben Nummer schweißgebadet aufgaben.

 

Trini Lopez: La Bamba

 

Der beliebteste Tanz der späten 1950er und frühen 1960er Jahre war allerdings der Twist, für den ständig neue Figuren bzw. Tanzstile erfunden wurden. Die Jugend hatte es gern quasi artistisch. Die älteren Damen/Herren begnügten sich damit, ihre Bäuche und Hinterteile zu schwenken.

 

Chubby Checker: Let’s Twist Again

 

Doch die Orientierungskrise war bald vorbei. Ein neuer Stil, der Beat, hatte sich herausgebildet, der langsam in die Radios, die Charts, die Music-Boxes und auf den Schallplatten-Markt drängte. Zunächst ganz unauffällig. Dennoch trug er von Anfang an Züge eines großen Umsturzes, um nicht von einer Revolution zu sprechen. Das Wichtigste an der Entwicklung war, dass die USA verblassten. Die Folge war allerdings, dass die schwarzen Musiker, die durch den Rock und seine Vermischung mit dem R&B seit wenigen Jahren auch für das weiße Publikum bedeutsam geworden waren, wieder verdrängt wurden. Ebenso die fast ausschließlich schwarzen Frauen-Gruppen, die zwischen 1955 und 1962/63 unendlich viele schöne Rock’n’Roll-Nummern im weichen „Doo Wop“-Stil produziert hatten, etwa The Falcons You’re So Fine, The Five Satins In The Still Of The Night, The Dells Oh What A Night, The Shirelles Will You Still Love Me Tomorrow und The Chiffons One Fine Day. (Sie lieferten u. a. die Hintergrundmusik zu dem Film Dirty Dancing).

 

Der Beat wurde in England geboren. Er war weiße Musik, klar männlich dominiert und mit einem künstlichen Underdog-Image versehen. Angeblich war er der direkte Ausdruck der Lebenserfahrungen von Jugendlichen in der Fabrik: das Stampfen der Maschinen sei in Musik umgesetzt worden. Tatsächlich wurde er von Mittelschicht-Jugendlichen erfunden, die vornehmlich aus dem Milieu von Kunst und Werbung, den Art Schools, kamen. Seine Wiege stand im Cavern-Club in Liverpool. Die früheste Version hieß deshalb Mersey-Beat. Im folgenden der Song, mit dem der Mersey-Beat 1960 die Musikszene betrat, zunächst noch fast unbemerkt, eben als eine Stilvariante unter den vielen anderen oben erwähnten.

 

Johnny Kidd & ThePirates: Shaking All Over

 

Was sind die auffälligsten Merkmale dieses neuen Stils? Natürlich der absolut von elektrischen Gitarren dominierte Sound, meist in der Besetzung mit zwei Melodie-Gitarren, 1 Bass und 1 Schlagzeug. Dazu Gesang. Was zunächst jahrelang rausfiel waren die Bläser, vor allem das Saxophon, das im Rock zunehmend vertreten gewesen war, vom R&B eingebracht. Auch das Klavier und der weibliche Hintergrunds-Chor (die Shoobie-Doo-Sänger) entfielen meist. Statt dessen oft hervorragender Chorgesang der Instrumentalmusiker, mustergültig bei den Beatles und den Beach Boys, die sich an einer typischen Gesangsgruppe orientierten, den Four Freshmen. Und der Rhythmus wurde völlig gradlinig, dadurch in gewisser Weise drivender, keine Samba-Schläge, die zum In-die-Knie-gehen reizen.

 

Die Texte waren auch hier i. d. R. wichtig. Sehr oft enthielten sie eine Botschaft. Natürlich spielen Liebe und Trennungsschmerz weiter eine große Rolle. Dazu als Beispiel der wohl berühmtesten Beat-Gruppe aus Liverpool, den Beatles, einer ihrer ersten Top-Hits aus dem Jahre 1963:

 

Beatles: She Loves You

 

Daneben fand jedoch seit etwa 1963 ein Themenwechsel statt. Man sang nicht mehr über den Schulalltag, die Freude am eigenen Auto oder Motorrad oder Zimmer. Man feierte ein neues Lebensgefühl, nämlich schlicht: jung zu sein. Jugend ist plötzlich ein Wert an sich. In unzähligen Beat-Songs versichert man sich gegenseitig, Sänger und Publikum, dass man jung sei, dass man einer Generation angehöre, dass das tolle Leute und alle über 30 Spießer seien. Im Beat drückt sich ein neues Selbstwertgefühl der Jugend aus und wird offen demonstriert. Dieser Wechsel kann gar nicht bedeutsam genug eingeschätzt werden. Ich erinnere an das Gejammer, das wenige Jahre zuvor noch zu hören war: Wir sind zu jung, können noch nicht heiraten usw. Jetzt, gegen Mitte der 1960er Jahre, pfeift man auf Heirat und will gar nicht älter werden oder als Erwachsener eingeschätzt werden. Die Unterwerfung unter die Sexualmoral der Eltern ist vorbei. Was sich seit Mitte der 1950er Jahr andeutete, wird nun seit der Mitte der 1960er Jahre mit dem Beat realisiert: „Jugend verselbständigte sich und erhob Popmusik zum Leitmedium ihres Alltags, ja von Massenkultur insgesamt. (…) Nach Ansicht des Soziologen Paul Yonnet hat sich die Jugend der westlichen Industriestaaten damit als >transnationales Volk< erfunden.“[9] Und, was mir besonders bedeutsam erscheint: Zwar differenzieren sich seitdem die jugendlichen Subkulturen und Lebensstile immer schneller aus, aber die noch um die Wende zu den 1960er Jahren so ausgeprägte klare Trennung von Mittelschicht- und Unterschicht-Jugend bzw. -Kultur ist im Medium des Beat weitgehend aufgehoben worden. Beat und das mit ihm oder von ihm transportierte Lebensgefühl wirkten schichtübergreifend. Weniger korrekt, könnte man auch sagen: der Beat hob den Klassengegensatz in der Jugendkultur auf.

 

Was bedeutet das? Waren die sexuellen Bedürfnisse verschwunden? Hatte ein fundamentaler Wandel der Moralvorstellungen bereits stattgefunden? Nein, noch nicht, aber der Moralwandel bereitete sich spürbar vor. Und schließlich kam in Beat-Songs schon früh auch Sozialkritik zur Sprache.

 

Das neue Lebensgefühl bringt gut der Song My Generation zum Ausdruck, mit dem The Who das Motto für die Mittsechziger Jahre vorgegeben haben.

 

The Who: My Generation

 

People try to put us down

Talking bout my generation

Just because we get around

Talking bout my generation

The things they do look awful cold

Talking bout my generation.

 

Das sind offensichtlich keine sehr klaren Aussagen, war angesichts des harten Drive dieses Songs kein Problem, die Botschaft wurde dennoch verstanden.

 

Auch die Rolling Stones erwiesen sich in ihren frühen Hymnen nicht als wortgewaltig. Und doch haben Millionen Jugendliche in aller Welt 1964 die Message verinnerlicht: I Can’t Get No Satisfaction. Gegenüber den Erwachsenen/ den Autoritäten galt als Regel: Spotten, angreifen, verachten. Die ZEIT interpretiert die Botschaft von Satisfaction wie folgt: Die Musik enthalte „die Aufforderung an jeden einzelnen, sich nicht länger einzuordnen, unterzuordnen, sich nicht länger die Befriedigung zu versagen, deren Erfüllung doch schon längst möglich ist.“[10] Damit wird eines der wichtigsten Themen des großen Umbruchs um die Mitte der 1960er Jahre angesprochen, das viele Menschen in den westlichen Industriegesellschaften umtrieb und ein Motto der Studentenbewegungen zwischen Berlin und Tokio war: die Aufkündigung des Prinzips der aufgeschobenen Befriedigung (Deferred Gratification Pattern) als Leitlinie der Sozialisation von Jugendlichen.[11] An die Stelle des Strebens nach kulturell höherwertigen Leistungen durch Sublimierung der primitiven Triebe[12] trat zunehmend eine repressive Entsublimierung, besonders im Sexualverhalten.[13] Dafür steht z. B. das Motto: Wer zweimal mit Derselben pennt, gehört schon zum Establishment.

 

Ein weiteres bedeutsames Element der sich anbahnenden, neuen Jugendkultur, die im Beat besonders früh zum Ausdruck kam, scheint mir die Abkehr vom tradierten Männlichkeitsideal zu sein. Noch im Rock’n’Roll tritt der (junge) Mann eher als harter Typ auf, als tough guy. Er mag zwar klarer als bisher üblich seine Gefühle andeuten, indem er mit vibrierender Stimme von seinen Liebessehnsüchten singt, wie Elvis in Heartbreak Hotel oder I Wanna Be Your Teddybear. Aber mit den zuckenden, sich windenden Hüften, die zur Show von Elvis gehörten, wird eine männliche Sexattitüde zum Ausdruck gebracht. Für manche konservative Kritiker erschien die Haltung, die Pose, „unmännlich“, aber eigentlich nur, weil eben überhaupt ein Gefühl ausagiert wurde. Was jedoch rüberkommen sollte, entspricht ganz alten Idealen: Der Stolz des Mannes auf seinen bekanntlich in der Hüftregion befindlichen Zauberstab, der durch das Wiegen und Herausdrehen der Hüften regelrecht angepriesen wird. Und viele Elvis-Songs sprechen das Gefälle zwischen den Geschlechtern ausdrücklich an. So in I Was The One; er hat sein Mädchen gerade an einen anderen verloren, aber es sei doch ganz klar: Was der nun genießt, hat sie allein bei ihm, dem verlassenen Liebhaber, gelernt.

 

I was the one who taught her to kiss

The way she kisses him now.

And you know the way that she touches your cheek,

yes, I taught her how.

I was the one who taught her to cry

When she wants you under her spell.

The sight of her tears drives you out of your mind;

I taught her so well. (usw.)

 

Der andere profitiert nun von dem erfolgreichen Unterricht – oder leidet auch mal unter einigen erlernten Tricks. Denn die Frau wusste nicht einmal, wie Tränen wirken; hat er ihr alles erst beigebracht. Tja, dumm gelaufen!

 

Diese selbstverständliche Macho-Pose gaben viele Beat-Bands von vornherein auf. Besonders deutlich die Bands, etwa die Beatles, die systematisch bei der Lead-Stimme wie in den Background Vocals Falsett-Stimmen einsetzten und damit die Geschlechtsdifferenz partiell einebneten. Auch die (relativ) langen Haare, die fast alle Beat-Bands der ersten Stunde (ab 1963) kultivierten, mal adrett wie die Beatles, mal wild und zottelig wie die Rolling Stones und die Who, wurden von den Zeitgenossen ausdrücklich als „weibisch“ diskreditiert. Die perückenartigen Lockenfrisuren, die Phantasieuniformen und die Rüschenhemden, die 1966 bis 1968 eine Zeitlang kultiviert wurden und „harte Burschen“ wie Eric Clapton bei seinen Auftritten mit den Yardbirds zu einer lächerlichen Figur machten, waren zwar als Anleihen an das Rokoko gedacht, untergruben aber einen traditionellen Männlichkeits-Appeal. Manche Gruppen machten daraus ein Programm, so Sonny & Cher, die bei vielen Songs, etwa bei dem (jüngst wieder schlecht gecoverten) I Got You Babe, eine identische Tonlage wählten, so dass kaum unterscheidbar ist, wer jeweils singt. Oder wie Jefferson Airplane in Somebody to Love. In der Kleidung propagierten sie ebenfalls Uni-Sex. Androgyne Tendenzen spielten insgesamt eine große Rolle in der vom Beat geprägten Jugendkultur der 1960er Jahre.

 

Wahrscheinlich hat das den erneuten Einbruch der schwarzen Musik in die Jugendkultur in Form des Soul ab ca. 1965 sehr begünstigt. Denn deren männliche Leitfiguren, besonders James Brown, stellten nicht nur ein neues, politisch von den westlichen Jugendlichen begrüßtes, schwarzes Selbstbewußtsein zur Schau (Say It Loud I’m Black and Proud), sondern eben auch eine ziemlich unverblümte Macho-Pose; It’s A Man’s World oder Sexmachine und viele andere Titel stehen dafür. Wie oft in solchen Situationen war den meisten jungen Männern, die auf diese Musik abfuhren, der Appell an den Macho wahrscheinlich gar nicht bewusst. Deshalb muss er jedoch nicht unwirksam gewesen sein. Jedenfalls bildeten diese beiden Tendenzen, ohne dass es damals thematisiert wurde, in gewisser Weise einen Gegensatz: beim weißen Beat in Westeuropa und den USA die zaghafte Suche nach einem neuen Männlichkeitsideal – weicher, einfühlsamer, verständnisbereiter, partnerschaftlicher, weniger auf einer a priori gegebenen Überlegenheit beharrend; beim Soul dagegen eher eine Betonung des traditionellen Macho-Typs – aber mit mehr demonstrativer Sinnlichkeit gekoppelt.

 

Das sozialkritische Element vertraten u. a. die Animals mit Eric Burdon deutlich – nicht zuletzt durch Identifikation mit den Schwarzen, deren Musik die Animals feierten. Im folgenden Song wird schon im Titel der neuartige Anspruch erhoben: Das ist mein Leben. Die Philosophie war: Dies Leben gehört nur mir, dem Jugendlichen; und ich werde damit umgehen, wie ich es für richtig halte.

 

Animals: It’s My Life

 

Die Politisierung, die sich in vielen Beat-Texten bereits seit etwa 1963 ankündigte, wurde allerdings durch einen anderen Zweig der Pop-Musik mit knappem zeitlichem Vorlauf viel direkter und schneller vorangetrieben, durch die Folk-Music. Sie verschaffte übrigens für wenige Jahre noch einmal ihren Anhängern die Chance, selbst Musik zu machen. Es wurde ein große Bewegung des Mitsingens und gemeinsam Musizierens, die sich unter den Mittel- und Oberschicht-Jugendlichen in der ganzen westlichen Welt rasch ausbreitete.

 

Ihr wichtigster Vertreter war der mit vielen Fernsehsendungen, Film-Retrospektiven und Feuilletons geehrte Bob Dylan, seit Juni 2013 auch Mitglied der Berliner Akademie der Künste und Inhaber des Nobelpreises für Literatur 2016. Allerdings trat Bob Dylan 1962 erstmalig mit scheinbar ganz unpolitischen Liedern an die Öffentlichkeit, sämtlich keine Eigenkompositionen. In den Texten und vor allem im Gesangsstil dokumentierte sich jedoch eine Radikalität des subjektiven Ausdrucks, die ich ja auch für die Beat-Musik konstatierte. Hier ein Beispiel dafür von seiner ersten Platte, ein traditioneller Song, den Dylan auf seine unverwechselbare Weise interpretiert.

 

Bob Dylan: See That My Grave Is Kept Clean

 

Wenig später ist es mit den Traditionals vorbei. Dylan machte seine eigenen Texte und erwies sich von der zweiten Platte an (ebenfalls 1962 ediert) als Songschreiber und -komponist, der in genialer Weise die Probleme und Gefühle aufgriff, die seine Generation umtrieben. Mit dieser zweiten Platte The Freewheelin‘ Bob Dylan begründete Bob Dylan seinen Ruf als Protestsänger und trieb damit die Ausbreitung des Gesellschaftsprotests ganz maßgeblich voran. Wichtigster Auslöser und Gegenstand dieses Jugendprotests war der sich 1962/63 stark ausweitende Vietnam-Krieg. Und darum richten sich mehrere Songs auf der genannten Platte gegen diesen Krieg und seine Betreiber, besonders gegen die Rüstungs-Fabrikanten, z.B. Blowin‘ in the Wind, A Hard Rain’s Gonna Fall, Talking World War III Blues und nicht zuletzt Masters of War.

 

Dieser Song hatte alles, was die Jugend, die sich moralisch entrüstete, erwartete: starkes gefühlsmäßiges Engagement gegen Kriege überhaupt; Protest gegen die Alten, die den Jungen den Krieg einbrocken; dabei ein Schuss Kapitalismuskritik; und schließlich die subjektive Pose radikaler Verachtung. Man könnte sie mit einem Buchtitel des existenzialistischen Autors und Jazzmusikers Boris Vian umschreiben: Ich werde auf eure Gräber spucken!

 

Ein Jahr später, 1963, brachte Dylan dann die großen Veränderungen, die sich anbahnten, auf den Begriff. Man bedenke: In dem Jahr sangen die Beatles noch She Loves You und die Stones Money, That’s What I Want; beim Beat entdeckte man sich als My Generation – war aber ansonsten meist noch ziemlich blind gegenüber dem, was in der Gesellschaft passierte. Da sang Dylan bereits The Times They Are A-Changing.

 

Bob Dylan: The Times They Are A-Changing

 

Diese Botschaft wurde überall in der westlichen Welt gehört. Überall sangen Jugendliche dies und andere Lieder, vor allem auch Blowin‘ In the Wind. Dazu trug natürlich maßgeblich bei, dass von vielen Dylan Songs sehr rasch Cover-Versionen erschienen, die teilweise populärer wurden als die Originale. Besonders stark wurde die Verbreitung von Dylan-Songs durch seine damalige Freundin Joan Baez vorangetrieben. Aber auch die Beatles, die Byrds, die Hollies, die Seekers, Johnnny Cash, Duane Eddy, José Feliciano, Jimmy Hendrix, Van Morrison und Elvis Presley, um nur einige Pop-Größen zu nennen, hatten während der 1960er Jahre Dylan-Songs im Repertoire.

 

Das Wichtigste war jedoch, dass man sie häufig so gut nachsingen konnte. Bis heute gehören viele dieser Songs deshalb zum Standard für jeden, der Gitarre spielt und dazu singt, egal ob für sich allein oder in Gruppen, dort aber ganz besonders.

 

Die Protest-Bewegung breitete sich in der Jugend wie in der Pop-Musik rasch aus. Doch ist das ein eigenes Thema, auf das ich hier nicht weiter eingehen will. Statt dessen halte ich noch einmal fest: Anfang der 1960er Jahre entdeckten die Jugendlichen ihre unmittelbaren Bedürfnisse und meldeten deren Befriedigung an. Dabei bedienten sie sich des Mediums des Beats. Neu waren nicht die Bedürfnisse, sondern die Forderung nach Befriedigung, und dies möglichst ohne Aufschub. Diese Forderung wurde nicht im stillen Kämmerlein gehalten, sondern offen ausgesprochen, ja geradezu herausgebrüllt. Die Jugend erhob mit dieser Musik und ihren Texten den Anspruch auf eigenes, selbstbestimmtes Leben.

 

Historisch neuartig an diesem Anspruch war, dass er keinerlei Verzicht akzeptierte, besonders nicht auf stimulierende Drogen. Und so kam die Beat-Szene schon seit ca. 1964 immer stärker mit Drogen-Konsum in festen Kontakt. Die Musiker wirkten dabei als (negative) Vorbilder. Zunächst wurde offen der Alkohol als Element des Lebensstils zelebriert. Sex and Booze hieß bei zahlreichen bekannten Gruppen und Sängern die Parole. Auf der Bühne, hinter der Bühne und vor der Bühne wurde reichlich getrunken. Besonders bei Konzerten der Beat-Gruppen in den Clubs der Großstädte, z.B. in Liverpool und London, in Hamburg und Berlin. Spätestens ab 1965 wurde mehr und mehr die Einnahme von Haschisch und Marihuana bis zum LSD propagiert; da diese Drogen nicht legalisiert waren, weniger offen, dafür um so nachhaltiger in Anspielungen in den Song-Texten. Aber zunächst machte man jahrelang daraus kein großes Problem, jedenfalls in Deutschland nicht. Man glaubte, es handele sich nur um ein Problem der Musiker.

 

Um so klarer zeichneten sich zwei andere gesellschaftliche Auswirkungen des mit dem Beat aufgekommenen neuen jugendlichen Lebensstils ab: die Veränderung der sexuellen Verhaltensweisen und die latente Politisierung der Jugend. Zunächst eine Anmerkung zum Sex. Frank Zappa von den Mothers of Invention meinte dazu in einem Interview: Die Jugendlichen beginnen, die geltenden sexuellen Tabus zu missachten und verunsichern damit die Elterngeneration zutiefst. Und die allgemeine Verfügbarkeit der Anti-Baby-Pille seit 1966 erleichterte die Freizügigkeit. Mom und Dad waren sexuell uninformiert und gehemmt…, und sie sahen keinen Grund, warum ihre Kinder anders aufwachsen sollten. (Warum sollten diese schmutzigen Teenager plötzlich allen Spaß haben.) Sex ist dafür da, Babys zu kriegen. Der Beginn einer sexuellen Befreiung ist Teil des Aufbegehrens der Jugend gegen alle möglichen anderen einengenden Tabus und Verhaltenszwänge gewesen.[14]

 

Genau das spiegelt sich wiederum in den immer ruppigeren oder auch phantastischeren Kostümierungen und Live-Acts bzw. Shows der Pop-Idole. Die Haare wurden immer länger, die Frisuren wilder, die Röcke der Mädchen kürzer, die Kleidung bunter und oft ungepflegter. Schlips und Kragen und Anzüge kamen abhanden. Die Cardin-Uniformen der frühen Beatles wurden nur noch belächelt. So wie auch BHs, Korsagen, Reizwäsche und vieles andere für einige Jahre zurückgedrängt wurden.

 

Kritisch sei an dieser Stelle angemerkt, dass schon bis Mitte der 60er Jahre auch der Preis sichtbar wurde. Z.B. in Form des Verlusts an eigener musikalischer Betätigung. Jazz und Skiffle verschwanden nicht nur binnen weniger Jahre fast vollkommen aus dem jugendlichen Lebensstil. Es trat auch nichts an dessen Stelle. Die wenigsten Jugendlichen strebten die Gründung eigener Amateur-Beat-Bands an. Von vornherein standen 2 Tatsachen dagegen: die hohen Kosten der notwendigen Ausrüstung, gekoppelt mit dem Fehlen adäquater Probenräume. Und vor allem die inzwischen erreichte Allgegenwart der käuflichen Produkte und deren Perfektion. Die meisten Jugendlichen hatten Mitte der 1960er Jahre eigene Radios, Plattenspieler und ggf. Tonband-Geräte und vor allem auch eigene (wenn auch meist sehr kleine) Zimmer in der elterlichen Wohnung, in denen man die Musik hören konnte. Der auf Jugendliche zugeschnittene Musikmarkt wuchs rasend schnell. Der Lebensstil der Jugendlichen begann eine enge Beziehung zum Kommerz einzugehen.

 

Nur am Rande erwähnen möchte ich, dass natürlich nicht alle Jugendlichen dem Beat ergeben waren. Abgesehen von der kleinen Gruppe, die sich nur für E-Musik interessierte und Pop-Musik sowieso ablehnte, bleibt die zahlenmäßig nicht genau erfassbare Gruppe der Jugendlichen, die weiterhin deutsche Schlager präferierten. Es muss sie ja gegeben haben, die Millionen Fans von Gitte (Ich will nen Cowboy als Mann, 1963), Rex Gildo (Liebeskummer lohnt sich nicht, 1964), Manuela (Schuld war nur der Bossa Nova, 1962), Adamo (Es geht eine Träne auf Reisen, 1967), Alexandra (Zigeunerjunge, 1967), Roy Black, Heino, Heintje und Udo Jürgens. Auch junge Leute, nicht nur Eltern und Großeltern, haben regelmäßig die Große Schlagerparade des ZDF gesehen und Dieter Thomas Heck und anderen Blindgängern die hohen Einschaltquoten beschert. Das ist die dunkle Seite der 1960er Jahre, um deren Erhellung ich mich nicht kümmern möchte. Denn interessant ist, dass diese Seite jugendlichen Lebensstils, die durchaus vorhanden war, vielleicht in der Provinz stärker als in Städten, dass die niemanden interessierte. Die Beat-Kultur war in der Öffentlichkeit absolut dominant, in Deutschland wie überall in der westlichen Welt.

 

Seit der Mitte der 1960er Jahre verband sich, wie gesagt, der Beat immer stärker mit den Drogen und propagierte einen durch Drogenkonsum mitgeprägten Lebensstil – ich erinnere nur an das erste in dieser Hinsicht eindeutige Album der Beatles St. Peppers Lonely Hearts Club Band (1967; mit Lucy in the Sky with Diamonds und A Day in the Life), an die Rolling Stones mit ihrem Album Their Satanic Majesties Request (1967) oder an Lou Reed mit Velvet Underground and Nico (1967). Er verlor damit rasch seine Vitalität und löste sich in die verschiedensten Stilformen und Zirkel auf. So wie die Jugend auch.

 

Aber zuvor brach noch einmal mit Macht die schwarze Musik in Form des Soul auf die westlichen Märkte mit einem eigenen Sound und Lebensgefühl. Die Intensität und Spontaneität der Schwarzen, die diese Musik so unmittelbar erfahrbar herüberbrachte, faszinierte viele Jugendliche, vor allem die inzwischen politisch engagierten. Der Soul schien für einige Zeit die Energien der Jugendlichen erneut zu bündeln. Dass Soul diese Kraft immer hat, macht ja die derzeitige Reminiszenz deutlich, eine Variante des aktuellen Mainstreams Soul zu nennen und vorsichtig an echten Soul anzuknüpfen. Hier nur ein Beispiel, natürlich ein Original, Aretha Franklin mit einer Hymne, die während der Studentenbewegung allen denjenigen aus dem Herzen zu sprechen schien, die an die Befreiung des Individuums, an den Sieg der Vernunft und an mehr Demokratie glaubten.

 

Aretha Franklin: Think

 

Soulmusik wurde natürlich primär von den Schwarzen in den USA als Identifikationsmedium wahrgenommen, das machen die vielfältigen wechselseitigen Anspielungen in Soultexten einerseits und politischen Verlautbarungen schwarzer Organisationen, wie z.B. der Black-Panther-Partei, andererseits deutlich. Das neue Lebensgefühl der Schwarzen hat am klarsten James Brown in seinem Songtitel zum Ausdruck gebracht: I Say It Loud, I’m Black and Proud.

 

Die vielen Verästelungen der Jugend- und Musikszene seit Mitte der 1960er Jahre kann ich im Übrigen hier nicht weiter verfolgen. Nur so viel sei gesagt, dass eine der Sackgassen, die für ca. 2 Jahre als Weg zum Neuen Menschen erschienen, für die westliche Jugend der Blumenweg war. Man glaubte, so ab 1967, als Blumenkinder oder Hippies sich selbst und die Gesellschaft rund herum nun endlich grundlegend zum Besseren verändern zu können. Stellvertretend erwähnt sei das soeben wegen des 50jährigen Jubiläums in vielen Medien ausführlich behandelte erste große Open-Air-Festival der Pop-Musik, das Monterey Pop Festival von 1967. Viele anrührende Gesten sind damals zustande gekommen und um die Welt gegangen, z. B. die häufig in den Medien reproduzierte Szene, in der jugendliche Anti-Kriegs-Demonstranten vor dem Pentagon den mit Gewehren auf sie zugehenden Nationalgardisten Blumen in die Gewehrläufe schoben. Für diese Haltung, die allerdings, sehr stark den permanenten Genuss von Drogen zur Grundlage hatte, steht der folgende Song, der das Motto für Monterey-Festivals war und dort auch vorgetragen wurde:

 

Scott McKenzie: San Francisco

 

Auch auf dem Festival von Woodstock, 1969, von dem die Veranstalter und die Vermarkter meinten, es sei der Höhepunkt der neuen Jugend- und Musikkultur, gab es zahlreiche schöne, gefühlvolle Gesten und Begebnisse, im Film und auf zahllosen Fotos dokumentiert. Ich glaube jedoch, man sollte dies Festival eher als die Dokumentation des Scheiterns eines Traums begreifen, oder besser: des Scheiterns der unkoordinierten und weitgehend unbekannten Träume vieler Jugendlicher. Dass man sich in zentralen Punkten in Sackgassen verrannt hatte, die keineswegs weiter führten, jedenfalls nicht gesellschaftlich, ist in vielen Szenen des Woodstock-Films erkennbar. So z. B. wenn The Who bei ihrem Auftritt völlig unmotiviert und nur aus Gründen des Showeffekts ihre Instrumente zertrümmerten.

 

Offensichtlich war man am Ende, musikalisch wie menschlich. Die Steigerung der durch Drogengenuss abgestumpften Erlebnisfähigkeit wurde in der Zerstörung gesucht.

 

Zwar gab es auf demselben Festival den ersten berühmten Auftritt von Joe Cocker mit With A Little Help from My Friends. Sicher, eine tolle Interpretation eines bemerkenswerten Songs der Beatles. Aber wer Joe Cocker sich da auf der Bühne winden sieht, seine epileptischen Zuckungen und den ständigen Griff nach dem Whisky-Becher, der kann darin nicht mehr als einen Aufschrei, einen Wunsch nach Hilfe sehen. Eine Perspektive wurde damit nicht gewiesen.

 

Und im selben Jahr, 1969, wählten dann ja auch überall in den westlichen Staaten kleine Gruppen Jugendlicher eindeutig den Weg der Gewalt. Nur noch Terror gegenüber dem verhassten Staat und totale Missachtung der umgebenden Gesellschaft schienen diesen Leuten angemessen, um mit ihren Problemen fertig zu werden. Als Beleg für den musikalischen Niederschlag dieser Haltung ein Song der Berliner Band Ton Steine Scherben von 1970.

 

Ton Steine Scherben: Macht kaputt, was euch kaputt macht

 

Damit bin ich am Ende. Was ich gezeigt habe, ist nur ein Ausschnitt – sowohl aus der einschlägigen Musik wie aus den gesellschaftlichen Entwicklungstendenzen. Ich wollte vor allem zeigen, wie der Aufbruch der Jugend seit der Mitte der 1950er Jahre in eine große gesellschaftliche Um- und Neuorientierung in den 1960er Jahren mündete. Ich wollte zeigen, dass diese Neuorientierung sehr eng mit der Gewinnung neuen Selbstbewusstseins der Jugend und mit dem gesellschaftlichen Dominantwerden der Jugendkultur verbunden war. Und zu dieser Jugendkultur gehörte seit den späten 1950er Jahren die Pop-Musik. Sie reflektierte viele dieser Entwicklungen und trieb sie sogar immer wieder auch ein wenig mit voran. Die Pop-Musik bündelte diffuse Meinungen, Wünsche, Hoffnungen und gab ihnen Namen, an die sich wiederum Jugendliche vorübergehend halten konnten. Sie vermittelte Chiffren, die Ziele zu weisen schienen und dem eigenen Streben eine Richtung zu geben versprachen. Ich glaube, dass die Pop-Musik diese Funktion seit dem Ende der 1960er Jahre verloren hat, nicht zuletzt deshalb, weil sie zu offenkundig Sackgassen angepriesen und sich selbst dabei zu ernst genommen hat. Sie wurde kommerzialisiert und reflektierte das immer weniger. Vor allem verloren ihre Vorreiter seitdem erheblich an gesellschaftlicher Sensibilität u. ihre Produkte an gesellschaftspolitischer Relevanz.

 

Trotz aller Fort- und gelegentlichen Rückschritte bleibt allerdings das Grundproblem der Jugend. Es ist psychodynamisch unausweichlich und besteht darin, das Verhältnis von Eltern zu Kindern immer wieder neu gestalten zu müssen. Jede Generation muss damit erneut von vorn anfangen, eben für sich selbst. Um meinen eigenen Vortrag und die darin enthaltenen Wertungen etwas zu relativieren abschließend ein Song von 1970, der sich dieses Grundproblems angenommen hat und eine Lösung vorschlägt:

 

Father:

It’s not time to make a change, just relax, take it easy.

You’re still young, that’s your fault, there’s so much you have to know.

Look at me, I am old, but I’m happy …

 

Son:

How can I try to explain? When I do he turns away again,

It’s always been the same, same old story.

From the moment I could talk I was ordered to listen

Now there’s a way and I know that I have to go away.

I know I have to go.

 

Cat Stevens: Father and Son

 

 

[1] Vgl. http://de.wikipedia.org/wiki/Schlager_der_Woche_%28RIAS%29; Stand: 16. 12. 2014.

[2] Berlin war in dieser Hinsicht begünstigt, da man hier beide Sender empfangen konnte. In West-Deutschland dagegen war man meist auf den Sender der jeweiligen Besatzungsmacht angewiesen. Vgl. u. a. http://www.oldtimeradio.de/programm-R-AFN.php; Stand: 16. 12. 2014. Dass für viele Jugendliche auch noch in den frühen 1960er Jahren der Zugang zur jeweiligen Jugendmusik schwierig war und speziell über das Hören des AFN ermöglicht wurde, verdeutlicht auch das folgende Paper von Wolfgang Rumpf und die dort zitierte Literatur: http://www.wolfgangrumpf.de/1_afn.pdf; Stand: 16. 12. 2014. Radio Luxemburg, das ebenfalls ein gesuchter Anbieter von Popmusik wurde, konnte während der späten 1950er und frühen 1960er Jahre nur in grenznahen Regionenn Westdeutschlands empfangen werden; 1967 wurde die Reichweite deutlich vergrößert. Vgl. http://de.wikipedia.org/wiki/RTL_Radio; Stand: 16. 12. 2014.

[3] Vgl. auch die lebhafte Schilderung solcher Situationen durch Rainer Eisfeld: Als Teenager träumten. Die magischen Fünfziger Jahre. Baden-Baden 1999, S. 103f.

[4] Dazu die „Interpretation“ von E. Henscheid in: Max & Moritz (Hg.): Schlager, die wir nie vergessen. Verständige Interpretationen. Leipzig 1997, S. 29-38.

[5] Vgl. http://de.wikipedia.org/wiki/Hound_Dog; Stand: 16. 12. 2014.

[6] Schwarze Pop-Künstler prangern das gelegentlich öffentlich an: Presley habe ihnen ihre Musik letztlich gestohlen. So z. B. Little Richard in den Interviews zum Film Chuck Berry: Hail! Hail! Rock ‚n’ Roll, directed by Taylor Hackford.

[7] Vgl. als Überblick McDevitt, C.: Skiffle. The Definitive Inside Story. London 1997.

[8] McDevitt: Skiffle, S. 37.

[9] K. Maase: Grenzenloses Vergnügen. Der Aufstieg der Massenkultur 1850-1970. Frankfurt/ M. 1997, S. 252 u. 256.

[10] Zitiert nach Schmidt-Joos, S., u. Graves, B.: Rock-Lexikon. Reinbek 1973, S. 300

[11] Vgl. im Kontext der 1960er Jahre bzw. der Studentenunruhen Hack, L.: Am Beispiel Berkeley: Rigider Funktionalismus und neue Unmittelbarkeit. In: neue kritik, 41 (April 1967), S. 36-52; in aktueller, kritischer Interpretation Haas, E.: Arbeiter- und Akademikerkinder an der Universität. Eine geschlechts- und schichtspezifische Analyse. Frankfurt/ M. u. New York 1999, S. 192 ff.

[12] Vgl. u. a. Freud,S.: Das Unbehagen in der Kultur. Frankfurt/ M. 1972 (TB-Ausgabe), S. 77f. und passim.

[13] Vgl. u. a. Reiche, R.: Sexualität und Klassenkampf. Zur Kritik repressiver Entsublimierung. Frankfurt/ Main 1968 (Probleme sozialistischer Politik 9).

[14] Nach Kaiser, R.-U.: Das Buch der neuen Pop-Musik, 2. Aufl., 1969, S. 116.

Veröffentlichungen von Reinhard Spree

Prof. Dr. Reinhard Spree                                                                                    Stand: Oktober 2018

Verzeichnis der Veröffentlichungen

I. Wirtschaftshistorische Beiträge, bes. Historische Konjunktur- und Wachstumsforschung

 

Monographien

Die Wachstumszyklen der deutschen Wirtschaft von 1840 bis 1880. Berlin: Duncker & Humblot 1977.

Wachstumstrends und Konjunkturzyklen in der deutschen Wirtschaft von 1820 bis 1913.

Quantitativer Rahmen für eine Konjunkturgeschichte des 19. Jahrhunderts. Göttingen:

Vandenhoeck & Ruprecht 1978.

Lange Wellen wirtschaftlicher Entwicklung in der Neuzeit. Historische Befunde, Erklärungen und Untersuchungsmethoden. Köln 1991 (= Historical Social Research – Historische Sozialforschung, Supplement No. 4).

 

Herausgeberschaft

(Zusammen mit W. H. Schröder): Historische Konjunkturforschung. Stuttgart: Klett-Cotta 1980 (Historisch-Sozialwissenschaftliche Forschungen, Bd. 11).

ifo-Studien, (1992), H. 2 (als Gastherausgeber = Fs. für Knut Borchardt)

Geschichte der deutschen Wirtschaft im 20. Jahrhundert. München: Beck 2001.

Jahrbuch für Wirtschaftsgeschichte, Beihefte 1 – 16. Berlin: Akademie Verlag 2002 – 2016.

Beiträge zu Zeitschriften und Sammelwerken

Akkumulation und Verwertung: Zur Krisenproblematik des industriewirtschaftlichen Wachstums. In: SOWI, 3 (1974), S. 38-43.

(Zusammen mit J. Bergmann): Die konjunkturelle Entwicklung der deutschen Wirtschaft 1840 bis 1864. In: Wehler, H.-U. (Hg.): Sozialgeschichte Heute. (Festschrift für Hans Rosenberg zum 70. Geburtstag). Göttingen: Vandenhoeck & Ruprecht 1974, S. 289-325.

Zur Theoriebedürftigkeit quantitativer Wirtschaftsgeschichte (am Beispiel der historischen Konjunkturforschung und ihrer Validitätsprobleme). In: Kocka, J. (Hg.): Theorien in der Praxis des Historikers. Göttingen: Vandenhoeck & Ruprecht 1977 (Geschichte und Gesellschaft, Sonderheft 3), S. 189-204.

Zur quantitativ-historischen Analyse ökonomischer Zeitreihen: Trends und Zyklen in der deutschen Volkswirtschaft von 1820 bis 1913. In: Best, H., u. Mann, R. (Hg.): Quantitative Methoden in der historisch-sozialwissenschaftlichen Forschung. Stuttgart: Klett-Cotta 1977 (Historisch-Sozialwissenschaftliche Forschungen, Bd. 3), S. 126-161.

Veränderungen der Muster zyklischen Wachstums der deutschen Wirtschaft von der Früh- zur Hochindustrialisierung. In: Geschichte und Gesellschaft, Bd. 5 (1979), H. 2, S. 228-250.

Was kommt nach den „langen Wellen“? In: Schröder, W. H., u. Spree, R.(Hg.): Historische Konjunkturforschung. Stuttgart: Klett-Cotta 1980, S. 304-315.

(Zusammen mit W. H. Schröder): Historische Konjunkturforschung: Aufriß und Desiderata. In: Dies. (Hg.): Historische Konjunkturforschung. Stuttgart: Klett-Cotta 1980, S. 7-17.

(Zusammen mit R. Metz): Kuznets-Zyklen im Wachstum der deutschen Wirtschaft während des 19. und frühen 20. Jahrhunderts. In: Petzina, D., u. Roon, G. van (Hg.): Konjunktur, Krise, Gesellschaft. Wirtschaftliche Wechsellagen und soziale Entwicklung im 19. und 20. Jahrhundert. Stuttgart: Klett-Cotta 1980, S. 343-376.

Spezialist für Komplexität – Knut Borchardt im Gespräch. In: ifo-Studien, 38 (1992), S. 107-131.

Das Wachstum von Volkswirtschaften. Theorie und historische Erfahrung. In: Jahrbuch für Wirtschaftsgeschichte, (1994/1), S. 109-130.

Wachstum. In: Ambrosius, G., u. a. (Hg.): Moderne Wirtschaftsgeschichte. Eine Einführung für Historiker und Ökonomen. München: Oldenbourg 1996, S. 137-155.

Konjunktur. In: Ambrosius, G., u. a. (Hg.): Moderne Wirtschaftsgeschichte. Eine Einführung für Historiker und Ökonomen. München: Oldenbourg 1996, S. 157-173.

Einleitung. In: Spree, R. (Hg.): Geschichte der deutschen Wirtschaft im 20. Jahrhundert. München: Beck 2001, S. 9-22.

Business Cycles in History. Münchener Wirtschaftswissenschaftliche Beiträge, Discussion Papers (hg. von der Volkswirtschaftlichen Fakultät der LMU), No. 02-01, München 2002.

Globalisierungs-Diskurse – gestern und heute. In: Jahrbuch für Wirtschaftsgeschichte, (2003), H. 2, S. 35-56. Preprint als: Concerns about Globalisation – Then and Now. Münchener Wirtschaftswissenschaftliche Beiträge, Discussion Papers (hg. von der Volkswirtschaftlichen Fakultät der LMU), No. 03-04, München 2003.

Wirtschaftliche Lage und Wirtschaftspolitik (Beschäftigungspolitik) in Deutschland am Beginn der NS-Herrschaft. In: Bayerische Landeszentrale für politische Bildungsarbeit (Hg.): Die Anfänge der Braunen Barbarei. München 2004, S. 101-126. Elektronische Version als: About the Relative Efficiency of the Nazi Work Creation Programs. Discussion Papers (hg. von der Volkswirtschaftlichen Fakultät der LMU), No. 2004-15, München 2004 [http://epub.ub.uni-muenchen.de/archive/00000382/01/ns-abNEU.pdf].

Wachstum. In: Ambrosius, G., u. a. (Hg.): Moderne Wirtschaftsgeschichte. Eine Einführung für Historiker und Ökonomen. 2. überarb. Aufl., München: Oldenbourg 2006, S. 155-183.

Konjunktur. In: Ambrosius, G., u. a. (Hg.): Moderne Wirtschaftsgeschichte. Eine Einführung für Historiker und Ökonomen. 2. überarb. Aufl., München: Oldenbourg 2006, S. 185-212.

Die „erste“ Weltwirtschaftskrise 1857-1859. In: Katholische Akademie in Bayern, München (Hg.): zur debatte, 40 (2010), S. 39-41.

Einleitung. In: Spree, R. (Hg.): Konjunkturen und Krisen in der neueren Geschichte = Jahrbuch für Wirtschaftsgeschichte/ Economic History Yearbook, (2011/ 1), S. 9-17.

China in der Geschichte der frühen Globalisierung./ Zur Debatte um eine „Great Divergence“ – Ein kritischer Kommentar. In: Eberspächer, C. u. a. (Hg.): Wissensaustausch und Modernisierungsprozesse zwischen Europa, Japanund China. Stuttgart 2018 (Acta Historica Leopoldina Nr. 69), S. 85-109 u. S. 341-351.

 

II. Sozialhistorische Beiträge, bes. Sozialgeschichte der Medizin; Historische Demographie; Sozialstrukturanalyse

Monographien

Soziale Ungleichheit vor Krankheit und Tod. Zur Sozialgeschichte des Gesundheitsbereichs im Deutschen Kaiserreich. Göttingen: Vandenhoeck & Ruprecht 1981.

Health and Social Class in Imperial Germany. A Social History of Mortality, Morbidity and Inequality. Oxford usw.: Berg Publishers 1988.

Der Rückzug des Todes. Der Epidemiologische Übergang in Deutschland während des 19. und 20. Jahrhunderts. Konstanz 1992 (= Konstanzer Universitätsreden, H. 186).

Eine bürgerliche Karriere im deutschen Kaiserreich. Der Aufstieg des Advokaten Dr. jur. Hermann Ritter von Pemsel in Wirtschaftselite und Adel Bayerns. Aachen: Shaker 2007.

 

Herausgeberschaft

(Zusammen mit A. Labisch): Medizinische Deutungsmacht im sozialen Wandel. Bonn: Psychiatrie-Verlag 1989.

(Zusammen mit A. Labisch): „Einem jeden Kranken in einem Hospitale sein eigenes Bett“. Zur Sozialgeschichte des Allgemeinen Krankenhauses in Deutschland im 19. Jahrhundert. Frankfurt/M. u. New York: Campus 1996.

(Zusammen mit A. Labisch): Krankenhaus-Report 19. Jahrhundert. Krankenhausträger, Krankenhausfinanzierung, Krankenhauspatienten. Frankfurt/M. u. New York: Campus 2001.

-.-

Historische Statistik des Gesundheitswesens vom frühen 19. Jahrhundert bis 1938. Lange Reihen zum Heilpersonal und zum Krankenhauswesen. Bearb. v. W. Kohler, hg. v. R. Spree, Universität Konstanz 1990 (vervielf., in mehreren Bibliotheken eingestelltes MS).

Informationssystem zur Medizinalstatistik der Bundesrepublik Deutschland. Bd. 1: Heilpersonal und Krankenhauswesen; Bd. 2: Sterblichkeit nach Geschlecht, Alter und Todesursachen. Bearb. v. R. Kube, hg. v. R. Spree, Universität Konstanz 1990 (vervielf., in mehreren Bibliotheken eingestelltes MS).

 

Beiträge zu Zeitschriften und Sammelwerken

Strukturierte soziale Ungleichheit im Reproduktionsbereich. Zur historischen Analyse ihrer Erscheinungsformen in Deutschland 1870 bis 1913. In: Bergmann, J., u.a. (Hg.): Geschichte als politische Wissenschaft. Stuttgart: Klett-Cotta 1979, S. 55-115.

Die Entwicklung der differentiellen Säuglingssterblichkeit in Deutschland seit der Mitte des 19. Jahrhunderts. (Ein Versuch zur Mentalitätsgeschichte). In: Imhof, A.E. (Hg.): Mensch und Gesundheit in der Geschichte. Husum: Matthiesen 1980, S. 251-278.

Zur Bedeutung des Gesundheitswesens für die Entwicklung der Lebenschancen der deutschen Bevölkerung zwischen 1870 und 1913. In: Blaich, F. (Hg.): Staatliche Umverteilungspolitik in historischer Perspektive. Berlin: Duncker & Humblot 1980, S. 165-223.

The Impact of the Professionalization of Physicians on Social Change in Germany during the Late 19th and Early 20th Centuries. In: Historical Social Research – Quantum Information, 15 (1980), S. 24-39.

Zu den Veränderungen der Volksgesundheit zwischen 1870 und 1913 und ihren Determinanten in Deutschland (vor allem in Preußen). In: Conze, W., u. Engelhardt, U. (Hg.): Arbeiterexistenz im 19. Jahrhundert. Lebensstandard und Lebensgestaltung deutscher Arbeiter und Handwerker. Stuttgart: Klett-Cotta 1981, S. 235-292.

Angestellte als Modernisierungsagenten. Indikatoren und Thesen zum reproduktiven Verhalten von Angestellten im späten 19. und frühen 20. Jahrhundert. In: Kocka, J. (Hg.): Angestellte im europäischen Vergleich. Die Herausbildung angestellter Mittelschichten seit dem späten 19. Jahrhundert. Göttingen: Vandenhoeck & Ruprecht 1981 (Geschichte und Gesellschaft, Sonderheft 7), S. 279-308.

The German Petite Bourgeoisie and the Decline of Fertility: Some Statistical Evidence from the Late 19th and Early 20th Centuries. In: Historical Social Research – Quantum Information, 22 (1982), S. 15-49.

(Zusammen mit C. Huerkamp): Arbeitsmarktstrategien der deutschen Ärzteschaft im späten 19. und frühen 20. Jahrhundert. Zur Entwicklung des Marktes für professionelle ärztliche Dienstleistungen. In: Pierenkemper, T., u. Tilly, R. (Hg.): Historische Arbeitsmarktforschung. Entstehung, Entwicklung und Probleme der Vermarktung von Arbeitskraft. Göttingen: Vandenhoeck & Ruprecht 1982, S. 77-116.

Der Geburtenrückgang in Deutschland vor 1939. Verlauf und schichtspezifische Ausprägung. In: Institut für Demographie der Österreichischen Akademie der Wissenschaften (Hg.): Demographische Informationen 1984. Wien 1984, S. 49-68.

(Zusammen mit J. Estermann u. A. Triebel): Ökonomischer Zwang oder schichttypischer Lebensstil? Muster der Einkommensaufbringung und -verwendung vor und nach dem Ersten Weltkrieg. In: Thomas, H., u. Elstermann, G. (Hg.): Bildung und Beruf. Soziale und ökonomische Aspekte. Berlin usw.: Springer 1985, S. 159-188.

Modernisierung des Konsumverhaltens deutscher Mittel- und Unterschichten während der Zwischenkriegszeit. In: Zeitschrift für Soziologie, 14 (1985), S. 400-410.

Sozialisationsnormen in ärztlichen Ratgebern zur Säuglings- und Kleinkindpflege. Von der Aufklärungs- zur naturwissenschaftlichen Pädiatrie. In: Martin, J., u. Nitschke, A. (Hg.): Zur Sozialgeschichte der Kindheit. Freiburg u. München: Alber 1986, S. 609-659.

Veränderungen des Todesursachen-Panoramas und sozio-ökonomischer Wandel – Eine Fallstudie zum „Epidemiologischen Übergang“. In: Gäfgen, G. (Hg.): Ökonomie des Gesundheitswesens. Berlin: Duncker & Humblot 1986, S. 73-100.

Klassen- und Schichtbildung im Spiegel des Konsumverhaltens individueller Haushalte zu Beginn des 20. Jahrhunderts. Eine clusteranalytische Untersuchung. In: Pierenkemper, T. (Hg.): Haushalt und Verbrauch in historischer Perspektive. St. Katharinen: Scripta Mercaturae 1987, S. 56-80.

Der „epidemiologische Übergang“ in Deutschland. Konkretisierende und differenzierende Anmerkungen. In: Institut für Demographie der Österreichischen Akademie der Wissenschaften (Hg.): Demographische Informationen 1988/89. Wien 1989, S. 32-38.

Kurpfuscherei-Bekämpfung und ihre sozialen Funktionen während des 19. und zu Beginn des 20. Jahrhunderts. In: Labisch, A., u. Spree, R. (Hg.): Medizinische Deutungsmacht im sozialen Wandel. Bonn: Psychiatrie-Verlag 1989, S. 103-121.

„Volksgesundheit“ und Lebensbedingungen in Deutschland während des frühen 19. Jahrhunderts. In: Kümmel, W. F. (Hg.): Jahrbuch des Instituts für Geschichte der Medizin der Robert Bosch Stiftung, 7 (für das Jahr 1988), Stuttgart: Hippokrates 1990, S. 75-113.

Knappheit und differentieller Konsum während des ersten Drittels des 20. Jahrhunderts in Deutschland. In: Siegenthaler, H. (Hg.): Ressourcenverknappung als Problem der Wirtschaftsgeschichte. Berlin: Duncker & Humblot 1990, S. 171-221.

(Zusammen mit R. Otto u. J. Vögele): Seuchen und Seuchenbekämpfung in deutschen Städten während des 19. und frühen 20. Jahrhunderts. Stand und Desiderate der Forschung. In: Medizinhistorisches Journal, 25 (1990), S. 94-112.

Historische Statistik des Gesundheitswesens. In Diederich, N., u.a.: Historische Statistik in der Bundesrepublik Deutschland. Stuttgart: Metzler-Poeschel 1991, S. 107-126 (Forum der Bundesstatistik, hg. v. Statistischen Bundesamt, Bd. 15).

(zusammen mit R. Kube): Quellen zur Statistik des Gesundheitswesens der Bundesrepublik Deutschland. In: Fischer, W., u. Kunz, A. (Hg.): Grundlagen der Historischen Statistik von Deutschland. Quellen, Methoden, Forschungsziele. Opladen: Westdeutscher Verlag 1991, S. 299-314.

Shaping the Child’s Personality: Medical Advice on Child-Rearing from the Late Eighteenth to the Early Twentieth Century in Germany. In: Social History of Medicine, 5 (1992), S. 317-335.

Der Rückzug des Todes – Wurden wir gesünder? In: Imhof, A.E., u. Weinknecht, R. (Hg.): Erfüllt leben – in Gelassenheit sterben. Geschichte und Gegenwart. Berlin: Duncker & Humblot 1994.

Zu den Bedingungen der Distinktionsleistungen. Ein Kommentar zum Beitrag von Karen Heinze. In: Werkstatt Geschichte, 3 (1994), S. 43f.

Krankenhausentwicklung und Sozialpolitik in Deutschland während des 19. Jahrhunderts. In: Historische Zeitschrift, 260 (1995), S.75-105.

(zusammen mit A. Labisch): Die Kommunalisierung des Krankenhauswesens in Deutschland während des 19. und frühen 20. Jahrhunderts. In: Wysocki, J. (Hg.): Kommunalisierung im Spannungsfeld von Regulierung und Deregulierung im 19. und 20. Jahrhundert. Berlin: Duncker & Humblot 1995, S. 7-47.

On Infant Mortality Change in Germany since the Early 19th Century. Universität München 1995 (Münchener Wirtschaftswissenschaftliche Beiträge. Discussion Papers, Nr. 95-03, hg. v. d. Volkswirtschaftlichen Fakultät).

Social and Political Functions of the Early Modern Hospital in Germany (ca. 1800-1880). Beitrag zum 18th International Congress of Historical Sciences, Round Table Nr. 9 „The State, Society and Disease: The Politics of Public Health“, Montréal, Canada, 1995. = Münchener Wirtschaftswissenschaftliche Beiträge. Discussion Papers, Nr. 96-24 (hg. v. d. Volkswirtschaftlichen Fakultät), München 1996.

(zusammen mit A. Labisch): Entwicklung, Stand und Perspektiven einer Sozialgeschichte des Allgemeinen Krankenhauses in Deutschland – eine Einführung. In: Labisch, A., u. Spree, R. (Hg.): „Einem jeden Kranken in einem Hospitale sein eigenes Bett“. Zur Sozialgeschichte des Allgemeinen Krankenhauses in Deutschland im 19. Jahrhundert. Frankfurt/M. u. New York 1996, S. 13-28.

Quantitative Aspekte der Entwicklung des Krankenhauswesens im 19. und 20. Jahrhundert. „Ein Bild innerer und äußerer Verhältnisse“. In: Labisch u. Spree (Hg.): „Einem jeden Kranken in einem Hospitale sein eigenes Bett“, S. 51-88.

Klassen- und Schichtbildung im Medium des privaten Konsums: Vom späten Kaiserreich in die Weimarer Republik. In: Historical Social Research – Historische Sozialforschung, 22 (1997),

(zusammen mit A. Labisch): Neuere Entwicklungen und aktuelle Trends in der Sozialgeschichte der Medizin in Deutschland – Rückschau und Ausblick. In: Vierteljahrschrift für Sozial- und Wirtschaftsgeschichte (VSWG), 84 (1997), S. 171-210, 305-321.

Die Finanzierung von Krankenhäusern in Deutschland während des 19. Jahrhunderts. In: Gerhard, H.-J. (Hg.): Struktur und Dimension. Fs. für K. H. Kaufhold. Bd. 2, Stuttgart: Franz Steiner Verlag Wiesbaden 1997 (VSWG, Beiheft 133), S. 413-446.

Der Rückzug des Todes. Der epidemiologische Übergang in Deutschland während des 19. und 20. Jahrhunderts. In: Historical Social Research, 23 (1998), S. 4-43.

Sozialer Wandel im Krankenhaus während des 19. Jahrhunderts. Das Beispiel des Münchner Allgemeinen Krankenhauses. In: Medizinhistorisches Journal, 33 (1998), S. 245-291. Preprint als: Social Change in the Hospital during the 19th Century: The Case of the Munich General Hospital. Münchener Wirtschaftswissenschaftliche Beiträge, Discussion Papers (hg. v. d. Volkswirtschaftlichen Fakultät), Nr. 97-24, München 1997.

(zus. mit W. Langefeld) Das Allgemeine Krankenhaus St. Georg in Hamburg im 19. Jahrhundert – Organisation, Patienten, Finanzen, in: Historia Hospitalium, 21 (1998/1999), 163-188. Preprint mit zusätzlichen Daten als: The General Hospital St. Georg in Hamburg during the 19th Century: Organization, Patients, Financing. Münchener Wirtschaftswissenschaftliche Beiträge, Discussion Papers (hg. v. d. Volkswirtschaftlichen Fakultät), Nr. 98-06, München 1998.

Das Krankenhaus im 19. Jahrhundert zwischen Armenwesen und Sozialversicherung. In: Calließ, J. (Hg.): Aufstieg und Fall des Sozialstaates. Loccumer Protokolle, 24/98 (1998), S. 88-102.

(zus. mit A. Wagner) Die finanzielle Entwicklung des Allgemeinen Krankenhauses zu München 1830-1894. In: Sudhoffs Archiv, 84 (2000), S. 129-165. Zugleich in: Labisch, A., u. Spree, R. (Hg.): Krankenhaus-Report 19. Jahrhundert. Krankenhausträger, Krankenhausfinanzierung, Krankenhauspatienten. Frankfurt/M. u. New York: Campus 2001, S. 95-140. Preprint als: The Financial Development of the General Hospital in Munich 1830-1894. Münchener Wirtschaftswissenschaftliche Beiträge, Discussion Papers (hg. v. d. Volkswirtschaftlichen Fakultät), Nr. 99-05, München 1999.

Handwerker und kommunale Krankenhäuser im 19. Jahrhundert. In: Kaufhold, K. H., u. Reininghaus, W. (Hg.): Stadt und Handwerk in Mittelalter und Früher Neuzeit. Köln 2000, S. 269-300.

Anspruch und Wirklichkeit der Krankenhausbehandlung im 19. Jahrhundert. In: Medizin, Gesellschaft und Geschichte, 19 (2000), S. 143-151.

(zus. mit A. Labisch) Krankenhausträger, Krankenhausfinanzierung, Krankenhauspatienten: Zur Einführung in den „Krankenhaus-Report 19. Jahrhundert“. In: Labisch, A., u. Spree, R. (Hg.): Krankenhaus-Report 19. Jahrhundert. Krankenhausträger, Krankenhausfinanzierung, Krankenhauspatienten. Frankfurt/M. u. New York: Campus 2001, S. 13-37.

(zus. mit N. Gabler) Die finanzielle Entwicklung des Mannheimer Krankenhauses 1835-1890. In: Labisch, A., u. Spree, R. (Hg.): Krankenhaus-Report 19. Jahrhundert. Krankenhausträger, Krankenhausfinanzierung, Krankenhauspatienten. Frankfurt/M. u. New York: Campus 2001, S. 203-243. Preprint als: The Financial Development of the General Hospital in Mannheim 1835-1890. Münchener Wirtschaftswissenschaftliche Beiträge, Discussion Papers (hg. v. d. Volkswirtschaftlichen Fakultät), Nr. 99-06, München 1999.

(zus. mit W. Langefeld) Die Finanzwirtschaft des Allgemeinen Krankenhauses Bielefeld 1843-1913. In: Labisch, A., u. Spree, R. (Hg.): Krankenhaus-Report 19. Jahrhundert. Krankenhausträger, Krankenhausfinanzierung, Krankenhauspatienten. Frankfurt/M. u. New York: Campus 2001, S. 245-271.

(zus. mit H. Schaal) Die Patienten des Stuttgarter Katharinenhospitals 1834/35-1893/94. In: Labisch, A., u. Spree, R. (Hg.): Krankenhaus-Report 19. Jahrhundert. Krankenhausträger, Krankenhausfinanzierung, Krankenhauspatienten. Frankfurt/M. u. New York: Campus 2001, S. 339-365.

(zus. mit W. Langefeld) Organisation, Patienten und finanzielle Entwicklung des Clemens-Hospitals in Münster von 1820 bis 1914. In: Jakobi, F.-J., u. a. (Hg.): Strukturwandel der Armenfürsorge und der Stiftungswirklichkeiten in Münster im Laufe der Jahrhunderte. (Studien zur Geschichte der Armenfürsorge und der Sozialpolitik in Münster, Bd. 4), Münster 2002, S. 323-347.

Stichworte zum Herrschaftssystem des Nationalsozialismus. In: Jahrbuch für Wirtschaftgeschichte, (2004) H. 2, S. 229-232.

Gesundheitswesen. In: Rahlf, T. (Hg.): Deutschland in Daten. Zeitreihen zur Historischen Statistik. Bonn: Bundeszentrale für politische Bildung 2015, S. 74-87.

Seuchen in historischer Perspektive: Wissen – Moral – Politik. In: Vögele, J., u. a. (Hg.): Epidemien und Pandemien in historischer Perspektive. Epidemics and Pandemics in Historical Perspective. Wiesbaden 2016, S. 221-234.

 

(ausschließliche) Online-Publikationen

Two Chapters on early history of the Munich Reinsurance Company: The Foundation/ The San Francisco Earthquake. München 2010 (online: http://epub.ub.uni-muenchen.de/11336/).

Vom Armenhaus zur Gesundheitsfabrik. Der Krankenhauspatient in Vergangenheit und Gegenwart. Publikation im Internet: http://www.aventinus-online.de/no_cache/persistent/artikel/7598/ (Stand: 13. 12. 2012).

Der Industrie-Pionier und Finanzier Theodor von Cramer-Klett. Berlin 2012 (online: www.rspree.wordpress.com/2012/05/23/der-industrie/)

China’s Role in the History of Globalization. Discussion Papers in Economics 2015-16 (online: https://epub.ub.uni-muenchen.de/25265/; seit April 2016 als e-Book im Kindle-Shop von Amazon mit dem deutschen Titel „China in der Geschichte der Globalisierung“).

 

 

 

Gesundheit und Gesundheitswesen in Deutschland seit der Mitte des 19. Jahrhunderts

Gesundheit und Gesundheitswesen in Deutschland seit der Mitte des 19. Jahrhunderts[1]

Einleitung

Das Gesundheitswesen ist eine begriffliche Zusammenfassung verschiedener Institutionen, Personengruppen und Einzelakteure, die sich auf je unterschiedliche Weise um die Phänomene Gesundheit/ Krankheit bemühen. Gelegentlich arbeiten sie aufeinander bezogen und untereinander abgestimmt, oft aber auch völlig unkoordiniert und sogar gelegentlich gegeneinander. Von einem umfassenden System kann zweifellos nicht gesprochen werden. Jens Alber führt die Unübersichtlichkeit in seiner die Geschichte, Strukturen und Funktionsweise des bundesdeutschen Gesundheitswesen analysierenden Studie auf „die höchst komplexe und meist nur wenigen Experten geläufige Vielfachsteuerung“[2] zurück. Meist wird aus der Not eine Tugend gemacht und eine Aufzählung als Definition eingeführt: „Das Gesundheitswesen eines Staates umfasst sämtliche Regelungen, Maßnahmen, Sachmittel, Einrichtungen, Berufe und Personen, die das Ziel verfolgen, die Gesundheit der Bevölkerung zu fördern, zu erhalten, herzustellen oder wiederherzustellen. Das Gesundheitswesen im weiteren Sinne umfasst demzufolge sämtliche sowohl öffentlichen wie privaten als auch professionellen wie laienweltlichen Aktivitäten, die auf Gesundheit gerichtet sind.“[3] D. h., um den Eindruck einer Zusammengehörigkeit der disparaten Elemente des Gesundheitswesen zu erzeugen, stellt die Definition auf die Zielsetzung dieser Elemente ab. Mehr von diesem Beitrag lesen

Seuchen in historischer Perspektive: Wissen – Moral – Politik

Dies ist mein Beitrag zur internationalen wissenschaftlichen Arbeitstagung „Epidemics and Pandemics in Historical Perspective“, 27. – 29. 10. 2011, im Institut für Geschichte der Medizin der Universität Düsseldorf. Veröffentlicht in: Vögele, J., u. a. (Hg.): Epidemien und Pandemien in historischer Perspektive. Epidemics and Pandemics in Historical Perspective. Wiesbaden 2016, S. 221-234.

 Während des letzten Drittels des 19. Jahrhunderts begann „der moderne Siegeszug der Naturwissenschaften über die Infektionskrankheiten und Seuchen“ (Diepgen). Mit großer öffentlicher Aufmerksamkeit wurden die Erfolge bei dem „heroischen Kampf gegen die Volkskrankheiten“ im Spiegel der wöchentlich publizierten Sterblichkeitsstatistiken des 1876 gegründeten Kaiserlichen Gesundheitsamts verfolgt. Die innerhalb weniger Jahrzehnte anfallenden, bahnbrechenden Erkenntnisse der Bakteriologie und die um die Jahrhundertwende sich ausbildende Sozialhygiene stellten die Seuchenbekämpfung auf eine dem Augenschein nach strikt wissenschaftliche Basis. Damit erreichte das seit Beginn der Neuzeit sichtbare Bemühen der von Ärzten beratenen Obrigkeit um eine rational begründete Politik gegen die Seuchen und Epidemien einen Höhepunkt.

Auffällig ist allerdings, dass die Kenntnis der Ursachen und Verbreitungswege von Seuchen bis in die Gegenwart immer wieder deren faktischem Auftreten oft erheblich hinterher hinkt. Entsprechend gehen die Konzepte und Kampagnen zur Bekämpfung von Seuchen häufig von relativ vagen epidemiologischen Vermutungen aus und verfolgen über die Seuchenbekämpfung hinausgehende, meist rhetorisch verdeckte Ziele. Dies soll mit Beispielen aus der Zeit der Choleraepidemie von 1892 und mit einigen Verweisen auf die AIDS-Bekämpfung während der 1980er und 1990er Jahre illustriert werden. Abschließend einige kritische Bemerkungen zur Politik mit Seuchen. Mehr von diesem Beitrag lesen

China in der Geschichte der Globalisierung

China in der Geschichte der Globalisierung

Abstract

Ich begreife Globalisierung als einen Prozess, der sich in Schüben seit etwa dem Beginn des 16. Jahrhundert vollzogen hat. Zuvor hat es in der Geschichte mehrere Anläufe zur Globalisierung gegeben, die aber noch nicht zu den für Globalisierung konstitutiven regelmäßigen Verkehrs- und Handelsbeziehungen zwischen den Erdteilen und zu der inzwischen etablierten stabilen multilateralen Interdependenz (Osterhammel/ Petersson) führten. Die Triebkräfte und Auswirkungen der Globalisierung stelle ich in chronologisch angeordneten Kapiteln knapp dar. In jeweils eigenen Kapiteln wird Chinas höchst unterschiedliche Rolle sowohl im Globalisierungsanlauf des 14./ 15. Jahrhunderts (expansiv) wie im ersten Globalisierungsschub ab 1500 (zunehmender Rückzug), im Globalisierungsschub des 19. Jahrhunderts (nahezu bedeutungslos; passiver Spielball der europäischen Mächte) sowie im gegenwärtigen (verspäteter Einstieg, aber dann vorwärts drängend bis zur leadership) skizziert. Schließlich diskutiere ich einige Erklärungsansätze für das so genannte chinesische „Wirtschaftswunder“. Die stark wechselnde Bedeutung Chinas für die betrachteten Globalisierungsphasen ist zugleich ein anschauliches Beispiel für meine These, dass Globalisierung ein marktgetriebener, aber nicht zuletzt stets ein politisch gestalteter Prozess gewesen ist. Mehr von diesem Beitrag lesen

Der Industrie-Pionier und Finanzier Theodor von Cramer-Klett

Der Industrie-Pionier und Finanzier Theodor von Cramer-Klett

 

Vorwort

Freiherr Theodor von Cramer-Klett (geb. 1817, gest. 1884) war einer der führenden Pioniere der Industrialisierung in Bayern und zugleich ein bedeutender Finanzier. Zwei der mit seiner Hilfe begründeten Unternehmen existieren nicht nur heute noch, sondern gehören als DAX-Unternehmen zu den größten der BRD, die MAN und die Munich Re. Andere spielen ebenfalls weiterhin eine wichtige Rolle im deutschen Finanzleben, z. B. die Privatbank Merck, Finck & Co., die 1990 an die Barcleys Bank verkauft und 1999 wiederum von der Kredietbank S.A. Luxembourgeoise (KBL) übernommen wurde, aber immer noch mit mehreren Filialen existiert.[1] Dennoch wird Cramer-Klett in der wirtschaftshistorischen bzw. unternehmensgeschichtlichen Literatur meist nur am Rande erwähnt, i. d. R., wenn es um eines seiner Unternehmen geht.[2] Zwar gibt es einige Skizzen in biographischen Handbüchern[3] sowie in regionalgeschichtlichen Werken[4] und im Internet einen WIKIPEDIA-Artikel.[5] Allerdings existiert bis heute nur eine alte, wegen ihrer Auswertung inzwischen teilweise nicht mehr zugänglicher Quellen jedoch unverzichtbare Biographie dieses Mannes, die 1922 als wirtschaftshistorische Dissertation  veröffentlicht wurde.[6]

Da ich mich im Zuge der Recherchen zu dem Juristen Hermann Pemsel, dem langjährigem Generalbevollmächtigten und Vertrauten Cramer-Kletts, ausgiebig mit letzterem beschäftigen musste, erscheint mir die verfügbare Informationsbasis zu diesem herausragenden Unternehmer unzulänglich, vor allem sehr verstreut, unvollständig und teilweise verzerrt. Deshalb habe ich den folgenden knappen Abriss seines Lebens und Werks verfasst, der die vorliegende einschlägige Literatur zusammenfasst und an einigen Punkten um eigene Archivstudien ergänzt. Dabei handelt es sich zum größten Teil um eine überarbeitete Version einiger Kapitel aus meiner Biographie Hermann Pemsels.[7] Mehr von diesem Beitrag lesen

Die „erste“ Weltwirtschaftskrise 1857-1859

<img src=“http://vg02.met.vgwort.de/na/0f8db5715f51485d95957df76a6b86f3&#8243; width=“1″ height=“1″ alt=““>

Der folgende Text stellt die überarbeitete Version meines Beitrags zur Tagung „Finanz- und Wirtschaftskrisen. Schlaglichter im historischen Vergleich“, 6./ 7. November 2009, in der Katholischen Akademie in Bayern, München, dar. Der Text wurde leicht gekürzt abgedruckt in der Zeitschrift „zur debatte“, hg. v. der Akademie, 40 (2010), S. 39-41. Vgl. ergänzend zu den Rahmenbedingungen der Krise meine Darstellung der Industrialisierung Deutschlands auf dieser Homepage.

Einleitung

Wie eine unheimliche Seuche habe sich die Krise im Herbst 1857 weltweit verbreitet, schrieb ein zeitgenössischer Beobachter. „Von dem fernsten Westen der neuen Welt bis nach Stockholm und Moskau, bis nach Smyrna und Odessa. Die Stätten, über welche diese Pestilenz dahingeschritten war, bedeckten sich nicht (…) mit Leichen und rauchenden Schutthaufen, wohl aber mit zahllosen Ruinen des öffentlichen und des Privatwohlstandes.“ Neben der Beschwörung von Proletarierdemonstrationen mit „blutroten Fahnen“ in New York, Tausenden von Bankrotten in kürzester Zeit weltweit, ubiqitärer Massenarbeitslosigkeit, Ausbleiben des Weihnachtsgeschäfts war der Beobachter beeindruckt von einem ganz aktuell anmutenden Phänomen. In Hamburg, „dem Lande der Erbweisheit“, dessen Börse doch der „Tempel der Millionäre“ war, schrien die Mittelklassen nun nach der „Hilfe des Staates (…), der bürokratisch-vormundschaftlich den Privatverkehr unter seine unmittelbare Obhut nehmen sollte (…). Alle Verhältnisse schienen auf den Kopf gestellt: bei nie gekannten Warenvorräten, inmitten reicher Ernten überall Entbehrung; bei vortrefflichen Transportmitteln nirgends Austausch; gegenüber großen Einfuhren edler Metalle aller Orten Geldmangel; trotz der umfangreichsten Kreditanstalten eine Höhe des Zinsfußes, wie sie das Jahrhundert noch nicht gekannt hatte.“[1] Und die Frankfurter Zeitschrift „Der Aktionär“, das Zentralorgan für Börsengänger, schrieb am 18. 10. 1857: „Die Krisis ist mehr als eine europäische, sie ist eine Weltfrage geworden.“[2] Man beschwor demnach apokalyptische Verhältnisse im Weltmaßstab. Mehr von diesem Beitrag lesen

Ein Konzept zur Analyse sozialer Ungleichheit

<img src=“http://vg02.met.vgwort.de/na/be3444736cf64a12a2cc8a22ae344945&#8243; width=“1″ height=“1″ alt=““>

Gesellschaften bestehen aus Menschen, die in verschiedenster Hinsicht ungleich sind. [1] Die differenzierenden Merkmale sind teils schlicht gegeben (sozusagen mit der menschlichen Natur des einzelnen), oder sie werden im Laufe der Biographie erworben. Dieser prinzipiellen Ungleichheitserfahrung korrespondiert ein mit der Zunahme der Vergesellschaftungstendenzen stärker werdendes Bedürfnis des einzelnen, einen Lebensstil (im weitesten Sinne) zu entwickeln, mit dem er bestimmten Gruppen von Menschen ähnlich wird bzw. auf Anerkennung durch diese hoffen darf, um sich unu actu von anderen Menschen und Gruppen wirksam abzugrenzen. Subjektive Bedürfnisse lassen sich als vergesellschaftete Triebkräfte begreifen, d. h., sie unterliegen gesellschaftlicher Prägung. Dieser gesellschaftliche Charakter menschlicher Bedürfnisse ist der Grund dafür, dass sie „stets die Möglichkeiten ihrer Befriedigung übersteigen. (…) So kennt auch jede Gesellschaft soziale Normen, die die Mittel und Wege der Bedürfnisbefriedigung regulieren und damit insgesamt ein System der Güterverteilung darstellen, welches zugleich zur Unterdrückung nicht als legitim geltender Bedürfnisse wirkt.“[2] Daran knüpft der soziale Mechanismus an, der bewirkt, dass die verfügbaren Ressourcen des einzelnen im Hinblick auf seine Bedürfnisse stets knapp erscheinen. Sich anderen anzugleichen oder sich auch von ihnen abzugrenzen, indem man zum gegebenen Zeitpunkt bestimmte Entscheidungen über die Verwendung von Ressourcen fällt, bedeutet letzten Endes, die Bedürfnisse zu antipizieren, die mit dem Erreichen oder der Sicherung einer gesellschaftlichen Position verbunden sind. So gesehen besteht ständig die „abstrakte Notwendigkeit, die Befriedigung künftiger Bedürfnisse gegenwärtig sicherzustellen“.[3] Gesellschaftliche Ungleichheit bindet die individuellen Bedürfnisse mehr oder weniger stringent an den Zwang zur „differentiellen Assoziierung“[4]. Mehr von diesem Beitrag lesen

Die Finanzierung von Krankenhäusern in Deutschland im 19. Jh.

 <img src=“http://vg02.met.vgwort.de/na/be3444736cf64a12a2cc8a22ae344945&#8243; width=“1″ height=“1″ alt=““>

Der folgende Aufsatz, hier leicht überarbeitet und aktualisiert, wurde ursprünglich in der Festschrift für Kaufhold veröffentlicht (in: Struktur und Dimension. Fs. für Karl-Heinrich Kaufhold zum 65. Geburtstag, Bd. 2, hg. v. H.-J. Gerhard, Stuttgart 1997, S. 413-446). Er entstand in einer frühen Phase meiner Beschäftigung mit der Finanzwirtschaft moderner Krankenhäuser im 19. Jahrhundert und stützt sich deshalb erst auf wenige Fallstudien. Inzwischen sind die Ergebnisse zahlreicher weiterer derartiger Studien veröffentlicht und für diese Version in den Fußnoten berücksichtigt worden. Sie bestätigen die hier vorgelegten Folgerungen und Thesen.

Mehr von diesem Beitrag lesen

Die Industrialisierung (Industrielle Revolution) Deutschlands im 19. Jahrhundert

(Überarbeitete Version eines Kapitels aus meiner Biographie von Karl Wilhelm Hermann Pemsel = R. Spree: Eine bürgerliche Karriere im deutschen Kaiserreich. Der Aufstieg des Advokaten Dr. jur. Hermann Ritter von Pemsel in Wirtschaftselite und Adel Bayerns. Aachen 2007, S. 11-35)

Schon lange hatte sich die Industrialisierung als der größte Veränderungsmotor in der Geschichte der letzten Jahrtausende vorbereitet, ohne in Deutschland den Durchbruch zu erreichen.Das ist einer der Gründe dafür, in der neueren Wirtschaftsgeschichtsschreibung nicht mehr den älteren Begriff der Industriellen Revolution zu gebrauchen. Zwar empfanden die Zeitgenossen viele Veränderungen in Wirtschaft und Gesellschaft, die sich während des evolutionären Prozesses der Industrialisierung ereigneten, als so umstürzend neu, dass sie als revolutionär wahrgenommen wurden. Doch erkennt der Historiker die oft Jahrzehnte, gelegentlich gar Jahrhunderte zurückreichenden Wurzeln und zögernden Anläufe. Zudem fanden die Veränderungen nicht in der Wirtschaft bzw. der Gesellschaft als Ganzer und gleichzeitig statt, vielmehr zunächst in einzelnen Branchen und oft weit auseinander liegenden Regionen, von denen aus sie sich allmählich mal schneller, mal langsamer ausbreiteten. Kennzeichnend für die Industrialisierung, egal wo sie stattfand und (mit Blick auf die Erde insgesamt) bis heute noch stattfindet, ist deshalb die Ungleichzeitigkeit und räumliche Disparität der Entwicklungen, die sich schließlich zum Durchbruch einer neuen Wirtschaftsweise ergänzen.[1] Dieser ereignete sich in Deutschland ab den 1840er Jahren – nachdem während der 1830er Jahre wichtige Voraussetzungen realisiert worden waren. Binnen weniger Jahrzehnte fand der Wandel vom Agrarstaat, der Deutschland im ersten Drittel des 19. Jahrhunderts insgesamt, in weiten Teilen sogar noch bis ins späte 19. Jahrhundert hinein war, zum Industriestaat statt, der um die Wende zum 20. Jahrhunderts vorherrschte – ungeachtet einiger weiterhin agrarisch geprägter Regionen. Binnen einer Generation veränderte sich nicht nur die ökonomische Basis, vielmehr lebten, dachten, fühlten die meisten Deutschen um die Wende zum 20. Jahrhundert anders als noch um die Mitte, gar zu Beginn des 19. Jahrhunderts. Alte Traditionen und Werte waren zerstört, zumindest in Frage gestellt worden, gänzlich neue Orientierungen und Mentalitäten setzten sich bei großen Teilen der Bevölkerung durch. Im Folgenden wird ein knapper und subjektiv pointierter Überblick über diesen wirtschaftlichen und gesellschaftlichen Entwicklungsprozess geboten. Mehr von diesem Beitrag lesen

Stichworte zum Herrschaftssystem des Nationalsozialismus

<img src=“http://vg02.met.vgwort.de/na/ff135a569cfc41fbad2b188634cb5ee1&#8243; width=“1″ height=“1″ alt=““>

Die folgenden Ausführungen hatten als ursprünglich freier Kurzvortrag bei der Jahrestagung des Wirtschaftshistorischen Ausschusses des Vereins für Socialpolitik im Frühjahr 2003 den Zweck, bestimmte Argumente aus dem Diskurs der Historiker in die Diskussion der Wirtschaftshistoriker über die Wirtschaftspolitik des Nationalsozialismus einzubringen. [1] Einen Anspruch auf Vollständigkeit oder besondere Originalität habe ich damit nicht verbunden. Die verkürzte Darstellungsweise ist beibehalten worden, um deutlicher Anknüpfungspunkte für die Diskussion zu bieten. Mehr von diesem Beitrag lesen

Geschlechterverhältnis und bürgerliche Familie im 19. Jh.


(Überarbeitete Version eines Kapitels aus meiner Biographie des Advokaten Karl Wilhelm Hermann Pemsel[1])

Die Beziehungen zwischen den Geschlechtern machten während des 19. Jahrhunderts eine tiefgreifende, folgenschwere Veränderung durch: Aus Frauen und Männern mit einem partnerschaftlichen Verhältnis bei jeweils eigenen, aber gleichwertigen und auch nicht prinzipiell fixierten Aufgabenbereichen im Haushalt wurde ein Unterordnungsverhältnis von biologisch dichotomisierten Wesen, in dem angeblich die Natur dem Manne eine grundsätzliche Dominanz der Frau zuwies. Die sich etablierende Vorstellung polarisierter Geschlechtscharaktere[2], die in der Familie komplementäre, aber nicht gleichwertige funktionelle Rollen übernehmen, war die ideologische Reaktion auf das (räumliche) Auseinandertreten von Berufs- und Erwerbssphäre auf der einen Seite, Haushalts- und Familiensphäre auf der anderen im Zuge von Industrialisierung und Verstädterung. Die von den Männern mit großem Aufwand und sehr erfolgreich betriebene soziale und rechtliche Abwertung der Frau traf zwar im späten 19. Jahrhundert auf erste Widerstände, die sich nach dem Ersten Weltkrieg verstärkten. In Deutschland wurde die allmähliche Emanzipation der Frauen aus den patriarchalischen Strukturen noch einmal durch die fundamentalistische Ideologie des Nationalsozialismus stark geschwächt. Aber auch in den anderen westlichen Industriestaaten kam sie erst nach dem Zweiten Weltkrieg spürbar voran. Im Folgenden sollen die Dimensionen dieser Strukturen, um deren Abbau bis heute gerungen wird, ihre Herausbildung während des 19. Jahrhunderts und die Hintergründe ihrer Wirkungsmächtigkeit skizziert werden. Mehr von diesem Beitrag lesen

Anspruch und Wirklichkeit der Krankenhausbehandlung im 19. Jh.

<img src=“http://vg02.met.vgwort.de/na/410877cc7d6249d697e6082a765964fc&#8220; width=“1″ height=“1″ alt=““>

[Überarbeitete und aktualisierte Version der Veröffentlichung in: Medizin, Gesellschaft und Geschichte. Jahrbuch des Instituts für Geschichte der Medizin der Robert-Bosch-Stiftung, 19 (2000), S. 143-151]

Das Krankenhaus ist heute zweifellos ein Zentrum der medizinischen Versorgung. Die Ausgaben für Gesundheit in unserer Volkswirtschaft machen fast 11% des Bruttoinlandsprodukts aus (rd. 245 Mrd. €, Stand 2006). Davon werden mit 58 Mrd. € rd. ein Viertel für stationäre Behandlung aufgewendet. Die Zahl der Krankenhäuser und der Krankenhausbetten hat sich zwar während der letzten Jahrzehnte verringert, dagegen steigt die Zahl der behandelten Patienten bei sinkender Verweildauer kontinuierlich weiter an. Das hat viele Gründe, darunter auch demographische (Stichwort: Veränderung der Altersstruktur der Bevölkerung, Zunahme des Anteils älterer und somit multimorbider Menschen). Doch drückt sich in dieser Zunahme der Beanspruchung des Krankenhauses nicht zuletzt auch dessen ständig gewachsenes Leistungsvermögen aus. Zwar wird von vielen Seiten Kritik am Krankenhaus geäußert, besonders an der wachsenden Größe der Anstalten, an der Unpersönlichkeit der Pflege (Stichwort: Gesundheitsfabrik), an dem Übermaß eingesetzter Technologie (Stichwort: Apparatemedizin). Aber das Heilvermögen (Stichwort: Hochleistungsmedizin) wird nur selten, und dann bei ganz bestimmten Leiden infrage gestellt. Insofern scheinen Heilungsversprechen und Heilvermögen des Krankenhauses seit dem Ende des 20. Jahrhunderts weitgehend zur Deckung gekommen zu sein. Dahin war es jedoch ein langer Weg, der im Übrigen gekennzeichnet ist durch längere, wechselnde Phasen, in denen die jeweiligen zeitgenössischen Ansprüche an die Krankenhausbehandlung und deren Wirklichkeit stärker oder auch schwächer übereinstimmten. Mehr von diesem Beitrag lesen