Refine
Document Type
- Doctoral Thesis (494) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (14)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
Die vorliegende Arbeit hatte zum Ziel, für Strecken mit 2+1-Verkehrsführung (Straßentyp RQ 15,5) ein Verfahren zum Nachweis der Verkehrsqualität zu entwickeln. Dabei wurden in einem ersten Schritt zunächst für freie Streckenabschnitte Beziehungen zwischen den Verkehrsstärken (q) und den mittleren Pkw-Reisegeschwindigkeiten (v) ermittelt und darauf aufbauend ein Bemessungsverfahren abgeleitet. In einem zweiten Schritt wurde das Verfahren erweitert, um für den Fall der Einbindung planfreier Knotenpunkte ebenfalls eine Bewertung vornehmen zu können. Bislang standen in Deutschland keine ausreichenden Erkenntnisse über den Zusammenhang zwischen q und v für Strecken mit einem RQ 15,5 zur Verfügung. Eine Literaturanalyse ergab, dass sich frühere Untersuchungen mehrheitlich mit dem Aspekt der Verkehrssicherheit beschäftigten. Somit stellten die eigenen Messungen und die daran anschließende Ergänzung von Daten mit Hilfe einer mikroskopischen Verkehrsflusssimulation den Schwerpunkt der Untersuchung dar. Die empirischen Untersuchungen hatten - verglichen mit q-v-Beziehungen für herkömmliche Landstraßenabschnitte - ein zum Teil deutlich höheres Geschwindigkeitsniveau bei vergleichbaren Verkehrsstärken zum Ergebnis. Darüber hinaus konnten zum Teil wesentlich höhere Überholraten festgestellt werden als bei einbahnig zweistreifigen Streckenabschnitten, bei denen ein Überholen im Gegenverkehr erlaubt ist. Zweifellos tragen auch die zweistreifigen Abschnitte eines RQ 15,5 dazu bei, Fahrzeugpulks aufzulösen. Für die aus mehreren aufeinander folgenden ein- und zweistreifigen Abschnitten bestehenden Untersuchungsstrecken, konnte jedoch insgesamt keine bedeutsame Pulkauflösung festgestellt werden. Dies ist vor allem dadurch begründet, dass die Strecken mit einem einstreifigen Abschnitt endeten. Das Simulationsprogramm LASI2+1 wurde speziell auf die Simulation des Verkehrsablaufs auf einer Strecke mit 2+1-Verkehrsführung abgestimmt. Die Kalibrierung des Modells erfolgte auf Basis von Erkenntnissen lokaler Messungen (insbesondere Zeitlücken und Geschwindigkeitsverteilungen). Im Rahmen der Validierung erfolgte ein Abgleich zwischen den Ergebnissen der Messungen mit den mit LASI2+1 simulierten für jede einzelne nachgebildete Untersuchungsstrecke anhand der Parameter q und v. Mit LASI2+1 wurden zahlreiche Simulationsläufe durchgeführt, bei denen eine Vielzahl von Kombinationen der Streckenparameter sowie der Verkehrszusammensetzung bei einem möglichst breiten Spektrum von Verkehrsbelastungen betrachtet wurden. Die Ergebnisse lagen zunächst in „Punktwolken“ vor, wobei jeweils ein Punkt beschrieben wird durch eine in einem 5-Minuten-Intervall gültige Verkehrsstärke q und der zu diesem Intervall gehörigen mittleren Reisegeschwindigkeit der Pkw v. Zur Darstellung der den Verkehrsablauf beschreibenden Punktwolken wurden verschiedene makroskopische Modelle getestet. Dabei wurden ein- und zweistreifige Abschnitte getrennt voneinander betrachtet. Nach Anwendung mathematischer Verfahren zur Kurvenanpassung ergaben für die einstreifigen Abschnitte Wurzelfunktionen die besten Näherungen zur Beschreibung der Zusammenhänge zwischen q und v. Für die leicht konvexen Ausprägungen in den q-v-Punktwolken der zweistreifigen Abschnitte lieferten lineare Funktionen, die über Verkehrsdichte (k)-Geschwindigkeits-Relationen hergeleitet wurden, die besten Ergebnisse. Mit Hilfe von varianzanalytischen Berechnungen konnten außerdem die Einflüsse der verschiedenen Trassierungsparameter quantifiziert werden. Längsneigung und Schwerverkehrsanteile wurden direkt in den insgesamt zehn q-v-Diagrammen dargestellt. Einflüsse durch die Längen der Teilabschnitte bzw. die Anzahl der Abschnitte wurden über Abminderungen bzw. Erhöhungen der Pkw-Reisegeschwindigkeiten berücksichtigt. Daraus wurden in einem weiteren Schritt Korrekturfaktoren ermittelt. Für den konkreten Fall eines planfreien Knotenpunkttyps im so genannten unkritischen Wechselbereich wurden weitere Einflüsse auf die Pkw-Reisegeschwindigkeit ermittelt, die die Auswirkungen der sich im Knotenpunkt ändernden Verkehrsstärke (nämlich deutlich geringere Geschwindigkeiten gegenüber dem durchgehenden Fahrstreifen) berücksichtigen. Durch die Ergebnisse dieser Arbeit liegen erstmals abgesicherte q-v-Diagramme für freie Strecken mit 2+1-Verkehrsführung einschließlich planfreier Knotenpunkte in unkritischen Wechselbereichen vor, die einen Diskussionsbeitrag für eine Aufnahme in Fortschreibungen der derzeit gültigen Regelwerke darstellen.
In der Arbeit wird ein räumliches Materialmodell für den anisotropen Werkstoff Holz vorgestellt. Dessen Leistungsfähigkeit wird durch Verifikationsrechnungen und die Simulation eigener Versuche aufgezeigt. In diesen Versuchen wurde das Tragverhalten spezieller Schubverbindungselemente der Brettstapel-Beton-Verbundbauweise untersucht. Die Kombination eines Brettstapels mit einer schubfest angeschlossenen Betonplatte ist eine vorteilhafte Möglichkeit, Schnittholz mit geringem Querschnitt effektiv in biegebeanspruchten Bauteilen einzusetzen. Es werden die Ergebnisse der experimentellen Untersuchungen zu den Schubverbindungselementen Flachstahlschloss und Nutverbindung vorgestellt. Diese zeichnen sich durch eine über die gesamte Plattenbreite kontinuierliche Übertragung der Schubkraft per Kontaktpressung aus. Vor allem in Brettstapel-Beton-Verbunddecken werden somit ein sehr hoher Verschiebungsmodul sowie eine eminente Tragfähigkeit erreicht. Um mit numerischen Strukturanalysen die in den Versuchen beobachteten Versagensmechanismen adäquat abbilden und realistische Prognosen für das Tragverhalten von Bauteilen oder Verbindungen treffen zu können, muss das physikalisch nichtlineare Verhalten aller beteiligter Baustoffe in die Berechnungen einbezogen werden. Im Rahmen der Dissertation wurde ein auf der Plastizitätstheorie basierendes Materialmodell für Nadelholz hergeleitet und in das FE-Programm ANSYS implementiert, welches die Mikrostruktur des Holzes als verschmierendes Ersatzkontinuum erfasst. Anhand des anatomischen Aufbaus des inhomogenen, anisotropen und porigen Werkstoffs werden die holzspezifischen Versagensmechanismen und die daraus abgeleiteten konstitutiven Beziehungen erläutert. Das ausgeprägt anisotrope Tragverhalten von Holz ist vor allem durch erstaunliche Duktilität bei Stauchung, sprödes Versagen bei Zug- und Schubbeanspruchung und enorme Festigkeitsunterschiede in den Wuchsrichtungen gekennzeichnet. Die Auswirkungen der größtenteils unabhängig voneinander auftretenden, mikromechanischen Versagensmechanismen auf die Spannungs-Verformungsbeziehungen wurden durch die Formulierung adäquater Ver- resp. Entfestigungsfunktionen in Abhängigkeit der Beanspruchungsmodi erfasst. Das dem Materialmodell zu Grunde liegende mehrflächige Fließkriterium berücksichtigt die Interaktion aller sechs Komponenten des räumlichen Spannungszustandes. Die durchgeführten Verifikations- und Simulationsberechnungen belegen, dass der erarbeitete Ansatz sowohl zur Bewertung des Tragvermögens als auch zur Beurteilung von Riss- bzw. Schädigungsursachen von Holzbauteilen eingesetzt werden kann. Die numerische Simulation eröffnet neue, bisher wenig beachtete Möglichkeiten zur Untersuchung komplexer Holzstrukturen sowie Anschlussdetails und wird sich auf Grund der Aussagekraft und Flexibilität auch im Ingenieurholzbau mehr und mehr gegenüber ausschließlich experimenteller Untersuchung durchsetzen.
The complex failure process of concrete structures can not be described in detail by standard engineering design formulas. The numerical analysis of crack development in concrete is essential for several problems. In the last decades a large number of research groups have dealt with this topic and several models and algorithms were developed. However, most of these methods show some difficulties and are limited to special cases. The goal of this study was to develop an automatic algorithm for the efficient simulation of multiple cracking in plain and reinforced concrete structures of medium size. For this purpose meshless methods were used to describe the growth of crack surfaces. Two meshless interpolation schemes were improved for a simple application. The cracking process of concrete has been modeled using a stable criterion for crack growth in combination with an improved cohesive crack model which can represent the failure process under combined crack opening and crack sliding very well. This crack growth algorithm was extended in order to represent the fluctuations of the concrete properties by enlarging the single-parameter random field concept for multiple correlated material parameters.
Ausgangspunkt dieser Studie ist die >Welt<, und zwar als Präfix. In beinahe inflationärer Verwendung zeigt sie sich 'um 1900' so unterschiedlichen Projekten vorangestellt wie der Durchsetzung einer Welt-Hilfssprache, der Verbreitung und Zirkulation von Welt-Geld oder der Standardisierung unserer Zeit zur Welt-Zeit. Bei der technischen Entwicklung von frühen (Mobil)Funksystemen (das world system des Medienmagiers Nikola Tesla) findet sich diese anspruchsvolle Vorsilbe ebenso wie beim Aufbau eines globalen Netzwerks von Floristen, das verspricht, Blumengrüße unverzüglich in alle Welt zu liefern. In drei Teilen wird diese Konjunktur von Welt-Bildungen umkreist, beschrieben und analysiert. Der erste Teil >Welt um 1900< widmet sich zum einen der begrifflichen Präparation von >Welt<, "Projekt" sowie einer Analyse des "Weltprojektmachers 1900" und dessen Herkunft und Tradition aus der Projektemacherei in der Frühen Neuzeit. Zum anderen wird anhand des sich allmählich etablierenden Weltverkehrs diskutiert, welchen besonderen Bedingungen und Situationen, welchen Kontexten und Entwicklungen die Initatoren folgen oder unterworfen sind, was sie also zu ihren mitunter waghalsigen Projekten ermutigt. Der zweite Teil besteht aus drei charakteristischen Fallstudien, drei Projekten, die nach einer jeweils eigenen Logik "Welt" erschließen (Wilhelm Ostwald und seine Initiativen) bzw. abbilden (Franz Maria Feldhaus und seine Weltgeschichte der Technik) bzw. organisieren (Walther Rathenau in der Kriegsrohstoffabteilung 1914). Im dritten Teil schließlich wird danach gefragt, was diese drei Fallbeispiele eint. Welchen gemeinsamen Strukturen und Prädispositionen folgen die Weltprojektmacher? Es läßt sich dabei eine spezifische Formation von Vorstellungen und Determinanten ausmachen, ein gemeinsames Dispositiv, das unter der Bezeichnung >Restlosigkeit< erörtert wird, um schließlich zu einer kleinen Theorie des Übrigen zu führen.
In der täglichen Ingenieurpraxis werden in zunehmenden Maße numerische Analysen im Rahmen der Finite-Elemente-Methode auch zur Untersuchung stabilitätsgefährdeter Strukturen eingesetzt. Für die aktuelle Praxis, insbesondere im konstruktiven Stahlbau, ist jedoch festzustellen, dass zwischen der fortgeschrittenen Theorie und dem Niveau der praktischen Anwendung numerischer Stabilitätsanalysen eine große Kluft besteht. Aus praktischer Sicht erscheint es unumgänglich, die weiter wachsende Diskrepanz zwischen den umfangreichen theoretischen Möglichkeiten und der gegenwärtigen Praxis abzubauen. Damit steht der praktisch tätige Ingenieur vor der Aufgabe, sein Wissen auf dem Gebiet numerischer Stabilitätsanalysen zu vertiefen und bereits vorhandene FE-Programme um Berechnungsalgorithmen für umfassende numerische Stabilitätsanalysen zu erweitern. Dafür werden in der Arbeit die Grundlagen einer FEM- orientierten modernen Stabilitätstheorie einheitlich und aus Sicht einer praktischen Anwendung aufbereitet. Die Darstellung von realisierten programmtechnischen Umsetzungen für erweiterte Analysenmethoden wie Nachbeulanalysen, Pfadwechsel und Approximationen imperfekter Pfade ermöglicht eine Erweiterung des Methodenvorrates. Die innerhalb der Arbeit untersuchten Beispiele zeigen, dass durch die Anwendung der behandelten Verfahren das Tragverhalten einer stabilitätsgefährdeten Struktur wesentlich besser eingeschätzt werden kann als bei Beschränkung auf die herkömmlichen Analysemethoden.
An Experimental Study on Hydro-Mechanical Characteristics of Compacted Bentonite-Sand Mixtures
(2005)
Nuclear and hazardous waste disposal issues have become universal issues and problems related to the final disposal of these waste including finding a suitable site, natural and engineered barriers used, construction of the repository, long-term performance assessment have gained increasing attention all over the world. High-level radioactive and hazardous waste are required to be buried in deep geological repositories. In Germany, the ongoing researches have assessed the suitability of salt-stone formation in the country as a host rock candidate for its nuclear waste repository. Bentonite-based materials have been proposed to be used as sealing and buffer elements for the nuclear waste repository. Several hydro-mechanical processes will take place in the field and influence behaviour of the sealing and buffer elements of the repository. In this dissertation, a study on the hydro-mechanical characterisation of bentonite-sand mixtures is presented. Mixtures of a calcium-type bentonite, named Calcigel, and quartz sand were used in the investigation. Series of experiments including basic and physico-chemical characterisation, microstructure and fabric studies, suction and swelling pressure measurements, wetting and drying test, one-dimensional compression-rebound test, one-dimensional cyclic wetting-drying test under constant vertical stress, and saturated permeability test were conducted. The experimental data obtained are analysed and several characteristics of the material are brought out in this dissertation. Conclusions regarding basic behaviour of the materials are drawn based on the results of microstructure and fabric studies. Factors influencing the magnitude of suction and swelling pressure of the materials are outlined and discussed. The suction-induced compression and rebound characteristics of the material are described. The wetting and drying behaviour as influenced by the material boundary conditions are discussed. Permeability characteristics of the materials are examined based on several available permeability models. Several mechanical and hydraulic parameters that can be used in modelling using some available constitutive modelling approaches are derived based on the experimental data. At the end, conclusions regarding the hydro-mechanical characteristics of the materials are drawn and suggestions for future studies are made.
In der Dissertation werden die Unsicherheiten von Baugrundkenngrößen für die Erstellung von geologischen Halbraummodellen auf der Grundlage geostatistischer Methoden entgegen dem bislang üblichen Herangehen mit einbezogen. Infolge der unsicheren Kenngrößen ist das abgeleitete Halbraummodell aus unsicheren geologischen Homogenbereichen zusammengesetzt. In einem probabilistischen Sicherheitsnachweis werden die unsicheren Parameter der Grenzzustandsgleichung und das unsichere geologische Modell gemeinsam betrachtet. Die geostatistischen Methoden sind unterteilt in die experimentelle und theoretische Variographie sowie das Kriging. Die Berücksichtigung von unsicheren Eingangskenngrößen für die geologische Modellbildung führt zu Variogrammfunktionen mit unsicheren Parametern. Bis zum experimentellen Variogramm sind die Variogrammparameter und deren Unsicherheit analytisch nachvollziehbar beziehungsweise abschätzbar. In den weiteren Teilschritten der geostatistischen Modellbildung ist der Einfluss unsicherer Kenngrößen auf Teilergebnisse nur numerisch nachzuvollziehen. Für die umfangreichen Simulationen stand keine Software zur Verfügung. Als Teilleistung dieser Arbeit wurde hierfür die eigenständige Anwendung „GeoStat“ erstellt. Sie ermöglicht die Berechnung und Auswertung der Fortpflanzung von Unsicherheiten auf numerischem Weg in beliebigen Teilschritten bis hin zur geologischen Modellbildung. Mit dem Übergang vom experimentellen zum theoretischen Variogramm sind wesentliche Zusammenhänge zwischen der Unsicherheit der Kenngrößen und der Unsicherheiten der Parameter für das sphärische, das exponentielle und das Gauß’sche Modell mit den Ergebnissen aus GeoStat ableitbar. Der Schwellenwert dieser Funktionen ist proportional zur relativen Kenngrößenunsicherheit. Eine Abschätzung der oberen Schranke des Schwellenwertes und dessen Unsicherheit wird angegeben. Die Reichweite ist ein charakteristischer Kennwert des Untersuchungsgebietes. Die Parameterunsicherheiten der Variogrammfunktionen wirken sich in Relation zur Kenngrößenunsicherheit nur gering auf den Prognosewert am unbeprobten Ort infolge des Kriging aus. Die Varianz des Prognosewertes ist geringer als die Kenngrößenvarianzen, aber nicht vernachlässigbar klein. Es ist grundsätzlich zu unterscheiden, ob die Kenngrößenvarianzen ausschließlich durch unsichere Parameter der theoretischen Variogrammfunktion repräsentiert oder deren Eigenvarianzen zusätzlich im Kriging berücksichtigt werden. Mit der alleinigen Berücksichtigung der unsicheren theoretischen Variogrammparameter wird die Standardabweichung der Krigingprognose unterschätzt. Sie haben maßgeblichen Einfluss auf die Krigingvarianz als Modellvarianz und deren Standardabweichung. Mit der Einbeziehung der Kenngrößenunsicherheiten kann die Standardabweichung der Prognose realistischer simuliert werden. Sie hat keinen direkten Einfluss auf die Krigingvarianz. Der abgeleitete Unsicherheitsplot, ein Resultat dieser Arbeit, kombiniert die Modellunsicherheit des Krigings und die Varianz des Prognosewertes im unbeprobten Untersuchungsgebiet auf der Grundlage des Varianzenfortpflanzungsgesetzes. Für geotechnische Sicherheitsnachweise ist neben der Informationsdichte auch die Optimierung des geologischen Modells wesentlich. Dieses ist vom auszuwertenden Grenzzustand auf der Grundlage eines Sicherheitsnachweises abhängig, so dass vor der geostatistischen Baugrundmodellierung die Sensitivität der in den Grenzzustand eingehenden Kenngrößen zu untersuchen ist. Es hat sich gezeigt, dass die Erhöhung der Datengesamtheit für die geologische Modellbildung nur dann sinnvoll ist, wenn parallel die Unsicherheit der relevanten Kenngrößen im Sicherheitsnachweis innerhalb der unsicheren Homogenbereiche reduziert wird. Für den Referenzstandort führen äquivalent zur Berücksichtigung der unsicheren Steifemoduln die unsicheren Halbraummodelle zur erheblichen Zunahme der erforderlichen Fundamentabmessungen. Die Unsicherheit der Steifemoduln war maßgebender als die Unsicherheiten des Halbraummodells, obwohl die Datenbasis für die geostatistische Modellierung gering war. Bisher werden in probabilistischen Sicherheitsnachweisen zwar unsichere Kenngrößen, jedoch deterministische geologische Modelle betrachtet. Die unsicheren Kenngrößen innerhalb der Homogenbereiche eines geologischen Modells haben im aufgezeigten Sicherheitsnachweis zwar den maßgebenden Einfluss, doch sind die Unsicherheiten im geologischen Modell nicht zu vernachlässigen. Wege und Grenzen der Berücksichtigung dieses kombinierten Einflusses werden mit dieser Arbeit untersucht und aufgezeigt. Das Anwendungsbeispiel zeigt, dass die optimale geologische Modellbildung spezifisch für den Sicherheitsnachweis vorzunehmen ist. Werden die Unsicherheiten der Kenngrößen innerhalb der Homogenbereiche und unsicheren geologischen Modelle berücksichtigt, wird ein schärferes Abbild der Realität erreicht.
Die vorliegende Arbeit beschäftigt sich mit der Analyse der last- und zeitabhängigen Verformungseigenschaften und der Steifigkeits-Degradation von unbewehrtem Normalbeton und hochfestem, selbstverdichtendem Beton (SVB). Neben experimentellen Untersuchungen werden numerische Simmulationen des Beton-Kriechverhaltens unter kurzzeitiger, quasi-statischer, uniaxialer Druckbeanspruchung vorgenommen.
Der menschliche Körper ist Bezugspunkt von repräsentativen Strömungen der zeitgenössischen Architektur, so lautet die Hauptthese der Dissertation. Bislang wurde das zeitgenössische architekturimmanente Konzept des Körpers größtenteils selektiv und anhand wenig repräsentativer Beispiele von der Kritik behandelt: Ein auf physiologische Gesichtspunkte reduzierter Körper interagiert mit Bauten der klassischen Moderne oder neuen Medientechnologien. Eine umfassende Beschäftigung mit theoretischen Konzepten des Körpers und mit dem Fallbeispiel der zeitgenössischen Hotel- und Kasinoarchitektur in Las Vegas zeigt, dass der Begriff des Körpers komplexer geworden ist, womit der Bezug zum Körper weniger augenfällig erscheint. Der Ansatz der Phänomenologie, Erklärungsmuster durch eine Hinwendung zum Körper zu erhalten wird von verschiedenen Autoren in Frage gestellt. Wenn die Grenzen von Körper bzw. Leib und Umwelt nicht mehr zu bestimmen sind, tauge der Begriff nicht als Letztbegründung. Diese Kritik kann entkräftet werden, wenn auf das Modell der animate form der Philosophin Sheets-Johnstone zurückgegriffen wird. Dieses Konzept führt über Merleau-Pontys Körperbegriff hinaus, der Sheets-Johnstones Aussage nach abstrakt sei. Insbesondere eine Hinwendung zum taktil-kinästhetischen Körper liefert neue Perspektiven. Damit ist es sinnvoll, Architektur in ihrer Beziehung zum Körper zu beurteilen, weil der Körper definierbar und eingrenzbar ist. Anhand des Fallbeispiels der Hotel- und Kasinoarchitektur von Las Vegas kann aufzeigt werden, in welcher Weise sich Planer heute auf den Körper beziehen. Architektur geht in einem Megamedium auf, umgesetzt mit unterschiedlichen Techniken der Umweltgestaltung. Sowohl die Quantität als auch die Qualität der eingesetzten Reize nimmt zu. Dabei werden vor allem Reize eingesetzt, die tendenziell unbewusst wahrgenommen werden. Neben der Abstimmung auf die Sinne und die physische Beschaffenheit wird die symbolische Prägung des Körpers beachtet. Wünsche und Vorstellungen der Nutzer werden über Zielgruppenanalysen ermittelt und finden ihre Entsprechung in semiotischen Architekturelementen. Diese werden so gestaltet, dass der Nutzer den semiotischen Gehalt zugleich sinnlich erfährt. Dieses Konzept des Körpers wird als ganzheitlicher Körper bezeichnet. Aufschlussreich ist ein Vergleich mit Vorstellungen des Körpers vorausgehender Phasen, so z.B. dem Modell, das sich aus Scott Brown, Venturi und Izenours Buch Learning from Las Vegas ableiten lässt, und das sich ebenso aus Texten und Bauten von Zeitgenossen wie Lynch, Norberg-Schulz und Kahn herausarbeiten lässt. Über die Beschäftigung der Architekturtheoretiker mit der Sinneswahrnehmung entsteht ein Bewusstsein für den Einfluss des Symbolischen, das eine subjektive, durch das soziale und kulturelle Umfeld geprägte Wahrnehmung hervorbringt. Der Körper ist eingebettet in symbolische Systeme wie Konventionen und Traditionen, die sein Handeln bestimmen. Dahingegen beziehen sich Vertreter der klassischen Moderne hauptsächlich auf die physiologischen Eigenschaften des Körpers, seine Abmessungen und Bewegungsabläufe, wie Texte, Bauten und Menschmodelle z.B. von Meyer, Neutra, Le Corbusier und Neufert zeigen. Es fällt auf, dass in Texten über Architektur von Las Vegas häufig Begriffe vorkommen, die zugleich zentrale Termini der Phänomenologie sind, wie Atmosphäre und der englische Begriff experience. Es zeigt sich, dass sich die Bedeutungen der philosophischen Termini in der Architektur des Fallbeispiel widerspiegelt. Anders als die vorschnelle Etikettierung der Architekturströmung als „Erlebnisarchitektur“ suggeriert, bezieht sich der Begriff experience auf eine Ausrichtung an der Erfahrung. Diese ist das Resultat der langfristigen Prägung einer konkreten Nutzergruppe durch den in der Umwelt agierenden und durch seine symbolische Prägung beeinflussten Körper. Die Erfahrung impliziert das Erlebnis, als kurzfristige Interaktion von Körper und Umwelt. Am Fallbeispiel kann außerdem gezeigt werden, dass Techniken zur Schaffung von Atmosphären eingesetzt werden. In Anlehnung an den Philosophen Böhme kennzeichnen sich Atmosphären durch eine besondere Nähe von Architektur und Körper. Die Tatsache, dass Architekten gezielt Atmosphären schaffen, die gemeinhin nicht der Strömung der „Erlebnisarchitekur zugerechnet werden, weist darauf hin, dass sich das Leitbild des ganzheitlichen Körpers in unterschiedlichen Kontexten findet. Im Gegensatz zu Thesen Eisenmans oder Jamesons, die eine Entfremdung von Körper und Raum bzw. das Ende des anthropozentrischen Weltbilds feststellen, propagieren Planer wie Jerde die Herstellung von Architektur, die Nutzer und Umwelt in einer übergeordneten Ganzheit vereint. Ganzheit kann aber trotz feinerer Abstimmung auf den Körper nur grenzwertig erreicht werden, da Nutzer nicht vollständig erfasst werden können, sich die Planungen auf bestimmte Zielgruppen beschränken und die Interessen von Planer und Nutzer verschieden sind.
In der Dissertation wurden unterschiedliche Methoden zur Standortidentifizierung mit Oberflächenwellen analysiert. Es wurden neue Methoden zur Parameteridentifikation unter Nutzung von Oberflächenwellen vorgeschlagen. Die Ziele der Arbeit können wie folgt definiert werden: a) Die Entwicklung eines geeigneten theoretischen Modells als Grundlage zur Untersuchung des Standortes hinsichtlich vorhandener Bodensteifigkeiten. b) Die Entwicklung einer neuen Inversionsmethodik unter Berücksichtigung aller auftretenden Moden im Oberflächenwellenfeld. Die Erstellung eines Modells des vertikal heterogenen Untergrundes erfolgte im Frequenz-bereichs für beliebig geschichtete Böden, aufbereitet durch weitestgehend analytische Formulierungen. Durch Nutzung beliebiger horizontaler, elastisch-isotroper Schichten konnte die vertikale Heterogenität approximiert werden. Die Definition der Green'schen Funktionen wurde in Form der Reflexions- und Transmissionskoeffizienten durchgeführt. Die Lösung des formulierten Halbraumproblems erfolgte unter Verwendung der Konturintegration. Dazu wurde die Vorgehensweise der bestehenden Lösung des homogenen Halbraums auf das Problem des geschichteten Mediums übertragen. Die daraus sich ergebende Lösung ist in ein Körperwellen- und ein Oberflächenwellenfeld separiert. Der Vorteil dieser analytischen Betrachtungsweise liegt in der eindeutigen Zuordnungsmöglichkeit der erhaltenen Lösungen zu Wellentypen und in der klaren Dispersionscharakteristik der berechneten Modelle. Im Gegensatz dazu liefern numerische Lösungen, wie FEM, immer ein Wellenfeld, in dem die Wellentypen zugeordnet bzw. interpretiert werden müssen. Mit Hilfe der synthetischen Bodenmodellierung wird das Verhalten von geschichteten Böden bei durchlaufenden Oberflächenwellenfeldern simuliert und untersucht. Für die Untersuchung der Profile wurde hauptsächlich die Modale Superposition von Oberflächenwellen und die Wellenzahl-Integration verwendet. Bei der Analyse von Oberflächenwellenfeldern in vorhandenen Medien sind abweichend von den üblichen seismischen Methoden spezielle Untersuchungsmethoden zur Ermittlung der vorhandenen Dispersion notwendig. Zur Durchführung der Dispersionsanalyse wird in geotechnischen Untersuchungen in der Regel das Phasen-Differenzen-Verfahren (SASW) genutzt. Aufgrund der beschränkten Aussagefähigkeit dieses Verfahrens zu auftretenden höheren Moden werden verbesserte Analysemethoden zur experimentellen Auswertung hinzugezogen. Diese Methoden nutzen zur Informationsgewinnung das räumlich ausgedehnte Wellenfeld. Ausgehend von dem Dispersionsverhalten kann die Bodenstruktur mittels inverser Methoden bestimmt werden. Für die gemeinsame Inversion der in den Messungen vorhandenen Moden wurde ein entsprechendes Inversionsverfahren abgeleitet. Als Grundlage der Inversion wurde ein Verfahren des kleinsten Fehlerquadrates gewählt. Der Vorteil hinsichtlich einer effizienten und stabilen Inversion unter Nutzung dieser Methodik überwiegt den Nachteil der lokalen Suche nach dem Fehlerminimum. Zum Erreichen der stabilen und zielgerichteten Inversion wird der Levenberg-Marquardt Algorithmus, zusammen mit der Wichtung der Dispersionsäste entsprechend ihres Anregungsverhaltens in den Dispersionsspektren, eingesetzt. Von Vorteil hat sich innerhalb der Arbeit die gleichzeitige Behandlung von theoretischen und experimentellen Parameterstudien erwiesen, da sich Ergebnisse und Erkenntnisse beider Seiten ergänzten. Eine Interpretation von Felddaten kann damit weitaus sicherer durchgeführt werden. Zusätzlich konnten die erarbeiteten experimentellen und theoretischen Verfahren gegenseitig überprüft werden.
Im Gegensatz zu Industrieländern wird das barrierefreie und behindertengerechte Planen und Bauen von öffentlichen Gebäuden in Entwicklungsländern aus wirtschaftlichen und sozialen Gründen nur ungenügend berücksichtigt und realisiert. Die Analyse von international vorhandenen Normen und Richtlinien zeigte, dass in Vietnam die Integration behindertengerechter Konzepte in Bauplanungen erst seit dem Jahr 2002 stattfindet, wohingegen diese in China bereits seit den 80er Jahren und in den Industrienationen wie Deutschland und Amerika sogar schon seit drei Jahrzehnten Anwendung findet. Die ungenügende Berücksichtigung behindertengerechter Baukonzepte in öffentlichen Einrichtungen, so auch vor allem in Berufsschulen bewirkt eine drastische Reduzierung des Ausbildungsplatzangebotes und eine resultierende Perspektivlosigkeit für behinderte Menschen. Durch die schnelle Errichtung barrierefreier, behindertengerechter Ausbildungseinrichtungen sollen sich die Chancen auf einen Ausbildungsplatz für behinderte Vietnamesen deutlich verbessern. Mit dem Erhalt eines Ausbildungsplatzes wird diesen Menschen nicht nur eine Integration in die Gesellschaft sondern langfristig gesehen auch finanzielle Selbständigkeit und somit Unabhängigkeit von der Familie ermöglicht. Als Grundlage des angestrebten Umwandlungsprozesses von der herkömmlichen barrierebelasteten Bauplanung zur Berücksichtigung von behinderten Menschen durch behindertengerechte Planungskonzepte wurden Bauzeit, Bauumfang und Baukosten eingehend analysiert. Dieser vergleichenden Betrachtung der Bauplanungen entwuchsen zwei neue barrierefreie Berufschultypen. Der neue Berufsschultyp 1 – Der Dezentralisierungstyp zeichnet sich durch einen geringfügigen Bauumfang und durch seine einfache Baukonstruktion aus und ermöglicht somit eine schnelle Reaktion auf den gravierenden Ausbildungsplatzmangel für behinderte Menschen. Dieser kostengünstige Berufsschultyp wurde entwickelt, um sehr kurzfristig eine schnelle Erhöhung des Ausbildungsplatzangebotes für behinderte Menschen zu schaffen. Siedlungs- und Wohngebiete bzw. Dörfer eignen sich am besten als Standort für den Berufsschultyp 1. Das ursprüngliche Wohnumfeld bliebe den behinderten Schülern erhalten und damit einhergehend auch die seelische Unterstützung durch deren Familien. Der familiennahe Standort der Berufsschule würde somit sowohl den Lehrern als auch den Schülern eine große seelische Last abnehmen. Des Weiteren ließe sich eine Berufsschule vom Typ 1 schnellstens errichten, so dass die Ausbildung der behinderten und nicht behinderten Schüler sofort aufgenommen werden könnte. Im Zuge der Entwicklung des neuen Berufsschultyps 2 – Dem Zentralisierungstyp - wurden internationale Standards angestrebt. Dieser Berufsschultyp bietet eine umfangreichere Flexibilität in seiner Nutzungsart, ein umfassenderes Angebot an Ausbildungsgängen und ein weitaus größeres Feld der Integration. Der Berufsschultyp 2 ist ein komplexer Bau, mit einem größeren Bauumfang als Berufsschultyp 1. Bei der Errichtung dieser Berufsschultypen ist mit einer langfristigen Planungs- und Bauzeit zu rechnen. Der Stadtrand wird als der optimale Standort zur Errichtung der Berufsschule vom Typ 2 angesehen. Von dort aus ließen sich die öffentlichen Service der Stadt effizient nutzen. Als Bewertungsgrundlage für eine optimale Entwicklung der beiden neuen Berufsschultypen dienen Basisdaten aus umfassenden Analysen über verschiedenste Betrachtungsebenen. Unter Nutzung der in Deutschland und USA bestehenden gesetzlichen Grundlagen sollen barrierefreie Planungsempfehlungen, gezielt für die Errichtung behindertengerechter berufsausbildender Schulen in Vietnam, abgleitet werden, um ein gemeinsames Lernen von seh- und mobilitätsbehinderten sowie von nicht behinderten Menschen zu ermöglichen. Bei den Planungsempfehlungen finden nicht nur die unterschiedlichen menschlichen Körpergrößen der verschiedenen Bevölkerungsgruppen sondern auch die unterschiedliche Lebensweise der Vietnamesen sowie die Klimabedingungen in Vietnam Berücksichtigung. Bei der Planung von behindertengerechten Ausbildungs- und Schuleinrichtungen ist es wichtig, die Körpergröße der Menschen des jeweiligen Landes zu berücksichtigen. Als Orientierungsmaß für die Körpergröße vietnamesischer Menschen wurde ein Richtfaktor definiert und eingesetzt. Anhand der o.g. Richtfaktorgrößen wurden detaillierte Planungsempfehlungen für barrierefreies Lernen und Wohnen herausgearbeitet.
Die Bedeutung von klassischen Elementen in virtueller Architektur - Untersucht am Beispiel der Wand
(2004)
Die Dissertation exploriert und evaluiert die Definition einer Entsprechung der architektonischen Kategorie der Wand für virtuelle Architekturen. Es wird der Frage nachgegangen, inwieweit eine architektonische Strukturierung in der virtuellen Architektur fortzuführen ist, um Handlungs- und Kommunikationsstrukturen zu sichern. Der erste Teil motiviert die Arbeit und vermittelt die Grundlagen und Termini, die in einem direkten Zusammenhang mit der virtuellen Architektur verwendet werden. Der folgende Teil konzentriert sich ausschließlich auf die reale Architektur. Ausgehend vom Element der Wand wird, in einer analytischen und architekturtheoretischen Betrachtung, ein Modell von Raumkategorien entwickelt, welches im Hinblick auf die virtuelle Architektur von besonderer Bedeutung ist. Die aus der Analyse gewonnen Erkenntnisse in Form von Raumkategorien werden im dritten Teil aus der realen in die virtuelle Architektur übertragen. Das folgende Kapitel beschreibt drei Experimente, die Fra-gen, Hypothesen und Ansätze aus den vorangegangenen Kapiteln empirisch evaluieren. Im abschließenden Kapitel werden die Erkenntnisse der experimentellen Untersuchung im Kontext des architektonischen Gestaltens von virtuellen Architekturen diskutiert.
The specific socio-political frame and context in Federal Republic of Yugoslavia (SRJ) was in many ways unique in Europe. The way social space was produced, starting from mid eighties in the former Socialist Federal Republic of Yugoslavia (SFRJ) in the period of severe economic and political crises, and later in the new independent republics formed after it’s disintegration, was extremely harsh. The new SRJ had an especially peculiar context due to the sanctions of UN that were introduced in 1992 after the clashes in Bosnia and cases of ethnic cleansing. One of the causes for the production of such a drastic social space could be seen in the strongest wave of ethnonationalism recorded in recent European history, accompanied with the equally strong wave of populism, that were interestingly enough conceived as a program of Serbian national and cultural renaissance in the highest cultural institutions in Serbia like the Serbian Academy of Sciences and Arts and Association of Writers of Serbia, and supported by the Serbian Orthodox Church. After being recognized as a powerful homogenizing force by the communist elite that came to power, Slobodan Miloševi's being its strongest representative, these ideological matrixes thus induced their reproduction in all spheres of the society. On the other side the sanctions by UN and isolation of the country caused the "economy of destruction", economic collapse with the highest rate of inflation ever recorded. The effects of these phenomena were devastating for the new SRJ, where thus produced social milieu was dominated by patriarchalism, authoritarianism, a warlike spirit, xenophobia, and national-chauvinism. In Miloševi's Serbia of the 90’s after introduction of the multi party parliamentary democracy, two public spheres have functioned in autonomous way: one official having all the monopolistic instruments from the former communist ideological structures, and the other alternative and oppositional having just support from a few alternative media houses and mainly the streets for public address and speech. When the wave of ethnonationalism and populism came back from the political realm to the sphere of culture and contaminated it, the highest national institutions of culture started to reproduce this ideological matrix. The task of the artworks was to glorify the history of Serbian people and they could be read as symptoms of the social pathology of the milieu where they originated. Their performative role was to contribute to the production of such a social space and reproduce the hate speech so present in all the media. For the artists who didn't want to conform to the dominant ideological matrix the trauma experienced had different effect and caused strong reaction. One aspect was the withdrawal from the social sphere into the closed, hermetic artistic circles and the strategy defined as active escapism; another was gathering into groups and associations with the aim to criticize, oppose, and face the social reality with engaged artworks. Finally, I focus on different artistic strategies towards the produced social space and analyze both the art practices that reproduced the dominant ideological matrix in the use of the regime, as well as the ones that tried to enter the publics sphere in the critical way and offer the alternative model of the (cultural) public sphere. The paradigm for the analysis of the Serbian art scene or community in the period of sanctions and isolation, mostly in the first half of the nineties, but also encompassing the whole decade, was the one of the “art in the closed society”. As much as this formulation was explanatory for the situation in Serbia under the sanctions, my perspective on the problem is that self-isolation by the artists was more important that the outer wall of barriers, and what mattered was the decision of the majority of the artists to stay out of the public and social spheres. In the global age of informational society where Internet was providing all necessary information on the actual happenings in art, the paradigm of the closed society could be more used as a psychological feature of self-isolation and withdrawal from the reality as it was too hard to bare it. I am therefore focusing mainly on art practices that were trying to deconstruct the dominant ideological matrix, create platforms and arenas where artists could engage in cultural activity and raise different critical issues, and eventually construct the alternative cultural public sphere where many >marginal< voices could be heard, many micro-social spaces could be visible.
Das Langzeittragverhalten von Stützen aus Holz wird entscheidend von der Größe der Dauerlast und dem umgebenden Klima beeinflusst. Im Gegensatz zu Biegeträgern haben diese Effekte auch Einfluss auf den Grenzzustand der Tragfähigkeit und sind unmittelbar Gegenstand von Sicherheitsaspekten. Der Eurocode 5 beachtet dies überhaupt nicht, während in DIN 1052 (2004:08) Hinweise zur Bemessung gegeben sind. Da der Baustoff Holz infolge seines Wuchscharakters stark streuende Materialparameter aufweist, ist es kaum möglich, Experimente in ausreichendem Umfang durchzuführen. Gegen eine solche experimentelle Untersuchung sprechen auch die zu erwartenden hohen Kosten sowie die langandauernden Versuche unter Klimabeanspruchung. Aus diesem Grund wird auf virtuelle Versuche mit Hilfe des Computerprogramms ISOBEAM zurückgegriffen. Dazu sind allerdings abgesicherte Materialmodelle wichtig, die hier an Experimenten mit Klein- und Kleinstproben sowie mit Versuchkörpern baupraktisch relevanter Abmessungen angepasst wurden. Mit diesem verifizierten Modell war es möglich, gezielt Parameterstudien durchzuführen. Der Einfluss der Einbauholzfeuchte auf das hygrothermische Langzeittragverhalten wurde genauso untersucht wie der der Nutzungsklasse und der Querschnittsabmessungen. Die Ergebnisse der virtuellen Versuche dienten zum einen der Überprüfung der Vorgehensweise nach DIN 1052 (2004:08) und zum anderen zur Anpassung neuer Vorschläge zur Bemessung. Es wurde Wert darauf gelegt, dass sich die Vorschläge neuer Bemessungskonzepte an die bestehenden normativen Bemessungsregeln anlehnen. Zum einen wurde das Bemessungsverfahren nach Theorie II. Ordnung um eine weitere Ausmitte zur Berücksichtigung des Kriechens ergänzt, zum anderen wurde beim Ersatzstabverfahren der Beiwert entsprechend modifiziert. Alternativ ist es möglich, den Modifikationsbeiwert neu an die virtuellen Versuchsergebnisse anzupassen. Die Einbauholzfeuchte wurde ebenfalls über einen zusätzlichen Modifikationsfaktor berücksichtigt.
Seit ihren Anfängen im ausgehenden 19. Jh. ist der brandenburgischen Hausforschung ein Phänomen in der Entwicklung des ländlichen Wohnhauses bekannt, das in der vorliegenden Arbeit als Typenwandel bezeichnet wird: Zahlreiche Landschaften der ehemaligen Kurmark Brandenburg wurden bis in das 18. Jh. hinein von einem giebelständigen Haustyp - dem sogenannten Märkischen Mittelflurhaus - geprägt. Im Verlauf des 18. und 19. jh. wurde dieser von einem traufständigen Haustyp - dem sogenannten Mitteldeutschen Ernhaus - >verdrängt<. Dieser Typenwandel ist wie jeder Wandel einer tradierten Hausform auf einen Komplex verschiedener Faktoren und Einflussgrößen zurückzuführen. Über diese Faktoren und Einflussgrößen bestehen in der bisherigen regionalen Hausforschung folgende Thesen: Zum einen wird angenommen, dass das Vorbild der im Rahmen der friderizianischen Kolonisation seit der Mitte des 18. Jh. zahlreich erbauten, traufständigen Kolonistenhäuser diesen Typenwandel beeinflusst oder ausgelöst habe. Zum anderen seien die baupolizeilichen Vorschriften und der Einfluss der preußischen Landbauschule - vertreten durch das Oberbaudepartement - ein auslösender oder beschleunigender Faktor gewesen. Aufgabe der Untersuchung ist es, diese Thesen anhand eines geeigneten Untersuchungsgebietes zu diskutieren. Als solches eignete sich das Oderbruch insbesondere, weil es das größte zusammenhängende Siedlungsgebiet auf deutscher Seite darstellt, das unter der Regentschaft Friedrichs des Großen kolonisiert wurde, und seine allmähliche Trockenlegung seit der Mitte des 18. Jh. von intensiven obrigkeitlichen Eingriffen begleitet war. Mit der zusätzlichen Abgrenzung der untersuchten Hausformen auf diejenigen der ländlichen Mittelschicht, d.h. auf die Häuser der Bauern, Fischer und Kossäten, basiert die zentrale stratigrafische Untersuchung des Wandlungsprozesses einerseits auf durch die Autorin selbst erarbeiteter Bauforschung am rezenten Hausbestand und andererseits auf der Auswertung umfangreichen Archivmaterials. Der durch zahlreiche Übergangsformen nachweisbare Prozess der Herausbildung des jüngeren Haustyps aus dem älteren Haustyp heraus widerlegt die bisherige Annahme, dass der Typenwandel lediglich eine Grenzverschiebung zwischen den geografischen Verbreitungsgebieten zweier frühneuzeitlicher Haustypen gewesen sei. Die archivalische Überlieferung zur friderizianischen Kolonisation, zum ländlichen Baugeschehen im ausgehenden 18. und beginnenden 19. Jh. sowie zur obrigkeitlichen Reglementierung des >Unterthanenbauwesens< erbringt den eindeutigen Nachweis, dass weder das Vorbild der Kolonistenhäuser noch irgendeine Form der obrigkeitlichen Einflussnahme für den Wandel vom giebelständigen zum traufständigen Haustyp von Bedeutung waren. Vielmehr erweisen sich die Auswirkungen der Agrarreformen auf die bäuerlichen Betriebe als der ausschlaggebende Faktor für den Typenwandel. Die bisher angewandten Begriffe zur Bezeichnung der Haustypen stellen sich im Ergebnis der Untersuchung nicht nur als irreführend sondern falsch heraus. Die Arbeit eröffnet deshalb eine Debatte zur Neudefinition der Typenbegriffe innerhalb der regionalen Hausforschung.
Die vorliegende Dissertation zeigt am Beispiel der Entwicklung eines modernen geriatrischen Zentrums, dass Architektur einen eigenständigen Beitrag dazu leisten kann, die Probleme des Alters in der heutigen Gesellschaft anzunehmen und zu bewältigen. Die Arbeit setzt zum einen an stadtplanerischen Defiziten der vergangenen Jahrzehnte an und verdeutlicht, wie ein bedürfnisgerechtes, innerstädtisches geriatrisches Zentrum dem Leitbild der „humanen Stadt“ zu entsprechen vermag, um damit die Stadt wieder zu einem multifunktionalen Erlebnisraum für alle Bevölkerungsgruppen werden zu lassen. Zum anderen greift sie die aktuelle gesundheitspolitische Debatte auf und weist nach, dass ein solches Zentrum als integrierte Verbundlösung, die alle Versorgungsstrukturen unter einem Dach anbietet, ideal dazu geeignet ist, die Anforderungen unserer Zeit auf geriatrischem und pflegerischem Gebiet zu erfüllen. Die Anforderungen an eine derartige Einrichtung sind umfangreich und differenziert. Sie werden unter Heranziehung aktueller Forschungsergebnisse aus stadtsoziologischer, psychologischer, gerontologischer und sozialökologischer Sicht hergeleitet und in praktische architektonische bzw. baukonstruktive Handlungsanweisungen umgesetzt. Als zentrale, übergeordnete Anforderungen neben optimaler medizinischer und pflegerischer Betreuung werden herausgearbeitet: 1. Erhöhung der Lebenszufriedenheit der Bewohner 2. Stärkung der Autonomie und Selbstständigkeit der älteren Menschen 3. Befolgung des Grundsatzes >Prävention vor Rehabilitation, Rehabilitation vor Pflege< 4. Förderung eines selbstbestimmten Lebens in vertrauter Umgebung bis ins hohe Alter 5. Gewährung von Geborgenheits- und Heimatgefühlen 6. Gemeinwesenorientierung und enge Anbindung an die Strukturen des Quartiers 7. Erhaltung bzw. Stärkung der sozialen Integration der älteren und kranken Menschen 8. Förderung eines hohen Aktivitätsniveaus und einer anspruchsvollen Freizeitgestaltung 9. Bereitstellung einer anregenden sowie sicheren, weil Orientierung gebenden Umgebung Das vorgestellte geriatrische Zentrum bildet die architektonische Entsprechung zum gesellschaftlichen Strukturwandel des Alters und zu den gesundheits- und pflegepolitischen Entwicklungen unserer Zeit und leistet damit einen eigenständigen Beitrag, die gesundheitlichen und sozialen Probleme alter Menschen in unserer Gesellschaft zu lindern, in dem nutzerorientierte Gebäudestrukturen geschaffen werden, die einem integrativen Netzwerk aus Wohn-, Therapie- und Pflegeformen Raum geben. Damit steht das geriatrische Zentrum beispielhaft für eine Architektur, die stets von den Bedürfnissen der Menschen ausgeht und mit baulichen Lösungen auf die sozialen Herausforderungen unserer Zeit reagiert.
Zwischen den Jahren 1920 und 1930 kam es an der kalifornischen Küste zu Bauschäden an Brücken und Fahrbahnen, die sich vor allem in einer deutlichen Rissbildung äußerten. Seither werden immer wieder Bauschäden beschrieben, deren Ursache in der Reaktion von Zuschlägen, die „reaktive“ Kieselsäure enthalten, mit der Porenlösung des Betons zu sehen ist. Diese Reaktion wird als Alkali-Kieselsäure Reaktion (AKR) bezeichnet. Seit der ersten Veröffentlichung von Stanton über die „alkali-aggregate reaction“ an opalhaltigen Zuschlägen sind hunderte von Forschungsarbeiten zu diesem Thema durchgeführt und deren Ergebnisse veröffentlicht worden. Trotz eingehender Forschung seit mehr als 8o Jahren ist weder der Mechanismus der AKR vollständig geklärt noch eine eindeutige Voraussage über die Gefährdung von Bauwerken oder Bauteilen mit potentiell AKR-empfindlichen Zuschlägen möglich. Das liegt vor allen Dingen daran, das es sich bei der AKR um eine Reaktion handelt, die aus einer komplexen Abfolge chemischer und physikalischer Prozesse besteht, die in ihrer Gesamtheit zu einer Schädigung von Beton bzw. Betonbauteilen und Bauwerken führen können. Eine geschlossene Beschreibung und Behandlung dieser Reaktion ist nicht möglich, solange keine befriedigende Kenntnis über den Ablauf der einzelnen Schritte vorliegt. Dazu bedarf es grundsätzlicher Untersuchungen der einzelnen chemischen und physikalischen Reaktionsschritte sowie einer möglichst quantitativen Bewertung der verschiedenen Einflussfaktoren. Grundsätzlich gibt es weltweit eine ganze Reihe von Richtlinien und Normen , die dazu verhelfen sollen, Schädigungen an Bauwerken durch AKR zu verhindern. In Deutschland ist das momentan gültige Regelwerk die sogenannte Alkali-Richtlinie des deutschen Ausschusses für Stahlbeton (DAfStb). Sie dient zur Beurteilung von Zuschlag nach DIN 4226 [6, 7, 8] mit alkaliempfindlichen Bestandteilen. Dabei bezieht sich der Teil 2 der Richtlinie auf Zuschläge mit Opalsandstein, Kieselkreide und Flint aus bestimmten Gewinnungsgebieten. Hier wird eine reine Zuschlagprüfung gefordert. Teil 3 der Richtlinie bezieht sich auf präkambrische Grauwacken und andere alkaliempfindliche Gesteine. Gefordert werden hier Prüfungen der Zuschläge selbst sowie Prüfung an Betonbalken und 30er Würfeln in der Nebelkammer. Für die meisten in der Richtlinie genannten Zuschläge bilden die Prüfungen und Vorschriften eine ausreichende Sicherheit, um eine AKR zu vermeiden. Dennoch treten immer wieder Schäden mit Zuschlägen auf, die nach der Alkali-Richtlinie als unempfindlich eingestuft werden müssten. Dabei handelt es sich in der Regel um Schadensfälle, die erst nach mehreren Jahren mit spät reagierenden AKR-empfindlichen Zuschlägen auftreten. Zu diesen Zuschlägen, die gegebenenfalls speziell im Nebelkammertest innerhalb von neun Monaten keine signifikante Dehnung (<0,6mm/m) aufweisen, gehören Stressquarze, Kieselkalk, Granit, Porphyr, Kieselschiefer und Grauwacke. Die vorliegende Arbeit dient speziell der Beurteilung und Einordnung von unterschiedlichen kristallinen Quarzmodifikationen sowie der Ermittlung geeigneter Untersuchungsmethoden für die Beurteilung der AKR-Empfindlichkeit von Quarz.
Grundlage der Arbeit bilden eigene aktuelle Bauschadensuntersuchungen in Deutschland. Die jährlichen Mängel- und Schadensbeseitigungskosten betragen auf der Basis ausgewerteter Gutachten 4,1 % der Bauinvestitionen und liegen höher als die bisherigen Angaben der Bauschadensberichte der Bundesregierung. Eine Verbesserung der Bauqualität ist trotz Einführung von Qualitätsmanagementsystemen in den letzten Jahren nicht feststellbar. Diagnose-Werkzeuge aus der stationären Industrie zur Feststellung einer mangelnden Übereinstimmung der geforderten Qualität mit der erreichten Qualität während der Bauausführung sind nicht unmittelbar anwendbar. Aufbauend auf neuen Ansätzen zur interaktiven und interdisziplinären Verdichtung aller Prüfungen wird in dieser Arbeit ein System zur Qualitätssicherung in der Bauausführung aufgezeigt. Dieses wird als System der „Helfenden Prüfungen“ bezeichnet. Grundbausteine sind die Anwendung der „Fehler-Möglichkeits- und -Einfluss-Analyse“ unter Berücksichtigung prozessspezifischer Erfahrungen sowie Prophylaxekriterien, hergeleitet aus Fehlern, Baumängeln und Bauschäden. Das System der „Helfenden Prüfungen“ ist ein dynamisches System zur baubegleitenden Qualitätssicherung in der Bauausführung. Es ermöglicht die Verkettung der Prüfungen verschiedener am Bau Beteiligter aufbauend auf einer Eigenüberwachung durch die Ausführenden. Automatische Vergleiche der Prüfergebnisse und die Transparenz des Systems schaffen mehr Vertrauen zwischen den am Bau Beteiligten. Bei konsequenter Durchführung der abgestimmten Prüfverfahren kann nur ein aktueller Informations- und Wissensstand die Fortführung der Bauleistungen in den Teilprozessen ermöglichen. Die Verifizierung des Systems der „Helfenden Prüfungen“ erfolgte im Rahmen der Forschungsarbeit als baubetriebliches Kommunikationsmodell.
Die ein- und zweidimensionale numerische Berechnung der Fließvorgänge in offenen Gerinnen findet zunehmend auch Anwendung in der Modellierung immer komplexerer Prozesse im unter Anderem im Bereich der Ökosystemmodellierung in Gebirgs- und Mittelgebirgsbächen. In diesem Bereich existieren zurzeit noch Probleme hinsichtlich der hydraulischen Prognoserechnungen. Neben den numerischen Grundlagen werden die Abhängigkeiten des Strömungsfeldes von der Rauheitsstruktur der Sohle und der Überdeckungshöhe behandelt. Zur Untersuchung der Fließwiderstandsgleichungen wurden Laborversuche in einer Versuchsrinne durchgeführt. Es wird gezeigt, dass der üblicherweise verwendete Ansatz des mittleren Sohlgefälles bei der Berechnung der Sohlschubspannungsgeschwindigkeit u* in Stufen-Becken-Sequenzen nicht zulässig ist. Stattdessen ist es erforderlich, die lokalen Energieliniengefälle zu bestimmen und einzusetzen. Die Anwendung der aus der Literatur bekannten Ansätze zur Beschreibung des Fließwiderstandes führt zu keinen befriedigenden Ergebnissen und wird ausführlich diskutiert. In der Untersuchung der verschiedenen Fließwiderstandsbeziehungen zeigte sich, dass insbesondere die ungenügende Beschreibung der Rauheitstruktur der Sohloberfläche durch einen charakteristischen Korndurchmesser des Sohlmaterials als unzureichend anzusehen ist. Hinsichtlich der Beschreibung rauer Oberflächenstrukturen wurde ein einfacher Segmentierungsalgorithmus entwickelt, der es erlaubt, komplizierte Oberflächenstrukturen zu vereinfachen und über die Standardabweichung abschnittsweise Rauheiten zuzuweisen. Dieses Verfahren wird in einem zweidimensionalen hydraulischen Modell eingesetzt. Hierdurch wird für die Wassertiefenbestimmung als auch für die Fließgeschwindigkeitsbestimmung eine Berücksichtigung der speziellen topographischen Verhältnisse ermöglicht.
Gegenstand dieser Arbeit ist es zu zeigen, ob die Anwendung der Methode der Finiten Elemente für die Berechnungen von aussteifenden Wandkonstruktionen in Holzrahmen- bzw. Holztafelbauweise richtige und verallgemeinerbare Ergebnisse liefert und damit: · zur Bemessung von Konstruktionen dienen kann, · die Nachrechnung bestehender Konstruktionen mit von der Norm abweichenden Ausführungsdetails erlaubt und · einen Ersatz für 1:1-Versuche an Wandscheiben darstellt. Die Ergebnisse lassen sich wie folgt zusammenfassen: Unter den derzeitigen Bedingungen stellt die Methode der Berechnung mit Finiten Elementen für die Bemessung von Ein- und Zweirastertafeln, vor allem für die bautechnische Praxis, keine sinnvolle Alternative zu den in den Normen genannten Berechnungsverfahren dar. Für Ein- und Zweirastersysteme sind die Nachweisverfahren der DIN 1052 bzw. des Eurocode 5 ausreichend. Sie können durch das Berechnungsverfahren nach KESSEL sinnvoll ergänzt werden. Die Drucklastverteilung in den Vertikalrippen wird jedoch nur unzureichend erfasst. Für Konstruktionen wie die in dieser Arbeit untersuchte Mehrrastertafel stehen derzeit keine geeigneten Berechnungsverfahren zur Verfügung. Die Anwendbarkeit der FE-Methode für die Nachrechnung bestehender Konstruktionen mit von der Norm abweichenden Konstruktionsdetails konnte in dieser Arbeit nicht nachgewiesen werden. Für die FE-Modellbildung von Wandscheiben des Holzrahmenbaus wurden verschiedenen Detaillösungen gezeigt. Es wurde gezeigt, welche Konstruktionsdetails der Wandscheiben signifikante Auswirkungen auf das Gesamttragverhalten haben. Die FE-Methode kann in der in dieser Arbeit verwendeten Form zur Vorbereitung von Versuchen an 1:1-Modellen dienen und wertvolle Hinweise zum Einfluß verschiedener Konstruktionsdetails auf das Gesamttragverhalten der Wandtafel liefern, um gezielt Veränderungen vornehmen zu können. Insofern stellen Berechnungen mit der FE-Methode eine sinnvolle Ergänzung dar.