Refine
Document Type
- Doctoral Thesis (494) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (14)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
Das Ziel der vorliegenden Arbeit besteht in der Entwicklung einer Strategie zur physikalisch nichtlinearen Analyse von Aussteifungssystemen. Der Anwendungsschwerpunkt umfasst neben dem traditionellen Aufgabenumfang zur Analyse neu zu errichtender Tragwerke gleichzeitig auch Planungsaufgaben, die mit Umbau- und Sanierungsmaßnahmen verbunden sind. Veränderungen, die sich während der Nutzungsgeschichte oder im Revitalisierungsprozess ergeben, werden in den Berechnungsmodellen berücksichtigt. In vielen Fällen ist es aus planerischer Sicht zweckmäßig, die Nichtlinearität des Materialverhaltens zur Erschließung von Tragreserven in den normativen Nachweiskonzepten mit einzubeziehen. Der damit verbundene numerische Aufwand wird durch die Verwendung separater Modelle zur Erfassung des Querschnitts- und des Systemtragverhaltens begrenzt, ohne die Komplexität der Aufgabenstellung zu reduzieren. Aus detaillierten Querschnittsuntersuchungen der Tragwände werden integrale Materialbeziehungen abgeleitet, welche die Grundlage für die nichtlineare Tragwerksanalyse darstellen. Die Modellbildung gegliederter Aussteifungswände basiert auf deren Zerlegung in ebene finite Stabsegmente, die sich durch die Diskretisierung in Längs- und in Querrichtung ergeben. Zusätzlich zu den an den Stabenden angreifenden Normalkräften, Querkräften und Biegemomenten werden an den Elementlängsrändern Schubbeanspruchungen erfasst. Die physikalische Nichtlinearität wird durch die Einbeziehung integraler Materialbeziehungen an den Segmenträndern berücksichtigt. Die numerische Umsetzung erfolgt mit Methoden der mathematischen Optimierung. Die Leistungsfähigkeit der Berechnungsstrategie wird exemplarisch anhand von Untersuchungen an Aussteifungssystemen in Großtafelbauweise nachgewiesen.
Das Pionierlager Artek. Realität und Utopie in der sowjetischen Architektur der sechziger Jahre
(2004)
Das in den 1960er Jahren gebaute, internationale Pionierlager Artek an der Schwarzmeerküste der Krim war das größte Kinderferienlager der Sowjetunion. Als Prestigeobjekt und Vorzeigeinstitution steht Artek für die Architektur der Ära Chruschtschows, des sogenannten „Tauwetters“. Anhand des dialektischen Prinzips von Präsentation und Repräsentation werden vier Aspekte des Lagers untersucht: Architektur, städtebauliche Struktur, Erziehung und Gesamtkunstwerk. Durch dieses Prinzip, das sich aus der Widerspiegelungstheorie ableiten läßt, kann jedem dieser Aspekte die Kongruenz zur ideologischen Zielsetzung und damit die gestalterische Kohärenz der Ferienanlage nachgewiesen werden. In Abgrenzung zur modernen Architektur der westlichen Industrienationen wurde in Artek eine spezifisch „sozialistische Moderne“ für die Sowjetunion und die übrigen Staaten des Ostblocks definiert. Diese war eng verbunden mit dem Städtebau auf der Grundlage von Mikrorayons und der Ausgestaltung von Stadt- und Subzentren. Artek ist mit seiner idealtypischen, architektonischen und städtebaulichen Gestaltung ein Denkmal für die frühere Sowjetunion.
The main objective of the present work is to establish a link between the scientific fields of engineering seismology and structural engineering. Substantially it deals with the application and enhancements of methods coming from engineering seismology as well as their junctions to the fields of structural engineering respectively earthquake engineering. Based on real occurred earthquake damage inflicted to multistoried reinforced-concrete frame buildings, the influence of local site effects on the grade of structural damage is worked out. This relying on comprehensive investigations conducted during numerous field missions of German TaskForce after damaging earthquakes in Venezuela and Türkiye. Instrumental investigations on both the structure and its local subsoil in order to identify the damage potential of seismic ground motion take center stage of the thesis. Thereby it is examined whether or not an estimated seismic demand representative in amplitude level and frequency characteristics is able to cause structural damage considering the vulnerability of the structure itself as well as the local site and subsoil conditions. Investigations are concentrated on selected RC frame structures with or without masonry infill walls.
Vor dem Hintergrund des gesellschaftlichen Wandels sieht sich die Verkehrsforschung mit neuen Anforderungen an die Konzeption, Anpassung, Anwendung usw. von statistischen Ansätzen zur Analyse des Aktivitäten-(Verkehrs-)verhaltens konfrontiert, um auf Basis empirischer Daten adäquat Zusammenhänge der Verkehrsentstehung zu erforschen. Ausgehend von der musterorientierten Perspektive - das heißt Untersuchungsgegenstand sind chronologische Abfolgen von Ortsveränderungen und Tätigkeiten in Form von Wege-Aktivitätenmustern - besteht das Ziel einer möglichst realitätsnahen Abbildung und Erklärung von individuellen Unterschieden im Raum-Zeit-Verhalten. Neu bzw. kaum etabliert sind in diesem Kontext der eigens konzipierte Multimethodenansatz sowie die Optimal Matching Technik, die erweiterte Abbildungseigenschaften zur Distanzmessung zwischen Wege-Aktivitätenmustern aufweist. Erkannt werden durch jene Methode gleiche Tätigkeiten bzw. Ortsveränderungen, die zeitlich an unterschiedlichen Stellen der zu vergleichenden Muster angeordnet sind sowie identische Subsequenzen. Zielführend in der Datenanalyse ist nachstehende Abfolge von Verfahren: Die Klassifikation von Wege-Aktivitätenmustern zur Reduktionen deren immenser Komplexität gelingt durch Einsatz der Optimal Matching Technik. Diese quantifiziert (Un-)ähnlichkeiten zwischen Wege-Aktivitätenmustern („Abstandsmessung“) unterschiedlicher Personen oder zu vergleichender Zeitabschnitte einer Person. Die dadurch berechnete Distanzmatrix bildet den Ausgangspunkt des clusteranalytischen Fusions-algorithmus, dessen Aufgabe die Zusammenfassung der Wege-Aktivitätenmuster ist (explorative Stufe). Die Anwendung eines multinomialen Logit-Modells ermöglicht auf Individualebene die Vorhersage der Affinität zu Wege-Aktivitätenmuster-Typen anhand von Merkmalswerten identifizierter Erklärungsgrößen der Personen, des Haushaltes usw. (induktive Stufe). Im Gegensatz zu einschlägigen Forschungsarbeiten zeichnet sich die gewählte Untersuchungsstrategie durch die Objektivität des Vorgehens aus, da eine a-priori Bildung von Personen-kategorien nicht notwendig ist. Ebenso grenzt die Berücksichtigung der zufälligen und nicht-erklärbaren Verhaltensvariabilität durch das Wahrscheinlichkeitsprinzip des gewählten Logit-Modells das eigene Vorgehen von anderen Untersuchungen ab. Aufgrund der weitgehend ungeklärten Anwendungsgrundlagen der Optimal Matching Technik befasst sich die vorliegende Arbeit zunächst mit dessen inhaltlicher Ausrichtung am Untersuchungsgegenstand. Die Anpassung der festzulegenden Aufwandswerte, welche für die benötigten Aktionen angesetzt werden, um ein Wege-Aktivitätenmuster in ein anderes zu transformieren, erfolgt mit Hilfe einer empirisch Abschätzung, die weit über ein argumentatives Vorgehen hinausgeht. Der ermittelte Sequenzabstand inkludiert dabei die operationsspezifische Distanz bei Übergängen zwischen den konstituierenden Zuständen der zu vergleichenden Wege-Aktivitätenmuster („Zustandsähnlichkeit“). Abstandsmaß für die qualitativen Zustände ist dabei die ermittelte Priorität von wege- und tätigkeitenbezogenen Handlungen. Die Relevanz einer Ausrichtung belegt auch die durchgeführte Sensitivitätsanalyse: Das Ausmaß der Empfindlichkeit der Optimal Matching Technik ist insbesondere gegenüber der Festlegung der Aufwandswerte beträchtlich. Um die Analysepotenziale des Multimethodenansatzes zu demonstrieren, werden exemplarisch interpersonelle Unterschiede im wöchentlichen Aktivitäten-(Verkehrs-)verhaltens (Datenbasis: deutsches Mobilitätspanel) analysiert. Ergebnis der Klassifikation (explorative Analysestufe) ist eine auf den ersten Blick inhaltlich stichhaltige Wege-Aktivitätenmuster-Typologie charakteristischer Wochenabläufe des Aktivitäten-(Verkehrs-)verhaltens: Unterschiedliche Arten, zeitlicher Umfang und zeitliche Lage der Haupt-aktivitäten, unterschiedliche Verkehrsverhaltensweisen sowie unterschiedliche clusterspezifische Tag zu Tag Rhythmen, Gleichförmigkeiten, Schwankungen usw. des Raum-Zeit-Verhaltens kennzeichnen die Wege-Aktivitätenmuster-Typen. Die Abbildungs-eigenschaften der Optimal-Matching Technik zeichnen sich in den erstellten Clustern nur teilweise ab: Während die Zustandselementkomposition - augenscheinlich betrachtet - passabel durch die Wege-Aktivitätenmuster-Typologie abgebildet wird, bleibt ungewiss, ob und inwieweit dies für die Abfolgeähnlichkeit gilt. Aus dem induktiven Analyseschritt geht hervor: Alter, Geschlecht, Verfügbarkeit einer ÖPNV-Zeitkarte, Führerscheinbesitz und mit herausragender Bedeutung der Erwerbsstatus signalisieren als maßgebende Erklärungsgrößen eine Trennwirkung. Überdies zeigt das Gesamtbild der ermittelten Wirkungsrichtungen und Effektstärken überzeugende Erklärungszusammenhänge auf. Damit ist ein Nachweis der Praktikabilität des eigens konzipierten Multimethodenansatzes unter Verwendung der Optimal Matching Technik zur musterorientierten Analyse des Raum-Zeit-Verhaltens erbracht.
Die Arbeit beschreibt ein Konzept zur computergestützten, schrittweisen Erfassung und Abbildung der Geometrie von Gebäuden im Kontext der planungsrelevanten Bauaufnahme. Zunächst wird die Bauaufnahme als Erstellung eines verwendungsspezifischen Modells betrachtet. Anschließend wird der Fokus auf das geometrische Abbild gelegt. Es werden u.a. die Aufmaßtechniken Handaufmaß, Tachymetrie und Photogrammetrie bewertet und gebäudetypische geometrische Abstraktionen aufgelistet. Danach erfolgt eine Aufstellung von Anforderungen an ein computergestütztes Aufmaßsystem, welche mit kommerziellen Lösungen aus dem nichtgeodätischen Bereich verglichen wird. Im Hauptteil wird das zu Beginn genannte Konzept beschrieben. Betrachtet wird die skizzenbasierte Erstellung eines nichtmaßlichen geometrischen Abbildes des Gebäudes in den Frühphasen der Bauaufnahme, seine anschließende schrittweise maßliche Anpassung an das Original und topologische Detaillierung im Zuge des Bauaufmaßes, sowie die Extraktion von Bauteilen und ihren geometrischen Parametern. Zur Vereinfachung der maßlichen Anpassung des geometrischen Abbildes im Aufmaßprozeß werden geometrische Abstraktionen wie Parallelitäten, rechte Winkel usw. genutzt, aber nicht erzwungen. Mit Hilfe der Ausgleichungsrechnung erfolgt eine Zusammenführung der geometrischen Abstraktionen und verschiedener Aufmaßtechniken. Es werden die nötigen Beobachtungsgleichungen und andere relevante Aspekte beschrieben. Gezeigt wird weiter ein Konzept, wie ein nutzerseitig veränderbares Bauwerksmodell mit dem geometrischen Abbild in Bezug gebracht werden kann, wobei aus dem geometrischen Abbild geometrische Parameter des nutzerseitig veränderbaren Bauwerkmodells gewonnen werden können. Ausgesuchte Problematiken der Arbeit wurden prototypisch implementiert und getestet. Hierbei stand die Verbindung der Aufmaßtechniken und geometrischen Abstraktionen im Mittelpunkt. Die geometrischen Ansätze der Arbeit beschränken sich auf planare Oberflächen.
Zur Verbindung des flächigen Bauteils Brettstapelelement mit mineralischer Deckschicht sind bisher kaum geeignete einfachste Fugenausbildungen untersucht. Bei dieser biegebeanspruchten hybriden Verbundkombination bietet das zugbeanspruchte Holz und die druckbeanspruchte mineralische Deckschicht im Verbund ein günstigeres Biegetragverhalten und verbessert im Vergleich zum reinen Brettstapeldeckenelement dessen Eigenschaften. Für die Steifigkeit und die Tragfähigkeit der Verbundkonstruktion ist die Ausbildung der Verbundfuge, die effektive Übertragung der Schubkraft ausschlaggebend. Die vom Verfasser der Arbeit durchgeführten Versuche haben gezeigt, dass der Einsatz alternativer Verbundfugenausführungen grundsätzlich möglich ist. Mit diesem Wissen scheint neben dem Einsatz nachgiebiger Verbindungsmittel auch die Heranziehung, Erfassung und Optimierung des Flächen- sowie Reibungsverbundes zwischen flächigen Holzelementen und mineralischen Deckschichten eine effiziente und sichere Fugenausbildung darzustellen. Für weiterreichende und genauere Aussagen, sind neben der versuchstechnischen Abklärung der Wirksamkeit möglicher chemischer als auch mechanischer Modifikationen der Holzoberfläche in der Verbundfuge computergestützte Kurzzeit- sowie auch Langzeituntersuchungen zur Abschätzung der Möglichkeiten und Zuverlässigkeit des Flächenverbundes zwischen Brettstapelelement und mineralischer Deckschicht unabdingbar gewesen. Als Deckschichtvarianten kamen Normalbeton, Zementestrich, Anhydritestrich und Geopolymerbeton zur Anwendung. Es konnte durch eine statistische Auswertung im Resultat ein Gesamtüberblick über das Tragverhalten von hybriden Verbundelementen mit mineralischen Deckschichten und spezieller Oberflächenbehandlung des Holzes gegeben werden. Dabei wirkten sich die Vorteile bei der Nutzung des Flächenverbundes vor allem auf den Gebrauchszustand des Bauteils aus. Die Steifigkeit des Verbundbauteils wurde durch den Flächenverbund erhöht und es wurden damit günstigere Voraussetzungen für den Nachweis der Gebrauchstauglichkeit vor allem bei Spannweiten über 5,0 m erzielt. Die Untersuchungen zeigen die grundlegende Anwendbarkeit für Brettstapel im Flächenverbund mit mineralischen Baustoffen.
Der Autor, Berater und Gutachter für das Thüringer Ministerium für Soziales und Gesundheit und Mitverfasser der Thüringer Landespflegepläne, systematisiert und analysiert die Struktur und Situation pflegebedürftiger Menschen und deren Inanspruchnahme sozialer Pflegeinfrastrukturen im räumlichen und demographischen Kontext. Im Mittelpunkt dieser regionalwissenschaftlichen Forschungsarbeit stehen räumliche Disparitäten der Versorgungs- und Angebotssicherung sowie bisher kaum betrachtete räumliche Strukturen und Interdependenzen der Pflegebedürftigkeit und Pflegeleistungen. Hierzu wurden vom Autor mehrere regional differenzierte Datenerhebungen aller teilstationären und vollstationären pflegebedürftigen Menschen und der Pflegeinfrastruktureinrichtungen im Freistaat Thüringen durchgeführt.Durch die Integration explorativer Analysemethoden in die empirische Regionalforschung wird die Pflegelandschaft Thüringens für den Zeitraum 1994 bis 2000 dokumentiert und anhand eines relationalen Indikatorensystems die Strukturen und räumlichen Muster der Pflegebedürftigkeit und -infrastruktur, soziodemographischen und raumstrukturellen Einflusskomponenten sowie pflegespezifische Interdependenzen exploriert und analysiert. Ein Ergebnis sind typologische Aussagen zum Alter, zur Pflegeart und -schwere oder Struktur der Pflegeleistungen in einer hochauflösenden topologischen Differenzierung nach regionaler Herkunft pflegebedürftiger Menschen. So hat die Einführung der Pflegeversicherung die Situation der meisten pflegebedürftigen Menschen in Thüringen deutlich verbessert. In der Zeitreihenuntersuchung treten diese Anfangserfolge aber hinter identifizierten Problemlagen aus z.B. sukzessiver Polarisierung der Pflegeleistungen, wachsenden Infrastrukturdisparitäten mit exakt quantifizierbaren Wanderungsbewegungen pflegebedürftiger Menschen zurück. Ein Ergebnis topologischer Analysen sind regionale (Versorgungs-) Disparitäten, die zu nachgewiesenen Wanderungsbewegungen pflegebedürftiger Menschen führen.So resultiert die noch nachweisbare Leistungs- bzw. Funktionsfähigkeit der Pflegelandschaft Thüringens (im Sinne der pflegerischen Grundversorgung einer Teilkaskoversicherung) primär aus noch günstigen Rahmenbedingungen wie dem „selbstverständlich“ erbrachten informellen Pflegeleistungen (der Frauen und Töchter) und nur sekundär (oder kaum) aus der durchaus noch guten finanziellen Situation der Pflegeversicherung. Ferner konnte gezeigt werden, dass wachsende Versorgungsdisparitäten nur anteilig eine Infrastrukturproblematik darstellen.Die Ergebnisse werden im Hinblick auf die entwickelten Methoden und weiteren Untersuchungen diskutiert und im Kontext des theoretischen Teils u.a. zur Entwicklung der Altenhilfe, Pflegeversicherung und sozialen Infrastrukturversorgung betrachtet und vor den Konsequenzen des demographischen Wandels reflektiert. Mit den Untersuchungsergebnissen fordert der Autor, dass Alterung und Schrumpfung der Bevölkerung in Teilräumen als dominante Entwicklung nicht verleugnet werden darf, damit durch eine integrative Gesamtsicht einer auch sozial nachhaltigen Raumentwicklung die pflegespezifische Forderung nach einem möglichst selbstbestimmten und selbständigen Leben (im eigenen Haushalt) gewahrt und das Grundrecht auf Würde auch pflegebedürftiger Menschen gewährleistet bleibt.Dazu wird vorgeschlagen, mit einer modernen Regionalforschung, die durch hochauflösende Datenerfassung, neuen explorativen statistischen Analysemethoden und in Verbindung mit aussagekräftigen Visualisierungsverfahren ein qualifiziertes Monitoring- und Analysesystem für die Raumbeobachtung aufzubauen, um Problemregionen rechzeitig identifizieren und Planungen zeitnah initiieren zu können.
Verbundverhalten von GFK-Bewehrungsstäben und Rissentwicklung in GFK-stabbewehrten Betonbauteilen
(2004)
In der vorliegenden Arbeit werden im Rahmen von Ausziehversuchen die Verbundeigenschaften verschiedener Bewehrungsstäbe aus glasfaserverstärkten Kunststoffen (GFK) unter Berücksichti-gung signifikanter Einflussgrößen auf das Verbundverhalten wie Oberflächenprofilierung der Stäbe, Stabdurchmesser, Betonfestigkeit, Verbundlänge sowie Beanspruchungsart unter einheitlichen Versuchsrandbedingungen bestimmt. Es erfolgt eine Bewertung der Einflussgrößen, der Verbundeigenschaften und des Verbundversagens der untersuchten GFK-Bewehrungsstäbe. Basierend auf der Modellbildung zum Verbund zwischen GFK-Stäben und Beton wird die Bestimmung der Verankerungslänge aufgezeigt. Im Rahmen von Versuchen an GFK-stabbewehrten Dehnkörpern und Balken wird die Auswirkung der spezifischen mechanischen Eigenschaften der GFK-Stäbe auf die Rissentwicklung gegenüber stahlbewehrten Bauteilen untersucht. Insbesondere wird betrachtet, welchen Einfluss das Bewehrungsmaterial, der Bewehrungsgrad, die Betonfestigkeit sowie die Belastungsart auf die Mitwirkung des Betons auf Zug zwischen den Rissen sowie auf die Entwicklung des Rissbildes, der Rissbreiten und der Rissabstände haben. Auf Grundlage der experimentellen Untersuchungen wird die Übertragbarkeit der für Stahlbetonbauteile üblichen Ansätze zur Bestimmung der Rissbreite auf GFK-stabbewehrte Betonbauteile bewertet.
Gegenstand der Arbeit ist die Untersuchung der bei der Herstellung von Branntkalk-Boden-Säulen auftretenden thermischen Effekte und ihres Einflusses auf Wasser- und Wasserdampftransporte im Boden. Die Erwärmung beruht vorrangig auf einer chemischen Reaktion, bei der das dem Boden zugemischte Calciumoxid mit Bodenwasser unter Freisetzung von Wärmeenergie zu Calciumhydroxid reagiert. Hierzu wurden zunächst die thermischen Eigenschaften feinkörniger Böden und ihre Beeinflussung durch das Herstellen des Bindemittel-Boden-Gemisches in situ untersucht. Weiterhin wurden Untersuchungen zum zeitlichen Verlauf der chemischen Reaktion und zur Größe der dabei freigesetzten Reaktionswärme vorgenommen. Mit dem Vorhaben, die mit der Säulenherstellung einhergehenden Temperaturfeldänderungen zu erfassen, wurden danach die thermischen Anfangs- und Randbedingungen des Bodens und der Bodenoberfläche untersucht und festgelegt. Anschließend wurden die zeitabhängigen Temperaturfeldänderungen auf der Grundlage der Wärmeübertragung durch Wärmeleitung mit Hilfe des Finite-Elemente-Methode Programms Ansys® 6.1 numerisch simuliert. Das Finite-Elemente-Modell wurde durch die Nachrechnung von Feldversuchen verifiziert. Im Rahmen der Finite-Elemente-Berechnungen wurde die infolge der Hydratation des Branntkalkes stattfindende Erwärmung des Bindemittel-Boden-Gemisches und des angrenzenden Bodens simuliert und hinsichtlich relevanter Einflussgrößen überprüft. Untersucht wurde der Einfluss herstellungsbedingter Faktoren wie Bindemittelkonzentration, Säulendurchmesser und Säulenanordnung sowie der Einfluss natürlicher Faktoren wie Trockendichte und Sättigungsgrad des Bodens. Die mit Hilfe der Finite-Elemente-Methode ermittelten zeitabhängigen, im Boden auftretenden Temperaturgefälle bilden die Grundlage für die Untersuchung der thermisch bedingten Wassertransportvorgänge in der Stabilisierungssäule und deren Umfeld. Zu diesem Zweck wurde die durch die Temperaturfeldbeeinflussung geänderte energetische Situation des Bodenwassers analysiert. Auch nicht-thermische, infolge der Säulenherstellung auftretende Effekte wie die durch den >Stopfeffekt< bedingte lokale Sättigungsänderung und die Beeinflussung des osmotischen Potentials einschließlich der daraus resultierenden Wasserbewegungen wurden berücksichtigt. Alle thermisch verursachten Wasser- und Dampfflüsse bewirken ein Abströmen von Porenwasser aus dem stabilisierten Erdkörper in den umliegenden Boden. Baupraktisch bleiben die durch thermische Einflüsse hervorgerufenen Wassertransportvorgänge aufgrund ihres geringen Betrages jedoch unbedeutend. In abschließenden Temperaturfeldberechnungen wurden die thermischen Bodenkennwerte an die sich zeitlich verändernde Wassersättigung des Bodens angepasst. Anhand der ermittelten Temperaturverläufe wurde aufgezeigt, dass der Einfluss der Sättigungsänderung auf die Berechnungsergebnisse sehr gering ist, und damit die Voraussetzung für die vorangegangene entkoppelte Betrachtung des Wärme- und Massestromes erfüllt ist. Aufgrund dieser Ergebnisse muss der mehrfach in der Literatur zitierte, auch mit der tiefgründigen Bodenstabilisierung in Zusammenhang gebrachte, Einfluss der Erwärmung auf die Verdunstung des Bodenwassers kritisch betrachtet und in Frage gestellt werden. Voraussetzung hierfür ist der Transport von Wasser an die Bodenoberfläche. Nennenswerte, auf Temperatureinflüssen beruhende Wasserbewegungen sind, wie die Berechnungsergebnisse gezeigt haben, nicht zu erwarten. Weitere Untersuchungen zur Festigkeitsentwicklung von Branntkalk-Boden-Säulen und deren Vorhersage sollten sich daher auf die mechanischen Effekte und auf die mineralogisch-chemischen Prozesse, wie die puzzolanischen Reaktionen, und die Möglichkeiten ihrer Prognose konzentrieren. Die Berechnungen haben gezeigt, dass die Temperaturentwicklung in der Stabilisierungssäule im Wesentlichen durch die Bindemittelkonzentration, und ihr Auskühlungsverhalten vorrangig durch ihre geometrischen Abmessungen bestimmt wird. Diese Sachverhalte sind von den Bodenparametern, der für die Stabilisierung in Frage kommenden Böden, weitestgehend unabhängig. Temperaturmessungen stellen daher ein geeignetes Mittel zur Qualitätssicherung bei der Herstellung von Branntkalk-Boden-Säulen dar, mit deren Hilfe sich Inhomogenitäten bei der Bindemittelverteilung oder Störungen beim Hydratationsvorgang (Ablöschen des Branntkalkes) nachweisen lassen. Entsprechende Hilfsmittel wurden angegeben.
Zwischen den Jahren 1920 und 1930 kam es an der kalifornischen Küste zu Bauschäden an Brücken und Fahrbahnen, die sich vor allem in einer deutlichen Rissbildung äußerten. Seither werden immer wieder Bauschäden beschrieben, deren Ursache in der Reaktion von Zuschlägen, die „reaktive“ Kieselsäure enthalten, mit der Porenlösung des Betons zu sehen ist. Diese Reaktion wird als Alkali-Kieselsäure Reaktion (AKR) bezeichnet. Seit der ersten Veröffentlichung von Stanton über die „alkali-aggregate reaction“ an opalhaltigen Zuschlägen sind hunderte von Forschungsarbeiten zu diesem Thema durchgeführt und deren Ergebnisse veröffentlicht worden. Trotz eingehender Forschung seit mehr als 8o Jahren ist weder der Mechanismus der AKR vollständig geklärt noch eine eindeutige Voraussage über die Gefährdung von Bauwerken oder Bauteilen mit potentiell AKR-empfindlichen Zuschlägen möglich. Das liegt vor allen Dingen daran, das es sich bei der AKR um eine Reaktion handelt, die aus einer komplexen Abfolge chemischer und physikalischer Prozesse besteht, die in ihrer Gesamtheit zu einer Schädigung von Beton bzw. Betonbauteilen und Bauwerken führen können. Eine geschlossene Beschreibung und Behandlung dieser Reaktion ist nicht möglich, solange keine befriedigende Kenntnis über den Ablauf der einzelnen Schritte vorliegt. Dazu bedarf es grundsätzlicher Untersuchungen der einzelnen chemischen und physikalischen Reaktionsschritte sowie einer möglichst quantitativen Bewertung der verschiedenen Einflussfaktoren. Grundsätzlich gibt es weltweit eine ganze Reihe von Richtlinien und Normen , die dazu verhelfen sollen, Schädigungen an Bauwerken durch AKR zu verhindern. In Deutschland ist das momentan gültige Regelwerk die sogenannte Alkali-Richtlinie des deutschen Ausschusses für Stahlbeton (DAfStb). Sie dient zur Beurteilung von Zuschlag nach DIN 4226 [6, 7, 8] mit alkaliempfindlichen Bestandteilen. Dabei bezieht sich der Teil 2 der Richtlinie auf Zuschläge mit Opalsandstein, Kieselkreide und Flint aus bestimmten Gewinnungsgebieten. Hier wird eine reine Zuschlagprüfung gefordert. Teil 3 der Richtlinie bezieht sich auf präkambrische Grauwacken und andere alkaliempfindliche Gesteine. Gefordert werden hier Prüfungen der Zuschläge selbst sowie Prüfung an Betonbalken und 30er Würfeln in der Nebelkammer. Für die meisten in der Richtlinie genannten Zuschläge bilden die Prüfungen und Vorschriften eine ausreichende Sicherheit, um eine AKR zu vermeiden. Dennoch treten immer wieder Schäden mit Zuschlägen auf, die nach der Alkali-Richtlinie als unempfindlich eingestuft werden müssten. Dabei handelt es sich in der Regel um Schadensfälle, die erst nach mehreren Jahren mit spät reagierenden AKR-empfindlichen Zuschlägen auftreten. Zu diesen Zuschlägen, die gegebenenfalls speziell im Nebelkammertest innerhalb von neun Monaten keine signifikante Dehnung (<0,6mm/m) aufweisen, gehören Stressquarze, Kieselkalk, Granit, Porphyr, Kieselschiefer und Grauwacke. Die vorliegende Arbeit dient speziell der Beurteilung und Einordnung von unterschiedlichen kristallinen Quarzmodifikationen sowie der Ermittlung geeigneter Untersuchungsmethoden für die Beurteilung der AKR-Empfindlichkeit von Quarz.
Die ein- und zweidimensionale numerische Berechnung der Fließvorgänge in offenen Gerinnen findet zunehmend auch Anwendung in der Modellierung immer komplexerer Prozesse im unter Anderem im Bereich der Ökosystemmodellierung in Gebirgs- und Mittelgebirgsbächen. In diesem Bereich existieren zurzeit noch Probleme hinsichtlich der hydraulischen Prognoserechnungen. Neben den numerischen Grundlagen werden die Abhängigkeiten des Strömungsfeldes von der Rauheitsstruktur der Sohle und der Überdeckungshöhe behandelt. Zur Untersuchung der Fließwiderstandsgleichungen wurden Laborversuche in einer Versuchsrinne durchgeführt. Es wird gezeigt, dass der üblicherweise verwendete Ansatz des mittleren Sohlgefälles bei der Berechnung der Sohlschubspannungsgeschwindigkeit u* in Stufen-Becken-Sequenzen nicht zulässig ist. Stattdessen ist es erforderlich, die lokalen Energieliniengefälle zu bestimmen und einzusetzen. Die Anwendung der aus der Literatur bekannten Ansätze zur Beschreibung des Fließwiderstandes führt zu keinen befriedigenden Ergebnissen und wird ausführlich diskutiert. In der Untersuchung der verschiedenen Fließwiderstandsbeziehungen zeigte sich, dass insbesondere die ungenügende Beschreibung der Rauheitstruktur der Sohloberfläche durch einen charakteristischen Korndurchmesser des Sohlmaterials als unzureichend anzusehen ist. Hinsichtlich der Beschreibung rauer Oberflächenstrukturen wurde ein einfacher Segmentierungsalgorithmus entwickelt, der es erlaubt, komplizierte Oberflächenstrukturen zu vereinfachen und über die Standardabweichung abschnittsweise Rauheiten zuzuweisen. Dieses Verfahren wird in einem zweidimensionalen hydraulischen Modell eingesetzt. Hierdurch wird für die Wassertiefenbestimmung als auch für die Fließgeschwindigkeitsbestimmung eine Berücksichtigung der speziellen topographischen Verhältnisse ermöglicht.
Seit ihren Anfängen im ausgehenden 19. Jh. ist der brandenburgischen Hausforschung ein Phänomen in der Entwicklung des ländlichen Wohnhauses bekannt, das in der vorliegenden Arbeit als Typenwandel bezeichnet wird: Zahlreiche Landschaften der ehemaligen Kurmark Brandenburg wurden bis in das 18. Jh. hinein von einem giebelständigen Haustyp - dem sogenannten Märkischen Mittelflurhaus - geprägt. Im Verlauf des 18. und 19. jh. wurde dieser von einem traufständigen Haustyp - dem sogenannten Mitteldeutschen Ernhaus - >verdrängt<. Dieser Typenwandel ist wie jeder Wandel einer tradierten Hausform auf einen Komplex verschiedener Faktoren und Einflussgrößen zurückzuführen. Über diese Faktoren und Einflussgrößen bestehen in der bisherigen regionalen Hausforschung folgende Thesen: Zum einen wird angenommen, dass das Vorbild der im Rahmen der friderizianischen Kolonisation seit der Mitte des 18. Jh. zahlreich erbauten, traufständigen Kolonistenhäuser diesen Typenwandel beeinflusst oder ausgelöst habe. Zum anderen seien die baupolizeilichen Vorschriften und der Einfluss der preußischen Landbauschule - vertreten durch das Oberbaudepartement - ein auslösender oder beschleunigender Faktor gewesen. Aufgabe der Untersuchung ist es, diese Thesen anhand eines geeigneten Untersuchungsgebietes zu diskutieren. Als solches eignete sich das Oderbruch insbesondere, weil es das größte zusammenhängende Siedlungsgebiet auf deutscher Seite darstellt, das unter der Regentschaft Friedrichs des Großen kolonisiert wurde, und seine allmähliche Trockenlegung seit der Mitte des 18. Jh. von intensiven obrigkeitlichen Eingriffen begleitet war. Mit der zusätzlichen Abgrenzung der untersuchten Hausformen auf diejenigen der ländlichen Mittelschicht, d.h. auf die Häuser der Bauern, Fischer und Kossäten, basiert die zentrale stratigrafische Untersuchung des Wandlungsprozesses einerseits auf durch die Autorin selbst erarbeiteter Bauforschung am rezenten Hausbestand und andererseits auf der Auswertung umfangreichen Archivmaterials. Der durch zahlreiche Übergangsformen nachweisbare Prozess der Herausbildung des jüngeren Haustyps aus dem älteren Haustyp heraus widerlegt die bisherige Annahme, dass der Typenwandel lediglich eine Grenzverschiebung zwischen den geografischen Verbreitungsgebieten zweier frühneuzeitlicher Haustypen gewesen sei. Die archivalische Überlieferung zur friderizianischen Kolonisation, zum ländlichen Baugeschehen im ausgehenden 18. und beginnenden 19. Jh. sowie zur obrigkeitlichen Reglementierung des >Unterthanenbauwesens< erbringt den eindeutigen Nachweis, dass weder das Vorbild der Kolonistenhäuser noch irgendeine Form der obrigkeitlichen Einflussnahme für den Wandel vom giebelständigen zum traufständigen Haustyp von Bedeutung waren. Vielmehr erweisen sich die Auswirkungen der Agrarreformen auf die bäuerlichen Betriebe als der ausschlaggebende Faktor für den Typenwandel. Die bisher angewandten Begriffe zur Bezeichnung der Haustypen stellen sich im Ergebnis der Untersuchung nicht nur als irreführend sondern falsch heraus. Die Arbeit eröffnet deshalb eine Debatte zur Neudefinition der Typenbegriffe innerhalb der regionalen Hausforschung.
Das Langzeittragverhalten von Stützen aus Holz wird entscheidend von der Größe der Dauerlast und dem umgebenden Klima beeinflusst. Im Gegensatz zu Biegeträgern haben diese Effekte auch Einfluss auf den Grenzzustand der Tragfähigkeit und sind unmittelbar Gegenstand von Sicherheitsaspekten. Der Eurocode 5 beachtet dies überhaupt nicht, während in DIN 1052 (2004:08) Hinweise zur Bemessung gegeben sind. Da der Baustoff Holz infolge seines Wuchscharakters stark streuende Materialparameter aufweist, ist es kaum möglich, Experimente in ausreichendem Umfang durchzuführen. Gegen eine solche experimentelle Untersuchung sprechen auch die zu erwartenden hohen Kosten sowie die langandauernden Versuche unter Klimabeanspruchung. Aus diesem Grund wird auf virtuelle Versuche mit Hilfe des Computerprogramms ISOBEAM zurückgegriffen. Dazu sind allerdings abgesicherte Materialmodelle wichtig, die hier an Experimenten mit Klein- und Kleinstproben sowie mit Versuchkörpern baupraktisch relevanter Abmessungen angepasst wurden. Mit diesem verifizierten Modell war es möglich, gezielt Parameterstudien durchzuführen. Der Einfluss der Einbauholzfeuchte auf das hygrothermische Langzeittragverhalten wurde genauso untersucht wie der der Nutzungsklasse und der Querschnittsabmessungen. Die Ergebnisse der virtuellen Versuche dienten zum einen der Überprüfung der Vorgehensweise nach DIN 1052 (2004:08) und zum anderen zur Anpassung neuer Vorschläge zur Bemessung. Es wurde Wert darauf gelegt, dass sich die Vorschläge neuer Bemessungskonzepte an die bestehenden normativen Bemessungsregeln anlehnen. Zum einen wurde das Bemessungsverfahren nach Theorie II. Ordnung um eine weitere Ausmitte zur Berücksichtigung des Kriechens ergänzt, zum anderen wurde beim Ersatzstabverfahren der Beiwert entsprechend modifiziert. Alternativ ist es möglich, den Modifikationsbeiwert neu an die virtuellen Versuchsergebnisse anzupassen. Die Einbauholzfeuchte wurde ebenfalls über einen zusätzlichen Modifikationsfaktor berücksichtigt.
Neben dem Schwerpunkt der Verflüssigung werden auch Zusatzmittel benötigt, die extrem lange Verarbeitbarkeitszeiten des Betons ermöglichen. Eine neue Wirkungsgruppe, durch die Verarbeitbarkeitszeiten von über 90 Stunden er-reicht werden können, sind Langzeitverzögerer (LVZ) auf der Basis von Phosphonsäure. In systematischen Versuchen wurden grundlegende Erkenntnisse über die Wirkungsmechanismen von LVZ auf die Hydratation gewonnen. Es hat sich gezeigt, dass die verzögernde Wirkung von LVZ auf die Bildung von schwer löslichem Calciumphosphonat zurückzuführen ist, welches die Partikeloberflächen žabdichtetœ. Vom Angebot an gelöstem Calcium hängt es ab, ob sich das žabdichtendeœ Calciumphosphonat direkt bildet oder ob durch den Calciumanspruch des LVZ eine kurzzeitig verstärkte Hydratation reaktiver Klin-kerphasen hervorgerufen wird. Sulfatoptimierte Zemente wiesen aufgrund der Anteile an Sulfatträger genüge! nd Calcium-Ionen für eine sofortige Bildung von Calciumphosphonat auf. In Verbindung mit der Bildung von primärem Ettringit bildet die Sulfatträgeroptimierung die Grundlage für die erwünschte Wirkungsweise des Zusatzmittels.
In der Dissertation wurden unterschiedliche Methoden zur Standortidentifizierung mit Oberflächenwellen analysiert. Es wurden neue Methoden zur Parameteridentifikation unter Nutzung von Oberflächenwellen vorgeschlagen. Die Ziele der Arbeit können wie folgt definiert werden: a) Die Entwicklung eines geeigneten theoretischen Modells als Grundlage zur Untersuchung des Standortes hinsichtlich vorhandener Bodensteifigkeiten. b) Die Entwicklung einer neuen Inversionsmethodik unter Berücksichtigung aller auftretenden Moden im Oberflächenwellenfeld. Die Erstellung eines Modells des vertikal heterogenen Untergrundes erfolgte im Frequenz-bereichs für beliebig geschichtete Böden, aufbereitet durch weitestgehend analytische Formulierungen. Durch Nutzung beliebiger horizontaler, elastisch-isotroper Schichten konnte die vertikale Heterogenität approximiert werden. Die Definition der Green'schen Funktionen wurde in Form der Reflexions- und Transmissionskoeffizienten durchgeführt. Die Lösung des formulierten Halbraumproblems erfolgte unter Verwendung der Konturintegration. Dazu wurde die Vorgehensweise der bestehenden Lösung des homogenen Halbraums auf das Problem des geschichteten Mediums übertragen. Die daraus sich ergebende Lösung ist in ein Körperwellen- und ein Oberflächenwellenfeld separiert. Der Vorteil dieser analytischen Betrachtungsweise liegt in der eindeutigen Zuordnungsmöglichkeit der erhaltenen Lösungen zu Wellentypen und in der klaren Dispersionscharakteristik der berechneten Modelle. Im Gegensatz dazu liefern numerische Lösungen, wie FEM, immer ein Wellenfeld, in dem die Wellentypen zugeordnet bzw. interpretiert werden müssen. Mit Hilfe der synthetischen Bodenmodellierung wird das Verhalten von geschichteten Böden bei durchlaufenden Oberflächenwellenfeldern simuliert und untersucht. Für die Untersuchung der Profile wurde hauptsächlich die Modale Superposition von Oberflächenwellen und die Wellenzahl-Integration verwendet. Bei der Analyse von Oberflächenwellenfeldern in vorhandenen Medien sind abweichend von den üblichen seismischen Methoden spezielle Untersuchungsmethoden zur Ermittlung der vorhandenen Dispersion notwendig. Zur Durchführung der Dispersionsanalyse wird in geotechnischen Untersuchungen in der Regel das Phasen-Differenzen-Verfahren (SASW) genutzt. Aufgrund der beschränkten Aussagefähigkeit dieses Verfahrens zu auftretenden höheren Moden werden verbesserte Analysemethoden zur experimentellen Auswertung hinzugezogen. Diese Methoden nutzen zur Informationsgewinnung das räumlich ausgedehnte Wellenfeld. Ausgehend von dem Dispersionsverhalten kann die Bodenstruktur mittels inverser Methoden bestimmt werden. Für die gemeinsame Inversion der in den Messungen vorhandenen Moden wurde ein entsprechendes Inversionsverfahren abgeleitet. Als Grundlage der Inversion wurde ein Verfahren des kleinsten Fehlerquadrates gewählt. Der Vorteil hinsichtlich einer effizienten und stabilen Inversion unter Nutzung dieser Methodik überwiegt den Nachteil der lokalen Suche nach dem Fehlerminimum. Zum Erreichen der stabilen und zielgerichteten Inversion wird der Levenberg-Marquardt Algorithmus, zusammen mit der Wichtung der Dispersionsäste entsprechend ihres Anregungsverhaltens in den Dispersionsspektren, eingesetzt. Von Vorteil hat sich innerhalb der Arbeit die gleichzeitige Behandlung von theoretischen und experimentellen Parameterstudien erwiesen, da sich Ergebnisse und Erkenntnisse beider Seiten ergänzten. Eine Interpretation von Felddaten kann damit weitaus sicherer durchgeführt werden. Zusätzlich konnten die erarbeiteten experimentellen und theoretischen Verfahren gegenseitig überprüft werden.
Numerische Berechnung von Mauerwerkstrukturen in homogenen und diskreten Modellierungsstrategien
(2004)
Im Zentrum der Arbeit stehen die Entwicklung, Verifikation, Implementierung und Leistungsfähigkeit numerischer Berechnungsmodelle für Mauerwerk im Rahmen der Kontinuums- und Diskontinuumsmechanik. Makromodelle beschreiben das Mauerwerk als verschmiertes Ersatzkontinuum. Mikromodelle berücksichtigen durch die Modellierung der einzelnen Steine und Fugen die Struktur des Mauerwerkverbandes. Soll darüber hinaus der durch die Querdehnungsinteraktion zwischen Stein und Mörtel hervorgerufene heterogene Spannungszustand im Mauerwerk abgebildet werden, so ist ein detailliertes Mikromodell, welches Steine und Fugen in ihren exakten geometrischen Dimensionen berücksichtigt, erforderlich. Demgegenüber steht die vereinfachte Mikromodellierung, bei der die Fugen mit Hilfe von Kontaktalgorithmen beschrieben werden. Im Rahmen der Makromodellierung werden neue räumliche Materialmodelle für verschiedene ein- und mehrschalige Mauerwerkarten hergeleitet. Die vorgestellten Modelle berücksichtigen die Anisotropie der Steifigkeiten, der Festigkeiten sowie des Ver- und Entfestigungsverhaltens. Die numerische Implementation erfolgt mit Hilfe moderner elastoplastischer Algorithmen im Rahmen der impliziten Finite Element Methode in das Programm ANSYS. Innerhalb der detaillierten Mikromodellierung wird ein neues, aus Materialbeschreibungen für Stein, Mörtel sowie deren Verbund bestehendes nichtlineares Berechnungsmodell entwickelt und in das Programm ANSYS implementiert. Die diskontinuumsmechanische Beschreibung von Mauerwerk im Rahmen der vereinfachten Mikromodellierung erfolgt unter Verwendung der expliziten Distinkt Element Methode mit Hilfe der Programme UDEC und 3DEC. An praktischen Beispielen werden Probleme der Tragfähigkeitsbewertung gemauerter Bogenbrücken, Möglichkeiten zur Bewertung vorhandener Rissbildungen und Schädigungen an historischen Mauerwerkstrukturen und Traglastberechnungen an gemauerten Stützen ausgewertet und analysiert.
Gegenstand dieser Arbeit ist es zu zeigen, ob die Anwendung der Methode der Finiten Elemente für die Berechnungen von aussteifenden Wandkonstruktionen in Holzrahmen- bzw. Holztafelbauweise richtige und verallgemeinerbare Ergebnisse liefert und damit: · zur Bemessung von Konstruktionen dienen kann, · die Nachrechnung bestehender Konstruktionen mit von der Norm abweichenden Ausführungsdetails erlaubt und · einen Ersatz für 1:1-Versuche an Wandscheiben darstellt. Die Ergebnisse lassen sich wie folgt zusammenfassen: Unter den derzeitigen Bedingungen stellt die Methode der Berechnung mit Finiten Elementen für die Bemessung von Ein- und Zweirastertafeln, vor allem für die bautechnische Praxis, keine sinnvolle Alternative zu den in den Normen genannten Berechnungsverfahren dar. Für Ein- und Zweirastersysteme sind die Nachweisverfahren der DIN 1052 bzw. des Eurocode 5 ausreichend. Sie können durch das Berechnungsverfahren nach KESSEL sinnvoll ergänzt werden. Die Drucklastverteilung in den Vertikalrippen wird jedoch nur unzureichend erfasst. Für Konstruktionen wie die in dieser Arbeit untersuchte Mehrrastertafel stehen derzeit keine geeigneten Berechnungsverfahren zur Verfügung. Die Anwendbarkeit der FE-Methode für die Nachrechnung bestehender Konstruktionen mit von der Norm abweichenden Konstruktionsdetails konnte in dieser Arbeit nicht nachgewiesen werden. Für die FE-Modellbildung von Wandscheiben des Holzrahmenbaus wurden verschiedenen Detaillösungen gezeigt. Es wurde gezeigt, welche Konstruktionsdetails der Wandscheiben signifikante Auswirkungen auf das Gesamttragverhalten haben. Die FE-Methode kann in der in dieser Arbeit verwendeten Form zur Vorbereitung von Versuchen an 1:1-Modellen dienen und wertvolle Hinweise zum Einfluß verschiedener Konstruktionsdetails auf das Gesamttragverhalten der Wandtafel liefern, um gezielt Veränderungen vornehmen zu können. Insofern stellen Berechnungen mit der FE-Methode eine sinnvolle Ergänzung dar.
Eine Geschichte des Blitzableiters. Die Ableitung des Blitzes und die Neuordnung des Wissens um 1800
(2005)
Die Arbeit geht im Wesentlichen zwei Fragenkomplexen nach. Zum einen wird danach gefragt, inwiefern sich Franklins Erfindung auf die Wahrnehmung des dem Blitzereignis inhärenten Risiko für Hab und Gut bzw. Leib und Leben auswirkt, zum anderen danach, inwiefern diese Erfindung das Verhältnis der Menschen zu sich selbst, seiner Vergangenheit und Zukunft verändert hat. (1) Anhand der Betrachtung von Projektemachern, die durch die Aufstellung einer Vielzahl ‚meteorologischer Maschinen’ gewitterfreie Zonen schaffen wollen, wird deutlich, dass diese eine umfassende Beherrschung der Natur verwirklichen wollen. (2) In theologischer und ästhetischer Hinsicht macht die Rezeptionsgeschichte des Blitzableiters augenfällig, dass in seinem Gefolge ein Wahrnehmungswandel zu beobachten ist, bei dem einerseits nunmehr auch in der Rezeption katastrophischer Naturereignisse das negative Deutungsmuster einer natura lapsa zugunsten einer optimistischen Naturwahrnehmung verabschiedet wird. (3) In gesellschaftspolitischer Hinsicht zeigt die Rezeption des Blitzableiters auf, dass sich die Ablehnung der franklinschen Erfindung auch als Abwehr ihrer ordnungspolitischen Konsequenzen auf das Gesellschaftsmodell begreifen lässt. In zahlreichen Kontroversen um den Blitzableiter entfalten seine antagonistischen gesellschaftspolitischen Resonanzen eine immense politische Sprengkraft, wobei es letztlich um die Frage geht, ob die Pflicht und Recht der Fürsorge für das Leib und Gut der Individuen bei diesem selbst oder bei staatlichen und kirchlichen Autoritäten anzusiedeln sind. (4) In Anknüpfung an die seit der Antike bestehende gedankliche Verbindung von Lebensenergie und Elektrizität entzündet sich zudem ein Diskurs, in dem die Frage nach dem Anfangs- und Endpunkt des Lebens verhandelt wird. So lassen scheinbare Wiederbelebungen qua Elektrizität die Frage virulent werden, ob der Prometheus-Mythos experimentalwissenschaftlich in Erfüllung gebracht werden könne.
In der Dissertation werden die Unsicherheiten von Baugrundkenngrößen für die Erstellung von geologischen Halbraummodellen auf der Grundlage geostatistischer Methoden entgegen dem bislang üblichen Herangehen mit einbezogen. Infolge der unsicheren Kenngrößen ist das abgeleitete Halbraummodell aus unsicheren geologischen Homogenbereichen zusammengesetzt. In einem probabilistischen Sicherheitsnachweis werden die unsicheren Parameter der Grenzzustandsgleichung und das unsichere geologische Modell gemeinsam betrachtet. Die geostatistischen Methoden sind unterteilt in die experimentelle und theoretische Variographie sowie das Kriging. Die Berücksichtigung von unsicheren Eingangskenngrößen für die geologische Modellbildung führt zu Variogrammfunktionen mit unsicheren Parametern. Bis zum experimentellen Variogramm sind die Variogrammparameter und deren Unsicherheit analytisch nachvollziehbar beziehungsweise abschätzbar. In den weiteren Teilschritten der geostatistischen Modellbildung ist der Einfluss unsicherer Kenngrößen auf Teilergebnisse nur numerisch nachzuvollziehen. Für die umfangreichen Simulationen stand keine Software zur Verfügung. Als Teilleistung dieser Arbeit wurde hierfür die eigenständige Anwendung „GeoStat“ erstellt. Sie ermöglicht die Berechnung und Auswertung der Fortpflanzung von Unsicherheiten auf numerischem Weg in beliebigen Teilschritten bis hin zur geologischen Modellbildung. Mit dem Übergang vom experimentellen zum theoretischen Variogramm sind wesentliche Zusammenhänge zwischen der Unsicherheit der Kenngrößen und der Unsicherheiten der Parameter für das sphärische, das exponentielle und das Gauß’sche Modell mit den Ergebnissen aus GeoStat ableitbar. Der Schwellenwert dieser Funktionen ist proportional zur relativen Kenngrößenunsicherheit. Eine Abschätzung der oberen Schranke des Schwellenwertes und dessen Unsicherheit wird angegeben. Die Reichweite ist ein charakteristischer Kennwert des Untersuchungsgebietes. Die Parameterunsicherheiten der Variogrammfunktionen wirken sich in Relation zur Kenngrößenunsicherheit nur gering auf den Prognosewert am unbeprobten Ort infolge des Kriging aus. Die Varianz des Prognosewertes ist geringer als die Kenngrößenvarianzen, aber nicht vernachlässigbar klein. Es ist grundsätzlich zu unterscheiden, ob die Kenngrößenvarianzen ausschließlich durch unsichere Parameter der theoretischen Variogrammfunktion repräsentiert oder deren Eigenvarianzen zusätzlich im Kriging berücksichtigt werden. Mit der alleinigen Berücksichtigung der unsicheren theoretischen Variogrammparameter wird die Standardabweichung der Krigingprognose unterschätzt. Sie haben maßgeblichen Einfluss auf die Krigingvarianz als Modellvarianz und deren Standardabweichung. Mit der Einbeziehung der Kenngrößenunsicherheiten kann die Standardabweichung der Prognose realistischer simuliert werden. Sie hat keinen direkten Einfluss auf die Krigingvarianz. Der abgeleitete Unsicherheitsplot, ein Resultat dieser Arbeit, kombiniert die Modellunsicherheit des Krigings und die Varianz des Prognosewertes im unbeprobten Untersuchungsgebiet auf der Grundlage des Varianzenfortpflanzungsgesetzes. Für geotechnische Sicherheitsnachweise ist neben der Informationsdichte auch die Optimierung des geologischen Modells wesentlich. Dieses ist vom auszuwertenden Grenzzustand auf der Grundlage eines Sicherheitsnachweises abhängig, so dass vor der geostatistischen Baugrundmodellierung die Sensitivität der in den Grenzzustand eingehenden Kenngrößen zu untersuchen ist. Es hat sich gezeigt, dass die Erhöhung der Datengesamtheit für die geologische Modellbildung nur dann sinnvoll ist, wenn parallel die Unsicherheit der relevanten Kenngrößen im Sicherheitsnachweis innerhalb der unsicheren Homogenbereiche reduziert wird. Für den Referenzstandort führen äquivalent zur Berücksichtigung der unsicheren Steifemoduln die unsicheren Halbraummodelle zur erheblichen Zunahme der erforderlichen Fundamentabmessungen. Die Unsicherheit der Steifemoduln war maßgebender als die Unsicherheiten des Halbraummodells, obwohl die Datenbasis für die geostatistische Modellierung gering war. Bisher werden in probabilistischen Sicherheitsnachweisen zwar unsichere Kenngrößen, jedoch deterministische geologische Modelle betrachtet. Die unsicheren Kenngrößen innerhalb der Homogenbereiche eines geologischen Modells haben im aufgezeigten Sicherheitsnachweis zwar den maßgebenden Einfluss, doch sind die Unsicherheiten im geologischen Modell nicht zu vernachlässigen. Wege und Grenzen der Berücksichtigung dieses kombinierten Einflusses werden mit dieser Arbeit untersucht und aufgezeigt. Das Anwendungsbeispiel zeigt, dass die optimale geologische Modellbildung spezifisch für den Sicherheitsnachweis vorzunehmen ist. Werden die Unsicherheiten der Kenngrößen innerhalb der Homogenbereiche und unsicheren geologischen Modelle berücksichtigt, wird ein schärferes Abbild der Realität erreicht.
Der Planungsprozess im Konstruktiven Ingenieurbau ist gekennzeichnet durch drei sich zyklisch wiederholende Phasen: die Phase der Aufgabenverteilung, die Phase der parallelen Bearbeitung mit entsprechenden Abstimmungen und die Phase der Zusammenführung der Ergebnisse. Die verfügbare Planungssoftware unterstützt überwiegend nur die Bearbeitung in der zweiten Phase und den Austausch der Datenbestände durch Dokumente. Gegenstand der Arbeit ist die Entwicklung einer Systemarchitektur, die in ihrem Grundsatz alle Phasen der verteilten Bearbeitung und unterschiedliche Arten der Kooperation (asynchron, parallel, wechselseitig) berücksichtigt und bestehende Anwendungen integriert. Das gemeinsame Arbeitsmaterial der Beteiligten wird nicht als Dokumentmenge, sondern als Menge von Objekt- und Elementversionen und deren Beziehungen abstrahiert. Elemente erweitern Objekte um applikationsunabhängige Eigenschaften (Features). Für die Bearbeitung einer Aufgabe werden Teilmengen auf Basis der Features gebildet, für deren Elemente neue Versionen abgeleitet und in einen privaten Arbeitsbereich geladen werden. Die Bearbeitung wird auf Operationen zurückgeführt, mit denen das gemeinsame Arbeitsmaterial konsistent zu halten ist. Die Systemarchitektur wird formal mit Mitteln der Mathematik beschrieben, verfügbare Technologie beschrieben und deren Einsatz in einem Umsetzungskonzept dargestellt. Das Umsetzungskonzept wird pilothaft implementiert. Dies erfolgt in der Umgebung des Internet in der Sprache Java unter Verwendung eines Versionsverwaltungswerkzeuges und relationalen Datenbanken.
In der Arbeit wird ein räumliches Materialmodell für den anisotropen Werkstoff Holz vorgestellt. Dessen Leistungsfähigkeit wird durch Verifikationsrechnungen und die Simulation eigener Versuche aufgezeigt. In diesen Versuchen wurde das Tragverhalten spezieller Schubverbindungselemente der Brettstapel-Beton-Verbundbauweise untersucht. Die Kombination eines Brettstapels mit einer schubfest angeschlossenen Betonplatte ist eine vorteilhafte Möglichkeit, Schnittholz mit geringem Querschnitt effektiv in biegebeanspruchten Bauteilen einzusetzen. Es werden die Ergebnisse der experimentellen Untersuchungen zu den Schubverbindungselementen Flachstahlschloss und Nutverbindung vorgestellt. Diese zeichnen sich durch eine über die gesamte Plattenbreite kontinuierliche Übertragung der Schubkraft per Kontaktpressung aus. Vor allem in Brettstapel-Beton-Verbunddecken werden somit ein sehr hoher Verschiebungsmodul sowie eine eminente Tragfähigkeit erreicht. Um mit numerischen Strukturanalysen die in den Versuchen beobachteten Versagensmechanismen adäquat abbilden und realistische Prognosen für das Tragverhalten von Bauteilen oder Verbindungen treffen zu können, muss das physikalisch nichtlineare Verhalten aller beteiligter Baustoffe in die Berechnungen einbezogen werden. Im Rahmen der Dissertation wurde ein auf der Plastizitätstheorie basierendes Materialmodell für Nadelholz hergeleitet und in das FE-Programm ANSYS implementiert, welches die Mikrostruktur des Holzes als verschmierendes Ersatzkontinuum erfasst. Anhand des anatomischen Aufbaus des inhomogenen, anisotropen und porigen Werkstoffs werden die holzspezifischen Versagensmechanismen und die daraus abgeleiteten konstitutiven Beziehungen erläutert. Das ausgeprägt anisotrope Tragverhalten von Holz ist vor allem durch erstaunliche Duktilität bei Stauchung, sprödes Versagen bei Zug- und Schubbeanspruchung und enorme Festigkeitsunterschiede in den Wuchsrichtungen gekennzeichnet. Die Auswirkungen der größtenteils unabhängig voneinander auftretenden, mikromechanischen Versagensmechanismen auf die Spannungs-Verformungsbeziehungen wurden durch die Formulierung adäquater Ver- resp. Entfestigungsfunktionen in Abhängigkeit der Beanspruchungsmodi erfasst. Das dem Materialmodell zu Grunde liegende mehrflächige Fließkriterium berücksichtigt die Interaktion aller sechs Komponenten des räumlichen Spannungszustandes. Die durchgeführten Verifikations- und Simulationsberechnungen belegen, dass der erarbeitete Ansatz sowohl zur Bewertung des Tragvermögens als auch zur Beurteilung von Riss- bzw. Schädigungsursachen von Holzbauteilen eingesetzt werden kann. Die numerische Simulation eröffnet neue, bisher wenig beachtete Möglichkeiten zur Untersuchung komplexer Holzstrukturen sowie Anschlussdetails und wird sich auf Grund der Aussagekraft und Flexibilität auch im Ingenieurholzbau mehr und mehr gegenüber ausschließlich experimenteller Untersuchung durchsetzen.
Die vorliegende Arbeit hatte zum Ziel, für Strecken mit 2+1-Verkehrsführung (Straßentyp RQ 15,5) ein Verfahren zum Nachweis der Verkehrsqualität zu entwickeln. Dabei wurden in einem ersten Schritt zunächst für freie Streckenabschnitte Beziehungen zwischen den Verkehrsstärken (q) und den mittleren Pkw-Reisegeschwindigkeiten (v) ermittelt und darauf aufbauend ein Bemessungsverfahren abgeleitet. In einem zweiten Schritt wurde das Verfahren erweitert, um für den Fall der Einbindung planfreier Knotenpunkte ebenfalls eine Bewertung vornehmen zu können. Bislang standen in Deutschland keine ausreichenden Erkenntnisse über den Zusammenhang zwischen q und v für Strecken mit einem RQ 15,5 zur Verfügung. Eine Literaturanalyse ergab, dass sich frühere Untersuchungen mehrheitlich mit dem Aspekt der Verkehrssicherheit beschäftigten. Somit stellten die eigenen Messungen und die daran anschließende Ergänzung von Daten mit Hilfe einer mikroskopischen Verkehrsflusssimulation den Schwerpunkt der Untersuchung dar. Die empirischen Untersuchungen hatten - verglichen mit q-v-Beziehungen für herkömmliche Landstraßenabschnitte - ein zum Teil deutlich höheres Geschwindigkeitsniveau bei vergleichbaren Verkehrsstärken zum Ergebnis. Darüber hinaus konnten zum Teil wesentlich höhere Überholraten festgestellt werden als bei einbahnig zweistreifigen Streckenabschnitten, bei denen ein Überholen im Gegenverkehr erlaubt ist. Zweifellos tragen auch die zweistreifigen Abschnitte eines RQ 15,5 dazu bei, Fahrzeugpulks aufzulösen. Für die aus mehreren aufeinander folgenden ein- und zweistreifigen Abschnitten bestehenden Untersuchungsstrecken, konnte jedoch insgesamt keine bedeutsame Pulkauflösung festgestellt werden. Dies ist vor allem dadurch begründet, dass die Strecken mit einem einstreifigen Abschnitt endeten. Das Simulationsprogramm LASI2+1 wurde speziell auf die Simulation des Verkehrsablaufs auf einer Strecke mit 2+1-Verkehrsführung abgestimmt. Die Kalibrierung des Modells erfolgte auf Basis von Erkenntnissen lokaler Messungen (insbesondere Zeitlücken und Geschwindigkeitsverteilungen). Im Rahmen der Validierung erfolgte ein Abgleich zwischen den Ergebnissen der Messungen mit den mit LASI2+1 simulierten für jede einzelne nachgebildete Untersuchungsstrecke anhand der Parameter q und v. Mit LASI2+1 wurden zahlreiche Simulationsläufe durchgeführt, bei denen eine Vielzahl von Kombinationen der Streckenparameter sowie der Verkehrszusammensetzung bei einem möglichst breiten Spektrum von Verkehrsbelastungen betrachtet wurden. Die Ergebnisse lagen zunächst in „Punktwolken“ vor, wobei jeweils ein Punkt beschrieben wird durch eine in einem 5-Minuten-Intervall gültige Verkehrsstärke q und der zu diesem Intervall gehörigen mittleren Reisegeschwindigkeit der Pkw v. Zur Darstellung der den Verkehrsablauf beschreibenden Punktwolken wurden verschiedene makroskopische Modelle getestet. Dabei wurden ein- und zweistreifige Abschnitte getrennt voneinander betrachtet. Nach Anwendung mathematischer Verfahren zur Kurvenanpassung ergaben für die einstreifigen Abschnitte Wurzelfunktionen die besten Näherungen zur Beschreibung der Zusammenhänge zwischen q und v. Für die leicht konvexen Ausprägungen in den q-v-Punktwolken der zweistreifigen Abschnitte lieferten lineare Funktionen, die über Verkehrsdichte (k)-Geschwindigkeits-Relationen hergeleitet wurden, die besten Ergebnisse. Mit Hilfe von varianzanalytischen Berechnungen konnten außerdem die Einflüsse der verschiedenen Trassierungsparameter quantifiziert werden. Längsneigung und Schwerverkehrsanteile wurden direkt in den insgesamt zehn q-v-Diagrammen dargestellt. Einflüsse durch die Längen der Teilabschnitte bzw. die Anzahl der Abschnitte wurden über Abminderungen bzw. Erhöhungen der Pkw-Reisegeschwindigkeiten berücksichtigt. Daraus wurden in einem weiteren Schritt Korrekturfaktoren ermittelt. Für den konkreten Fall eines planfreien Knotenpunkttyps im so genannten unkritischen Wechselbereich wurden weitere Einflüsse auf die Pkw-Reisegeschwindigkeit ermittelt, die die Auswirkungen der sich im Knotenpunkt ändernden Verkehrsstärke (nämlich deutlich geringere Geschwindigkeiten gegenüber dem durchgehenden Fahrstreifen) berücksichtigen. Durch die Ergebnisse dieser Arbeit liegen erstmals abgesicherte q-v-Diagramme für freie Strecken mit 2+1-Verkehrsführung einschließlich planfreier Knotenpunkte in unkritischen Wechselbereichen vor, die einen Diskussionsbeitrag für eine Aufnahme in Fortschreibungen der derzeit gültigen Regelwerke darstellen.
An Experimental Study on Hydro-Mechanical Characteristics of Compacted Bentonite-Sand Mixtures
(2005)
Nuclear and hazardous waste disposal issues have become universal issues and problems related to the final disposal of these waste including finding a suitable site, natural and engineered barriers used, construction of the repository, long-term performance assessment have gained increasing attention all over the world. High-level radioactive and hazardous waste are required to be buried in deep geological repositories. In Germany, the ongoing researches have assessed the suitability of salt-stone formation in the country as a host rock candidate for its nuclear waste repository. Bentonite-based materials have been proposed to be used as sealing and buffer elements for the nuclear waste repository. Several hydro-mechanical processes will take place in the field and influence behaviour of the sealing and buffer elements of the repository. In this dissertation, a study on the hydro-mechanical characterisation of bentonite-sand mixtures is presented. Mixtures of a calcium-type bentonite, named Calcigel, and quartz sand were used in the investigation. Series of experiments including basic and physico-chemical characterisation, microstructure and fabric studies, suction and swelling pressure measurements, wetting and drying test, one-dimensional compression-rebound test, one-dimensional cyclic wetting-drying test under constant vertical stress, and saturated permeability test were conducted. The experimental data obtained are analysed and several characteristics of the material are brought out in this dissertation. Conclusions regarding basic behaviour of the materials are drawn based on the results of microstructure and fabric studies. Factors influencing the magnitude of suction and swelling pressure of the materials are outlined and discussed. The suction-induced compression and rebound characteristics of the material are described. The wetting and drying behaviour as influenced by the material boundary conditions are discussed. Permeability characteristics of the materials are examined based on several available permeability models. Several mechanical and hydraulic parameters that can be used in modelling using some available constitutive modelling approaches are derived based on the experimental data. At the end, conclusions regarding the hydro-mechanical characteristics of the materials are drawn and suggestions for future studies are made.
Die vorliegende Arbeit beschäftigt sich mit der Analyse der last- und zeitabhängigen Verformungseigenschaften und der Steifigkeits-Degradation von unbewehrtem Normalbeton und hochfestem, selbstverdichtendem Beton (SVB). Neben experimentellen Untersuchungen werden numerische Simmulationen des Beton-Kriechverhaltens unter kurzzeitiger, quasi-statischer, uniaxialer Druckbeanspruchung vorgenommen.
The specific socio-political frame and context in Federal Republic of Yugoslavia (SRJ) was in many ways unique in Europe. The way social space was produced, starting from mid eighties in the former Socialist Federal Republic of Yugoslavia (SFRJ) in the period of severe economic and political crises, and later in the new independent republics formed after it’s disintegration, was extremely harsh. The new SRJ had an especially peculiar context due to the sanctions of UN that were introduced in 1992 after the clashes in Bosnia and cases of ethnic cleansing. One of the causes for the production of such a drastic social space could be seen in the strongest wave of ethnonationalism recorded in recent European history, accompanied with the equally strong wave of populism, that were interestingly enough conceived as a program of Serbian national and cultural renaissance in the highest cultural institutions in Serbia like the Serbian Academy of Sciences and Arts and Association of Writers of Serbia, and supported by the Serbian Orthodox Church. After being recognized as a powerful homogenizing force by the communist elite that came to power, Slobodan Miloševi's being its strongest representative, these ideological matrixes thus induced their reproduction in all spheres of the society. On the other side the sanctions by UN and isolation of the country caused the "economy of destruction", economic collapse with the highest rate of inflation ever recorded. The effects of these phenomena were devastating for the new SRJ, where thus produced social milieu was dominated by patriarchalism, authoritarianism, a warlike spirit, xenophobia, and national-chauvinism. In Miloševi's Serbia of the 90’s after introduction of the multi party parliamentary democracy, two public spheres have functioned in autonomous way: one official having all the monopolistic instruments from the former communist ideological structures, and the other alternative and oppositional having just support from a few alternative media houses and mainly the streets for public address and speech. When the wave of ethnonationalism and populism came back from the political realm to the sphere of culture and contaminated it, the highest national institutions of culture started to reproduce this ideological matrix. The task of the artworks was to glorify the history of Serbian people and they could be read as symptoms of the social pathology of the milieu where they originated. Their performative role was to contribute to the production of such a social space and reproduce the hate speech so present in all the media. For the artists who didn't want to conform to the dominant ideological matrix the trauma experienced had different effect and caused strong reaction. One aspect was the withdrawal from the social sphere into the closed, hermetic artistic circles and the strategy defined as active escapism; another was gathering into groups and associations with the aim to criticize, oppose, and face the social reality with engaged artworks. Finally, I focus on different artistic strategies towards the produced social space and analyze both the art practices that reproduced the dominant ideological matrix in the use of the regime, as well as the ones that tried to enter the publics sphere in the critical way and offer the alternative model of the (cultural) public sphere. The paradigm for the analysis of the Serbian art scene or community in the period of sanctions and isolation, mostly in the first half of the nineties, but also encompassing the whole decade, was the one of the “art in the closed society”. As much as this formulation was explanatory for the situation in Serbia under the sanctions, my perspective on the problem is that self-isolation by the artists was more important that the outer wall of barriers, and what mattered was the decision of the majority of the artists to stay out of the public and social spheres. In the global age of informational society where Internet was providing all necessary information on the actual happenings in art, the paradigm of the closed society could be more used as a psychological feature of self-isolation and withdrawal from the reality as it was too hard to bare it. I am therefore focusing mainly on art practices that were trying to deconstruct the dominant ideological matrix, create platforms and arenas where artists could engage in cultural activity and raise different critical issues, and eventually construct the alternative cultural public sphere where many >marginal< voices could be heard, many micro-social spaces could be visible.
Grundlage der Arbeit bilden eigene aktuelle Bauschadensuntersuchungen in Deutschland. Die jährlichen Mängel- und Schadensbeseitigungskosten betragen auf der Basis ausgewerteter Gutachten 4,1 % der Bauinvestitionen und liegen höher als die bisherigen Angaben der Bauschadensberichte der Bundesregierung. Eine Verbesserung der Bauqualität ist trotz Einführung von Qualitätsmanagementsystemen in den letzten Jahren nicht feststellbar. Diagnose-Werkzeuge aus der stationären Industrie zur Feststellung einer mangelnden Übereinstimmung der geforderten Qualität mit der erreichten Qualität während der Bauausführung sind nicht unmittelbar anwendbar. Aufbauend auf neuen Ansätzen zur interaktiven und interdisziplinären Verdichtung aller Prüfungen wird in dieser Arbeit ein System zur Qualitätssicherung in der Bauausführung aufgezeigt. Dieses wird als System der „Helfenden Prüfungen“ bezeichnet. Grundbausteine sind die Anwendung der „Fehler-Möglichkeits- und -Einfluss-Analyse“ unter Berücksichtigung prozessspezifischer Erfahrungen sowie Prophylaxekriterien, hergeleitet aus Fehlern, Baumängeln und Bauschäden. Das System der „Helfenden Prüfungen“ ist ein dynamisches System zur baubegleitenden Qualitätssicherung in der Bauausführung. Es ermöglicht die Verkettung der Prüfungen verschiedener am Bau Beteiligter aufbauend auf einer Eigenüberwachung durch die Ausführenden. Automatische Vergleiche der Prüfergebnisse und die Transparenz des Systems schaffen mehr Vertrauen zwischen den am Bau Beteiligten. Bei konsequenter Durchführung der abgestimmten Prüfverfahren kann nur ein aktueller Informations- und Wissensstand die Fortführung der Bauleistungen in den Teilprozessen ermöglichen. Die Verifizierung des Systems der „Helfenden Prüfungen“ erfolgte im Rahmen der Forschungsarbeit als baubetriebliches Kommunikationsmodell.
The complex failure process of concrete structures can not be described in detail by standard engineering design formulas. The numerical analysis of crack development in concrete is essential for several problems. In the last decades a large number of research groups have dealt with this topic and several models and algorithms were developed. However, most of these methods show some difficulties and are limited to special cases. The goal of this study was to develop an automatic algorithm for the efficient simulation of multiple cracking in plain and reinforced concrete structures of medium size. For this purpose meshless methods were used to describe the growth of crack surfaces. Two meshless interpolation schemes were improved for a simple application. The cracking process of concrete has been modeled using a stable criterion for crack growth in combination with an improved cohesive crack model which can represent the failure process under combined crack opening and crack sliding very well. This crack growth algorithm was extended in order to represent the fluctuations of the concrete properties by enlarging the single-parameter random field concept for multiple correlated material parameters.
Die projektgetriebene Bauwirtschaft wird dominiert durch einen branchenspezifischen Preiswettbewerb. Eine wissenschaftliche Auseinandersetzung mit den Gründen für diesen Preiswettbewerb und den Voraussetzungen für einen Leistungswettbewerb hat bislang kaum stattgefunden. Im Rahmen der vorliegenden Dissertation werden zunächst die bauwirtschaftlichen Besonderheiten hinsichtlich Bauwerk, Bauleistungen und Branchenstruktur, untersucht und die Auswirkung auf den Wettbewerb herausgearbeitet. Ziel einer Strategie des nicht preisbasierten Wettbewerbs muss es demnach insbesondere sein, die Risiken der Transaktion für den Kunden zu minimieren und die Nutzeneinschätzung des Kunden vor dem Kauf zu verbessern. In der vorliegenden Arbeit wird erstmals ein Grundmodell entwickelt, welches sämtliche Treiber eines Leistungswettbewerbs integriert. Grundlage hierfür sind die wirtschaftswissenschaftlichen Theorien der Produktdifferenzierung und der Differenzierungsstrategie aus den Bereichen Volkswirtschaftslehre, Marketing Management und Strategisches Management. Die Bestandteile des Modells auf Projektebene sind Qualität, Zeit und Varietät. Die Treiber auf Unternehmensebene sind Innovation und Marke. Neben den unmittelbaren Treibern des Leistungswettbewerbs wirken sich die Unternehmensstrukturen und Kernkompetenzen, die Zielmarktbestimmung und das Strategische Sourcing mittelbar auf die Performance des Unternehmens aus. Die Wirkungsweise der Treiber und die jeweilige Bedeutung für einen Leistungswettbewerb in der Bauwirtschaft werden im einzelnen dargestellt und erläutert. Die Dissertation stellt eine Grundlagenarbeit zum Thema Wettbewerbsstrategien in der Bauwirtschaft dar. Die Aspekte des Leistungswettbewerbs, in Abgrenzung zum Preiswettbewerb, stehen im Mittelpunkt der Arbeit. Im Zuge der Diskussion der Einzelaspekte wird qualitativ nachgewiesen, dass die Umsetzung einer Strategie des nicht preisbasierten Wettbewerbs in der Bauwirtschaft, einen positiven Einfluss auf die Performance des Unternehmens hat.
Ausgangspunkt dieser Studie ist die >Welt<, und zwar als Präfix. In beinahe inflationärer Verwendung zeigt sie sich 'um 1900' so unterschiedlichen Projekten vorangestellt wie der Durchsetzung einer Welt-Hilfssprache, der Verbreitung und Zirkulation von Welt-Geld oder der Standardisierung unserer Zeit zur Welt-Zeit. Bei der technischen Entwicklung von frühen (Mobil)Funksystemen (das world system des Medienmagiers Nikola Tesla) findet sich diese anspruchsvolle Vorsilbe ebenso wie beim Aufbau eines globalen Netzwerks von Floristen, das verspricht, Blumengrüße unverzüglich in alle Welt zu liefern. In drei Teilen wird diese Konjunktur von Welt-Bildungen umkreist, beschrieben und analysiert. Der erste Teil >Welt um 1900< widmet sich zum einen der begrifflichen Präparation von >Welt<, "Projekt" sowie einer Analyse des "Weltprojektmachers 1900" und dessen Herkunft und Tradition aus der Projektemacherei in der Frühen Neuzeit. Zum anderen wird anhand des sich allmählich etablierenden Weltverkehrs diskutiert, welchen besonderen Bedingungen und Situationen, welchen Kontexten und Entwicklungen die Initatoren folgen oder unterworfen sind, was sie also zu ihren mitunter waghalsigen Projekten ermutigt. Der zweite Teil besteht aus drei charakteristischen Fallstudien, drei Projekten, die nach einer jeweils eigenen Logik "Welt" erschließen (Wilhelm Ostwald und seine Initiativen) bzw. abbilden (Franz Maria Feldhaus und seine Weltgeschichte der Technik) bzw. organisieren (Walther Rathenau in der Kriegsrohstoffabteilung 1914). Im dritten Teil schließlich wird danach gefragt, was diese drei Fallbeispiele eint. Welchen gemeinsamen Strukturen und Prädispositionen folgen die Weltprojektmacher? Es läßt sich dabei eine spezifische Formation von Vorstellungen und Determinanten ausmachen, ein gemeinsames Dispositiv, das unter der Bezeichnung >Restlosigkeit< erörtert wird, um schließlich zu einer kleinen Theorie des Übrigen zu führen.
A Flexible Model for Incorporating Construction Product Data into Building Information Models
(2006)
When considering the integration and interoperability between AEC-FM software applications and construction products' data, it is essential to investigate the state-of-the-art and conduct an extensive review in the literature of both Building Information Models and electronic product catalogues. It was found that there are many reasons and key-barriers that hinder the developed solutions from being implemented. Among the reasons that are attributed to the failure of many previous research projects to achieve this integration aim are the proprietary developments of CAD vendors, the fragmented nature of construction product data i.e. commercial and technical data, the prefabrication versus on-site production, marketing strategies and brand-naming, the referencing of a product to the data of its constituents, availability of life-cycle data in a single point in time where it is needed all over the whole life-cycle of the product itself, taxonomy problems, the inability to extract search parameters from the building information model to participate in the conduction of parametric searches. Finally and most important is keeping the product data in the building information model consistent and up-to-date. Hence, it was found that there is a great potential for construction product data to be integrated to building information models by electronic means in a dynamic and extensible manner that prevents the model from getting obsolete. The study has managed to establish a solution concept that links continually updated and extensible life-cycle product data to a software independent building information model (IFC) all over the life span of the product itself. As a result, the solution concept has managed to reach a reliable building information model that is capable of overcoming the majority of the above mentioned barriers. In the meantime, the solution is capable of referencing, retrieving, updating, and merging product data at any point in time. A distributed network application that represents all the involved parties in the construction product value chain is simulated by real software tools to demonstrate the proof of concept of this research work.
In the history of 'villages' in Shenzhen, rich traditional cultural resources that are directly related to the folk life in urban corporate community still exist today, synchronously agricultural economy of urban corporate community is transformed into joint-stock economy, and natural villages are transformed into 'heterogeneous' space of city. The most significant fact in the modern social transition is that modern societies have surpassed traditional societies, and cities have surpassed the country. Weber, Durkheim, Tönnies, Simmel and others devoted themselves to cultivating the essence of social transition. The most influential theory to observe and analyze it is the two-tiered approach of ideal type. Tönnies made distinction between 'Gemeinschaft and Gesellschaft', Durkheim distinguished 'mechanical solidarity and organic solidarity', and Redfield analyzed 'folk society and urban society'. In those classical theories, the former transit to the later is considered to be a general rule of transition from traditional society to modern society, and from traditional community to modern community. However, ever since Redfield used the dependent relationship and interactive framework of 'great tradition' and 'little tradition' to explain various complicated phenomena in the transition from tradition to modern in 1950s, he suggested that a folk-urban continuum can be formed in the transition from folk society to urban society. 'Both terms, ‘city’ and ‘country’, are not and have never been limited or restricted to their obvious denotations: ‘city’ is not and has never been only urban. As a category it always encompasses (includes, embodies, embraces) itself and its opposite, the country' (Hassenpflug 2002, 46). Generally, social groups and culture characterized by weak 'potential' will take their own 'little tradition' as 'bridge' and agency, in order to enter or melt themselves into a 'great tradition' that embodies great 'potential' to seek for space to live and develop. There are many different types of transitions that villagers enter and get melt into 'great tradition' through their individual 'little tradition'. There are exploration and development of traditional resources in 'segmentation', such as the frequent relation between a great flow of peasants to cities and the network of kinship, and of earthbound relations; alternatively, there are assistances and utilization of resources of a whole corporate network, such as the traditional corporate community’s organization of local resources during the process of non-agriculturization of villages; and 'villages' in Shenzhen is of the latter situation. The following conclusion can be made based on the above analyses: urban corporate community formed in the process of non-agricultural development and urbanization is an organizing dependency on which villagers melt into city and adapt to urban life. The unique inner-structure and function determine that comparing with other organizations, it has a better performance, efficiency and more humanity care. Firstly, corporate community which is re-organized in the non-agricultural process currently is the only and the most effective organizational resources that can be utilized and has significant meanings in protecting villagers’ interest and benefit; secondly, in the short term, other approaches do not have the advantage and the effect as urban corporate community has on the focusing degree of public affairs in the comprehensive urbanization process; thirdly, the 'new' key connotation of urban corporate community, including its community management functions, is the main reason for which such community has the rationality of being; fourthly, urban corporate community will inevitably face many problems in the urbanization due to its inner fixed characteristics (lack of external support), but to a certain degree it has the ability to self-repair and problem solving under the precondition that, the government and society have a fair, impersonal view of 'villages', and base on this view providing multi-supports, especially providing rational system arrangement and policy supports. Consequently, in order to preserve and protect social system and cultural heritage within the 'villages', and gradually make the coordinative development of 'great tradition' represented by cities and of 'little tradition' represented by 'villages', 'soft reconstruction' rather than 'hard reconstruction' should be adopted by the government, during the recent reconstruction of 'villages' in Shenzhen.
Die Instandhaltung der städtischen Trinkwassernetze ist Aufgabenschwerpunkt der Wasserversorgungsunternehmen bzw. Netzbetreiber. Dazu notwendige Rehabilitationsplanungen stützen sich zurzeit weitgehend auf die Trendprognose von Schadensraten und die Erfahrungen der Mitarbeiter. Der Einfluss wesentlicher Kenngrößen wie Werkstoffeigenschaften oder die Resttragfähigkeit des Rohres bleiben hierbei größtenteils unberücksichtigt. Über materialtechnische Untersuchungen werden die notwendigen Kenngrößen ermittelt, die eine zuverlässige Bewertung des technischen Zustands des Rohrstrangs ermöglichen. So lassen sich die Prognose der technischen Nutzungsdauer und Rehabilitationsplanungen auf eine solide Basis stellen. In dieser Dissertationsschrift wird hierzu ein Untersuchungs- und Bewertungsalgorithmus mit integrierten Prognoseverfahren erarbeitet.
Die Bauaufgaben der Zukunft liegen in der Auseinandersetzung mit bestehender Architektur. Die planerische Herausforderung besteht im Verzicht auf den Neubau durch die Umnutzung und den Umbau existenter Gebäude. Umnutzung und Umbau sind Werterhaltungsstrategien, die den Lebenszyklus eines Gebäudes als integralen Bestandteil der Planung betrachten und deren Ziel es ist, ungenutzte Bestandsgebäude durch keine oder wenige bauliche Eingriffe so zu verändern, dass sie einer Weiternutzung zugeführt werden können. Die Umnutzung unterliegt der Prämisse, dass an den Gebäuden keine baulichen Veränderungen vorgenommen werden, wohingegen der Umbau bauliche Eingriffe gestattet. Als Alternative zum Neubau ist der Erfolg beider Strategien entscheidend davon abhängig, dass der Architekt schon zu Beginn der Planung zu der Entscheidung gelangt, ob sich ein Gebäude unter Anwendung einer der beiden Strategien weiternutzen lässt. Diese Entscheidung wird vom Architekten in der Praxis durch einen Vergleich des Soll-Zustands (Raumprogramm) mit dem Ist-Zustand (Bestandsgrundriss) des Gebäudes getroffen. Die Analyse und Bewertung des Bestandes erfolgt in dieser frühen Phase der Planung in Form von Vorentwurfsskizzen, welche die organisatorischen oder baulichen Veränderungen der Gebäudegrundrisse im Falle einer Weiternutzung darstellen. In dieser Arbeit wird die Hypothese aufgestellt, dass der Vergleich des Raumprogramms mit dem Gebäudegrundriss im Wesentlichen eine kombinatorische Problemstellung darstellt. Unter dieser Annahme wird untersucht, ob durch den Einsatz von Optimierungsverfahren in der Grundrissplanung Lösungen für Umbau- und Umnutzungsaufgaben automatisiert erzeugt werden können. Ziel ist es, durch den computergestützten Einsatz dieser Verfahren zu plausiblen Planungslösungen, die dem Architekten als Grundlage für die weitere Bearbeitung der Planung dienen, zu gelangen.
Die Arbeit beschäftigt sich mit der Entstehung eines ökonomischen Kraftmaßes am Beispiel der Maschine von Marly im Zeitraum von ca. 1680 bis 1840. Die Leitthese der Dissertation besagt, dass vom 17. zum 19. Jahrhundert eine grundlegende Transformation des Maschinenbegriffs stattfand, die als Übergang vom Substanzbegriff zum Funktionsbegriff der Maschine bezeichnet werden kann. Im 17. Jahrhundert wurden mechanische Apparate als in sich geschlossene, selbstbezügliche Strukturen aufgefasst. Als anschaulich erfahrbare Objekte konnten sie als Bildgeber dienen, die mittels des Verfahrens der Strukturanalogie Erklärungsmuster für verschiedenste Phänomene (Körper, Staat, Welt) boten. Demzufolge galten sie als selbstevident: sie waren erklärend und mussten selbst nicht erklärt werden. Ihr etwaiger Zweck und ihre Einbettung in gesellschaftliche Zusammenhänge spielten dabei keine Rolle. Wie anhand der Beschreibungen und Darstellungen aus jener Zeit nachgewiesen werden kann, wurde die Maschine von Marly innerhalb dieser Episteme als architektonisches Objekt wahrgenommen, bei dem vor allem das Zusammenspiel der einzelnen Elemente Aufmerksamkeit erregte. Wie andere Maschinen auch stand sie unter dem Primat der Sichtbarkeit. Man war davon überzeugt, dass die Eigenschaften einer Maschine von der strukturellen Anordnung ihrer Bauteile abhingen und glaubte, ihre Qualität an ihrer Gestalt ablesen zu können. Ab der Mitte des 18. Jahrhunderts tauchte die Maschine von Marly in den Schriften physiokratischer Autoren auf. Zuerst diente sie dort als Beispiel für die Verschwendungssucht Louis’ XIV. und als Metapher für eine schlechte Einrichtung des Staates. Doch zunehmend begann man, sie auch in ihrer Faktizität als technisch-politisches Objekt zu begreifen. Man kritisierte ihre aktuelle Nutzung und schlug andere Möglichkeiten ihrer Verwendung vor, etwa die Bewässerung von Feldern oder die städtische Trinkwasserversorgung. Damit war die Maschine von Marly nicht länger ein Modell für die Einrichtung des Staates, das nur am Maßstab der immanenten Perfektion beurteilt werden konnte. Vielmehr war sie nun ein Instrument der Regierung, das sich als Teil eines staatlich verfassten Gemeinwesens verantworten musste. Als solches wurde sie auch zu einem bevorzugten Gegenstand aufklärerischer Reformprojekte. Das zeigt sich besonders deutlich am Wettbewerb, den die Pariser Akademie der Wissenschaften 1784-1786 organisiert hatte und der Vorschläge zur Verbesserung oder Ersetzung der Maschine von Marly zum Gegenstand hatte. Die Auswertung der mehr als 100 eingereichten Projekte und Memoranden ermöglicht einen einzigartigen Blick auf die Hoffnungen und Wünsche, die Ende des 18. Jahrhunderts an die Erfindung technischer Geräte gekoppelt waren. Um 1800 kann man die allmähliche Entstehung eines Funktionsbegriffs der Maschine bemerken. Lazare Carnots Essai sur les machines en général, der eine in der Sprache der Algebra artikulierte Definition der Maschine beinhaltete, trug maßgeblich dazu bei, die Anschaulichkeit zugunsten eines operativen Symbolismus zu delegitimieren. Erst dadurch war die Formulierung eines Effizienzkalküls möglich. Ergänzt wurde diese Formalisierung durch den Diskurs der Industrialisierung, in dem technische Apparate zunehmend als Produktionsmittel verstanden wurden. Die Maschine von Marly war ein wichtiger Schauplatz für die Entstehung eines ökonomischen Kraftmaßes. Nicht nur wurden dort Experimente mit verschiedenen Messinstrumenten (Dynamometern) durchgeführt, auch diente sie Joseph Montgolfier als Beispiel um zu beweisen, dass Kraft als Geldwert ausgedrückt werden könne. In den ersten Jahrzehnten des 19. Jahrhundert wurden Maschinen schließlich relational als Positionen innerhalb eines nationalen Produktionssystems definiert. Sie galten als Krafttransformatoren, bei denen ein bestimmter Input von ‚force motrice’ einen entsprechenden Output von ‚travail utile’ ergeben würde. Ihre vornehmlichste Aufgabe war die möglichst effiziente Ausnutzung der Kraftressourcen. Den vorläufigen Endpunkt erreichte die Entstehung des ökonomischen Kraftmaßes um 1830 mit der Formulierung des Begriffs der ‚mechanischen Arbeit’.
The main hypothesis of this research is that civil society’s participation is able to improve the planning results in the Chinese city of Qingdao in the contemporary age. Qingdao is a young city developed from a German colony in eastern China. Apart from the powers of the government and the market, the 'third power', including mainly the power of volunteer citizens and the citizens’ organisations, also positively promoted the spatial development in Qingdao’s history. Since 1978’s reform, Qingdao’s great progress in urban housing, historic preservation, public space and urban traffic results mainly from the increasing strength of both the government and the market, while the government has always been the dominant promoter for urban construction. The actual planning mechanism – the government formulates 'what to do' itself and decides 'how to do it' with the market – has much limit in reacting to the rapidly changing situation, serving diversified social interests, and raising sufficient funds for the city’s urgent demands in Qingdao. Searching for new development strategies based on the understanding of civil society in the Chinese context can provide a promising perspective on the urban studies of Qingdao. Chinese civil society can be understood as the intermediate sphere of individuals, families, citizen’s organisations, social movements, public communication, and of the non-governmental body’s non-for-profit involvement for the provision of public services between the state and the market. China has its own cultural tradition of civil society, and the modern civil society in China is showing its great potential in improving social integration and urban life. The Chinese government has started to advocate for civil society’s participation in urban construction, and encouraging the 'bottom-up' mechanism in the planning-related issues through political statements and legislative approaches since the last two decades. The existing planning practice in China is able to demonstrate that civil society’s participation helps improve the quality of Chinese urban planning realistically under present conditions, and that moderation of planning experts and the push of the authority are the key factors for successfully integrating the strength of civil society in planning. However, the power of civil society is not yet sufficiently discovered in Qingdao’s planning. For better planning results, the city of Qingdao needs more initiatives to mobilize civil society in the planning practice, as well as more support to enrich the related studies. This thesis recommends that Qingdao establishes the 'Foundation for Collaborative Urban Solutions' through the joint efforts of the authority and civil initiatives, which aims at moderating and facilitating the strength of civil society. The suggested pilot projects include: a. The Community-based Housing Workshop for regenerating the living environment of the run-down communities, where the residents are willing to collaborate with the foundation with own efforts. b. The Heritage Preservation Workshop for suggesting an efficient supervision mechanism involving civil society which protects the historic heritage from being destroyed in the urban construction. c. The Public Space Forum for improving accessibility, quantity and ecologic function in the development of Qingdao’s urban public space with the knowledge and creativity of both the government and the citizens. d. The Mass Transport Forum for a realistic strategy for funding the rail-based traffic system in Qingdao through enabling the civil society - especially the individual citizens and their households to invest. The 'Foundation of Collaborative Urban Solutions' is able to improve Qingdao’s planning to cope with the urban problems the city are facing in its contemporary development, as well as to provide valuable reference for the further research of civil society’s participation in Chinese urban planning.
Die Dissertation widmet sich den 'Wiederholungsstrukturen in den Filmen von Jim Jarmusch'. Mit dem Thema soll ein neues Konzept der Filmanalyse vorgestellt werden. In seiner Methodologie beruht es auf dem Element der Wiederholung. Die Wiederholung tritt im Film semiotisch auf. Im modernen philosophischen Denken spielt die Wiederholung eine Rolle, indem sie auf bestimmte Weise differentiell auftritt. Im Film bildet die Wiederholung kennzeichnende Codierungen aus. In unterschiedlicher Hinsicht bietet es sich somit an, das Element als Schlüssel zur Filminterpretation aufzugreifen. Das neue Konzept unterscheidet sich von bisherigen filmischen Methoden dadurch, dass mit ihm über das standardisierte Begriffsinstrumentarium aus der Filmwissenschaft hinausgegangen wird, ohne diesem den Rücken zu kehren. Jedoch wird Filmanalyse anhand des Elements der Wiederholung nun genuin als Akt der semiotischen Interpretation und des philosophischen Lesens von Filmen begriffen. In diesem Rahmen beruht das Verstehen von Filmen auf einzelnen und komplexen Zeichen, die im Film Zeitlichkeit und Räumlichkeit herstellen. In poststrukturaler Hinsicht lässt sich die Wiederholung als das konstitutive Moment im Zeit-Bild von Gilles Deleuze verstehen. In der Philosophie gibt es aber noch andere Denker, bei denen die Wiederholung relevant ist. Wie lässt sich die Wiederholung als materielles Element im Film einerseits, als philosophisch Gedachtes andererseits für die Filmanalyse gewinnbringend einsetzen? In Beantwortung dieser Frage wird in der Untersuchung zu den 'Wiederholungsstrukturen in den Filmen von Jim Jarmusch' versucht, dem Konzept des auteur-structuralisme Rechnung zu tragen. In der Lektüre und Interpretation wird Jarmusch als Autor / auteur mit der Struktur seiner Filme 'identifiziert'. Mit der Verschränkung von Autor / auteur und filmischem Text wird auf Roland Barthes Forderung nach der 'Geburt des Lesers' eingegangen. Filme sind demnach auch dann lesbar, wenn der Autor / auteur selbst (in unserem Fall Jim Jarmusch) für das, was er produziert hat, nicht mehr einsteht. Das theoretische Ziel der Untersuchung liegt darin, Erkenntnisse über die filmische Wiederholung zu gewinnen, sowohl in Bezug auf das philosophische Denken der Wiederholung, als auch hinsichtlich ihrer materiellen Verkörperung. Das Denken der Wiederholung wird fragend behandelt, indem wissenschaftlich untersuchend in die filmische Illusion eingegriffen wird. Mit Blick auf das ganze filmische Schaffen Jarmuschs wird aufgezeigt, wie sich seine filmischen „möglichen Welten“ anhand der Aufschlüsselung der Zeichen interpretieren lassen. Die Untersuchung stellt somit ein bislang noch nicht angewandtes Konzept der Betrachtung von Filmen vor, das auch auf andere Filmautoren / auteurs und ihr jeweiliges künstlerisches Schaffen übertragbar wäre.
Für die Optimierung eines bereits bestehenden Prozesses, z.B. im Hinblick auf den maximal möglichen Durchsatz bei gleich bleibender Qualität der Pyrolyseprodukte oder für die Einstellung der Betriebsparameter bei einem unbekannten Einsatzstoff, kann ein mathematisches Modell eine erste Abschätzung für die Einstellung betrieblicher Parameter, wie z.B. Temperaturprofile im Gas und Feststoff, geben. Darüber hinaus kann man mit einem Modell für neu zu konzipierende Anlagen konstruktive Parameter ermitteln oder überprüfen. In dem hier dargestellten vereinfachten Modellansatz werden u. a. die Umsatzvorgänge für ein Partikelkollektiv mit Hilfe von Summenparametern aus Untersuchungen an einer Thermowaage und ergänzend im Drehrohr ermittelt. Das Prozessmodell basiert auf einem Reaktormodell, das das Verweilzeitverhalten des Einsatzstoffes im Reaktor beschreibt und einem Basismodell, bestehend aus Massen- und Energiebilanzen für Solid und Gas sowie Ansätzen zur Trocknung und zum Umsatz. Im Hinblick auf die Verfügbarkeit von stoffspezifischen Daten von Abfällen sind insbesondere zur Berechnung des Verweilzeitverhaltens und des Umsatzes im Heißbetrieb vereinfachende Ansätze durch die Bildung von Summenparametern hilfreich. Das Prozessmodell wurde schrittweise validiert: Zunächst wurde in Kaltversuchen ein Summenparameter, der u.a. die unbekannten Reibungsverhältnisse im Drehrohr berücksichtigt, durch Vergleich von Experiment und Rechnung für Sand ermittelt. Für heterogene Abfallgemische kann dieser Materialfaktor zwar für Kaltversuche bestimmt werden (soweit dies für Abfälle möglich ist), im Heißbetrieb ändern sich jedoch alle wesentlichen Stoffparameter wie Partikeldurchmesser, Schüttdichte und Schüttwinkel sowie die Reibungsverhältnisse. Für diesen Fall wird der Materialfaktor zu Eins gesetzt und die wesentlichen Stoffgrößen umsatzabhängig modelliert. Dazu ist die Kenntnis der Schüttdichten, statischen Schüttwinkel und mittleren Partikeldurchmesser vom Abfall und Koks aus dem Abfall notwendig. Die mit diesen Stoffdaten berechnete Verweilzeit wurde in einem Heißversuch bei der Pyrolyse von Brennstoff aus Müll- (BRAM) Pellets mit einem Fehler von ca. 20 % erreicht. Das Basismodell wurde zunächst ohne Umsatz an Messergebnisse mit Sand im Drehrohr unter Variation von Temperaturen und Massenstrom angepasst bevor mit diesem Modell die Pyrolyse von einem homogenen Einsatzstoff (Polyethylen mit Sand) im Drehrohr berechnet wurde. Hier konnte bereits gezeigt werden, dass mit diesem vereinfachten Modellansatz gute Ergebnisse beim Vergleich von Modell und Experiment erzielt werden können. Im nächsten Schritt wurde der Sand angefeuchtet, um die Teilmodelle der Trocknung unterhalb und bei Siedetemperatur zu validieren. Die Mess- und Modellierungsergebnisse stimmen gut miteinander überein. Für ein Abfallgemisch aus BRAM-Pellets konnte der Verlauf der Solidtemperaturen unter der Berücksichtigung variabler Stoffwerte des Solids und eines Verschmutzungsfaktors, der den Belag des Drehrohres mit anklebendem Pellets bis zur Verkokung berücksichtigt, gut wiedergegeben werden. Die Gastemperaturen können in erster Näherung ausreichend genau durch das mathematische Modell beschrieben werden. Mit diesem vereinfachten mathematischen Modellansatz steht nun ein Hilfsmittel zur Auslegung und Optimierung von indirekt beheizten Drehrohren zur Verfügung, um bei einem neuen Einsatzstoff mit Daten aus experimentellen Basisuntersuchungen, die Temperaturverläufe im Feststoff und Gas sowie die Gaszusammensetzung in Abhängigkeit der wesentlichen Einflussgrößen abzuschätzen.
Datenmodelle zur Bearbeitung von Ingenieuraufgaben am Beispiel von Wohnhäusern in Stahlbauweise
(2006)
Modelle bilden die Grundlage der Planung. Sie repräsentieren die zur Bearbeitung erforderlichen Eigenschaften eines Bauwerks in einer an die spezifische Aufgabe angepassten Form. Zwischen den verschiedenen zur Abbildung des Bauwerks eingesetzten Modellen bestehen fachliche Zusammenhänge bezüglich der darin abgebildeten Aspekte. Diese Abhängigkeiten werden in der praktischen Planungsbearbeitung gegenwärtig auf Grundlage von Erfahrungswerten, normativen Vorgaben und vereinfachenden Annahmen berücksichtigt. Die detailliertere Modellierung von Bauwerkseigenschaften führt zu einer engeren Verzahnung der verschiedenen Modelle. Um eine fachliche Inselbildung zu vermeiden, ist eine entsprechend angepasste Abbildung der zwischen den einzelnen Modellen bestehenden Beziehungen erforderlich. Mit den steigenden Ansprüchen an eine Bearbeitung von Ingenieuraufgaben gewinnt eine über den Zweck der Bereitstellung ausgewählter Informationen zum Bauwerk und der Unterstützung eines Datenaustauschs zwischen verschiedenen Fachplanern hinausgehende datentechnische Abbildung an Bedeutung. Dies setzt eine Diskussion der Anforderungen an eine solche Beschreibung aus fachlicher Sicht voraus. Die Untersuchung der fachlichen Anforderungen wird am Beispiel von Wohnhäusern in Stahlbauweise geführt.
Komplexität ist ein genuin architektonisches Problem. Der Begriff von Architektur als einer universellen Praxis bzw. ganzheitlichen Erkenntnisweise enthält bereits im Kern den Begriff 'Komplexität'. Beide Konzepte fallen weithin zusammen – Architektur kann damit als spezifische Denkform des Komplexen betrachtet werden. Das in der Arbeit aufgezeigte Dilemma besteht darin, dass der modernen Architektur ihr ursprünglicher Gestaltungsgegenstand – Komplexität – abhanden gekommen ist: 'Nönnig dekonstruiert zu Recht die hoch aggregierten Begriffe des Raumes und des Entwurfs. Die gesamte Arbeit zeigt, dass die modernen Beschreibungsformen von Komplexität gerade nicht in der Architektur entwickelt sind.' (Prof. Gerd Zimmermann, Weimar). Um dieses Defizit zu beheben und Architektur als eigenständige Wissenstechnik ('Technoepisteme') zu etablieren, wird ausgehend von spezifischen 'Praxis- und Diskursdefiziten' ein Theorieszenario entwickelt, mit dem und in dem Architektur sich als komplexe Wissensform verwirklicht (u.a. Komplexe Systeme, Design Sciences, Operationale Heuristik). 'Vorliegende Arbeit ist der Versuch […] die Architektur gewissermaßen wieder in den Stand zu setzen, der ihr im System des Denkens eigentlich zukommt […] Der Komplexitätsdiskurs in der Architektur ist zurück.' (Prof. Gerd Zimmermann, Weimar)
The importance of modern simulation methods in the mechanical analysis of heterogeneous solids is presented in detail. Thereby the problem is noted that even for small bodies the required high-resolution analysis reaches the limits of today's computational power, in terms of memory demand as well as acceptable computational effort. A further problem is that frequently the accuracy of geometrical modelling of heterogeneous bodies is inadequate. The present work introduces a systematic combination and adaption of grid-based methods for achieving an essentially higher resolution in the numerical analysis of heterogeneous solids. Grid-based methods are as well primely suited for developing efficient and numerically stable algorithms for flexible geometrical modeling. A key aspect is the uniform data management for a grid, which can be utilized to reduce the effort and complexity of almost all concerned methods. A new finite element program, called Mulgrido, was just developed to realize this concept consistently and to test the proposed methods. Several disadvantages which generally result from grid discretizations are selectively corrected by modified methods. The present work is structured into a geometrical model, a mechanical model and a numerical model. The geometrical model includes digital image-based modeling and in particular several methods for the theory-based generation of inclusion-matrix models. Essential contributions refer to variable shape, size distribution, separation checks and placement procedures of inclusions. The mechanical model prepares the fundamentals of continuum mechanics, homogenization and damage modeling for the following numerical methods. The first topic of the numerical model introduces to a special version of B-spline finite elements. These finite elements are entirely variable in the order k of B-splines. For homogeneous bodies this means that the approximation quality can arbitrarily be scaled. In addition, the multiphase finite element concept in combination with transition zones along material interfaces yields a valuable solution for heterogeneous bodies. As the formulation is element-based, the storage of a global stiffness matrix is superseded such that the memory demand can essentially be reduced. This is possible in combination with iterative solver methods which represent the second topic of the numerical model. Here, the focus lies on multigrid methods where the number of required operations to solve a linear equation system only increases linearly with problem size. Moreover, for badly conditioned problems quite an essential improvement is achieved by preconditioning. The third part of the numerical model discusses certain aspects of damage simulation which are closely related to the proposed grid discretization. The strong efficiency of the linear analysis can be maintained for damage simulation. This is achieved by a damage-controlled sequentially linear iteration scheme. Finally a study on the effective material behavior of heterogeneous bodies is presented. Especially the influence of inclusion shapes is examined. By means of altogether more than one hundred thousand random geometrical arrangements, the effective material behavior is statistically analyzed and assessed.
Moderne Büroarchitektur mit Räumen in Leichtbauweise und großen transparenten Fassa-denanteilen verschärft im Zusammenwirken mit hohen internen Lasten die Problematik der sommerlichen Überhitzung in Gebäuden. Phasenübergangsmaterialien (PCM: phase change materials) stellen eine interessante Möglichkeit dar, sommerliche Überhitzung in Gebäuden ohne aufwändige Anlagentechnik wie beispielsweise Klimaanlagen zu reduzieren. Der thermische Komfort in Räumen, die mit einem PCM-Putz ausgestattet sind, kann signifikant erhöht werden. Die Arbeit untersucht Anwendungsmöglichkeiten und Optimierungspotential eines PCM-Putzes auf experimentelle und numerische Weise. Zur Untersuchung des PCM-Putzes wurden materialtechnische und experimentelle sowie numerische und numerisch-analytische Methoden eingesetzt. Die Kenntnis der thermischen Parameter des PCM-Putzes ist unablässig für die Berechnung der möglichen Temperaturreduktionen. Zur Bestimmung der Latentwärme, des qualitativen Schmelz- und Erstarrungsprozesses sowie des Temperaturintervalls, in dem der Phasenübergang stattfindet, wurden Messungen mit einem Differential Scanning Calorimeter (DSC) durchgeführt. Für die experimentelle Untersuchung des PCM-Putzes wurden zwei identische Testräume in Leichtbauweise erstellt. Die Räume wurden im Verifikationsobjekt „Eiermannbau“ des Sonderforschungsbereiches SFB 524 der Bauhaus-Universität Weimar gemessen. Nach der Überprüfung, dass sich beide Räume thermisch gleich verhalten, wurde ein Raum mit dem PCM-Putz und der zweite Raum mit einem vergleichbaren Innenputz ohne PCM verputzt. Thermoelemente zur Temperaturmessung im Bauteil, an der Oberfläche und zur Raumlufttemperaturbestimmung wurden angebracht und mit einer Messwerterfassungsanlage verbunden. Der Verlauf der Außenlufttemperatur und die Globalstrahlung am Standort der Versuchsräume wurden aufgezeichnet, um einen Klimadatensatz zu erstellen. Für die Berechnung der Temperaturverteilung in einem PCM-Bauteil mit kontinuierlichem Phasenübergang existiert keine geschlossene analytische Lösung. Daher wurde ein numerischer Ansatz gewählt, bei dem der Phasenübergang im Temperaturbereich T1 bis T2 mit Hilfe einer temperaturabhängigen Wärmekapazität c(T) innerhalb der erweiterten Fou-rier’schen Wärmeleitungsgleichung dargestellt wird. Die Funktion c(T) wird auf Basis der DSC-Messungen bestimmt. Die Modellierung erfolgte mit einem Finite-Differenzen-Verfahren auf Grundlage der Fourier’schen Wärmeleitungsgleichung. Im Rahmen der Arbeit wurde ein PCM-Modul entwickelt, das in ein Gebäudesimulationsprogramm implementiert wurde. Mit dem neuen Modul lassen sich sowohl die Temperaturverläufe in einem PCM-Bauteil wie auch seine Wechselwirkung mit dem Raumklima darstellen. Eine Validierung des entwickelten PCM-Moduls anhand von zahlreichen experimentellen Daten der Versuchsräume wurde für das PCM-Modul erfolgreich durchgeführt. Sommerliche Überhitzungsstunden können durch PCM in Wand- und Deckenelementen deutlich reduziert werden. Der PCM-Putz eignet sich vor allem für Anwendungen in Leichtbauten wie z.B. moderne Büroräume. In Räumen, in denen bereits eine ausreichende thermische Masse vorhanden ist, ist die Temperaturreduktion durch PCM nur gering. Kann das PCM während der Nachtstunden nicht erstarren, erschöpft sich seine Fähigkeit zur Latentwärmespeicherung. Erhöhte Nachtlüftung führt bei entsprechend niedrigen Außentemperaturen zu höherem Wärmeübergang und kann damit zur besseren Entladung des PCM beitragen. Im Rahmen der Dissertation konnten Aussagen zur idealen Phasenübergangstemperatur in Abhängigkeit des verwendeten Materials und der Schichtdicke getroffen werden. Die Reduktion der Oberflächentemperaturen, die sich bei Einsatz eines PCM-Putzes unter geeigneten Randbedingungen ergibt, beträgt 2.0 - 3.5 K für eine Putzschicht von 1 cm und 3.0 - 5.0 K für eine Putzschicht von 3 cm. Diese Werte wurden sowohl numerisch als auch durch experimentelle Untersuchungen ermittelt. Die Reduktion der Lufttemperaturen aufgrund einer Konditionierung des Raumes mit PCM-Putz beträgt bei geeigneten thermischen Verhältnissen ca. 1.0 - 2.5 K für eine Putzschicht von 1 cm und 2.0 - 3.0 K für eine Putzschicht von 3 cm. Die operative Temperatur als wichtiger Komfortparameter kann durch den Einsatz des PCM-Putzes um bis zu 4 K gesenkt werden. Damit lässt sich mit Hilfe eines PCM-Putzes die thermische Behaglichkeit in einem Raum deutlich erhöhen.
Heutige Methoden zur Soll-Spezifikation von Bauleistungen (Kostenermittlung und zeitliche Ablaufplanung) gehen von einer abstrahierten und vereinfachten Betrachtung der Zusammenhänge bei Bauprojekten aus. Leistungsverzeichnisse, Kostenermittlungen und Bauzeitpläne orientieren sich nur indirekt an der Geometrie des Bauwerks und der Baustelle. Die dabei verwendeten Medien wie Papier, 2D-Dateien, digitale Leistungsbeschreibungen oder 3D-Darstellungen lassen die Suche nach Informationen auf der Baustelle zu einem zeitaufwändigen und in Anbetracht existierender Medientechnologien ineffizienten Prozess werden. Interaktive virtuelle Umgebungen erlauben die Auflösung starrer Zusammenhänge durch interaktive Eingriffe des Anwenders und visualisieren komplexe bauproduktionstechnische Vorgänge. Das Konzept der visuellen interaktiven Simulation der Bauproduktion sieht vor, die Soll-Spezifikation anhand eines interaktiven 3D-Modells zu entwickeln, um räumliche Veränderungen und parallele Prozesse auf der virtuellen Baustelle im Rahmen der Entscheidungsfindung zum Bauablauf besser berücksichtigen zu können. Verlangt man einen hohen Grad an Interaktivität mit dem 3D-Modell, dann bieten sich Computerspieltechnologien sehr gut zu Verifikationszwecken an. Die visuelle interaktive Simulation der Bauproduktion ist damit als eine 3D-modellbasierte Methode der Prozessmodellierung zu verstehen, die Entscheidungen als Input benötigt und die Kostenermittlung sowie die zeitliche Ablaufplanung als Output liefert.
Die Arbeit befasst sich mit der Anwendung faserverstärkter Kunststoffe für Tragwerke des Hochbaus. Es wird ein geschichtlicher Überblick über die Jahre 1950 bis 1980 gegeben und dabei herausgestellt, wie es 1. zur Einführung des bis 1950 unbekannten Werkstoffes im Bauwesen kommen konnte 2. welche Personen und Institute maßgeblich an der Einführung und Entwicklung des Bauens mit FVK beteiligt waren 3. welche Tragwerke verwendet wurden 4. wie die Pioniere diese Tragwerke bemaßen 5. welche konstruktiven Besonderheiten sich mit der Verwendung von FVK in der Tragstruktur ergaben Nach einer Einführung werden im Kapitel 2 die wichtigsten Faktoren der Entwicklung von Tragwerken aus GFK erörtert. Im Kapitel 3 wird die Technik der Fertigung von GFK-Teilen und deren Fügung beschrieben. Im Kapitel 4 werden die Tragwerke beschrieben und einzelne Tragwerkstypen eingehend erörtert. Im Kapitel 5 werden die Bemessungskonzepte und deren Entwicklung erörtert. In der Bilanz werden die Faktoren aufgezählt, die zum Abklingen des Bauens mit FVK in der Tragstruktur geführt haben. Die Arbeit wird ergänzt durch eine ca. 40-seitige Tabelle in der die gebauten Tragwerke in Abhängigkeit von den technischen Parametern Spannweiten und Lasten dargestellt werden. Im Anhang werden 10 exemplarische Bauten detailliert erörtert.
Eine zielführende Anwendung von Zusatzmitteln bei der Ausführung anspruchsvoller Betonbauten setzt einen hohen Kenntnisstand bezüglich der Wirkungsmechanismen und Interaktionen der einzelnen Betonkomponenten voraus. In der vorliegenden Arbeit wurden einige Aspekte der Zementhydratation in Abhängigkeit von der Fließmittelzugabe diskutiert. Im Ergebnis liefern die Teile eins und zwei der vorliegenden Arbeit einen Beitrag dazu, Veränderungen der Fließfähigkeit von Zementleim in Abhängigkeit der Zementhydratation und Fließmittelzugabe besser zu verstehen. Es konnte so z.B. gezeigt werden, dass Bildung langprismatischer Kristalle (z.B. Syngenit, Gips) die Fließfähigkeit von Zementleim und Beton vermindert. Infolge anhaltender Scherung von Zementleimen / Betonen mit langprismatischen Kristallen wird ein Zuwachs an Fließfähigkeit erzielt. Elektronenmikroskopische Untersuchungen zeigen, dass dies darauf zurückzuführen ist, dass die Kristalle in eine Vorzugsorientierung relativ zur Scherbewegung rotieren. Weiterhin wurde der Mechanismus einer so genannten Zement-Fließmittel-Inkompatibilität aufgezeigt. Durch diese Erweiterung des Kenntnisstandes zum Einfluss von Fließmitteln auf die Zementhydratation ist es möglich der Zement-Fließmittel-Inkompatibilität durch gezielte Auswahl des Zementes vorzubeugen. Dabei ist besonders darauf zu achten, dass der Zement ein ausgewogenes Verhältnis an zur Reaktion zur Verfügung stehendem C3A und Menge / Löslichkeit des Abbindereglers besitzt. Fließmittel verändern nicht nur die Verarbeitungseigenschaften sondern auch die Festigkeit und Dauerhaftigkeit von Zementstein und Beton. Im dritten Teil der vorliegenden Arbeit wird daher der Einfluss der Fließmittel und deren verflüssigender Wirkung auf die Festigkeitsentwicklung von Zementstein und C3S untersucht. Es konnte gezeigt werden, dass durch die dispergierende Wirkung der Fließmittel auch ohne Verminderung des Wasserzementwertes, eine Verdichtung des Zementsteingefüges erzielt werden kann. Es konnte weiterhin gezeigt werden, dass durch die Erhöhung der Partikelpackungsdichte am Anfang der Hydratation die Ausbildung der festigkeitsgebenden C-S-H Phasen verändert wird. Ein dichteres Verwachsen dieser nanostrukturierten C-S-H Phasen ermöglicht einen zusätzlichen Festigkeitszuwachs.
Die Arbeit „Das Bild der Zwischenstadt“ sucht nach Möglichkeiten zur Qualifizierung der verstädterten Landschaft, für die Thomas Sieverts den Begriff „Zwischenstadt“ geprägt hat. Die Auseinandersetzung mit „räumlicher Identität“ steht dabei im Mittelpunkt: In deren Dekodierung und Inszenierung wird ein Potenzial erkannt, die Aufenthalts- und Erlebnisqualität der Zwischenstadt zu verbessern. Der Betrachtungsraum der Arbeit zwischen Frankfurt am Main und seinen prosperierenden Umlandgemeinden eignet sich in besonderer Weise, die „Anatomie der Zwischenstadt“ zu dekodieren. Schicht für Schicht wird der Versuch unternommen, die eigene Sprache dieses Raumes zu entziffern. Dabei werden Methoden der Beschreibung und Darstellung entwickelt, die den spezifischen räumlichen Eigenschaft der Zwischenstadt gerecht zu werden suchen. Die Ergebnisse dieser Auseinandersetzung lassen deutliche Transformationen in der Zwischenstadt erkennen und entheben sie aus ihrer vermeintlichen Eigenschaftslosigkeit. Orte mit Bedeutung, Zusammenhänge und Raumgeschichten werden lesbar, es zeigen sich Ansätze eigener Urbanität und Zentralität. Die Zwischenstadt hat sich von ihrer einseitigen Dependenz zur Kernstadt gelöst, tritt aber gleichzeitig in einen umfassenden Wandel, um sich geänderten Lebensformen und Bedürfnissen anzupassen. Ältere, den Raum prägende Einfamilienhausgebiete und Großsiedlungen, aber auch monofunktionale Gewerbegebiete und die typischen suburbanen Einkaufszentren erfüllen keineswegs mehr automatisch die Wohnwünsche und Anforderungen einer Dienstleistungs- und Freizeitgesellschaft. Die Arbeit greift die unverkennbare Transformation des Bildes der Zwischenstadt als Chance zur Qualifizierung dieses Raumes auf. Entwickelt werden Qualifizierungsmodelle, die der Tendenz zu Segregation und Abtrennung mit einer neuen Integrationskultur für die Zwischenstadt begegnen: Als prägender Lebensraum der Stadtregion muss die Zwischenstadt einen großen Teil der Bedürfnisse Ihrer Bewohner und Benutzer an den Raum befriedigen. Zunehmend sind diese Bedürfnisse nicht nur funktioneller Art, sondern werden überlagert von einem Bedürfnis nach Raumqualität, Verortung und Identifikationsmöglichkeiten. Für diese Bedürfnisse angemessene und auratische Raumbilder zu finden oder zu inszenieren, ist im Angesicht des Status Quo der Stadtlandschaft eine wichtige Herausforderung.
Die vorliegende Arbeit besitzt zwei Schwerpunkte. Zum einen wird das Einsatzhärten von Bauteilen basierend auf vorhandenen Materialmodellen simuliert. Zum anderen wird ein Konzept zur Abschätzung der Dauerfestigkeit einsatzgehärteter Bauteile vorgestellt, in dem wesentliche Ergebnisse der Wärmebehandlungssimulation als neue Ausgangsgrößen verwendet werden. Damit konnte erstmals ein geschlossenes werkstoffmechanisches Dauerfestigkeitskonzept für einsatzgehärtete Bauteile erarbeitet werden. Für die Analyse beliebiger Bauteilgeometrien ist eine Implementation der Materialmodelle in die FEM notwendig. Im Rahmen dieser Arbeit wurde das FE-Programm ABAQUS verwendet. Speziell für dieses FE-Programm wurde innerhalb dieser Arbeit das Subroutine-System ANTRI zur Simulation des Einsatzhärtens und Abschätzung der Dauerfestigkeit für einsatzgehärtete Bauteile entwickelt. Zur Verifikation des Subroutine-Systems ANTRI wurden experimenteller Ergebnisse aus der Literatur herangezogen. Für alle untersuchten Beispiele wurde eine sehr gute Übereinstimmung zwischen experimentell ermittelten Daten und simulierten Daten festgestellt.
Kein anderes Material hat im 19. Jahrhundert das Design und die Architektur beeinflußt, wie die Kunststoffe. Das Feld der Realisationen und der Projekte des gesamten Kunststoffbaus ist dabei aufgrund der unterschiedlichen Kunststoffarten und somit Ausführungen sehr weitläufig. Daher begrenzt sich diese Untersuchung auf die glasfaserverstärkten Kunststoffe (GFK). Die Glasfasern übertragen die auftretenden Kräfte und werden durch das sie umschließende Harz gebunden. Die GFK sind daher bestens für tragende Bauteile geeignet. Die glasfaserverstärkten Kunststoffe durchliefen in den 1940er bis 1970er Jahren eine für einen Baustoff kurze aber sehr ergiebige Pionierphase. Die umfassende Analyse der drei zu unterscheidenden Perioden setzt sich aus der Untersuchung der wirtschaftlichen, politischen, gesellschaftlichen und kulturellen Beeinflussungen zusammen. Circa 260 unterschiedliche Projekte wurden weltweit aus selbsttragenden / tragenden GFK-Bauteilen realisiert. Diese sind ausführlich innerhalb des Kataloges im Anhang aufgelistet. GFK-Bauten waren nicht allein aufgrund des neuen Materials modern, sondern auch aufgrund ihrer freien Formbarkeit, transluzenten Flächen und auffälligen Farben und den flexiblen Nutzungskonzepten entsprechend einer modernen demokratischen Gesellschaft, die aufgeschlossen und optimistisch der Zukunft gegenübersteht. Die Realisationen, die zum Teil bis heute noch genutzt werden, beweisen den hohen Wissensstand der Pioniere. Die von den Pionieren gesuchte GFK-Architektur war eine sehr vielfältige, die sich nicht auf wenige Formenmerkmale zusammenfassen läßt. Das neue Material ermöglichte es den Architekten, ihre Vorstellungen und Träume von Formen, Gehäusen und Bauten zu realisieren. Die Analyse der Vorgänger und der Inspirationsquellen diese Formenvielfalt sind Grundlage einer objektiven Beurteilung dieser Bauten. Architekten und Bauingenieure suchten ideale Einsatzgebiete und Konstruktionsvarianten für den bis dahin assoziationsfreien Baustoff. Die Nutzungskonzepte: Wohnhaus, Zweithaus, Ausstellung, Spielgerät und die Entwicklung von Gebäudeteilen: Gebäudehülle, Überdachung, Fassade werden im Gesamtzusammenhang und nach der optimalen Verwendbarkeit untersucht. Das Wissen über den Verlauf der Pionierphase der GFK, die damals formulierten Gründe für und wider deren Einsatz und der entwickelten Konstruktionen, Verbindungstechniken und Tragwerke kann einem erneuten Einsatz des Baumateriales nur dienlich sein. Anliegen dieser Dissertation ist es, die GFK als einsatzfähige Werkstoffe innerhalb der Architekturlandschaft wieder einen Platz zu geben. Diese Analyse soll verschüttetes Wissen aufdecken, die in den 1970er Jahren entstandenen Vorurteile sichtbar machen und die glasfaserverstärkten Kunststoffe als das darstellen, was sie sind, leistungsfähige Baustoffe für gekrümmte und gefaltete Konstruktionen.
In der vorliegenden Arbeit werden die experimentellen Ergebnisse eigener Untersuchungen an unbewehrtem und bewehrtem polymermodifiziertem Beton unter mehrfach wiederholter Druck- und Zugbeanspruchung vorgestellt und mit den Ergebnissen ähnlicher Versuche an Normalbeton und hochfestem Beton verglichen. Besondere Aufmerksamkeit wird dabei dem Formänderungsverhalten, der Steifigkeitsdegradation und der Energiedissipation sowie dem Kriechverhalten und der Mitwirkung des Betons zwischen den Rissen gewidmet. Die beobachtete signifikante Steifigkeitsdegradation sowie der ausgeprägt nichtlineare Zusammenhang zwischen der viskosen Verformung und der elastischen Stauchung zeigen, dass bei der Analyse der Kriech¬aus¬wirkungen des polymermodifizierten Betons auf das Tragverhalten entsprechender Kon¬struktionen neben den Gebrauchslasten auch die während der Lastgeschichte aufgetretenen maximalen Beanspruchungssituationen sowie die damit verbundenen Strukturveränderungen zu berücksichtigen sind. Auf der Basis der Versuchsergebnisse und der visko-elastisch-plastischen Kontinuumsschädigungstheorie werden rheologische Modelle zur Beschreibung des zeit- und beanspruchungsabhängigen Tragverhaltens von Betonbauteile vorgeschlagen. Die numerische Umsetzung der vorgeschlagenen Modelle erfolgt unter Berücksichtigung des zeitabhängigen Materialverhaltens des Betons auf der Basis des HAMILTON-Prinzips unter Vernachlässigung der Trägheitskräfte. Durch eine zeitliche Diskretisierung kann die Problembeschreibung auf das Prinzip von LAGRANGE vom Minimum des Gesamtpotentials zurückgeführt und als nichtlineare Optimierungsaufgabe formuliert werden. Die Simulation des beanspruchungsabhängigen Tragverhaltens von Stahlbetonverbundquerschnitten verdeutlicht die Qualität und Leistungsfähigkeit der vorgeschlagenen Modellbildung.
Die Dissertation erschließt der deutschen Forschung die derzeit weltweit vergebenen nationalen Umweltzeichen. Dabei steht nicht der politische Kontext, sondern die gestalterisch-formale und inhaltliche Standortbestimmung, Analyse und Interpretation der Zeichenfamilie im Vordergrund. Teil I der Arbeit unterwirft den Untersuchungsgegenstand einer semiotischen Analyse nach Umberto Eco und diskutiert die Umweltzeichen im Kontext von graphischen Zeichen, Markenzeichen, Piktogrammen und Emblemen. Ein kurzer Abriss der Geschichte von Natur- und Welt-, d.h. Globusdarstellungen lotet den Bildervorrat aus, auf den zur Darstellung von 'Umwelt' zurückgegriffen werden kann. Das Umweltzeichen-Design, so zeigt sich, arbeitet mit den rhetorischen Figuren des pars pro toto bzw. des totum pro parte, um die kulturelle Einheit von /Umwelt/ und /Umweltschutz/ graphisch zu fassen. Teil II, der Hauptteil der Arbeit, besteht aus der ikonographischen Analyse und ikonologischen Interpretation aller nationalen Umweltzeichen gemäß Theorie und Methode von Aby Warburg und Erwin Panofsky. In 30 Kapiteln werden für jedes Zeichen Informationen zu Design und Designer/in, Entstehungsjahr, Abbildungsvorschriften und Intentionen der Vergabeinstitutionen zusammengestellt und die Vor-Bilder und Hintergründe zu einer ikonographisch-ikonologischen Deutung zusammengetragen. Insbesondere für die in der Arbeit detaillierter analysierten Zeichen aus Deutschland, Japan, Kanada, den USA, Österreich und Skandinavien ermöglicht die Untersuchung tiefe Einsichten in die Kulturgeschichte des jeweiligen Vergabelandes. Erkenntnisinteresse der Arbeit ist für jedes einzelne Zeichen die Entschlüsselung des (inter)kulturellen Bildgedächtnisses zum Thema /Umweltschutz/ vor dem Hintergrund der Herkunftskultur und ihrer nationalen Mythen. Farbgebung und Zeichenbildungsstrategien zeigen beim Untersuchungsgegenstand den Verzicht auf Signalement und Originalität. Neue nationale Umweltzeichen werden mehr und mehr aus dem Bildervorrat bestehender Umweltzeichen geschaffen. Die synchrone Vernetzung der Zeichen tritt gegenüber der diachronen Verankerung im Bildervorrat der Herkunftskultur immer stärker in den Vordergrund. Obwohl international einheitliche Gestaltungsrichtlinien fehlen, entsteht so eine globale Zeichentradition. Angesichts insbesondere des Designs und Re-Designs asiatischer Zeichen drängt sich abschließend die Frage auf, ob die eigentliche Zielgruppe der nationalen Umweltzeichen noch der einheimische Konsument ist oder ob – insbesondere in den Schwellenländern – die nationalen Umweltzeichenprogramme zum außenpolitischen Instrumentarium geworden sind, mit dem man sich in der Staatengemeinschaft positioniert.
Problemstellung, Stand der Forschung und Zielsetzung der Arbeit Seit mehreren Jahren bestimmen veränderte Zielsetzungen in Europa den politischen Handlungsrahmen in der Organisation der Wasserwirtschaft und folgen dem Trend zu stärker ökonomisch und ökologisch ausgerichtetem Handeln. So fordert die Europäische Wasserrahmenrichtlinie u.a. die Umsetzung einer flussgebietsorientierten Bewirtschaftung der Oberflächengewässer und des Grundwassers innerhalb bestimmter Fristen. Derzeitige Modernisierungskonzepte der Wasserwirtschaft fokussieren im Wesentlichen die Organisationsstrukturen kommunaler Aufgabenträger und deren Unternehmen, nicht aber eine Veränderung der umfassenden politischen und verwaltenden Organisationsstrukturen zur Steuerung der operativen Ebene. Die angestrebte Modernisierung wird daher insbesondere in kleinteiligen und komplexen, so genannten fragmentierten Organisationsstrukturen mit einer ausschließlich auf Unternehmen fokussierten Betrachtung nicht erreichbar sein. Diese kaum erforschten Strukturen bieten aufgrund der bestehenden Intransparenz und Komplexität der zahlreichen Organisationselemente vielfältige Ansatzpunkte für Optimierungsmöglichkeiten. Den entsprechenden Stand der Forschung bilden nur grundlegende Ansätze zur Betrachtung des Zusammenwirkens von Akteuren in Organisationsstrukturen sowie entsprechende Optimierungsansätze der Organisations- und Managementtheorien. Sie beziehen sich meist nur auf Unternehmen allgemein. Es fehlen derzeit umfassende und transparente Darstellungen der komplexen Organisationsstruktur der Wasserwirtschaft. Zielsetzung der vorliegenden Arbeit ist es, eine ganzheitliche Modernisierung insbesondere fragmentierter Wasserwirtschaftsstrukturen voranzutreiben. Es soll eine Steigerung der gesamten Leistungsfähigkeit sowohl der politischen, der verwaltungs- als auch der unternehmensbezogenen Organisationsstrukturen in der Wasserwirtschaft erreicht werden. Vorgehensweise und Methodik In einer Situationsanalyse wird ein umfassender politischer, verwaltungs- und unternehmensorientierter Organisationsrahmen mit den Handlungsspektren transparent gemacht. Nicht nur unternehmensorientierte, sondern ebenso politische und verwaltungsorientierte Akteure der Organisationsstrukturen werden dabei als potenziell Handelnde analysiert. Schwerpunkt ist dabei insbesondere das Zusammenwirken bestehender kleinteiliger oder so genannter fragmentierter Organisationsstrukturen. Aus weiteren mit theoretischen Abhandlungen zu Aufwand, Nutzen, Werten und Wertketten des akteursbezogenen Handlungsspektrums wird ein Werthandlungsmodell für die Wasserwirtschaft entwickelt. Internationale Organisationsmodelle der Wasserwirtschaft werden hinsichtlich gesamtheitlichen Zusammenwirkens untersucht. Dem folgt eine empirische Untersuchung der Aufgabenträger des Thüringer Strukturhilfeprogramms der Jahre 1999 bis 2006, um weitere Erkenntnisse über fragmentierte Organisationsstrukturen zu gewinnen. Aus den in Theorie und Praxis gewonnen Erkenntnissen wird ein Instrument zur Entscheidungsunterstützung in mehren Schritten entwickelt, das Entscheidungsträger auf nationaler Ebene beziehungsweise entsprechender föderaler Zuständigkeit darin unterstützt, die Leistungsfähigkeit der Organisationsstrukturen der Wasserwirtschaft im Sinne eines effizienten Erreichens gesetzter Qualitätsziele zu optimieren. Ergebnisse Die ökonomisch-technische Arbeit gibt Hilfestellung bei geeigneten Optimierungsanstrengungen in für die Wasserwirtschaft typischen fragmentierten Organisationsstrukturen. Das fünfstufige Werthandlungsmodell mit seiner transparenten Darstellung des Zusammenspiels operativer, administrativer und politischer Akteure liefert Handlungsansätze für eine verbesserte Erfüllung der veränderten Zielsetzungen in Europa. Im Gegensatz zu bisherigen ausschließlich unternehmensspezifischen Darstellungen erlaubt das Modell eine institutionen- beziehungsweise unternehmensübergreifende Untersuchung. Diese wird den Belangen wasserwirtschaftlicher Organisationsstrukturen gerecht, die sich bisher an politischen anstatt an wasserwirtschaftlichen Grenzen orientieren. Eine modellbezogene Untersuchung mehrerer Fusionsprojekte ergab im Wesentlichen, dass Versorgungsgebiete kleiner Aufgabenträger am stärksten vom Zusammenwirken mit einer größeren Einheit profitieren können. Hierbei können Probleme unzureichender personeller und struktureller Ressourcen gelöst und eine ordnungsgemäße Betriebsführung erreicht werden. Das Zusammenwirken führt neben Aufwandsoptimierungen zu essentiellen Qualitätsverbesserungen in den Betriebsabläufen, die die Betriebssicherheit erhöhen. Zudem erlaubt das Zusammenwirken in größeren Einheiten die Implementierung einer ganzheitlichen Unternehmensphilosophie und damit eine qualifizierte Steuerung von Eigen- und Fremdleistungen. Die vorgenommene Systematisierung der Synergieeffekte sowie der dazu notwendigen Maßnahmen und Voraussetzungen bietet eine grundlegende Struktur, an der sich weiterführende Untersuchungen von Projekten der Zusammenarbeit in der Wasserwirtschaft orientieren können. Aus den Untersuchungen zu internationalen Organisationsansätzen und regionalen Fusionsprojekten lässt sich folgern, dass über ein geeignetes Zusammenwirken in der Wasserwirtschaft nur fallbezogen zu entscheiden ist. Diese Erkenntnis führte zu der Entwicklung eines Instrumentes, das die Organisationsstrukturen transparent macht und die Entscheidungsfindung unterstützt. Die Anwendung des Instrumentes zur Entscheidungsunterstützung bietet die Chance, geeignete organisatorische Veränderungen hin zu einer zukunftsorientierten Wasserwirtschaft unter Berücksichtigung regionaler Aspekte durchzuführen und gleichzeitig Synergiepotenzial bei einer Zusammenlegung kleiner Unternehmen mit anderen Unternehmen realisieren zu können. Fallstudien behandeln das Instrument und unterstützen die adressierten Entscheidungsträger darin, sich ein klares Bild über das mögliche Optimierungspotenzial durch Veränderungen der umfassenden Organisationsstrukturen zu machen. Dies fördert sowohl eine optimierte Koordination der Handlungsportfolios als auch deren Umsetzung. Die Arbeit bietet einen Anhalt für eine intensivere Begleitung und Aufarbeitung von Kooperations- und Konzentrationsprozessen insbesondere an Schnittstellen zwischen Aufgabenträgern, Unternehmen und Behörden der Wasserwirtschaft. Die Zuordnung, welche Akteure von den Chancen der Wertbeitragssteigerung am stärksten profitieren, bleibt die Aufgabe der politischen Willensbildung. Abschließend ist festzustellen, dass die Wasserwirtschaft nur dann den ehrgeizigen Zielen politischer Willensbildung nahe kommt und dem Wohle der Gesellschaft dient, wenn sie in geeigneten Organisationsstrukturen stattfindet. Hierfür liefert die beschriebene Arbeit ihren Beitrag, indem sie Entscheidungsträgern auf Bundes- und Länderebene das Handwerkszeug bereitstellt, geeignete Veränderungen der Strukturen abwägen und veranlassen zu können.