Refine
Document Type
- Doctoral Thesis (494) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (14)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
- Professur Holz- und Mauerwerksbau (10)
- Professur Raumplanung und Raumforschung (10)
- Professur Allgemeine Baustoffkunde (9)
- Professur Baumechanik (9)
- Professur Content Management und Webtechnologien (9)
- Professur Massivbau I (9)
- Professur Grundbau (8)
- Professur Systeme der Virtuellen Realität (8)
- Professur Angewandte Mathematik (7)
- Professur Betriebswirtschaftslehre im Bauwesen (7)
- Professur Entwerfen und Architekturtheorie (7)
- Graduiertenkolleg 1462 (6)
- Professur Baumanagement und Bauwirtschaft (6)
- Professur Geschichte und Theorie künstlicher Welten (6)
- Professur Werkstoffe des Bauens (6)
- Bauhaus-Institut für zukunftsweisende Infrastruktursysteme (b.is) (5)
- Medienkunst/Mediengestaltung (5)
- Professur Geschichte und Theorie der Kulturtechniken (5)
- Professur Medieninformatik (5)
- Professur Medienmanagement (5)
- Professur Medienphilosophie (5)
- Professur Mediensicherheit (5)
- Professur Soziologie und Sozialgeschichte der Stadt (5)
- Professur Stahlbau (5)
- Professur Tragwerkslehre (5)
- Professur Verkehrsplanung und Verkehrstechnik (5)
- bauhaus.institut für experimentelle Architektur (5)
- Freie Kunst (4)
- Institut für Konstruktiven Ingenieurbau (IKI) (4)
- Professur Bauphysik (4)
- Professur Baustatik und Bauteilfestigkeit (4)
- Professur Bodenmechanik (4)
- Professur Informations- und Wissensverarbeitung (4)
- Professur Modellierung und Simulation - Mechanik (4)
- Geschichte und Theorie der Kunst (3)
- Professur Aufbereitung von Baustoffen und Wiederverwertung (3)
- Professur Bauaufnahme und Baudenkmalpflege (3)
- Professur Experimentelle Konstruktions- und Materialanalyse (3)
- Professur Interface Design (3)
- Professur Modellierung und Simulation - Konstruktion (3)
- Professur Planung von Ingenieurbauten (3)
- Professur Siedlungswasserwirtschaft (3)
- Bauhaus-Institut für Geschichte und Theorie der Architektur und Planung (2)
- Geschichte und Theorie des Design (2)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (2)
- Junior-Professur Augmented Reality (2)
- Produktdesign (2)
- Professur Abfallwirtschaft (2)
- Professur Bauformenlehre (2)
- Professur Bauklimatik (2)
- Professur Entwerfen und Baukonstruktion (2)
- Professur Marketing und Medien (2)
- Professur Massivbau II (2)
- Professur Stahl- und Hybridbau (2)
- Professur Stochastik und Optimierung (2)
- Professur Strömungsmechanik (2)
- Professur Theorie und Geschichte der modernen Architektur (2)
- Professur Wasserbau (2)
- Architekturgeschichte (1)
- Arts and Research (1)
- Fachbereich Medieninformatik (1)
- Geschichte und Theorie der Visuellen Kommunikation (1)
- Institut Geotechnik Weimar (1)
- Junior-Professur Computational Architecture (1)
- Junior-Professur Psychophysiologie und Wahrnehmung (1)
- Juniorprofessur CAD in der Bauinformatik (1)
- Juniorprofessur Polymere Bindemittel und Baustoffe im Bauwesen (1)
- Juniorprofessur Urban Energy Systems (1)
- Kompetenzzentrum Medienanthropologie (KOMA) (1)
- Materialforschungs- und -prüfanstalt an der Bauhaus-Universität (1)
- Professur Biotechnologie in der Ressourcenwirtschaft (1)
- Professur Computergestütztes kooperatives Arbeiten (1)
- Professur Darstellungsmethodik (1)
- Professur Datenbanken und Kommunikationssysteme (1)
- Professur Entwerfen und Baugestaltung (1)
- Professur Entwerfen und Industriebau (1)
- Professur Entwerfen und Innenraumgestaltung (1)
- Professur Entwerfen und Städtebau I (1)
- Professur Entwerfen und ländliches Bauen (1)
- Professur Gebäudetechnik (1)
- Professur Geotechnik (1)
- Professur Graphische Datenverarbeitung (1)
- Professur Konstruktives Entwerfen und Tragwerkslehre (1)
- Professur Medienwissenschaft (1)
- Professur Stadtplanung (1)
- Professur Verfahren und Umwelt (1)
- Professur Verkehrsbau (1)
- Professur Verkehrssystemplanung (1)
- Professur Wahrnehmungslehre, Geschichte und Theorie der Kommunikation und der Medien (1)
- Professur für Philosophie und Ästhetik (1)
- Visuelle Kommunikation (1)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
Year of publication
In the history of 'villages' in Shenzhen, rich traditional cultural resources that are directly related to the folk life in urban corporate community still exist today, synchronously agricultural economy of urban corporate community is transformed into joint-stock economy, and natural villages are transformed into 'heterogeneous' space of city. The most significant fact in the modern social transition is that modern societies have surpassed traditional societies, and cities have surpassed the country. Weber, Durkheim, Tönnies, Simmel and others devoted themselves to cultivating the essence of social transition. The most influential theory to observe and analyze it is the two-tiered approach of ideal type. Tönnies made distinction between 'Gemeinschaft and Gesellschaft', Durkheim distinguished 'mechanical solidarity and organic solidarity', and Redfield analyzed 'folk society and urban society'. In those classical theories, the former transit to the later is considered to be a general rule of transition from traditional society to modern society, and from traditional community to modern community. However, ever since Redfield used the dependent relationship and interactive framework of 'great tradition' and 'little tradition' to explain various complicated phenomena in the transition from tradition to modern in 1950s, he suggested that a folk-urban continuum can be formed in the transition from folk society to urban society. 'Both terms, ‘city’ and ‘country’, are not and have never been limited or restricted to their obvious denotations: ‘city’ is not and has never been only urban. As a category it always encompasses (includes, embodies, embraces) itself and its opposite, the country' (Hassenpflug 2002, 46). Generally, social groups and culture characterized by weak 'potential' will take their own 'little tradition' as 'bridge' and agency, in order to enter or melt themselves into a 'great tradition' that embodies great 'potential' to seek for space to live and develop. There are many different types of transitions that villagers enter and get melt into 'great tradition' through their individual 'little tradition'. There are exploration and development of traditional resources in 'segmentation', such as the frequent relation between a great flow of peasants to cities and the network of kinship, and of earthbound relations; alternatively, there are assistances and utilization of resources of a whole corporate network, such as the traditional corporate community’s organization of local resources during the process of non-agriculturization of villages; and 'villages' in Shenzhen is of the latter situation. The following conclusion can be made based on the above analyses: urban corporate community formed in the process of non-agricultural development and urbanization is an organizing dependency on which villagers melt into city and adapt to urban life. The unique inner-structure and function determine that comparing with other organizations, it has a better performance, efficiency and more humanity care. Firstly, corporate community which is re-organized in the non-agricultural process currently is the only and the most effective organizational resources that can be utilized and has significant meanings in protecting villagers’ interest and benefit; secondly, in the short term, other approaches do not have the advantage and the effect as urban corporate community has on the focusing degree of public affairs in the comprehensive urbanization process; thirdly, the 'new' key connotation of urban corporate community, including its community management functions, is the main reason for which such community has the rationality of being; fourthly, urban corporate community will inevitably face many problems in the urbanization due to its inner fixed characteristics (lack of external support), but to a certain degree it has the ability to self-repair and problem solving under the precondition that, the government and society have a fair, impersonal view of 'villages', and base on this view providing multi-supports, especially providing rational system arrangement and policy supports. Consequently, in order to preserve and protect social system and cultural heritage within the 'villages', and gradually make the coordinative development of 'great tradition' represented by cities and of 'little tradition' represented by 'villages', 'soft reconstruction' rather than 'hard reconstruction' should be adopted by the government, during the recent reconstruction of 'villages' in Shenzhen.
Die Instandhaltung der städtischen Trinkwassernetze ist Aufgabenschwerpunkt der Wasserversorgungsunternehmen bzw. Netzbetreiber. Dazu notwendige Rehabilitationsplanungen stützen sich zurzeit weitgehend auf die Trendprognose von Schadensraten und die Erfahrungen der Mitarbeiter. Der Einfluss wesentlicher Kenngrößen wie Werkstoffeigenschaften oder die Resttragfähigkeit des Rohres bleiben hierbei größtenteils unberücksichtigt. Über materialtechnische Untersuchungen werden die notwendigen Kenngrößen ermittelt, die eine zuverlässige Bewertung des technischen Zustands des Rohrstrangs ermöglichen. So lassen sich die Prognose der technischen Nutzungsdauer und Rehabilitationsplanungen auf eine solide Basis stellen. In dieser Dissertationsschrift wird hierzu ein Untersuchungs- und Bewertungsalgorithmus mit integrierten Prognoseverfahren erarbeitet.
Die Bauaufgaben der Zukunft liegen in der Auseinandersetzung mit bestehender Architektur. Die planerische Herausforderung besteht im Verzicht auf den Neubau durch die Umnutzung und den Umbau existenter Gebäude. Umnutzung und Umbau sind Werterhaltungsstrategien, die den Lebenszyklus eines Gebäudes als integralen Bestandteil der Planung betrachten und deren Ziel es ist, ungenutzte Bestandsgebäude durch keine oder wenige bauliche Eingriffe so zu verändern, dass sie einer Weiternutzung zugeführt werden können. Die Umnutzung unterliegt der Prämisse, dass an den Gebäuden keine baulichen Veränderungen vorgenommen werden, wohingegen der Umbau bauliche Eingriffe gestattet. Als Alternative zum Neubau ist der Erfolg beider Strategien entscheidend davon abhängig, dass der Architekt schon zu Beginn der Planung zu der Entscheidung gelangt, ob sich ein Gebäude unter Anwendung einer der beiden Strategien weiternutzen lässt. Diese Entscheidung wird vom Architekten in der Praxis durch einen Vergleich des Soll-Zustands (Raumprogramm) mit dem Ist-Zustand (Bestandsgrundriss) des Gebäudes getroffen. Die Analyse und Bewertung des Bestandes erfolgt in dieser frühen Phase der Planung in Form von Vorentwurfsskizzen, welche die organisatorischen oder baulichen Veränderungen der Gebäudegrundrisse im Falle einer Weiternutzung darstellen. In dieser Arbeit wird die Hypothese aufgestellt, dass der Vergleich des Raumprogramms mit dem Gebäudegrundriss im Wesentlichen eine kombinatorische Problemstellung darstellt. Unter dieser Annahme wird untersucht, ob durch den Einsatz von Optimierungsverfahren in der Grundrissplanung Lösungen für Umbau- und Umnutzungsaufgaben automatisiert erzeugt werden können. Ziel ist es, durch den computergestützten Einsatz dieser Verfahren zu plausiblen Planungslösungen, die dem Architekten als Grundlage für die weitere Bearbeitung der Planung dienen, zu gelangen.
Die Arbeit beschäftigt sich mit der Entstehung eines ökonomischen Kraftmaßes am Beispiel der Maschine von Marly im Zeitraum von ca. 1680 bis 1840. Die Leitthese der Dissertation besagt, dass vom 17. zum 19. Jahrhundert eine grundlegende Transformation des Maschinenbegriffs stattfand, die als Übergang vom Substanzbegriff zum Funktionsbegriff der Maschine bezeichnet werden kann. Im 17. Jahrhundert wurden mechanische Apparate als in sich geschlossene, selbstbezügliche Strukturen aufgefasst. Als anschaulich erfahrbare Objekte konnten sie als Bildgeber dienen, die mittels des Verfahrens der Strukturanalogie Erklärungsmuster für verschiedenste Phänomene (Körper, Staat, Welt) boten. Demzufolge galten sie als selbstevident: sie waren erklärend und mussten selbst nicht erklärt werden. Ihr etwaiger Zweck und ihre Einbettung in gesellschaftliche Zusammenhänge spielten dabei keine Rolle. Wie anhand der Beschreibungen und Darstellungen aus jener Zeit nachgewiesen werden kann, wurde die Maschine von Marly innerhalb dieser Episteme als architektonisches Objekt wahrgenommen, bei dem vor allem das Zusammenspiel der einzelnen Elemente Aufmerksamkeit erregte. Wie andere Maschinen auch stand sie unter dem Primat der Sichtbarkeit. Man war davon überzeugt, dass die Eigenschaften einer Maschine von der strukturellen Anordnung ihrer Bauteile abhingen und glaubte, ihre Qualität an ihrer Gestalt ablesen zu können. Ab der Mitte des 18. Jahrhunderts tauchte die Maschine von Marly in den Schriften physiokratischer Autoren auf. Zuerst diente sie dort als Beispiel für die Verschwendungssucht Louis’ XIV. und als Metapher für eine schlechte Einrichtung des Staates. Doch zunehmend begann man, sie auch in ihrer Faktizität als technisch-politisches Objekt zu begreifen. Man kritisierte ihre aktuelle Nutzung und schlug andere Möglichkeiten ihrer Verwendung vor, etwa die Bewässerung von Feldern oder die städtische Trinkwasserversorgung. Damit war die Maschine von Marly nicht länger ein Modell für die Einrichtung des Staates, das nur am Maßstab der immanenten Perfektion beurteilt werden konnte. Vielmehr war sie nun ein Instrument der Regierung, das sich als Teil eines staatlich verfassten Gemeinwesens verantworten musste. Als solches wurde sie auch zu einem bevorzugten Gegenstand aufklärerischer Reformprojekte. Das zeigt sich besonders deutlich am Wettbewerb, den die Pariser Akademie der Wissenschaften 1784-1786 organisiert hatte und der Vorschläge zur Verbesserung oder Ersetzung der Maschine von Marly zum Gegenstand hatte. Die Auswertung der mehr als 100 eingereichten Projekte und Memoranden ermöglicht einen einzigartigen Blick auf die Hoffnungen und Wünsche, die Ende des 18. Jahrhunderts an die Erfindung technischer Geräte gekoppelt waren. Um 1800 kann man die allmähliche Entstehung eines Funktionsbegriffs der Maschine bemerken. Lazare Carnots Essai sur les machines en général, der eine in der Sprache der Algebra artikulierte Definition der Maschine beinhaltete, trug maßgeblich dazu bei, die Anschaulichkeit zugunsten eines operativen Symbolismus zu delegitimieren. Erst dadurch war die Formulierung eines Effizienzkalküls möglich. Ergänzt wurde diese Formalisierung durch den Diskurs der Industrialisierung, in dem technische Apparate zunehmend als Produktionsmittel verstanden wurden. Die Maschine von Marly war ein wichtiger Schauplatz für die Entstehung eines ökonomischen Kraftmaßes. Nicht nur wurden dort Experimente mit verschiedenen Messinstrumenten (Dynamometern) durchgeführt, auch diente sie Joseph Montgolfier als Beispiel um zu beweisen, dass Kraft als Geldwert ausgedrückt werden könne. In den ersten Jahrzehnten des 19. Jahrhundert wurden Maschinen schließlich relational als Positionen innerhalb eines nationalen Produktionssystems definiert. Sie galten als Krafttransformatoren, bei denen ein bestimmter Input von ‚force motrice’ einen entsprechenden Output von ‚travail utile’ ergeben würde. Ihre vornehmlichste Aufgabe war die möglichst effiziente Ausnutzung der Kraftressourcen. Den vorläufigen Endpunkt erreichte die Entstehung des ökonomischen Kraftmaßes um 1830 mit der Formulierung des Begriffs der ‚mechanischen Arbeit’.
The main hypothesis of this research is that civil society’s participation is able to improve the planning results in the Chinese city of Qingdao in the contemporary age. Qingdao is a young city developed from a German colony in eastern China. Apart from the powers of the government and the market, the 'third power', including mainly the power of volunteer citizens and the citizens’ organisations, also positively promoted the spatial development in Qingdao’s history. Since 1978’s reform, Qingdao’s great progress in urban housing, historic preservation, public space and urban traffic results mainly from the increasing strength of both the government and the market, while the government has always been the dominant promoter for urban construction. The actual planning mechanism – the government formulates 'what to do' itself and decides 'how to do it' with the market – has much limit in reacting to the rapidly changing situation, serving diversified social interests, and raising sufficient funds for the city’s urgent demands in Qingdao. Searching for new development strategies based on the understanding of civil society in the Chinese context can provide a promising perspective on the urban studies of Qingdao. Chinese civil society can be understood as the intermediate sphere of individuals, families, citizen’s organisations, social movements, public communication, and of the non-governmental body’s non-for-profit involvement for the provision of public services between the state and the market. China has its own cultural tradition of civil society, and the modern civil society in China is showing its great potential in improving social integration and urban life. The Chinese government has started to advocate for civil society’s participation in urban construction, and encouraging the 'bottom-up' mechanism in the planning-related issues through political statements and legislative approaches since the last two decades. The existing planning practice in China is able to demonstrate that civil society’s participation helps improve the quality of Chinese urban planning realistically under present conditions, and that moderation of planning experts and the push of the authority are the key factors for successfully integrating the strength of civil society in planning. However, the power of civil society is not yet sufficiently discovered in Qingdao’s planning. For better planning results, the city of Qingdao needs more initiatives to mobilize civil society in the planning practice, as well as more support to enrich the related studies. This thesis recommends that Qingdao establishes the 'Foundation for Collaborative Urban Solutions' through the joint efforts of the authority and civil initiatives, which aims at moderating and facilitating the strength of civil society. The suggested pilot projects include: a. The Community-based Housing Workshop for regenerating the living environment of the run-down communities, where the residents are willing to collaborate with the foundation with own efforts. b. The Heritage Preservation Workshop for suggesting an efficient supervision mechanism involving civil society which protects the historic heritage from being destroyed in the urban construction. c. The Public Space Forum for improving accessibility, quantity and ecologic function in the development of Qingdao’s urban public space with the knowledge and creativity of both the government and the citizens. d. The Mass Transport Forum for a realistic strategy for funding the rail-based traffic system in Qingdao through enabling the civil society - especially the individual citizens and their households to invest. The 'Foundation of Collaborative Urban Solutions' is able to improve Qingdao’s planning to cope with the urban problems the city are facing in its contemporary development, as well as to provide valuable reference for the further research of civil society’s participation in Chinese urban planning.
Die Dissertation widmet sich den 'Wiederholungsstrukturen in den Filmen von Jim Jarmusch'. Mit dem Thema soll ein neues Konzept der Filmanalyse vorgestellt werden. In seiner Methodologie beruht es auf dem Element der Wiederholung. Die Wiederholung tritt im Film semiotisch auf. Im modernen philosophischen Denken spielt die Wiederholung eine Rolle, indem sie auf bestimmte Weise differentiell auftritt. Im Film bildet die Wiederholung kennzeichnende Codierungen aus. In unterschiedlicher Hinsicht bietet es sich somit an, das Element als Schlüssel zur Filminterpretation aufzugreifen. Das neue Konzept unterscheidet sich von bisherigen filmischen Methoden dadurch, dass mit ihm über das standardisierte Begriffsinstrumentarium aus der Filmwissenschaft hinausgegangen wird, ohne diesem den Rücken zu kehren. Jedoch wird Filmanalyse anhand des Elements der Wiederholung nun genuin als Akt der semiotischen Interpretation und des philosophischen Lesens von Filmen begriffen. In diesem Rahmen beruht das Verstehen von Filmen auf einzelnen und komplexen Zeichen, die im Film Zeitlichkeit und Räumlichkeit herstellen. In poststrukturaler Hinsicht lässt sich die Wiederholung als das konstitutive Moment im Zeit-Bild von Gilles Deleuze verstehen. In der Philosophie gibt es aber noch andere Denker, bei denen die Wiederholung relevant ist. Wie lässt sich die Wiederholung als materielles Element im Film einerseits, als philosophisch Gedachtes andererseits für die Filmanalyse gewinnbringend einsetzen? In Beantwortung dieser Frage wird in der Untersuchung zu den 'Wiederholungsstrukturen in den Filmen von Jim Jarmusch' versucht, dem Konzept des auteur-structuralisme Rechnung zu tragen. In der Lektüre und Interpretation wird Jarmusch als Autor / auteur mit der Struktur seiner Filme 'identifiziert'. Mit der Verschränkung von Autor / auteur und filmischem Text wird auf Roland Barthes Forderung nach der 'Geburt des Lesers' eingegangen. Filme sind demnach auch dann lesbar, wenn der Autor / auteur selbst (in unserem Fall Jim Jarmusch) für das, was er produziert hat, nicht mehr einsteht. Das theoretische Ziel der Untersuchung liegt darin, Erkenntnisse über die filmische Wiederholung zu gewinnen, sowohl in Bezug auf das philosophische Denken der Wiederholung, als auch hinsichtlich ihrer materiellen Verkörperung. Das Denken der Wiederholung wird fragend behandelt, indem wissenschaftlich untersuchend in die filmische Illusion eingegriffen wird. Mit Blick auf das ganze filmische Schaffen Jarmuschs wird aufgezeigt, wie sich seine filmischen „möglichen Welten“ anhand der Aufschlüsselung der Zeichen interpretieren lassen. Die Untersuchung stellt somit ein bislang noch nicht angewandtes Konzept der Betrachtung von Filmen vor, das auch auf andere Filmautoren / auteurs und ihr jeweiliges künstlerisches Schaffen übertragbar wäre.
Für die Optimierung eines bereits bestehenden Prozesses, z.B. im Hinblick auf den maximal möglichen Durchsatz bei gleich bleibender Qualität der Pyrolyseprodukte oder für die Einstellung der Betriebsparameter bei einem unbekannten Einsatzstoff, kann ein mathematisches Modell eine erste Abschätzung für die Einstellung betrieblicher Parameter, wie z.B. Temperaturprofile im Gas und Feststoff, geben. Darüber hinaus kann man mit einem Modell für neu zu konzipierende Anlagen konstruktive Parameter ermitteln oder überprüfen. In dem hier dargestellten vereinfachten Modellansatz werden u. a. die Umsatzvorgänge für ein Partikelkollektiv mit Hilfe von Summenparametern aus Untersuchungen an einer Thermowaage und ergänzend im Drehrohr ermittelt. Das Prozessmodell basiert auf einem Reaktormodell, das das Verweilzeitverhalten des Einsatzstoffes im Reaktor beschreibt und einem Basismodell, bestehend aus Massen- und Energiebilanzen für Solid und Gas sowie Ansätzen zur Trocknung und zum Umsatz. Im Hinblick auf die Verfügbarkeit von stoffspezifischen Daten von Abfällen sind insbesondere zur Berechnung des Verweilzeitverhaltens und des Umsatzes im Heißbetrieb vereinfachende Ansätze durch die Bildung von Summenparametern hilfreich. Das Prozessmodell wurde schrittweise validiert: Zunächst wurde in Kaltversuchen ein Summenparameter, der u.a. die unbekannten Reibungsverhältnisse im Drehrohr berücksichtigt, durch Vergleich von Experiment und Rechnung für Sand ermittelt. Für heterogene Abfallgemische kann dieser Materialfaktor zwar für Kaltversuche bestimmt werden (soweit dies für Abfälle möglich ist), im Heißbetrieb ändern sich jedoch alle wesentlichen Stoffparameter wie Partikeldurchmesser, Schüttdichte und Schüttwinkel sowie die Reibungsverhältnisse. Für diesen Fall wird der Materialfaktor zu Eins gesetzt und die wesentlichen Stoffgrößen umsatzabhängig modelliert. Dazu ist die Kenntnis der Schüttdichten, statischen Schüttwinkel und mittleren Partikeldurchmesser vom Abfall und Koks aus dem Abfall notwendig. Die mit diesen Stoffdaten berechnete Verweilzeit wurde in einem Heißversuch bei der Pyrolyse von Brennstoff aus Müll- (BRAM) Pellets mit einem Fehler von ca. 20 % erreicht. Das Basismodell wurde zunächst ohne Umsatz an Messergebnisse mit Sand im Drehrohr unter Variation von Temperaturen und Massenstrom angepasst bevor mit diesem Modell die Pyrolyse von einem homogenen Einsatzstoff (Polyethylen mit Sand) im Drehrohr berechnet wurde. Hier konnte bereits gezeigt werden, dass mit diesem vereinfachten Modellansatz gute Ergebnisse beim Vergleich von Modell und Experiment erzielt werden können. Im nächsten Schritt wurde der Sand angefeuchtet, um die Teilmodelle der Trocknung unterhalb und bei Siedetemperatur zu validieren. Die Mess- und Modellierungsergebnisse stimmen gut miteinander überein. Für ein Abfallgemisch aus BRAM-Pellets konnte der Verlauf der Solidtemperaturen unter der Berücksichtigung variabler Stoffwerte des Solids und eines Verschmutzungsfaktors, der den Belag des Drehrohres mit anklebendem Pellets bis zur Verkokung berücksichtigt, gut wiedergegeben werden. Die Gastemperaturen können in erster Näherung ausreichend genau durch das mathematische Modell beschrieben werden. Mit diesem vereinfachten mathematischen Modellansatz steht nun ein Hilfsmittel zur Auslegung und Optimierung von indirekt beheizten Drehrohren zur Verfügung, um bei einem neuen Einsatzstoff mit Daten aus experimentellen Basisuntersuchungen, die Temperaturverläufe im Feststoff und Gas sowie die Gaszusammensetzung in Abhängigkeit der wesentlichen Einflussgrößen abzuschätzen.
Datenmodelle zur Bearbeitung von Ingenieuraufgaben am Beispiel von Wohnhäusern in Stahlbauweise
(2006)
Modelle bilden die Grundlage der Planung. Sie repräsentieren die zur Bearbeitung erforderlichen Eigenschaften eines Bauwerks in einer an die spezifische Aufgabe angepassten Form. Zwischen den verschiedenen zur Abbildung des Bauwerks eingesetzten Modellen bestehen fachliche Zusammenhänge bezüglich der darin abgebildeten Aspekte. Diese Abhängigkeiten werden in der praktischen Planungsbearbeitung gegenwärtig auf Grundlage von Erfahrungswerten, normativen Vorgaben und vereinfachenden Annahmen berücksichtigt. Die detailliertere Modellierung von Bauwerkseigenschaften führt zu einer engeren Verzahnung der verschiedenen Modelle. Um eine fachliche Inselbildung zu vermeiden, ist eine entsprechend angepasste Abbildung der zwischen den einzelnen Modellen bestehenden Beziehungen erforderlich. Mit den steigenden Ansprüchen an eine Bearbeitung von Ingenieuraufgaben gewinnt eine über den Zweck der Bereitstellung ausgewählter Informationen zum Bauwerk und der Unterstützung eines Datenaustauschs zwischen verschiedenen Fachplanern hinausgehende datentechnische Abbildung an Bedeutung. Dies setzt eine Diskussion der Anforderungen an eine solche Beschreibung aus fachlicher Sicht voraus. Die Untersuchung der fachlichen Anforderungen wird am Beispiel von Wohnhäusern in Stahlbauweise geführt.
Komplexität ist ein genuin architektonisches Problem. Der Begriff von Architektur als einer universellen Praxis bzw. ganzheitlichen Erkenntnisweise enthält bereits im Kern den Begriff 'Komplexität'. Beide Konzepte fallen weithin zusammen – Architektur kann damit als spezifische Denkform des Komplexen betrachtet werden. Das in der Arbeit aufgezeigte Dilemma besteht darin, dass der modernen Architektur ihr ursprünglicher Gestaltungsgegenstand – Komplexität – abhanden gekommen ist: 'Nönnig dekonstruiert zu Recht die hoch aggregierten Begriffe des Raumes und des Entwurfs. Die gesamte Arbeit zeigt, dass die modernen Beschreibungsformen von Komplexität gerade nicht in der Architektur entwickelt sind.' (Prof. Gerd Zimmermann, Weimar). Um dieses Defizit zu beheben und Architektur als eigenständige Wissenstechnik ('Technoepisteme') zu etablieren, wird ausgehend von spezifischen 'Praxis- und Diskursdefiziten' ein Theorieszenario entwickelt, mit dem und in dem Architektur sich als komplexe Wissensform verwirklicht (u.a. Komplexe Systeme, Design Sciences, Operationale Heuristik). 'Vorliegende Arbeit ist der Versuch […] die Architektur gewissermaßen wieder in den Stand zu setzen, der ihr im System des Denkens eigentlich zukommt […] Der Komplexitätsdiskurs in der Architektur ist zurück.' (Prof. Gerd Zimmermann, Weimar)
The importance of modern simulation methods in the mechanical analysis of heterogeneous solids is presented in detail. Thereby the problem is noted that even for small bodies the required high-resolution analysis reaches the limits of today's computational power, in terms of memory demand as well as acceptable computational effort. A further problem is that frequently the accuracy of geometrical modelling of heterogeneous bodies is inadequate. The present work introduces a systematic combination and adaption of grid-based methods for achieving an essentially higher resolution in the numerical analysis of heterogeneous solids. Grid-based methods are as well primely suited for developing efficient and numerically stable algorithms for flexible geometrical modeling. A key aspect is the uniform data management for a grid, which can be utilized to reduce the effort and complexity of almost all concerned methods. A new finite element program, called Mulgrido, was just developed to realize this concept consistently and to test the proposed methods. Several disadvantages which generally result from grid discretizations are selectively corrected by modified methods. The present work is structured into a geometrical model, a mechanical model and a numerical model. The geometrical model includes digital image-based modeling and in particular several methods for the theory-based generation of inclusion-matrix models. Essential contributions refer to variable shape, size distribution, separation checks and placement procedures of inclusions. The mechanical model prepares the fundamentals of continuum mechanics, homogenization and damage modeling for the following numerical methods. The first topic of the numerical model introduces to a special version of B-spline finite elements. These finite elements are entirely variable in the order k of B-splines. For homogeneous bodies this means that the approximation quality can arbitrarily be scaled. In addition, the multiphase finite element concept in combination with transition zones along material interfaces yields a valuable solution for heterogeneous bodies. As the formulation is element-based, the storage of a global stiffness matrix is superseded such that the memory demand can essentially be reduced. This is possible in combination with iterative solver methods which represent the second topic of the numerical model. Here, the focus lies on multigrid methods where the number of required operations to solve a linear equation system only increases linearly with problem size. Moreover, for badly conditioned problems quite an essential improvement is achieved by preconditioning. The third part of the numerical model discusses certain aspects of damage simulation which are closely related to the proposed grid discretization. The strong efficiency of the linear analysis can be maintained for damage simulation. This is achieved by a damage-controlled sequentially linear iteration scheme. Finally a study on the effective material behavior of heterogeneous bodies is presented. Especially the influence of inclusion shapes is examined. By means of altogether more than one hundred thousand random geometrical arrangements, the effective material behavior is statistically analyzed and assessed.
Moderne Büroarchitektur mit Räumen in Leichtbauweise und großen transparenten Fassa-denanteilen verschärft im Zusammenwirken mit hohen internen Lasten die Problematik der sommerlichen Überhitzung in Gebäuden. Phasenübergangsmaterialien (PCM: phase change materials) stellen eine interessante Möglichkeit dar, sommerliche Überhitzung in Gebäuden ohne aufwändige Anlagentechnik wie beispielsweise Klimaanlagen zu reduzieren. Der thermische Komfort in Räumen, die mit einem PCM-Putz ausgestattet sind, kann signifikant erhöht werden. Die Arbeit untersucht Anwendungsmöglichkeiten und Optimierungspotential eines PCM-Putzes auf experimentelle und numerische Weise. Zur Untersuchung des PCM-Putzes wurden materialtechnische und experimentelle sowie numerische und numerisch-analytische Methoden eingesetzt. Die Kenntnis der thermischen Parameter des PCM-Putzes ist unablässig für die Berechnung der möglichen Temperaturreduktionen. Zur Bestimmung der Latentwärme, des qualitativen Schmelz- und Erstarrungsprozesses sowie des Temperaturintervalls, in dem der Phasenübergang stattfindet, wurden Messungen mit einem Differential Scanning Calorimeter (DSC) durchgeführt. Für die experimentelle Untersuchung des PCM-Putzes wurden zwei identische Testräume in Leichtbauweise erstellt. Die Räume wurden im Verifikationsobjekt „Eiermannbau“ des Sonderforschungsbereiches SFB 524 der Bauhaus-Universität Weimar gemessen. Nach der Überprüfung, dass sich beide Räume thermisch gleich verhalten, wurde ein Raum mit dem PCM-Putz und der zweite Raum mit einem vergleichbaren Innenputz ohne PCM verputzt. Thermoelemente zur Temperaturmessung im Bauteil, an der Oberfläche und zur Raumlufttemperaturbestimmung wurden angebracht und mit einer Messwerterfassungsanlage verbunden. Der Verlauf der Außenlufttemperatur und die Globalstrahlung am Standort der Versuchsräume wurden aufgezeichnet, um einen Klimadatensatz zu erstellen. Für die Berechnung der Temperaturverteilung in einem PCM-Bauteil mit kontinuierlichem Phasenübergang existiert keine geschlossene analytische Lösung. Daher wurde ein numerischer Ansatz gewählt, bei dem der Phasenübergang im Temperaturbereich T1 bis T2 mit Hilfe einer temperaturabhängigen Wärmekapazität c(T) innerhalb der erweiterten Fou-rier’schen Wärmeleitungsgleichung dargestellt wird. Die Funktion c(T) wird auf Basis der DSC-Messungen bestimmt. Die Modellierung erfolgte mit einem Finite-Differenzen-Verfahren auf Grundlage der Fourier’schen Wärmeleitungsgleichung. Im Rahmen der Arbeit wurde ein PCM-Modul entwickelt, das in ein Gebäudesimulationsprogramm implementiert wurde. Mit dem neuen Modul lassen sich sowohl die Temperaturverläufe in einem PCM-Bauteil wie auch seine Wechselwirkung mit dem Raumklima darstellen. Eine Validierung des entwickelten PCM-Moduls anhand von zahlreichen experimentellen Daten der Versuchsräume wurde für das PCM-Modul erfolgreich durchgeführt. Sommerliche Überhitzungsstunden können durch PCM in Wand- und Deckenelementen deutlich reduziert werden. Der PCM-Putz eignet sich vor allem für Anwendungen in Leichtbauten wie z.B. moderne Büroräume. In Räumen, in denen bereits eine ausreichende thermische Masse vorhanden ist, ist die Temperaturreduktion durch PCM nur gering. Kann das PCM während der Nachtstunden nicht erstarren, erschöpft sich seine Fähigkeit zur Latentwärmespeicherung. Erhöhte Nachtlüftung führt bei entsprechend niedrigen Außentemperaturen zu höherem Wärmeübergang und kann damit zur besseren Entladung des PCM beitragen. Im Rahmen der Dissertation konnten Aussagen zur idealen Phasenübergangstemperatur in Abhängigkeit des verwendeten Materials und der Schichtdicke getroffen werden. Die Reduktion der Oberflächentemperaturen, die sich bei Einsatz eines PCM-Putzes unter geeigneten Randbedingungen ergibt, beträgt 2.0 - 3.5 K für eine Putzschicht von 1 cm und 3.0 - 5.0 K für eine Putzschicht von 3 cm. Diese Werte wurden sowohl numerisch als auch durch experimentelle Untersuchungen ermittelt. Die Reduktion der Lufttemperaturen aufgrund einer Konditionierung des Raumes mit PCM-Putz beträgt bei geeigneten thermischen Verhältnissen ca. 1.0 - 2.5 K für eine Putzschicht von 1 cm und 2.0 - 3.0 K für eine Putzschicht von 3 cm. Die operative Temperatur als wichtiger Komfortparameter kann durch den Einsatz des PCM-Putzes um bis zu 4 K gesenkt werden. Damit lässt sich mit Hilfe eines PCM-Putzes die thermische Behaglichkeit in einem Raum deutlich erhöhen.
Heutige Methoden zur Soll-Spezifikation von Bauleistungen (Kostenermittlung und zeitliche Ablaufplanung) gehen von einer abstrahierten und vereinfachten Betrachtung der Zusammenhänge bei Bauprojekten aus. Leistungsverzeichnisse, Kostenermittlungen und Bauzeitpläne orientieren sich nur indirekt an der Geometrie des Bauwerks und der Baustelle. Die dabei verwendeten Medien wie Papier, 2D-Dateien, digitale Leistungsbeschreibungen oder 3D-Darstellungen lassen die Suche nach Informationen auf der Baustelle zu einem zeitaufwändigen und in Anbetracht existierender Medientechnologien ineffizienten Prozess werden. Interaktive virtuelle Umgebungen erlauben die Auflösung starrer Zusammenhänge durch interaktive Eingriffe des Anwenders und visualisieren komplexe bauproduktionstechnische Vorgänge. Das Konzept der visuellen interaktiven Simulation der Bauproduktion sieht vor, die Soll-Spezifikation anhand eines interaktiven 3D-Modells zu entwickeln, um räumliche Veränderungen und parallele Prozesse auf der virtuellen Baustelle im Rahmen der Entscheidungsfindung zum Bauablauf besser berücksichtigen zu können. Verlangt man einen hohen Grad an Interaktivität mit dem 3D-Modell, dann bieten sich Computerspieltechnologien sehr gut zu Verifikationszwecken an. Die visuelle interaktive Simulation der Bauproduktion ist damit als eine 3D-modellbasierte Methode der Prozessmodellierung zu verstehen, die Entscheidungen als Input benötigt und die Kostenermittlung sowie die zeitliche Ablaufplanung als Output liefert.
Die Arbeit befasst sich mit der Anwendung faserverstärkter Kunststoffe für Tragwerke des Hochbaus. Es wird ein geschichtlicher Überblick über die Jahre 1950 bis 1980 gegeben und dabei herausgestellt, wie es 1. zur Einführung des bis 1950 unbekannten Werkstoffes im Bauwesen kommen konnte 2. welche Personen und Institute maßgeblich an der Einführung und Entwicklung des Bauens mit FVK beteiligt waren 3. welche Tragwerke verwendet wurden 4. wie die Pioniere diese Tragwerke bemaßen 5. welche konstruktiven Besonderheiten sich mit der Verwendung von FVK in der Tragstruktur ergaben Nach einer Einführung werden im Kapitel 2 die wichtigsten Faktoren der Entwicklung von Tragwerken aus GFK erörtert. Im Kapitel 3 wird die Technik der Fertigung von GFK-Teilen und deren Fügung beschrieben. Im Kapitel 4 werden die Tragwerke beschrieben und einzelne Tragwerkstypen eingehend erörtert. Im Kapitel 5 werden die Bemessungskonzepte und deren Entwicklung erörtert. In der Bilanz werden die Faktoren aufgezählt, die zum Abklingen des Bauens mit FVK in der Tragstruktur geführt haben. Die Arbeit wird ergänzt durch eine ca. 40-seitige Tabelle in der die gebauten Tragwerke in Abhängigkeit von den technischen Parametern Spannweiten und Lasten dargestellt werden. Im Anhang werden 10 exemplarische Bauten detailliert erörtert.
Eine zielführende Anwendung von Zusatzmitteln bei der Ausführung anspruchsvoller Betonbauten setzt einen hohen Kenntnisstand bezüglich der Wirkungsmechanismen und Interaktionen der einzelnen Betonkomponenten voraus. In der vorliegenden Arbeit wurden einige Aspekte der Zementhydratation in Abhängigkeit von der Fließmittelzugabe diskutiert. Im Ergebnis liefern die Teile eins und zwei der vorliegenden Arbeit einen Beitrag dazu, Veränderungen der Fließfähigkeit von Zementleim in Abhängigkeit der Zementhydratation und Fließmittelzugabe besser zu verstehen. Es konnte so z.B. gezeigt werden, dass Bildung langprismatischer Kristalle (z.B. Syngenit, Gips) die Fließfähigkeit von Zementleim und Beton vermindert. Infolge anhaltender Scherung von Zementleimen / Betonen mit langprismatischen Kristallen wird ein Zuwachs an Fließfähigkeit erzielt. Elektronenmikroskopische Untersuchungen zeigen, dass dies darauf zurückzuführen ist, dass die Kristalle in eine Vorzugsorientierung relativ zur Scherbewegung rotieren. Weiterhin wurde der Mechanismus einer so genannten Zement-Fließmittel-Inkompatibilität aufgezeigt. Durch diese Erweiterung des Kenntnisstandes zum Einfluss von Fließmitteln auf die Zementhydratation ist es möglich der Zement-Fließmittel-Inkompatibilität durch gezielte Auswahl des Zementes vorzubeugen. Dabei ist besonders darauf zu achten, dass der Zement ein ausgewogenes Verhältnis an zur Reaktion zur Verfügung stehendem C3A und Menge / Löslichkeit des Abbindereglers besitzt. Fließmittel verändern nicht nur die Verarbeitungseigenschaften sondern auch die Festigkeit und Dauerhaftigkeit von Zementstein und Beton. Im dritten Teil der vorliegenden Arbeit wird daher der Einfluss der Fließmittel und deren verflüssigender Wirkung auf die Festigkeitsentwicklung von Zementstein und C3S untersucht. Es konnte gezeigt werden, dass durch die dispergierende Wirkung der Fließmittel auch ohne Verminderung des Wasserzementwertes, eine Verdichtung des Zementsteingefüges erzielt werden kann. Es konnte weiterhin gezeigt werden, dass durch die Erhöhung der Partikelpackungsdichte am Anfang der Hydratation die Ausbildung der festigkeitsgebenden C-S-H Phasen verändert wird. Ein dichteres Verwachsen dieser nanostrukturierten C-S-H Phasen ermöglicht einen zusätzlichen Festigkeitszuwachs.
Die Arbeit „Das Bild der Zwischenstadt“ sucht nach Möglichkeiten zur Qualifizierung der verstädterten Landschaft, für die Thomas Sieverts den Begriff „Zwischenstadt“ geprägt hat. Die Auseinandersetzung mit „räumlicher Identität“ steht dabei im Mittelpunkt: In deren Dekodierung und Inszenierung wird ein Potenzial erkannt, die Aufenthalts- und Erlebnisqualität der Zwischenstadt zu verbessern. Der Betrachtungsraum der Arbeit zwischen Frankfurt am Main und seinen prosperierenden Umlandgemeinden eignet sich in besonderer Weise, die „Anatomie der Zwischenstadt“ zu dekodieren. Schicht für Schicht wird der Versuch unternommen, die eigene Sprache dieses Raumes zu entziffern. Dabei werden Methoden der Beschreibung und Darstellung entwickelt, die den spezifischen räumlichen Eigenschaft der Zwischenstadt gerecht zu werden suchen. Die Ergebnisse dieser Auseinandersetzung lassen deutliche Transformationen in der Zwischenstadt erkennen und entheben sie aus ihrer vermeintlichen Eigenschaftslosigkeit. Orte mit Bedeutung, Zusammenhänge und Raumgeschichten werden lesbar, es zeigen sich Ansätze eigener Urbanität und Zentralität. Die Zwischenstadt hat sich von ihrer einseitigen Dependenz zur Kernstadt gelöst, tritt aber gleichzeitig in einen umfassenden Wandel, um sich geänderten Lebensformen und Bedürfnissen anzupassen. Ältere, den Raum prägende Einfamilienhausgebiete und Großsiedlungen, aber auch monofunktionale Gewerbegebiete und die typischen suburbanen Einkaufszentren erfüllen keineswegs mehr automatisch die Wohnwünsche und Anforderungen einer Dienstleistungs- und Freizeitgesellschaft. Die Arbeit greift die unverkennbare Transformation des Bildes der Zwischenstadt als Chance zur Qualifizierung dieses Raumes auf. Entwickelt werden Qualifizierungsmodelle, die der Tendenz zu Segregation und Abtrennung mit einer neuen Integrationskultur für die Zwischenstadt begegnen: Als prägender Lebensraum der Stadtregion muss die Zwischenstadt einen großen Teil der Bedürfnisse Ihrer Bewohner und Benutzer an den Raum befriedigen. Zunehmend sind diese Bedürfnisse nicht nur funktioneller Art, sondern werden überlagert von einem Bedürfnis nach Raumqualität, Verortung und Identifikationsmöglichkeiten. Für diese Bedürfnisse angemessene und auratische Raumbilder zu finden oder zu inszenieren, ist im Angesicht des Status Quo der Stadtlandschaft eine wichtige Herausforderung.
Die vorliegende Arbeit besitzt zwei Schwerpunkte. Zum einen wird das Einsatzhärten von Bauteilen basierend auf vorhandenen Materialmodellen simuliert. Zum anderen wird ein Konzept zur Abschätzung der Dauerfestigkeit einsatzgehärteter Bauteile vorgestellt, in dem wesentliche Ergebnisse der Wärmebehandlungssimulation als neue Ausgangsgrößen verwendet werden. Damit konnte erstmals ein geschlossenes werkstoffmechanisches Dauerfestigkeitskonzept für einsatzgehärtete Bauteile erarbeitet werden. Für die Analyse beliebiger Bauteilgeometrien ist eine Implementation der Materialmodelle in die FEM notwendig. Im Rahmen dieser Arbeit wurde das FE-Programm ABAQUS verwendet. Speziell für dieses FE-Programm wurde innerhalb dieser Arbeit das Subroutine-System ANTRI zur Simulation des Einsatzhärtens und Abschätzung der Dauerfestigkeit für einsatzgehärtete Bauteile entwickelt. Zur Verifikation des Subroutine-Systems ANTRI wurden experimenteller Ergebnisse aus der Literatur herangezogen. Für alle untersuchten Beispiele wurde eine sehr gute Übereinstimmung zwischen experimentell ermittelten Daten und simulierten Daten festgestellt.
Kein anderes Material hat im 19. Jahrhundert das Design und die Architektur beeinflußt, wie die Kunststoffe. Das Feld der Realisationen und der Projekte des gesamten Kunststoffbaus ist dabei aufgrund der unterschiedlichen Kunststoffarten und somit Ausführungen sehr weitläufig. Daher begrenzt sich diese Untersuchung auf die glasfaserverstärkten Kunststoffe (GFK). Die Glasfasern übertragen die auftretenden Kräfte und werden durch das sie umschließende Harz gebunden. Die GFK sind daher bestens für tragende Bauteile geeignet. Die glasfaserverstärkten Kunststoffe durchliefen in den 1940er bis 1970er Jahren eine für einen Baustoff kurze aber sehr ergiebige Pionierphase. Die umfassende Analyse der drei zu unterscheidenden Perioden setzt sich aus der Untersuchung der wirtschaftlichen, politischen, gesellschaftlichen und kulturellen Beeinflussungen zusammen. Circa 260 unterschiedliche Projekte wurden weltweit aus selbsttragenden / tragenden GFK-Bauteilen realisiert. Diese sind ausführlich innerhalb des Kataloges im Anhang aufgelistet. GFK-Bauten waren nicht allein aufgrund des neuen Materials modern, sondern auch aufgrund ihrer freien Formbarkeit, transluzenten Flächen und auffälligen Farben und den flexiblen Nutzungskonzepten entsprechend einer modernen demokratischen Gesellschaft, die aufgeschlossen und optimistisch der Zukunft gegenübersteht. Die Realisationen, die zum Teil bis heute noch genutzt werden, beweisen den hohen Wissensstand der Pioniere. Die von den Pionieren gesuchte GFK-Architektur war eine sehr vielfältige, die sich nicht auf wenige Formenmerkmale zusammenfassen läßt. Das neue Material ermöglichte es den Architekten, ihre Vorstellungen und Träume von Formen, Gehäusen und Bauten zu realisieren. Die Analyse der Vorgänger und der Inspirationsquellen diese Formenvielfalt sind Grundlage einer objektiven Beurteilung dieser Bauten. Architekten und Bauingenieure suchten ideale Einsatzgebiete und Konstruktionsvarianten für den bis dahin assoziationsfreien Baustoff. Die Nutzungskonzepte: Wohnhaus, Zweithaus, Ausstellung, Spielgerät und die Entwicklung von Gebäudeteilen: Gebäudehülle, Überdachung, Fassade werden im Gesamtzusammenhang und nach der optimalen Verwendbarkeit untersucht. Das Wissen über den Verlauf der Pionierphase der GFK, die damals formulierten Gründe für und wider deren Einsatz und der entwickelten Konstruktionen, Verbindungstechniken und Tragwerke kann einem erneuten Einsatz des Baumateriales nur dienlich sein. Anliegen dieser Dissertation ist es, die GFK als einsatzfähige Werkstoffe innerhalb der Architekturlandschaft wieder einen Platz zu geben. Diese Analyse soll verschüttetes Wissen aufdecken, die in den 1970er Jahren entstandenen Vorurteile sichtbar machen und die glasfaserverstärkten Kunststoffe als das darstellen, was sie sind, leistungsfähige Baustoffe für gekrümmte und gefaltete Konstruktionen.
In der vorliegenden Arbeit werden die experimentellen Ergebnisse eigener Untersuchungen an unbewehrtem und bewehrtem polymermodifiziertem Beton unter mehrfach wiederholter Druck- und Zugbeanspruchung vorgestellt und mit den Ergebnissen ähnlicher Versuche an Normalbeton und hochfestem Beton verglichen. Besondere Aufmerksamkeit wird dabei dem Formänderungsverhalten, der Steifigkeitsdegradation und der Energiedissipation sowie dem Kriechverhalten und der Mitwirkung des Betons zwischen den Rissen gewidmet. Die beobachtete signifikante Steifigkeitsdegradation sowie der ausgeprägt nichtlineare Zusammenhang zwischen der viskosen Verformung und der elastischen Stauchung zeigen, dass bei der Analyse der Kriech¬aus¬wirkungen des polymermodifizierten Betons auf das Tragverhalten entsprechender Kon¬struktionen neben den Gebrauchslasten auch die während der Lastgeschichte aufgetretenen maximalen Beanspruchungssituationen sowie die damit verbundenen Strukturveränderungen zu berücksichtigen sind. Auf der Basis der Versuchsergebnisse und der visko-elastisch-plastischen Kontinuumsschädigungstheorie werden rheologische Modelle zur Beschreibung des zeit- und beanspruchungsabhängigen Tragverhaltens von Betonbauteile vorgeschlagen. Die numerische Umsetzung der vorgeschlagenen Modelle erfolgt unter Berücksichtigung des zeitabhängigen Materialverhaltens des Betons auf der Basis des HAMILTON-Prinzips unter Vernachlässigung der Trägheitskräfte. Durch eine zeitliche Diskretisierung kann die Problembeschreibung auf das Prinzip von LAGRANGE vom Minimum des Gesamtpotentials zurückgeführt und als nichtlineare Optimierungsaufgabe formuliert werden. Die Simulation des beanspruchungsabhängigen Tragverhaltens von Stahlbetonverbundquerschnitten verdeutlicht die Qualität und Leistungsfähigkeit der vorgeschlagenen Modellbildung.
Die Dissertation erschließt der deutschen Forschung die derzeit weltweit vergebenen nationalen Umweltzeichen. Dabei steht nicht der politische Kontext, sondern die gestalterisch-formale und inhaltliche Standortbestimmung, Analyse und Interpretation der Zeichenfamilie im Vordergrund. Teil I der Arbeit unterwirft den Untersuchungsgegenstand einer semiotischen Analyse nach Umberto Eco und diskutiert die Umweltzeichen im Kontext von graphischen Zeichen, Markenzeichen, Piktogrammen und Emblemen. Ein kurzer Abriss der Geschichte von Natur- und Welt-, d.h. Globusdarstellungen lotet den Bildervorrat aus, auf den zur Darstellung von 'Umwelt' zurückgegriffen werden kann. Das Umweltzeichen-Design, so zeigt sich, arbeitet mit den rhetorischen Figuren des pars pro toto bzw. des totum pro parte, um die kulturelle Einheit von /Umwelt/ und /Umweltschutz/ graphisch zu fassen. Teil II, der Hauptteil der Arbeit, besteht aus der ikonographischen Analyse und ikonologischen Interpretation aller nationalen Umweltzeichen gemäß Theorie und Methode von Aby Warburg und Erwin Panofsky. In 30 Kapiteln werden für jedes Zeichen Informationen zu Design und Designer/in, Entstehungsjahr, Abbildungsvorschriften und Intentionen der Vergabeinstitutionen zusammengestellt und die Vor-Bilder und Hintergründe zu einer ikonographisch-ikonologischen Deutung zusammengetragen. Insbesondere für die in der Arbeit detaillierter analysierten Zeichen aus Deutschland, Japan, Kanada, den USA, Österreich und Skandinavien ermöglicht die Untersuchung tiefe Einsichten in die Kulturgeschichte des jeweiligen Vergabelandes. Erkenntnisinteresse der Arbeit ist für jedes einzelne Zeichen die Entschlüsselung des (inter)kulturellen Bildgedächtnisses zum Thema /Umweltschutz/ vor dem Hintergrund der Herkunftskultur und ihrer nationalen Mythen. Farbgebung und Zeichenbildungsstrategien zeigen beim Untersuchungsgegenstand den Verzicht auf Signalement und Originalität. Neue nationale Umweltzeichen werden mehr und mehr aus dem Bildervorrat bestehender Umweltzeichen geschaffen. Die synchrone Vernetzung der Zeichen tritt gegenüber der diachronen Verankerung im Bildervorrat der Herkunftskultur immer stärker in den Vordergrund. Obwohl international einheitliche Gestaltungsrichtlinien fehlen, entsteht so eine globale Zeichentradition. Angesichts insbesondere des Designs und Re-Designs asiatischer Zeichen drängt sich abschließend die Frage auf, ob die eigentliche Zielgruppe der nationalen Umweltzeichen noch der einheimische Konsument ist oder ob – insbesondere in den Schwellenländern – die nationalen Umweltzeichenprogramme zum außenpolitischen Instrumentarium geworden sind, mit dem man sich in der Staatengemeinschaft positioniert.
Problemstellung, Stand der Forschung und Zielsetzung der Arbeit Seit mehreren Jahren bestimmen veränderte Zielsetzungen in Europa den politischen Handlungsrahmen in der Organisation der Wasserwirtschaft und folgen dem Trend zu stärker ökonomisch und ökologisch ausgerichtetem Handeln. So fordert die Europäische Wasserrahmenrichtlinie u.a. die Umsetzung einer flussgebietsorientierten Bewirtschaftung der Oberflächengewässer und des Grundwassers innerhalb bestimmter Fristen. Derzeitige Modernisierungskonzepte der Wasserwirtschaft fokussieren im Wesentlichen die Organisationsstrukturen kommunaler Aufgabenträger und deren Unternehmen, nicht aber eine Veränderung der umfassenden politischen und verwaltenden Organisationsstrukturen zur Steuerung der operativen Ebene. Die angestrebte Modernisierung wird daher insbesondere in kleinteiligen und komplexen, so genannten fragmentierten Organisationsstrukturen mit einer ausschließlich auf Unternehmen fokussierten Betrachtung nicht erreichbar sein. Diese kaum erforschten Strukturen bieten aufgrund der bestehenden Intransparenz und Komplexität der zahlreichen Organisationselemente vielfältige Ansatzpunkte für Optimierungsmöglichkeiten. Den entsprechenden Stand der Forschung bilden nur grundlegende Ansätze zur Betrachtung des Zusammenwirkens von Akteuren in Organisationsstrukturen sowie entsprechende Optimierungsansätze der Organisations- und Managementtheorien. Sie beziehen sich meist nur auf Unternehmen allgemein. Es fehlen derzeit umfassende und transparente Darstellungen der komplexen Organisationsstruktur der Wasserwirtschaft. Zielsetzung der vorliegenden Arbeit ist es, eine ganzheitliche Modernisierung insbesondere fragmentierter Wasserwirtschaftsstrukturen voranzutreiben. Es soll eine Steigerung der gesamten Leistungsfähigkeit sowohl der politischen, der verwaltungs- als auch der unternehmensbezogenen Organisationsstrukturen in der Wasserwirtschaft erreicht werden. Vorgehensweise und Methodik In einer Situationsanalyse wird ein umfassender politischer, verwaltungs- und unternehmensorientierter Organisationsrahmen mit den Handlungsspektren transparent gemacht. Nicht nur unternehmensorientierte, sondern ebenso politische und verwaltungsorientierte Akteure der Organisationsstrukturen werden dabei als potenziell Handelnde analysiert. Schwerpunkt ist dabei insbesondere das Zusammenwirken bestehender kleinteiliger oder so genannter fragmentierter Organisationsstrukturen. Aus weiteren mit theoretischen Abhandlungen zu Aufwand, Nutzen, Werten und Wertketten des akteursbezogenen Handlungsspektrums wird ein Werthandlungsmodell für die Wasserwirtschaft entwickelt. Internationale Organisationsmodelle der Wasserwirtschaft werden hinsichtlich gesamtheitlichen Zusammenwirkens untersucht. Dem folgt eine empirische Untersuchung der Aufgabenträger des Thüringer Strukturhilfeprogramms der Jahre 1999 bis 2006, um weitere Erkenntnisse über fragmentierte Organisationsstrukturen zu gewinnen. Aus den in Theorie und Praxis gewonnen Erkenntnissen wird ein Instrument zur Entscheidungsunterstützung in mehren Schritten entwickelt, das Entscheidungsträger auf nationaler Ebene beziehungsweise entsprechender föderaler Zuständigkeit darin unterstützt, die Leistungsfähigkeit der Organisationsstrukturen der Wasserwirtschaft im Sinne eines effizienten Erreichens gesetzter Qualitätsziele zu optimieren. Ergebnisse Die ökonomisch-technische Arbeit gibt Hilfestellung bei geeigneten Optimierungsanstrengungen in für die Wasserwirtschaft typischen fragmentierten Organisationsstrukturen. Das fünfstufige Werthandlungsmodell mit seiner transparenten Darstellung des Zusammenspiels operativer, administrativer und politischer Akteure liefert Handlungsansätze für eine verbesserte Erfüllung der veränderten Zielsetzungen in Europa. Im Gegensatz zu bisherigen ausschließlich unternehmensspezifischen Darstellungen erlaubt das Modell eine institutionen- beziehungsweise unternehmensübergreifende Untersuchung. Diese wird den Belangen wasserwirtschaftlicher Organisationsstrukturen gerecht, die sich bisher an politischen anstatt an wasserwirtschaftlichen Grenzen orientieren. Eine modellbezogene Untersuchung mehrerer Fusionsprojekte ergab im Wesentlichen, dass Versorgungsgebiete kleiner Aufgabenträger am stärksten vom Zusammenwirken mit einer größeren Einheit profitieren können. Hierbei können Probleme unzureichender personeller und struktureller Ressourcen gelöst und eine ordnungsgemäße Betriebsführung erreicht werden. Das Zusammenwirken führt neben Aufwandsoptimierungen zu essentiellen Qualitätsverbesserungen in den Betriebsabläufen, die die Betriebssicherheit erhöhen. Zudem erlaubt das Zusammenwirken in größeren Einheiten die Implementierung einer ganzheitlichen Unternehmensphilosophie und damit eine qualifizierte Steuerung von Eigen- und Fremdleistungen. Die vorgenommene Systematisierung der Synergieeffekte sowie der dazu notwendigen Maßnahmen und Voraussetzungen bietet eine grundlegende Struktur, an der sich weiterführende Untersuchungen von Projekten der Zusammenarbeit in der Wasserwirtschaft orientieren können. Aus den Untersuchungen zu internationalen Organisationsansätzen und regionalen Fusionsprojekten lässt sich folgern, dass über ein geeignetes Zusammenwirken in der Wasserwirtschaft nur fallbezogen zu entscheiden ist. Diese Erkenntnis führte zu der Entwicklung eines Instrumentes, das die Organisationsstrukturen transparent macht und die Entscheidungsfindung unterstützt. Die Anwendung des Instrumentes zur Entscheidungsunterstützung bietet die Chance, geeignete organisatorische Veränderungen hin zu einer zukunftsorientierten Wasserwirtschaft unter Berücksichtigung regionaler Aspekte durchzuführen und gleichzeitig Synergiepotenzial bei einer Zusammenlegung kleiner Unternehmen mit anderen Unternehmen realisieren zu können. Fallstudien behandeln das Instrument und unterstützen die adressierten Entscheidungsträger darin, sich ein klares Bild über das mögliche Optimierungspotenzial durch Veränderungen der umfassenden Organisationsstrukturen zu machen. Dies fördert sowohl eine optimierte Koordination der Handlungsportfolios als auch deren Umsetzung. Die Arbeit bietet einen Anhalt für eine intensivere Begleitung und Aufarbeitung von Kooperations- und Konzentrationsprozessen insbesondere an Schnittstellen zwischen Aufgabenträgern, Unternehmen und Behörden der Wasserwirtschaft. Die Zuordnung, welche Akteure von den Chancen der Wertbeitragssteigerung am stärksten profitieren, bleibt die Aufgabe der politischen Willensbildung. Abschließend ist festzustellen, dass die Wasserwirtschaft nur dann den ehrgeizigen Zielen politischer Willensbildung nahe kommt und dem Wohle der Gesellschaft dient, wenn sie in geeigneten Organisationsstrukturen stattfindet. Hierfür liefert die beschriebene Arbeit ihren Beitrag, indem sie Entscheidungsträgern auf Bundes- und Länderebene das Handwerkszeug bereitstellt, geeignete Veränderungen der Strukturen abwägen und veranlassen zu können.
Oberflächenabdichtungen von Deponien sind in ihrer langfristigen Funktion häufig durch eine austrocknungsbedingter Rissbildung der mineralischen Dichtungskomponente gefährdet. Als Ursachen gelten insbesondere das standortspezifische Klima mit den stark schwankenden Randbedingungen (Niederschlag, Temperatur), Pflanzen und Tiere sowie auch ein ungeeigneter Systemaufbau. Durch einen Wasserentzug treten Schrumpfungsprozesse in der mineralischen Dichtung auf welche über negative Dehnungen zu Dehnungsbrüchen und damit zu einer Rissbildung führen. Für die Beanspruchbarkeit eines Dichtungsmaterials bei Wasserentzug sind insbesondere dessen Schrumpfverhalten und dessen Zugfestigkeit von Bedeutung. Beide Eigenschaften wurden durch eigens konzipierte Laborversuche beispielhaft an zwei typischen Dichtungsböden untersucht. Die Ergebnisse zeigen eine große Abhängigkeit von der Wasserspannung sowie von der Bodenstruktur. Für die Zugfestigkeit und dem daraus abgeleiteten Dehnungsmodul gilt z. B. jeweils eine eindeutige Zunahme mit Zunahme der Wasserspannungen. Mit Hilfe der Ergebnisse aus den Laborversuchen sowie numerischen Berechnungen des Was-serhaushaltes und der vorherrschenden Spannungen kann eine erste Rissgefährdungsabschätzung für mineralische Dichtungen in Oberflächenabdichtungen abgeleitet und angewandt werden. Weitere Erläuterungen z. B. zu den Eigenschaften und der Teilsättigung bindiger Böden, analytische Zugfestigkeitsberechnungen oder Empfehlungen zum Entwurf und der Herstellung von Oberflächenabdichtungen ergänzen die Arbeit.
Zwei Poelzigschüler in der Emigration: Rudolf Hamburger und Richard Paulick zwischen Shanghai und Ost-Berlin (1930–1955) (Hamburger _ China, Polen, Schweiz, Iran, UdSSR) (Paulick _ China) Diese Dissertation befasst sich mit dem Leben und Wirken der beiden Architekten Rudolf Hamburger (1903–1980) und Richard Paulick (1903–1979) während ihrer Emigration zwischen 1930 und 1955. Die Arbeit ist in zwölf Kapitel gegliedert und beinhaltet einen Prolog und Epilog. Im Anhang sind Originaltexte sowohl von Hamburger wie von Paulick, Mitarbeiterlisten der von Paulick betriebenen Firmen in Shanghai, eine Liste der Bühnenbilder von Paulick in Shanghai, die Projektlisten beider Architekten in der Emigration sowie die Literaturliste veröffentlicht. Der Prolog beleuchtet die Situation in der DDR nach der Rückkehr von Paulick und Hamburger aus der Emigration. Unter dem Druck der Partei (SED) mussten beide ihre Biographie erweitern und säubern. Der starke ideologische Hintergrund verhinderte in der DDR zwischen 1950 bis zum Ende 1989 eine ehrliche Aufarbeitung der Emigration und im Falle von Hamburger einen unverstellten Blick auf seine Tortur in den Arbeitslagern (Gulag) der Sowjetunion. Das ersten Kapitel beleuchtet die Herkunft und Ausbildung der beiden, als Studenten bei Hans Poelzig und Hermann Jansen; im Falle von Paulick seine Kooperation mit Georg Muche und seinen Mitarbeit im Büro von Walter Gropius; im Falle von Hamburger seine Mitarbeit als Meisterschüler bei Hans Poelzig und anderen. Auch die Mitgliedschaft der beiden in der 'Gruppe Junger Architekten' (GIA) wird beleuchtet. Rudolf Hamburger kam 1930 als Arbeitsemigrant nach Shanghai und konnte wegen seiner jüdischen Wurzeln nach der Machtübernahme durch die Nationalsozialisten 1933 nicht nach Deutschland zurückkehren. Er half Paulick 1933 bei der Flucht nach Shanghai, als dieser aus politischen Gründen Deutschland verlassen musste. Die weitere Karriere und das Privatleben bei beiden wurden durch diese Umstände bestimmt. Die Dissertation beleuchtet den sozialen und politischen Hintergrund während ihrer Zeit in der Emigration. Rudolf Hamburger wurde als Architekt für das Shanghai Municipal Council zwischen 1930 und 1937 zu einem wichtigen Protagonisten für die Entwicklung der modernen Architektur in Shanghai, der hier erstmals vorgestellt wird. Neben dieser Arbeit gründete er 1932 die Firma THE MODERN HOME, die 1934 in die Firma MODERN HOME überführt wurde und die zwischen 1937 und 1949 von Richard Paulick unter dem Namen MODERN HOMES weitergeführt wurde. Richard Paulick war auch als Bühnenbildner zwischen 1936 und 1949 an unterschiedlichen Theatern in Shanghai aktiv. Als Professor für Stadtplanung lehrte er zwischen 1943 und 1949 an der St. John’s Universität zum ersten Mal die Prinzipien der Moderne in diesem Feld in China. Er spielte auch eine Schlüsselrolle bei der Stadtplanung für Groß-Shanghai zwischen 1945 und 1949, die nach den Prinzipien der organischen Dezentralisation erfolgte. Die Schwierigkeiten seiner Weiteremigration in die USA oder der Rückkehr nach Deutschland zwischen 1947 und 1949, bis zu seiner Heimkehr in die DDR 1950, bilden den letzten Abschnitt in seinem Fall. Bei Rudolf Hamburger kommt hinzu, dass er in den dreißiger Jahren für den Geheimdienst der sowjetischen Armee (GRU) aktiv wurde. Die Tätigkeit als Architekt nutzte er in der Folge lediglich zur Deckung seiner anderen Aktivitäten. Die Emigration nach Polen, die Schweiz, erneut China, die Sowjetunion und in den Iran (1936–1943) sind immer den Zielen der geheimdienstlichen Tätigkeit untergeordnet. Mit dubiosen Vorwürfen wurde Hamburger 1943 in Moskau konfrontiert und in ein Arbeitslager deportiert, wo er nach Folter und schwierigen Haftbedingungen erst 1952 frei gelassen wurde. Bis 1955 lebte er in der Verbannung in der Ukraine und konnte dann mit der Hilfe seines Freundes Richard Paulick in die DDR einreisen.
Augrund des demographischen Wandels und der damit einhergehenden Abnahme der Bevölkerungszahlen in den ländlichen/peripheren Regionen der Bundesrepublik Deutschland sieht sich die öffentliche Hand mit rückläufigen Haushalten konfrontiert. Unterauslastungen von Einrichtungen der öffentlichen Daseinsvorsorge werden zukünftig nicht mehr finanzierbar sein. Raumordnungspolitisch postulierte Handlungsansätze einer notwendigen Anpassung der Infrastruktur an diese neue Situation liegen in der Neuordnung der Zentrale-Orte-Konzeption. In Folge daraus wird es zu einer Revision des Systems der Zentralen Orte kommen [BMVBW BBR 2005]. In Ableitung daraus müssen die vorhandenen Erreichbarkeitskriterien innerhalb der betroffenen (nachgeordneten) Straßennetzteile überprüft werden. Dem schließt sich die Frage nach differenzierten Ausbauqualitäten von Straßen an. Dieser Fragestellung widmet sich, unter Zuhilfenahme der wirtschaftlichen Bewertungsmethodik der Empfehlungen für Wirtschaftlichkeitsuntersuchungen an Straßen, die vorliegende Arbeit. Im Gegensatz zu vorhandenen verkehrswirtschaftlichen Untersuchungen unterscheidet sich die vorliegende Arbeit durch die Implementierung zusammenhängender Netzstrukturen in gekannte Modellansätze. Über die ermittelten Bewertungsparameter konnten somit großräumige Effekte einer kleinräumig angelegten Reduzierung der Ausbauqualität von Straßen Berücksichtigung finden. Exemplarisch wurden anhand eines strukturdatenbasierten Nachfrage- und Umlenkungsmodells für ein nach speziellen Kriterien ausgesuchtes Untersuchungsgebiet die Eingangsgrößen für das angewendete wirtschaftliche Bewertungsverfahren bestimmt. Das Ausmaß der Empfindlichkeit gegenüber den monetären und teilweise inhaltichen Ansätzen wurde durch eine Sensitivitätsanalyse belegt. Im Ergebnis der vorliegenden Arbeit konnte für die nachgeordneten Straßennetze des Untersuchungsgebietes der Nachweis einer kostenoptimalen Ausbaugeschwindigkeit erbracht werden, d.h. in Bezug auf eine verkehrswirtschaftliche Betrachtung ist dort die Reduzierung der vorhandenen Ausbauqualität sinnvoll.
Abstract Developing and emerging tropical Asian countries have encountered fast urban development due to the migration of farmers seeking a better life in the city. This resulted in a lack of appro-priate infrastructure and inappropriate social services in many cities. Municipal solid waste management is no exception and is in fact often placed at the bottom of the list of priorities for the cities’ appropriate urban management plans since laws and regulations must first be for-mulated and implemented. The problem of unmanaged municipal solid waste certainly leads to air pollution, disease, and to soil and water contamination. These problems in tropical climates are compounded with high temperature, high-level humidity, heavy rainfall and frequent flooding. Stagnant water and leachate from waste quickly become the breeding grounds of in-sects, rodents and bacteria, thus creating a health hazard for workers and local populations. Moreover, water and groundwater contamination may lead to serious environmental degrada-tion with direct impacts on water supplies, and in the fast degradation of agricultural products, the backbone of most tropical Asian countries. Many cities still allow or tolerate dumping of waste in uncontrolled sites, and open burning that disperses particulates that most likely contain dioxins and furans. Even with increasingly scarce land availability within or in proximity of the cities, sanitary landfill is still the most often cho-sen disposal method around Asia because of its lower cost when compared to modern treatment systems. Yet, most of these landfill sites do not have proper lining, daily covering, methane recovery devices, leachate control systems, nor do they have long-term closure and monitoring plans, which implies short and long-term hazards. Some municipalities opted for incineration, which usually entails high operation and maintenance costs because of the need for supple-mental fuel and often-inappropriate running conditions. Although tropical conditions appear to favor certain disposal systems such as composting, appropriate technology needs to be identi-fied in order to reduce operation and maintenance costs while ensuring good quality outputs; compost plants have often been closed because of poor quality products due to the high content of plastic and glass particulates in the finished product. Tropical Asian cities are now required to identify affordable and sustainable solutions for the management of their increasing amount of waste generated daily, while ensuring minimal environmental impact, social acceptance and minimal land use. The purpose of this dissertation was to develop a user-friendly decision-making tool for public administrators and government officials in tropical Asian developing and emerging cities. This tool was developed based on a list of selected decision-making issues necessary in making an informed decision. The decision-making tool is to be used by decision-makers in making a pre-liminary assessment of a most appropriate waste management and treatment system for their municipality. Tropical Asian cities must consider a number of issues when deciding on their waste management plan such as the continuously changing quantum and composition of waste associated with the increasing population and income per capita, the high humidity levels, and the often-limited financial resources. Other determinant factors include legal, political, institu-tional, social and technical issues. Furthermore, administrators must realize the importance of each stage involved in waste management, which includes waste generation, collection, trans-port, waste characteristics, disposal and treatment. To better understand the complexity of the issues involved in tropical Asian municipalities, the city of Bangkok, Thailand’s largest city and capital, was selected as a case study for the management of its 9,000 tonnes of waste gen-erated daily. Numerous interviews, meetings along with the review of documents, reports and site visits offered an inside view of the tropical city’s various decision-making issues towards its waste management plan, and examine specific problems encountered by the city’s decision-makers. The review and analysis of the decision-making issues involved in Bangkok’s waste management plan showed how the decision-making tool can be used in various Asian tropical cities. In conclusion, waste management in an emerging tropical country involves specific challenges that need to be addressed. Economical, technical and social criteria need to be fully understood as to capacitate government officials in the selection of the most appropriate urban waste man-agement system. Limited budgets, lack of public awareness and poor systems’ management often cloud decision-makers in choosing what appears to be the best solution in the short term, but more costly over the years. Weather conditions and scarcity of land in proximity of the city make waste management especially challenging. The decision-making framework offers a tool to decision-makers, as to facilitate the understanding and identification of key issues necessary in the formulation of a sustainable urban waste management plan and in the selection of a tech-nically, economically and socially acceptable integrated MSW management system. A detailed feasibility study and master plan will follow the preliminary study as to define the plant´s specifications, its location and its financing.
Baustreitigkeiten werden in Deutschland in nicht ausreichender Form von den Vertragsparteien selbst gelöst. Die unterschiedliche Auslegung der vertraglich geschuldeten Bauleistung zwischen den Parteien wird immer häufiger zum Inhalt von vor Gericht ausgetragenen Streitigkeiten. Die Anzahl und die Komplexität der Streitfälle führt zu einer Überlastung der Gerichte mit der Folge von meist mehrjährigen Verfahrensdauern, die in einzelnen Fällen mehr als ein Jahrzehnt andauern können. Die hieraus resultierenden Rechts- und Finanzunsicherheiten können für die Prozessbeteiligten weitreichende Konsequenzen bis hin zur Insolvenz mit sich führen. Die in Deutschland übliche Projektstruktur Auftraggeber – Generalunternehmer – Nachunternehmer führt schon in dieser einfachen Konstellation dazu, dass parallele Rechtsstreitigkeiten in ein und derselben Sache auftreten können. Unterschiedliche Gerichtsstandsklauseln in den einzelnen Vertragsebenen bewirken, dass aufgrund unterschiedlicher Beteiligter derselbe Streitfall an verschiedenen Gerichtsständen behandelt werden muss. Die Ergebnisse der einzelnen Verfahren können dabei unterschiedlich ausfallen. Auf Basis dieser Randbedingungen wird der Wunsch vieler Baubeteiligter nach einer schnelleren, effektiven Streitbeilegung für das deutsche Bauwesen immer größer. Im Rahmen der vorliegenden Arbeit wird den Vertragsbeteiligten ein Weg aufgezeigt, der die Häufigkeit von langwierigen und risikobehafteten Gerichtsprozessen reduziert. Auf Basis der maßgeblichen Streitbeilegungsverfahren wird hierzu ein auf die Anforderungen des Bauwesens angepasstes Streitbeilegungsmodell entwickelt. Im deutschen Bauvertragswesen sind die Inhalte der außergerichtlichen Streitbeilegung nicht oder nur rudimentär implementiert. Internationale Bauvertragsmuster greifen einzelne Elemente der außergerichtlichen Streitbeilegung auf, lassen aber ein ganzheitliches Modell vermissen. Zur Streitbeilegung existieren Verfahren zur Verhandlung, Schlichtung, Mediation und Entscheidung, die entweder konsensual oder kontradiktorisch wirken. Ein Modell, das die gegebenen Möglichkeiten der außergerichtlichen Streitbeilegung in vollem Umfang nutzt, wurde bisher nicht passend für die deutschen Rahmenbedingungen entwickelt. Eine Anpassung von Streitbeilegungsverfahren auf die jeweiligen Aufbauorganisationen der am Bau beteiligten Unternehmen wurde bisher nicht vorgenommen. In der Arbeit werden in einem ersten Schritt die Leitlinien der geschäftlichen Beziehungen im Bauwesen betrachtet und hinsichtlich ihrer Wirkung auf Streitbeilegungsmechanismen bewertet. In einem zweiten Schritt werden die international gebräuchlichen Verfahren zur Streitbeilegung vorgestellt, analysiert und bewertet. Unter Anwendung der Analogie- und Variationsmethodik werden bestehende und bewährte Ansätze zur Streitbeilegung aufgenommen, kombiniert und zu einem verbesserten Streitbeilegungsmodell weiterentwickelt. Zur Implementierung des modular aufgebauten Modells wird unter Berücksichtigung der unterschiedlichen Größen der im Bauwesen tätigen Unternehmen eine Anpassung des Systems vorgenommen. In einem weiteren Verfahrensschritt werden Wege zur Vereinbarung geeigneter Streitbeilegungsmechanismen zwischen den Vertragsbeteiligten aufgezeigt. Im Rahmen der Validierung des Modells wird durch die Anwendung auf extreme Systemkonfrontationen aufgezeigt, dass das Streitbeilegungsmodell auch unter besonderen Randbedingungen einsetzbar ist. Der Stand der Wissenschaft wird im Bereich der Streitbeilegung umfassend aufbereitet. Es wird ein Verfahren entwickelt, das erstmalig die Vorteile der Verhandlung, Schlichtung, Mediation und Entscheidung vollständig in ein Modell zur Streitbeilegung im Bauwesen implementiert. Durch definierte Verfahrensabläufe wird den Vertragsparteien eine strukturierte, zielorientierte Vorgehensweise zur Beilegung von Streitigkeiten vorgegeben. Die systematisierte Aufbereitung begünstigt und beschleunigt die außergerichtliche Streitbeilegung und reduziert im Ergebnis die Anzahl von vor Gerichten auszutragenden Streitfällen. Der modulare Aufbau des Streitbeilegungsmodells ermöglicht flexible Reaktionen auf unterschiedliche Anforderungen. Die Berücksichtigung der Unternehmensgrößen durch Variation der zu verwendenden Module ermöglicht eine große Einsatzbreite des Modells. Gleichzeitig wird auch durch die Definition des Moduls „Experten-Entscheidung“ als Wahloption die Verwendung des Streitbeilegungsmodells den Parteien ermöglicht, die sich einer Experten-Entscheidung nicht beugen wollen oder dürfen. Den Vertragsparteien werden Wege zur Vereinbarung des Modells aufgezeigt und ein Auswahlverfahren zur Bestimmung des externen Expertengremiums vorgegeben. Zur Vereinfachung der Implementierung des Streitbeilegungsmodells werden Änderungsvorschläge zur Anpassung der VOB/A und VOB/B unterbreitet.
Auf dem Gebiete der neuen Bundesländer wurden bis 1990 ca. 2,18 Millionen Wohnungen in Fertigteilbauweise gebaut. In verschiedenen Gebäudetypen wurden asbesthaltige Materialien sowohl im Wohnungsinneren als auch im Außenwandbereich eingesetzt. Vor dem Rückbau bzw. Abriss oder der Sanierung der betroffenen Gebäude muss hier generell eine Asbestentsorgung durchgeführt werden. Im Falle schwach gebundener Asbestprodukte im Innenbereich ist die Erfassung von Gefährdungspotential und Sanierungsdringlichkeit rechtlich und technisch geregelt. Hier liegen bereits zuverlässige Sanierungslösungen unter besonderer Berücksichtigung des Arbeitsschutzes sowie des Schutzes angrenzender Bereiche auch für den bewohnten Zustand vor. Für den Außenwandbereich gibt es diesbezüglich ein Defizit. Von den heute ein Gefährdungspotential in der Bausubstanz darstellenden Asbestprodukten kommt dem asbesthaltigen, polymergebundenen Fugendichtstoff Morinol eine besondere Bedeutung zu. Der Fugendichtstoff Morinol wurde sowohl im Außenbereich als auch im Innenbereich der Wohngebäude verwendet. Definitionsgemäß ist nach der Gefahrstoffverordnung und den Technischen Regeln für Gefahrstoffe der in Plattenbauten eingebaute Morinol-Fugendichtstoff ein Gefahrstoff, so dass beim bautechnischen Umgang mit diesem Material vom Ausbau bis zur Entsorgung hohe Anforderungen an den Arbeits- und Gesundheitsschutz sowie den Umweltschutz zu erfüllen sind. Derzeit erfolgt der Gefahrstoffausbau durch verschiedene, in höchstem Maß kostenintensive und ergonomisch unbefriedigende sowie technisch unzureichende Verfahren. Ein besonderes Defizit besteht beim Ausbau des Fugendichtstoffes bei Fugen mit einer geringen Breite, Fugen mit konischem Fugenverlauf, Fugen mit tief in den Fugenraum reichenden Dichtstoffmassen, in Kreuzungsbereichen von Horizontal- und Vertikalfugen und in Eckbereichen. Bei diesen Fugentypen muss bisher zum Ausbau des Fugendichtstoffes der Beton beidseitig der Fugenflanke abgestemmt werden. Der Beton wird zusammen mit dem anhaftenden Fugendichtstoff als Gefahrstoff beseitig. Die Zielstellung der Arbeit besteht in der systematischen Entwicklung technischer Lösungen zum Ausbau von Fugendichtstoffen am Beispiel der asbesthaltigen Fugendichtstoffe in Plattenbauten. An die Verfahrenslösung werden die Anforderungen verbesserter Arbeits-, Gesundheits- und Umweltschutz, optimierte Technologie und höhere Wirtschaftlichkeit gestellt. Bestandteile dieser Entwicklung sind die Untersuchung der Schwerpunkte Fugenarten, Merkmale asbesthaltiger Fugendichtungen, betroffene Bausubstanz und die Analyse der rechtlichen und arbeitsschutzrechtlichen Rahmenbedingungen für den Umgang mit asbesthaltigen Fugendichtstoffen. Die Untersuchung der gegenwärtig verfügbaren Arbeitsverfahren und die Darstellung der Defizite dieser Lösungen ist eine grundlegende Vorraussetzung für weitere Entwicklungsarbeiten. Basierend auf den gewonnenen Ergebnissen wird ein Konzept für die Entwicklung neuer Verfahrenslösungen aufgestellt. Thermische und mechanische Verfahren werden erstmalig systematisch untersucht. Durch die Bewertung der verschiedenen Verfahren wird eine Lösung ermittelt und abschließend hinsichtlich Wirtschaftlichkeit, Ergonomie, Faser- und Staubemission, Lärmemission und Vibration bewertet.
System identification is often associated with the evaluation of damage for existing structures. Usually, dynamic test data are utilized to estimate the parameter values for a given structural model. This requires the solution of an inverse problem. Unfortunately, inverse problems in general are ill-conditioned, particularly with a large number of parameter to be determined. This means that the accuracy of the estimated parameter values is not sufficiently high in order to enable a damage identification. The goal of this study was to develop an experimental procedure which allows to identify the system parameters in substructures with high reliability. For this purpose, the method of selective sensitivity was employed to define special dynamic excitations, namely selectively sensitive excitation. Two different approaches have been introduced, which are the quasi-static approach and the iteratively experimental procedure. The former approach is appropriate for statically determinate structures and excitation frequencies below the structure's fundamental frequency. The latter method, which uses a-priori information about the parameters to be identified to set up an iterative experiment, can be applied to statically indeterminate structures. The viability of the proposed iterative procedure in detection of small changes of structure's stiffness was demonstrated by a simple laboratory experiment. The applicability of the strategy, however, depends largely on experimental capacity. It was also experienced that such a test is associate with expensive cost of equipments and time-consuming work.
In recent years increasingly consideration has been given to the lifetime extension of existing structures. This is based on the fact that a growing percentage of civil infrastructure as well as buildings is threatened by obsolescence and that due to simple monetary reasons this can no longer be countered by simply re-building everything anew. Hence maintenance interventions are required which allow partial or complete structural rehabilitation. However, maintenance interventions have to be economically reasonable, that is, maintenance expenditures have to be outweighed by expected future benefits. Is this not the case, then indeed the structure is obsolete - at least in its current functional, economic, technical, or social configuration - and innovative alternatives have to be evaluated. An optimization formulation for planning maintenance interventions based on cost-benefit criteria is proposed herein. The underlying formulation is as follows: (a) between maintenance interventions structural deterioration is described as a random process; (b) maintenance interventions can take place anytime throughout lifetime and comprise the rehabilitation of all deterioration states above a certain minimum level; and (c) maintenance interventions are optimized by taking into account all expected life-cycle costs (construction, failure, inspection and state-dependent repair costs) as well as state- or time-dependent benefit rates. The optimization is performed by an evolutionary algorithm. The proposed approach also allows to determine optimal lifetimes and acceptable failure rates. Numerical examples demonstrate the importance of defining benefit rates explicitly. It is shown, that the optimal solution to maintenance interventions requires to take action before reaching the acceptable failure rate or the zero expected net benefit rate level. Deferring decisions with respect to maintenance not only results, in general, in higher losses, but also results in overly hazardous structures.
Entsprechend des jeweiligen Erhaltungszustandes einer Straße müssen immer wieder Arbeitsstellen eingerichtet werden, um Baumaßnahmen zum Substanzerhalt der Straßeninfrastruktur durchzuführen. Die vorliegende Arbeit befasst sich mit solchen Arbeitsstellen an vierstreifigen Autobahnen. Für vierstreifige Autobahnen ergibt sich aus den bestehenden Regelwerken und Anforderungen des Straßenbaulastträgers die Erfordernis, möglichst Behelfsverkehrsführungen der Form 4+0 einzurichten. Ferner sollen die beiden Fahrtrichtungen zur Erhöhung der Verkehrssicherheit möglichst durch transportable Schutzeinrichtungen getrennt werden. Unter Berücksichtigung der Mindestwerte die in den gültigen Regelwerken für Behelfsfahrstreifen genannt werden, ergibt sich für eine Behelfsverkehrsführung der Form 4+0, mit Trennung des Gegenverkehrs durch transportable Schutzeinrichtungen, eine Mindestbreite von 12,0 m, die als befestigte Fläche zur Verfügung stehen muss. In der Praxis haben die Richtungsfahrbahnen von vierstreifigen Autobahnen in der Regel Breiten der befestigten Fläche von deutlich weniger als 12,0 m. Daher werden in der Baupraxis Kompromisslösungen eingesetzt, die im wesentlichen darauf beruhen, entweder eine andere Verkehrsführung als 4+0 einzusetzen, auf die Trennung mittels transportabler Schutzeinrichtung zu verzichten, die Fahrstreifenbreiten unter das geforderte Mindestmaß zu verringern oder die Breite der befestigten Fläche im Vorfeld der Maßnahme baulich zu verbreitern. Die vorliegende Arbeit nimmt sich dieser Problematik an. Hierzu werden die bestehenden Anforderungen und Randbedingungen analysiert, die hieraus resultierenden Konflikte beschrieben und die in der Praxis eingesetzten Varianten, Kombinationen aus Behelfsfahrstreifenbreiten, Verkehrsführung und Trennungssystem, vergleichend bewertet. Dieser Vergleich erfolgt für verschiedene Breiten der Richtungsfahrbahnen und für verschiedene Verkehrsstärken. Aufgabe des Vergleichs war es, die Variante herauszufinden, welche unter bestimmten Randbedingungen (wie z. B. Verkehrsstärke, Höhe der Baukosten) die niedrigsten volkswirtschaftlichen Gesamtkosten aufweist. Als Vergleichsverfahren wurde ein volkswirtschaftlicher Ansatz gewählt. Für die Durchführung des volkswirtschaftlichen Vergleiches wurde zunächst analysiert, auf welche bewertungsrelevanten Größen sich die untersuchten Varianten auswirken. Hierbei stellten sich die Größen Investitionskosten, Arbeitsstellendauer, Fahrzeuggeschwindigkeiten und Unfallkosten als die relevanten Einflussgrößen dar. Die Wirkungen der eingesetzten Varianten auf die relevanten Einflussgrößen mussten im Rahmen der vorliegenden Arbeit quantifiziert werden. Die Quantifizierung der Wirkungen erfolgte daher weitgehend im Rahmen der vorliegenden Arbeit, bestehende Kenntnislücken konnten durch die vorliegende Arbeit verkleinert werden. Als Grundlage zur Quantifizierung der Wirkungen konnte dabei auf vorhandene empirische Daten und Auswertungen zurückgegriffen werden. Zur Absicherung der, durch das volkswirtschaftliche Bewertungsverfahren erzielten Berechnungsergebnisse, wurden in der Berechnung maßgebliche Kenngrößen variiert. Hierdurch konnten Aussagen zur Sensitivität der Berechnungsergebnisse erzielt werden. Die Arbeit zeigt, dass ein Vergleich der betrachteten Varianten mit dem in der Arbeit angepassten Bewertungsverfahren möglich ist. Für die untersuchten Varianten wurden jeweils deren volkswirtschaftliche Vor- und Nachteile herausgearbeitet und aufgezeigt, aus welchen der betrachteten Felder (Verkehrsablauf, Verkehrssicherheit, Kosten, Umwelt) diese Vor- und Nachteile resultieren. Die erzielten Berechnungsergebnisse wurden dahingehend ausgearbeitet, dass Einsatzempfehlungen für die einzelnen Varianten gegeben werden konnten. Dabei wurden jeweils Empfehlungen für vier verschiedene Breiten der befestigten Fläche, drei unterschiedliche Baukostenansätze und sechs verschiedene Verkehrsstärken gegeben. Durch die Arbeit konnten einige bislang vorhandene Kenntnislücken geschlossen bzw. verkleinert werden, dies betrifft z. B. die Darstellung der Zusammenhänge zwischen Behelfsverkehrsführung, Baukosten und Bauzeit, die Ermittlung von Unfallkenngrößen für verschiedene Verkehrsführungen und Behelfsfahrstreifenbreiten, die Ermittlung von Verkehrsstärke-Geschwindigkeitsbeziehungen für verschiedene Verkehrsführungen und Behelfsfahrstreifenbreiten sowie die Ableitung von Mindestbreiten von Behelfsfahrstreifen. Durch die Arbeit konnte auch aufgezeigt werden, dass in einigen Teilbereichen noch weiterer Forschungsbedarf besteht.
The intention of this thesis is to analyse the performance of the theory and the practice of the integrated development planning by Cape Town’s local government in two Townships named Nyanga and Philippi between 1999 and 2001. Since then the local government aimed to supply a planning approach that is of an integrative nature, opposed to the disintegrative one during Apartheid before 1994. South Africa’s primary instrument for development is named the Integrated Development Plan (IDP). This instrument is primarily responsible for socioeconomic development but significantly affects and considers spatial planning aspects as well. Between 1999 and 2001 the five selected project cases along the Ingulube Drive in Nyanga and Philippi under the umbrella of the Dignified Places rogramme have been implemented. The study analysis aims to investigate a specific momentum in time, where spatial practice in South Africa began to experience a new, integrative approach. Furthermore, the study is embedded in the planning conventions in Cape Town’s black Townships before, during and after Apartheid. ...
Phosphorus enrichment in the treatment of pig manure in China using anaerobic digestion technology
(2008)
Phosphorus (P) is a key irreplaceable nutrient element in all life forms. Almost all phosphorus used by society is mined from non-renewable phosphate rock. Approximately 80% of global phosphate rock consumption is used for fertilizer production. However, as a finite resource, the world phosphate reserve could be exhausted within the next 100-250 years. The phosphate resource in China is also limited. The exploitable deposits could be exhausted within 70 years. Investigations show that the largest recoverable phosphate resource in China is found in animal manure. It was estimated that the potential phosphate resource in intensive-scale animal plants accounts for 47% of the total consumption of phosphate rock of the country each year. Pig manure contains phosphorus and nitrogen in high concentration. The objective of this study is to investigate forced P-precipitation in pig manure combined with anaerobic digestion; when biogas is generated, an enriched P-containing digested manure sludge can be obtained. Anaerobic digestion experiments indicated that total concentrations of phosphorus (TP) and kjeldahl nitrogen (TKN) remained basically constant before and after anaerobic digestion. However, the composition of nitrogen and phosphorus in digested manure was quite different; 37.7% of phosphorus existed as PO4-P in the raw pig manure, whilst 20.8% of PO4-P was present in the digested pig manure. NH4-N accounted for 50.4% of the total TKN in raw pig manure, while most of the TKN in digested manure (79.3%) was composed of NH4-N. The pH value of pig manure rose by 0.88 units after anaerobic digestion. PO4-P was reduced by 45% during anaerobic digestion. The average molar ratios of Mg/P and Ca/P achieved were 1.3 and 1.7. It was found that solid/liquid separation has little influence on the change in the molar ratios. The optimal position for P-precipitation is after anaerobic digestion. P-precipitation should be conducted in homogeneous digested pig manure. The ideal pH range for P-precipitation is between 8.0 and 9.5. In the pH range of 8.8-9.5, struvite precipitation dominates the precipitation reaction. The existence of calcium ions results in competitive reaction with magnesium ions. In the pH range of 8.0-8.8, calcium phosphate was apt to form. Both MgCl2•6H2O and MgO can be adopted as a magnesium source. MgO is suitable for supplementation in raw manure. Without the addition of other alkali, the pH value rose to 8.5. Nearly 85% of soluble phosphorus (PO4-P) could be removed from liquid portion. MgCl2•6H2O has good solubility. When MgCl2•6H2O was used at a pH value of 9.0, the equilibrium time required was 30 minutes. The appropriate Mg2+/PO4-P molar ratio was 1.3. Under these conditions, whether with raw or digested manure, 90% of PO4-P could be removed. Forced P-precipitation combined with anaerobic digestion is suitable for application in China. More than 90% of the soluble phosphorus could be removed from the liquid portion of pig manure through forced P-precipitation. With the aid of flocculants, 95.7% of the total phosphorus could be precipitated in the final manure solid.
Koulu - Schule auf Finnisch : Funktions-, Raum- und Gestaltungskonzepte für neue Schulen in Finnland
(2008)
Beginnend mit einem historischen Rückblick auf die Entwicklung des Schulbaus in Finnland sowie einen Überblick zu den rechtlichen und organisatorischen Rahmenbedingungen für den Schulbau, wird in der Untersuchung dargestellt, dass in Finnland ein traditioneller Grundkonsens darüber besteht, dass Bildung eine besonders wichtige gesellschaftliche Aufgabe darstellt und Art sowie Umfang ihrer Erfüllung von herausragender Bedeutung für die Zukunft des Landes ist. Daher wird dem Thema „Schule“ nicht nur in der Theorie, sondern auch im praktischen Alltag ein ausgesprochen hoher Stellenwert beigemessen. Auch die Lernumgebung wird mit besonderer Sorgfalt gestaltet. Die Gestaltung zahlreicher finnischer Bildungsanstalten ist transparent und flexibel. Das Schulgebäude ist somit für zukünftige Anforderungen leicht adaptierbar. Zu diesem Zweck wird architektonische Vielfalt mit einem hohen Grad an Funktionalität verbunden, die gleichzeitig lokale Gegebenheiten und Bedürfnisse berücksichtigt. Prägend für die Funktions-, Raum- und Gestaltungskonzepte sind insbesondere der Baukörper und seine Form, die Erschließung der Schule und die Raumfolge innerhalb des Gebäudes, die Raumfunktion und Nutzung einzelner Bereiche sowie ein hohes Maß an räumlich-visueller Kommunikation und Transparenz, sowohl innerhalb der Klassencluster als auch zwischen unterschiedlichen Funktionsbereichen der Schulen. Diese Parameter wurden in der vorliegenden Studie anhand von zahlreichen Fallbeispielen eingehend untersucht und dokumentiert. Durch einen frühzeitig geführten, intensiven Dialog zwischen Behörden, Pädagogen und Architekten sind räumliche Konzepte entstanden, die das Erlernen von sozialen Kompetenzen, Teamfähigkeit und Gruppenarbeit unterstützen und fördern.
Im Rahmen der Arbeit wird untersucht, welche Awarenessinformationen in kooperativen Situation benötigt werden. Herangezogen wird dazu das Denver Modell von Salvador et al., das fünf Dimensionen bereit stellt, anhand derer jedwede kooperative Situation klassifiziert werden kann: Abhängigkeit, Zeit, Gruppengröße, Ort und Timing. Bei der untersuchten Situation handelt es sich um eine eng gekoppelte, synchrone, örtlich verteilte geplante Kooperationen in einer Kleingruppe. Als konkrete Ausprägung der so bezeichneten Modellinstanz wird das Chat-basierte Rollenspiel betrachtet. In der Arbeit wird untersucht, welche Awarenessinformationen in einer so charakterisierten Situation benötigt werden und wie diese Awarenessinformationen benutzerfreundlich dargestellt werden können, so dass sie den Benutzer dabei unterstützen, sein kooperatives Ziel bzw. seine Teilziele zu erreichen. Dazu wurde eine Analyse des situativen Bedarfs durchgeführt und tragende Awarenessinformationssäulen identifiziert. Um zu Richtlinien zur Darstellung dieser benötigten Awarenessinformationen zu gelangen, wurden Annahmen aufgestellt, zur Überprüfung eine Studie konzipiert und mit drei Designvarianten durchgeführt. Aus der Datenanalyse wurden Schlussfolgerungen gezogen. Für den erstellten Katalog mit Gestaltungsrichtlinien wurden neben diesen Schlussfolgerungen auch Normen und andere Empirie (Vorerfahrung, Literatur) berücksichtigt. Die eingesetzte Evaluationsform hat sich in der Studie bewährt und sie kann für zukünftige Studien verwendet werden. Auch die Anpassung klassischer Usability-Kriterien für die Präsentation von Awarenessinformationen hat sich bewährt. Durch die Analyse des spezifischen Bedarfs in einer kooperativen Situation wird gewährleistet, dass die Benutzer die Unterstützung erhalten, die erforderlich ist, um die Aufgabe effektiv und effizient bearbeiten zu können, ohne dabei mit unnötigen Informationen überlastet zu werden. Durch Bereitstellung empirisch belegter und theoretisch fundierter Gestaltungsrichtlinien schafft diese Arbeit eine Basis für die zukünftige Entwicklung von Groupwareanwendungen, insbesondere solcher, die Werkzeuge für die Computer-vermittelte, synchrone, eng gekoppelte, geplante Kooperationen in Kleingruppen bereitstellen. Die Arbeit liefert wichtige Erkenntnisse, wie Awarenessinformationen dargestellt werden sollen, d.h. in welcher Platzierung bzw. Gruppierung und in welcher Form, so dass der Benutzer alle wesentlichen Awarenessinformationen schnell entdecken und interpretieren kann, ohne dabei überfordert oder von der Primäraufgabe abgelenkt zu werden.
Heat, gas, and leachate are primary by-products of landfill processes in municipal solid waste landfills. In nuclear waste repository, temperature of the waste also raises due to radioactivity processes. Temperature increase in the repository induces hydro-mechanical processes of its sealing material. Moderate to high temperature is expected to be encountered in the field situation. In this thesis, a study on the thermo-hydro-mechanical behavior of compacted bentonite-sand mixtures which are among the materials proposed to be used as sealing material for landfills and hazardous waste repository is presented. Mixtures of a calcium-type bentonite, Calcigel, and quartz sand were used in this study. Series of tests including suction and swelling pressure measurement, drying-wetting under unconfined and confined conditions were conducted at a moderately high temperature. Tests at room temperature including basic and physico-chemical characterization, microstructure and fabric studies, and osmotic suction were conducted in order to provide insight into understanding the hydro-mechanical processes taking place in the bentonite. The experimental data obtained are presented and compared to the result of the previous tests for the same material performed by other researchers at room temperature. The changes in hydro-mechanical behavior due to elevated temperature were analyzed and discussed based on the suction components of soil which are influenced by temperature. At the end, conclusions concerning the temperature effects on the hydro-mechanical behavior of the materials are drawn and suggestions for future studies are made.
Architektur wird vorwiegend über die den Raum begrenzenden Oberflächen wahrgenommen. Das Oberflächenmaterial kann daher mit seinen sinnlichen Eigenschaften die Entwurfsintention unterstützen, zugleich muss es aber auch zahlreiche technische, ökonomische und ökologische Anforderungen erfüllen. Materialwahl in der Architektur bedeutet somit das Abwägen einer Vielzahl von Parametern, die sich sowohl inhaltlich als auch hinsichtlich ihrer Relevanz stark unterscheiden. Die Entscheidung für ein Material kann dabei durch verschiedene analoge und digitale Ansätze unterstützt werden. Die vorhandenen Systeme sind jedoch allesamt begrenzt: in den von ihnen berücksichtigten Aspekten, den möglichen Suchwegen oder ihren Inhalten. Keines der in dieser Arbeit untersuchten Systeme berücksichtigt zudem die unterschiedliche Wichtigkeit oder gegenseitige Abhängigkeiten und Unschärfen der in die Materialwahl einfließenden Kriterien. Die vorliegende Arbeit formuliert daher eine Gesamtstrategie zur besseren Unterstützung der Entscheidung für ein Oberflächenmaterial. Im Wesentlichen wird dabei eine Methode vorgestellt, wie die inhaltlich höchst unterschiedlichen Kriterien, welche Einfluss auf die Materialwahl ausüben, mit ihrer jeweiligen Relevanz gegeneinander in Ansatz gebracht werden können, um eine umfassende Bewertung der Materialalternativen zu ermöglichen. In einem zweiten Schritt wird mit Multidimensional Scaling eine Technik der Informationsvisualisierung benutzt, die eine zusätzliche Unterstützung durch weitere Analysemöglichkeiten und andere Suchwege eröffnet. Das vorgeschlagene Verfahren ist in einem Software-Prototyp umgesetzt. Die Arbeit leistet damit einen Beitrag, die Auswahl eines geeigneten Materials in der Architektur zu erleichtern, diese Entscheidung plausibel begründen zu können und den Weg der Entscheidungsfindung nachvollziehbar werden zu lassen.
Metaphosphat – modifizierte Silikatbinder als Basis säurebeständiger Beschichtungsmaterialien
(2008)
Mörtel basierend auf erhärtetem Wasserglas als Binder weisen eine ausgesprochen gute Beständigkeit im Kontakt mit stark sauren Medien auf; unzureichend hingegen ist die che-mische Beständigkeit im Kontakt mit alkalischen bis schwachsauren Medien. Ziel der Un-tersuchungen ist eine Verbesserung der Wasserbeständigkeit von Natriumsilikatbindern durch gezielte chemische Modifikation mit verschiedenen Metaphosphaten. Durch eine systematische Charakterisierung der Zusammensetzung und des strukturellen Aufbaus der Binder werden dabei die Ursachen der bindertypischen Eigenschaften aufgeklärt. Eine Modifikation der Natriumsilikatlösung mit Natriumtrimetaphosphat hat eine Erhöhung des Kondensationsgrades und eine verbesserte mechanische Beständigkeit des verfestig-ten Natriumsilikatbinders zur Folge. Durch die reaktive Bindung der Basizität der Natriumsi-likatlösung beim Abbau der Metaphosphatstruktur wird die Wasserbeständigkeit mit Natri-umtrimetaphosphat modifizierter Natriumsilikatmörtel erhöht. Die gute Beständigkeit im Kontakt mit hochkonzentrierter Schwefelsäure bleibt nahezu unverändert erhalten. Eine Modifikation der Natriumsilikatlösung mit Aluminiumtetrametaphosphat führt durch Reaktion beider Komponenten miteinander zur Bildung eines alumosilikatischen Netzwer-kes. Das alumosilikatische Netzwerk des mit Aluminiumtetrametaphosphat modifizierten Natriumsilikatbinders ist auch in einer stark alkalischen Natriumhydroxidlösung beständig. Die gute Beständigkeit des Binders im Kontakt mit hochkonzentrierter Schwefelsäure bleibt trotz des Aluminates im Bindernetzwerk erhalten.
Die Dissertation setzt sich zum Ziel, mittels einer Längs- als auch in einer Querschnittsanalyse die für die 80er und 90er Jahre typischen Erscheinungen von Kunst im öffentlichen Raum in Süddeutschland zu untersuchen und zu bewerten. Sie besteht aus einem allgemeinen, eher theoretisch und systematisch ausgerichteten Teil, in dem die relevanten Fragestellungen in einem größeren historischen Zusammenhang entwickelt werden, sowie einer empirisch ausgerichteten Mikrostudie, um letztere am konkreten Material, also angesichts der realen Handlungen, Entscheidungen und Prozesse in einem typischen Fall zu überprüfen. Im Zentrum steht dabei das im Prozess der Auseinandersetzung mit dem Ort entwickelte Werk (Site Specificity) und seine Präsentationsform innerhalb eines meist thematisch und zeitlich eingegrenzten Projekts, dessen Teilnehmer/Werke von einer Jury ausgewählt und von einem Kurator zur Ausstellung gebündelt und unter seiner Leitung realisiert werden.
Ziel der Arbeit ist es, einen Beitrag zur Weiterentwicklung und Adaption der Holz-Beton-Verbundbauweise auf den Straßenbrückenbau zu leisten. Dabei stehen differenzierte Untersuchungen zum Trag- und Verformungsverhalten hybrider Holzbrückentragwerke sowie die Entwicklung geeigneter Verbundelemente im Vordergrund. Um die Einführung dieser innovativen Bauweise in der Praxis zu unterstützen, werden Bemessungs- und Konstruktionshinweise erarbeitet. Aufbauend auf eine Analyse des derzeitigen Forschungs- und Entwicklungsstandes auf dem Gebiet des Holz-Beton-Verbundbaus erfolgt die Untersuchung des Trag- und Verformungsverhaltens von Holz-Beton-Verbundbrücken anhand einer umfangreichen Parameterstudie. Dabei wird der Einfluss verschiedener Geometrie- und Steifigkeitsparameter auf die Tragfähigkeit und Gebrauchstauglichkeit von Holz-Beton-Verbundbrücken quantifiziert. Spezielle Untersuchungen dienen der Evaluation der Ermüdungssicherheit und der Ermittlung der Steifigkeitsdegradation unter Langzeitbeanspruchung auf der Basis einer realitätsnahen Abbildung des differenten zeit- und klimaabhängigen Tragverhaltens der Verbundbaustoffe. Praxisgerechte Empfehlungen für die optimierte konstruktive Durchbildung hybrider Holzbrückentragwerke fassen die Ergebnisse der Parameterstudie zusammen. Aus den Parameteranalysen leitet sich ein Anforderungsprofil bezüglich der Steifigkeit und Tragfähigkeit geeigneter Verbundelemente für den Straßenbrückenbau ab. Das Tragverhalten von drei ausgewählten Verbundelementtypen, welche diesem Profil entsprechen, wird anhand systematischer Scherversuche unter Kurzzeit-, Langzeit- und dynamischer Belastung analysiert. Aufbauend auf diese Testreihen werden weiterführende umfangreiche Versuchsserien mit dem Verbundelement Dübelleiste zur Bestimmung der mechanischen Kennwerte und zur Analyse des Gesamttragverhaltens vorgestellt. In Auswertung der umfangreichen Bauteilversuche und rechnerischer Simulationen auf der Basis Finiter-Elemente-Modelle wird ein Bemessungskonzept erarbeitet und die Eignung des Verbundelementes Dübelleiste für den Einsatz im Hybridbrückenbau nachgewiesen.
Die elektronische Virtualisierung von Baudenkmalen ist neues, außergewöhnlich vielfältiges medientechnisches Phänomen; es beschreibt die ursprüngliche Form substanziell-realer Baudenkmale, transformiert sie von einer abstrakten Beschreibung in Wort und Bild in eine immaterielle Realität. Die Dissertation versucht Antworten zu geben auf folgende Fragen: Ist die elektronische Virtualisierung eine Methode der Stimulation der Öffentlichkeit im Umgang mit Baudenkmalen? Ist das elektronisch virtualisierte Baudenkmal ein immaterielles Zeugnis der Kulturgeschichte in der Zukunft? Ist das substanziell-reale und das virtualisierte Baudenkmal uneingeschränkt gegenseitig austauschbar, ist ersteres durch letzteres ersetzbar? Die Beantwortung der Fragen hängt ab von den Stufen der Perfektion der elektronischen Virtualsierung von Baudenkmalen.
Eine Analyse zum Strömungswiderstand natürlicher Fließgewässer mit ausgeprägter Sohlstrukturierung
(2008)
Übliche Ansätze zur Quantifizierung des Strömungswiderstandes natürlicher Fließgewässer mit geringer relativer Überdeckung und ausgeprägter Sohlstrukturierung basieren auf der Abhängigkeit von einem konstanten charakteristischen Rauheitsparameter. Diese Annahme ist nur für die turbulente rotationssymmetrische Rohrströmung mit hoher relativer Überdeckung gültig. Die Quantifizierung der Widerstandsprozesse mit einem konstant erhöhten Rauheitsmaß für die betrachteten Randbedingungen erfasst nicht die individuellen Charakteristiken von Rauheitsstruktur und integralem Strömungsfeld an unterschiedlichen Gewässerabschnitten sowie identischen Gewässerabschnitten bei Abflussvariation. Auf Basis detaillierter Datensätze von Oberflächenstrukturen und dem jeweiligen Strömungsfeld erfolgt die Untersuchung der Interaktion zwischen vorgenannten Punkten. Für die Charakterisierung der individuellen Rauheitsstruktur in Abhängigkeit der relativen Überdeckung erweist sich die vertikale Rauheitsdichte cK,V (Verbauungsgrad) als starke Funktion. Die Charakterisierung der Ungleichförmigkeit des integralen Strömungsfeldes als Folge der individuellen Rauheitsstruktur erfolgt auf Basis physischer Modellversuche und mathematisch-physikalischer Untersuchungen anhand des Geschwindigkeitshöhenausgleichsbeiwertes au. Die Formulierung des Strömungswiderstandes in Abhängigkeit dieser beiden Parameter resultiert in einer wesentlichen Verringerung des Fehlerbetrages und damit des Unsicherheitsbereiches. Die bestehende Reststreuung ist auf Einflüsse aus Anordnung und Form der Elemente, Turbulenz, Sekundärströmung, Wasserspiegeldeformationen, lokal kritische Strömung und Lufteinzug zurückzuführen.
Die Komplexität des Schweißprozesses und das Verhalten der Werkstoffe infolge des Energieeintrages erfordern eine umfassende Betrachtungsweise. Die Entwicklung von numerischen Modellen und Methoden in den letzten 50 Jahren ermöglicht die Simulation, Analyse und Optimierung von Schweißverbindungen hinsichtlich Temperatur, Gefügestruktur und Eigenspannungen. Eine Differenzierung der Schweißsimulation in Prozess-, Werkstoff- und Struktursimulation gestattet eine gezielte Untersuchung von einzelnen Aspekten. Diese Unterteilung erfordert zum Teil eine starke Abstraktion und Idealisierung der Realität durch geeignete Annahmen und Randbedingungen, die von der zu untersuchenden Fragestellung abhängen. Dadurch wird eine Kalibrierung und Verifikation der Modelle mit Versuchsergebnissen notwendig. Die in dieser Arbeit durchgeführten Untersuchungen beschäftigen sich mit wichtigen Fragestellungen hinsichtlich der numerischen Simulation und experimentellen Untersuchung des Temperaturfeldes sowie des Gefüge- und Eigenspannungszustandes von MAG-Schweißverfahren an den Werkstoffen Feinkornbaustahl und Duplex-Stahl, CO2-Laserstrahlschweißverfahren am Werkstoff Quarzglas, Trennprozessen von Proben, WIG-Nachbehandlungsverfahren. Hinsichtlich der Naht- und Stoßarten orientierte sich die Arbeit an baupraktisch relevanten Schweißverbindungen sowie Besonderheiten, die sich aus Schweißprozessen und unterschiedlichen Werkstoffen ergeben. Eine Interpretation der numerisch und experimentell ermittelten Ergebnisse ermöglicht die Ableitung von allgemeingültigen Erkenntnissen zur Ausbildung des Temperaturfeldes, Entstehung von Gefügestrukturen und Eigenspannungen. Voraussetzungen für eine realitätsnahe Schweißsimulation zur Bestimmung von Temperatur, Gefügeanteil und Eigenspannung sind neben den Geometriemodellen geeignete numerische Modelle für die Einkopplung der Energie aus dem Schweißprozess und für die Abgabe der Energie durch Konvektion und Strahlung an die Umgebung, zur Beschreibung des thermischen und mechanischen Werkstoffverhaltens im Bereich von Raumtemperatur bis zur Schmelztemperatur.
Die Dissertation untersucht Ideen von Virtualität im Hinblick auf mobile Medientechnologien. Es verbinden sich eine medienphilosophische und eine technikhistorische Perspektive: Das Virtuelle wird philosophiehistorisch ergründet und damit verbunden die Emergenz von mobilen Medientechnologien wie dem Mobiltelefon rekonstruiert. Zentral ist dabei die Frage, wie sich Weltverständnisse durch mobile Telekommunikation wandeln und wie das Virtuelle bislang im Kontext von Realitätsvorstellungen gedacht wurde.
Die Arbeit untersucht auf der Basis der Neuen Institutionenökonomik die Rolle von Immobilieninvestoren, d.h. offene und geschlossene Immobilienfonds, Real Estate Investment Trusts, Real Estate Private Equity Fonds und Lebensversicherungen, auf dem deutschen Markt für Public Private Partnership Projekte im öffentlichen Hochbau. Dafür werden Immobilienanlagevehikel als institutionelle Ausgestaltung einer Prinzipal-Agent-Beziehung aufgefasst, bei der der Anleger als Prinzipal die Kapitalanlage an den Immobilieninvestor als Agent delegiert. Die geschäftlichen Aktivitäten eines Immobilieninvestors werden durch den normierten Handlungsspielraum, d.h. die rechtlichen Vorgaben, determiniert. Daneben beeinflusst auch die Ausgestaltung der PA-Beziehung, d.h. die Rechte des Prinzipals und die Anreize für den Agenten, die geschäftlichen Aktivitäten eines Immobilieninvestors. Zusammengeführt werden diese beiden Kategorien unter dem Begriff des „definierten Gestaltungsrahmens“, der als Rahmen der geschäftlichen Aktivitäten eines Immobilieninvestors verstanden wird, der dessen PPP-Investitionsmöglichkeiten bestimmt. So ist die Eignung eines Immobilieninvestors für eine PPP-Investition davon abhängig, ob sein „definierter Gestaltungsrahmen“ zum „erforderlichen Gesamtgestaltungsrahmen“ des PPP-Projektes passt. Letzterer wird dabei durch das PPP-Vertragsmodell, die PPP-Immobilienart, die PPP-Wertschöpfungsphase sowie die gewählte Handlungsoption des Investors auf dem PPP-Markt determiniert. In der Arbeit werden theoretische PPP-Investitionsmodelle entwickelt, in denen dargelegt wird, welche Immobilieninvestoren in welche PPP-Projekte investieren sollten. Dabei werden Empfehlungen zu den geeigneten Handlungsoptionen des jeweiligen Investors auf dem PPP-Markt erarbeitet und dargelegt, in welcher PPP-Wertschöpfungsphase dieser investieren sollte und welche der PPP-Vertragsmodelle und PPP-Immobilienarten für eine Investition geeignet sind. Zudem werden Gestaltungsempfehlungen zum rechtlichen Rahmen hergeleitet. Des Weiteren werden die Immobilieninvestoren auch für die bisher schon auf dem PPP-Markt agierenden Bau- und Betreiberunternehmen, insbesondere den Mittelstand, als potentielle Kooperationspartner auf dem Erstmarkt (Primärmarkt), als Exitpartner auf dem Zweitmarkt (Sekundärmarkt) oder als Wettbewerber klassifiziert. Die Thematik ist auch für die öffentliche Hand von Interesse, da der durch den Markteintritt neuer Investoren erhöhte Wettbewerb die Konditionen der PPP-Verträge verbessern kann und die Einbindung des Mittelstandes in PPP-Projekte ausdrückliches Ziel der Bundesregierung ist.
Krankenhäuser sind heute äußerst komplexe Objekte, in denen komplizierte funktionale Anforderungen zusammen stoßen, die nur mit Hilfe einer sehr intensiven technischen Ausstattung zufrieden stellend gelöst werden können. Sie sind durch die medizintechnische Ausrüstung, die zum Teil sehr hohen hygienischen Anforderungen, die Patientenansprüche sowie die schärferen wirtschaftlichen Bedingungen gekennzeichnet. Gleichzeitig haben Krankenhäuser einen sehr hohen Energieverbrauch, der ein großes Einsparpotenzial beinhaltet, das vor dem Hintergrund der schlechteren Verfügbarkeit und der ökologischen Probleme des CO2-Ausstoßes durch die Verbrennung fossiler Brennstoffe sowie der Notwendigkeit einer gesicherten Energieversorgung eine zunehmende Bedeutung hat. Die energetische Struktur eines Gebäudes wird entscheidend in den frühen projekt- und Entwurfsphasen für die gesamte Lebensdauer des Gebäudes festgelegt. Der Architekt und andere Entscheider benötigen daher Instrumente, um diese Struktur einfach bestimmen und beurteilen zu können. Hierfür ist eine energetische Analyse und die Definition des Einflusspotenzials des architektonischen und baukonstruktiven Entwurfes auf den Energieverbrauch notwendig. Darauf aufbauend werden spezifische flächenbezogene Energieaufwandszahlen gebildet, wodurch eine energetische Beurteilung unabhängig von konkreten Entwürfen möglich wird. Durch die Definition von optimalen energetischen Strukturen einzelner Referenzbereiche von Krankenhäusern wird ein Maßstab geschaffen, an dem die tatsächlichen Entwürfe gemessen werden können, um daraus dimensionslose flächenbezogene Energieaufwandszahlen bilden zu können. Diese stellen Kennzahlen für die energetische Struktur von Entwürfen dar, wodurch eine Vergleichbarkeit sowohl bei einzelnen Bereichen des Krankenhauses wie auch beim gesamten Gebäude hergestellt wird. Energetisch vorteilhafter ist eine flächige Gebäudestruktur mit einer direkten Zuordnung der Technikzentralen zu den angeschlossenen Versorgungsbereichen. Die Schaffung von optimierten Installationsbedingungen ermöglicht eine energieoptimierte Struktur der Technischen Ausrüstung und ist beim Entwurf zu berücksichtigen.
Im rechnergestützten Bauplanungsprozess arbeiten verschiedene Fachplaner an der gemeinsamen Aufgabe, ein Bauwerk zu planen, zusammen. Verfügbare Kooperationsansätze beschäftigen sich mit versionierten und verteilten Bauwerksmodellen, die auf Basis der Objektorientierung virtuelle Bauwerkszustände beschreiben. Die in diesen zustandsorientierten Modellen unberücksichtigten Zustandsänderungen führen zu derzeitigen Problemen beim Austausch, beim Vergleich und bei der Zusammenführung von versionierten Bauwerksinformationen. Gegenstand der vorliegenden Arbeit ist die Entwicklung eines verarbeitungsorientierten Ansatzes zur ganzheitlichen Betrachtung der Bauwerksmodellierung. Neben der zustandsorientierten Beschreibung eines virtuellen Bauwerks werden zusätzlich änderungsorientierte Informationen in Form von Modellieroperationen in der Modellbildung berücksichtigt. Es wird eine Modellierungssprache definiert, um Operationen formal zu beschreiben. Modellieroperationen bilden eine Verarbeitungsschnittstelle für Objektmodelle, repräsentieren Entwurfsabsichten, reichern bestehende Bauwerksmodelle mit Änderungssemantik an und tragen zur Konsistenzsicherung in diesen Modellen bei. Neuartige Kooperationskonzepte für den Austausch, den Vergleich und das Zusammenführen von versionierten Bauwerksinformationen werden auf Grundlage des vorgeschlagenen Ansatzes entwickelt. Sowohl das Modell als auch die Sprache werden unabhängig von aktuellen Technologien formal beschrieben. Die prinzipielle Anwendbarkeit des vorgeschlagenen Ansatzes wird im Rahmen einer Pilotimplementierung auf Basis eines Open-Source-Systems im Bauwesen nachgewiesen.
Im Rahmen der Arbeit wird das Tragverhalten von dampfgehärtetem Porenbeton unter einachsiger Druckbeanspruchung untersucht. Ziel ist es, einen Zusammenhang zwischen makroskopischen Spannungs-Dehnungs-Beziehungen, beanspruchungsbedingten Strukturänderungen und der Dauerstandfestigkeit herzustellen. Die Dauerstandfestigkeit stellt im Sinne der Arbeit eine elementare Gefügeschwelle dar, durch sie wird das stabile vom instabilen Tragverhalten abgegrenzt. Der Zusammenhang zwischen Strukturänderungen und Spannungs-Dehnungs-Verhalten wird anhand mechanischer Modelle analysiert. Diese Untersuchungen liefern die konzeptionelle Orientierung für die durchzuführenden Laborversuche. Die experimentelle Basis der Arbeit bilden Kurzzeit- und Langzeitversuche an Porenbetonzylindern unter einachsiger Druckbeanspruchung. Es werden Probekörper von drei Porenbetonwerken untersucht. Um den Einfluss der Lastgeschichte aufzuzeigen, wird die Versuchsdauer zwischen einer Sekunde und mehreren Wochen variiert. Die Versuche werden mit unterschiedlichen Lastregimen durchgeführt: sowohl mit monoton gesteigerter Beanspruchung bis zum Versagen bzw. bis zum vorgesehenen Beanspruchungsniveau als auch mit niederzyklischer Beanspruchung. Die Messdaten werden unter Einbeziehung der dreidimensionalen Ansätze der Spannungs- und Deformationstheorie hinsichtlich des sphärischen und des deviatorischen Anteils des Spannungs- und Verformungszustandes ausgewertet. Diese auf die separate Betrachtung der Volumen- und Gestaltänderung gestützte Auswertung liefert zusätzliche Erkenntnisse hinsichtlich der Zuordnung von reversiblen und irreversiblen Verformungen zu den Teiltensoräquivalenten. Entsprechend den Versuchsergebnissen ändert sich die Kompressibilität des Porenbetons belastungsabhängig. Bereits kurzzeitige Überlastungen oberhalb der experimentell ermittelten Dauerstandgrenze sind von signifikanten Änderungen der Kompressionssteifigkeit begleitet. Das qualitative Tragverhalten des Porenbetons, das bei Beanspruchungen oberhalb der Dauerstandfestigkeit grundsätzliche Änderungen erfährt, lässt sich so bereits im Kurzzeitversuch abgrenzen. Zusätzliche Auswertungen für Normalbeton und selbstverdichtenden hochfesten Beton weisen auf analoges Verhalten hin. Auf der Basis der durchgeführten Untersuchungen werden Konzepte vorgestellt, mit denen die Dauerstandfestigkeit im Kurzzeitversuch, das heißt mit einer Versuchsdauer von wenigen Stunden, prognostiziert werden kann. Damit können Untersuchungen zur Dauerstandfestigkeit, die eine grundlegende Größe zur Beurteilung der Tragfähigkeit darstellt, routinemäßig durchgeführt werden.
Im Rahmen dieser Arbeit wurden über verschiedene Herstellungsverfahren 48 Gelproben erzeugt und auf ihr Quellverhalten untersucht. Dabei wurde eine Wiederholbarkeit der Messungen mit anderen Bearbeitern überprüft und nachgewiesen. Es zeigt sich in den Quellversuchen, dass hohe Alkaligehalte in den Gelproben bei einer niedrigen Löslichkeit (durch geringe Mengen Calcium in der Probe hervorgerufen) hohe Quelldrücke erzeugen. Ein Einfluss des Natrium-Kalium-Verhältnisses (Alkaliverhältnis) auf das Quellverhalten der Gelproben ist nicht zu erkennen. Der Einfluss des Calciums im Gel zeichnet sich deutlich ab, ohne Calcium bauen die Proben keine Quelldrücke auf, bei zu hohen Calciumgehalten entstehen nicht quellfähige Alkali-Calcium-Silikat-Hydrate. Ein quellfähiger Bereich kann von ca. 5 % bis zu ca. 30 % Calciumanteil im Gel angegeben werden. Neben dem Einfluss des Calciumgehaltes auf das Quellverhalten der Gele ist auch ein Einfluss des Alkali-Silika-Verhältnisses in den Proben nachweisbar. Wird dieses Verhältnis in den Proben stark Richtung Kieselsäure verschoben, d. h. niedrige Alkalianteile im Gel, kommt es zu keinen Quellerscheinungen. Somit kann die Wirkung von AKR-vermeidenden Zusätzen (FA, Silika usw.) mit diesen Messungen bestätigt werden. Es kann gezeigt werden, dass die ermittelten Quelldrücke eines Alkalikiesel-Gels ein Gesteinskorn oder/und die umgebende Matrix zerstören können. Aus diesen oben genannten Erkenntnissen wird ein Bereich einer quellfähigen Zusammensetzung eines Gels in einem Dreistoffdiagramm angegeben und es können folgende Schlussfolgerungen gezogen werden: •Ein Quelldruck kann in einem AK-Gel nur bei einer bestimmten Menge an eingebautem Calcium aufgebaut werden. •Diese Quelldrücke können deutlich Werte über 10 N/mm² erreichen. •Die im Beton verwendeten Gesteinskörnungen und auch die sie umschließende Mörtelmatrix können mit Quelldrücken in den hier bestimmten Größenordnungen zerstört werden. •Die bekannten Modelle zur Alkali-Kieselsäure-Reaktion müssen um den Einbau des Calciums in ein entstandenes AK-Gel erweitert werden.
Multi-Frame Rate Rendering
(2008)
Multi-frame rate rendering is a parallel rendering technique that renders interactive parts of a scene on one graphics card while the rest of the scene is rendered asynchronously on a second graphics card. The resulting color and depth images of both render processes are composited, by optical superposition or digital composition, and displayed. The results of a user study confirm that multi-frame rate rendering can significantly improve the interaction performance. Multi-frame rate rendering is naturally implemented on a graphics cluster. With the recent availability of multiple graphics cards in standalone systems the method can also be implemented on a single computer system where memory bandwidth is much higher compared to off-the-shelf networking technology. This decreases overall latency and further improves interactivity. Multi-frame rate rendering was also investigated on a single graphics processor by interleaving the rendering streams for the interactive elements and the rest of the scene. This approach enables the use of multi-frame rate rendering on low-end graphics systems such as laptops, mobile phones, and PDAs. Advanced multi-frame rate rendering techniques reduce the limitations of the basic approach. The interactive manipulation of light sources and their parameters affects the entire scene. A multi-GPU deferred shading method is presented that splits the rendering task into a rasterization and lighting pass and assigns the passes to the appropriate image generators such that light manipulations at high frame rates become possible. A parallel volume rendering technique allows the manipulation of objects inside a translucent volume at high frame rates. This approach is useful for example in medical applications, where small probes need to be positioned inside a computed-tomography image. Due to the asynchronous nature of multi-frame rate rendering artifacts may occur during migration of objects from the slow to the fast graphics card, and vice versa. Proper state management allows to almost completely avoid these artifacts. Multi-frame rate rendering significantly improves the interactive manipulation of objects and lighting effects. This leads to a considerable increase of the size for 3D scenes that can be manipulated compared to conventional methods.
Die Entwicklung der Holz-Beton-Verbundbauweise hat gezeigt, dass hybride Holzverbundbauweisen eine sehr effiziente Lösung zur Steigerung der Tragfähigkeit und Steifigkeit von biegebeanspruchten Holzbauteilen darstellen. Bei solchen Holzverbundbauteilen stellt insbesondere die effiziente Gestaltung der Schubkraftübertragung in der Verbundfuge zwischen den Baustoffschichten einen gewissen Schwachpunkt dar. Weiterhin limitieren insbesondere auch die streuenden Festigkeiten sowie wuchs- bzw. fertigungsbedingte Eigenschaften des in der Zugzone angeordneten Holzes die Leistungsfähigkeit solcher hybrider Verbundbauteile merklich. Eine innovative Lösung für diese Problemkreise konnte in der Herstellung von hybriden Verbundkonstruktionen aus Reaktionsharzbeton, faserverstärkten Kunststoffen und der bestehenden Holzkonstruktion gefunden werden. Dabei kommt in der Biegedruckzone ein Hochleistungs-Polymerbeton zum Einsatz. Die Zugzone wird mittels ein- bzw. aufgeklebter Faserverbundwerkstoffe verstärkt und strukturell bedingte Grenzen überwunden. Faserverbundwerkstoffe sind im Vergleich mit homogenen Werkstoffen durch eine strukturelle Anisotropie gekennzeichnet. Zur rechnerischen Beschreibung des Trag- und Bruchverhaltens benötigt man eine schichtenweise Spannungsanalyse, Bruchkriterien für die einzelnen Schichten und Degradationsmodelle zum Erfassen der Auswirkung von Teilbrüchen, die noch nicht zum Bruch oder Ablösen des Laminats führen. Dabei bieten bruchtypbezogene Versagenskriterien wesentliche Vorteile gegenüber Pauschal¬kriterien, da die vorherrschenden Bruchmodi mithilfe ein¬zelner Bruch¬bedingungen unabhängig voneinander beschrieben werden können. Zur Analyse des Verbundverhaltens von faserverstärkten Kunststoffen und Holz wurde deshalb das vereinfachte Puck-Knaust-Kriterium für die Versagensanalyse in ANSYS(R) implementiert. Für die numerische Untersuchung der Verbundträger wurde ein Strukturmodell für Kunstharzbetone im Verbund mit Holz entwickelt, mit dem sich Steifigkeit und Kriechverhalten beliebiger Mischungsverhältnisse abschätzen lassen. Beim Vergleich der Ergebnisse zeigt sich, dass die relativen Kriechverformungen bei den verstärkten Balkenserien um das 1,8- bis 2,5fache größer sind als bei der unverstärkten Serie, was in der Materialspezifik des eingesetzten Polymerbetons begründet liegt. Die Kriech¬verformung steigt dabei mit zunehmendem Verhältnis von Polymerbetonstärke zum Holzgrundquerschnitt und kann mit der angegebenen Gleichung für beliebige Querschnittsverhältnisse ermittelt werden. Im Vergleich der Durchbiegung der Serien bei gleicher Belastung wird deutlich, dass die Steifigkeitsvorteile der verstärkten Balken durch die größere Kriechneigung ganz oder teilweise aufgebraucht werden. Besonders betrifft das die Serien, bei denen die obere Holzschicht mit PC substituiert wurde. Dort wird aus einem anfänglichen Vorteil sogar ein Nachteil. In der numerischen Simulation von hybriden Verbundträgern aus faser¬verstärkten Kunststoffen, Kunstharzbeton und Holz bestätigte sich der eindeutige Vorteil einer zusätzlich aufgebrachten Polymerbetonschicht. Der Beitrag der FVK-Verstärkung am Gesamtsystem fällt im Gegensatz zur PC-Deckschicht jedoch wesentlich geringer aus, da deren Potential erst bei größeren Belastungen voll aktiviert wird. In Hinblick auf Wirtschaftlichkeit und Anwendertauglichkeit insgesamt stellt der Einsatz von faserverstärkten Kunststoffen und Kunstharzbetonen eine wirkliche und praxistaugliche Alternative gegenüber herkömmlichen Baustoffen zur Tragwerksverstärkung dar.
Das wohltemperierte Netz - Zum Konstruktiven Entwurf direkt verglaster Stabnetze auf Freiformflächen
(2008)
Direkt verglaste Stabnetze repräsentieren ein strukturell und geometrisch hochgradig variables Prinzip zur Realisierung transparenter architektonischer Freiformflächen. Dieses beinhaltet die funktionale Entkopplung der Fassadenkonstruktion in ein tragendes Stabnetz und eine hüllende Verglasung. Ein formal universales, dimensional variables Knotenelement bildet dabei das Herzstück der Konstruktion. Die vorliegende Arbeit widmet sich dem Konstruktiven Entwurf frei geformter, direkt verglaster Stabnetze. Dieser umfasst schwerpunktmäßig die formale und dimensionale Konzeptionierung der Knotenelemente. Er wird maßgeblich beeinflusst von der Dimensionalitätsdifferenz zwischen dem formbeschreibenden Flächennetz aus nulldimensionalen Knoten und eindimensionalen Kanten sowie dem Stabnetz aus dreidimensionalen Knoten bzw. Stäben. Darüber hinaus definieren das freiformbedingte Erfordernis einer unikaten Ausrichtung der Stabnetzelemente sowie die materialspezifische Anforderung einer zwängungsfreien Lagerung der Gläser weitere dominante Einflussgrößen im Entwurfsprozess. In der Arbeit werden zunächst die geometrischen und konstruktiven Randbedingungen des Konstruktiven Stabnetzentwurfs dargestellt. Darauf aufbauend wird ein Zylinder-Achsen- Modell entwickelt, welches die unikate lokale Situation am Knoten unter Berücksichtigung einer variablen Ausrichtung der Stabnetzelemente sowie beliebig polygonaler Stabquerschnitte abstrahiert. Die Modellierung ermöglicht eine Bewertung des knotenbezogenen Status unter konstruktiven und mechanischen Aspekten. Sie bildet somit die Grundlage für eine Konstruktive Optimierung direkt verglaster Stabnetze. Mit Hilfe des Zylinder-Achsen-Modells werden alle bisher bekannten Prinzipien zur Ausrichtung der Stabnetzelemente analysiert. Dabei offenbaren sich verschiedene Defizite. Zu deren Überwindung werden drei neuartige Lösungsansätze entwickelt. Eine alternative Methode dient folglich zur Bestimmung einer konstruktiv optimierten Ausrichtung der Knotenachse. Ein zweiter Ansatz zielt auf die Definition einer neuartigen Stablängsbezugsachse, welche unabhängig von der Flächenkrümmung eine zwängungsfreie Lagerung der Glaselemente gewährleistet. Schließlich ermöglicht das dritte innovative Prinzip die konsistente Bestimmung einer Stabquerachse auch bei nicht ebenen Viereckmaschen.
Die Arbeit beschäftigt sich mit den diskursiven Konstruktion urbaner Images in Großprojekten. Aufbauend auf einer soziologischen Definition der Begriffe „Raumbild“ und „Ortsbild“ wird am Beispiel des städtebaulichen Großprojekts Paris Rive Gauche untersucht, wie sich ortsspezifische Referenzen in einem Planungsprozess bilden, zu welchen Zwecken sie eingesetzt werden und wie mit Hilfe dieser Referenzen im Planungsprozess diskursiv ein Image für einen entstehenden Stadtteil konstruiert wird.
In der vorliegenden Arbeit wird das Tragverhalten und das Sicherheitsniveau axial belasteter Großbohrpfähle in den pleistozänen Kalkarenit der Küstenregion von Dubai untersucht. Zunächst wird auf der Grundlage von Ergebnissen umfangreicher Baugrundanalysen und Probebelastungen das Tragverhalten detailliert beschrieben. Anschließend wird ein auf der Finiten-Elemente-Methode basierendes Strukturmodell zur Simulation des Last-Setzungsverhaltens von Großbohrpfählen im Sinne eines numerischen Versuchsstandes entwickelt. Um herstellungsbedingte Veränderungen der Baugrundeigenschaften in der Kontaktzone Pfahl-Baugrund zu berücksichtigen, die mit boden- und felsmechanischen Elementversuchen gewöhnlich nicht erfassbar sind, werden die Größen der relevanten konstitutiven Parameterwerte iterativ mittels inverser Optimierungsstrategien bestimmt. Abschließend wird eine methodische Vorgehensweise aufgezeigt, wie das Sicherheitsniveau axial belasteter Großbohrpfählen unter Berücksichtigung der räumlichen Variabilität der Baugrundeigenschaften zuverlässig abgeschätzt werden kann.
Bei der Produktion von Betonsteinen mit vollautomatischen Steinformmaschinen ist das Füllen der Form mit Betongemenge die erste Phase des Formgebungs- und Verdichtungsprozesses. Trotz langjähriger praktischer Erfahrungen mit Steinformmaschinen wird der Formgebungs- und Verdichtungsprozess nicht ausreichend stabil beherrscht. Im industriellen Routinebetrieb erweist sich insbesondere die Realisierung einer gleichmäßigen Füllung als das primäre Problem. Die in dieser Phase entstehenden Defizite beeinflussen direkt die Qualität der zu erzeugenden Betonsteine. Eine Kompensation dieser Mängel ist mit den nachfolgenden Prozessphasen nicht mehr möglich. Die Zielstellung der vorliegenden Arbeit ist es, ausgehend von einer systematischen Analyse des Formgebungs- und Verdichtungsprozesses im Allgemeinen und der Analyse des Füllvorganges im Besonderen, die tatsächlich an Steinformmaschinen erreichbare Füllungsgüte zu ermitteln, Einflüsse auf die erreichte Füllungsgüte und deren Wechsel-beziehungen zu untersuchen sowie ein Modell zur Beschreibung und Simulation des Füllvorganges zu entwickeln und zu verifizieren. Als wesentliche Voraussetzung für eine systematische Analyse der Füllstufe(n), wird eine Methode zur Berechnung und Bewertung der Füllungsgüte entwickelt. Grundlage der Methode bildet dabei die systematische Erfassung der Steinmassen mi von vollständigen, aufeinander folgend gefertigten Einheiten. Entsprechend der Lage innerhalb der Form und der Folge der gefertigten Einheiten werden die Massen als quantitatives stetiges Merkmal der zu untersuchenden Grundgesamtheit in eine Urliste editiert und für die weitere Auswertung genutzt. Unter Anwendung der entwickelten Methode zur Berechnung und Bewertung der Füllungsgüte wird das tatsächlich im industriellen Routinebetrieb erreichbare Niveau analysiert. Dafür werden in einem erstmals durchgeführten, umfangreichen Feldversuch an elf Steinformmaschinen in Deutschland und der Schweiz die erreichten Füllungsgüten erfasst, die Prozessabläufe dokumentiert und die Wechselbeziehungen zwischen den eingefüllten Massen mi und den Einflussgrößen mit Hilfe der Varianzanalyse nach Variationsursache untersucht. Darüber hinaus werden ausgewählte Festbeton-eigenschaften der Proben bestimmt und deren Korrelation zu den jeweils erreichten Massen mi mit Hilfe der empirischen Regression analysiert. Basierend auf den systematischen Prozessbeobachtungen im industriellen Routinebetrieb wird unter Berücksichtigung der Füllwagenkinematik, des Gemengefüllstandes im Füllwagen und der sukzessiven Übergabe diskreter Massen in die Formzellen ein phänomenologisches Modell zur Beschreibung der ersten Füllstufe entwickelt. Das Bewegungsverhalten des Füllwagens und das Fließverhalten des zu verarbeitenden Betongemenges werden dabei zunächst stark vereinfacht dargestellt. Unter Berücksichtigung der zeilenabhängigen Überdeckungszeit und des Füllstandes im Füllwagen werden koordinatenabhängige Druckprofile im Füllraum, so genannte Zellendruck-Zeit-Funktionen, entwickelt. Als Arbeitshypothese wird formuliert, dass mit diesen Funktionen die unterschiedlichen Bedingungen während des Füllvorgangs im Prozessraum beschrieben werden können und diese Funktionen darüber hinaus mit den im Ergebnis des Vorgangs eingefüllten Massen mi korrelieren. Zur numerischen Nachbildung der ersten Füllstufe bei der Betonsteinherstellung wird die auf der Diskrete-Elemente-Methode basierenden Simulationssoftware Particle Flow Code in 3 Dimensions genutzt. Damit wird es möglich, den Verlauf des Füllprozesses und die sich im Prozessraum ausbildenden Fließprofile durch eine realitätsnahe Computeranimation detailliert und gut einsehbar darzustellen. An Hand der numerisch erzeugten Füllungsgüten wird eine Gegenüberstellung mit den empirischen Ergebnissen möglich. Gleichzeitig erfolgt die Berechnung der Druck-Zeit-Funktionen am Boden aller Formzellen, um kausale Wechselbeziehungen zwischen der Füllaufgabe, der Füllausrüstung und dem Prozessverlauf bzw. dem Prozessergebnis aufzeigen zu können. Zur Verifizierung des der Simulation zu Grunde gelegten Gesamtmodells wird das numerische Experiment an einer speziellen Versuchseinrichtung nachgestellt. Um die Aufnahme der Zellendruck-Zeit-Funktionen während des Füllens vornehmen zu können, ohne dadurch den Füllvorgang zu stören, wird ein eigens für den Verifizierungsversuch entwickelter Drucksensor genutzt. Auf allen Abstraktionsebenen werden die Ergebnisse mit den für den industriellen Routinebetrieb entwickelten Methoden ausgewertet und gegenübergestellt. Mit Hilfe von Varianzanalysen wird die Einflussstärke verschiedener Parameter verglichen. Zur Überprüfung der Arbeitshypothese werden die Zellendruck-Zeit-Funktionen während der numerischen und der realen Experimente aufgenommen und die Korrelationen zu den eingefüllten Massen mi überprüft.
The present study analysis the environmental benefits of urban vegetation within the municipal boundary of a megacity through multi scale integrated modelling to estimate its benefits approximately. The advantages (and challenges) that Nature, inserted into cities, offers to the population are observed from different viewpoints. As geographical reference the profile of megacities located in low (tropical) latitudes was observed, in a case study on the city of São Paulo/ Brazil. Commonly, urban vegetation is overlooked by local people, governments and economical structures. Although sparse vegetation exists, it is hardly recognized. Along the brief history of rapid urbanization which is accompanied by massive environmental degradation, urban green becomes, in the dispute for space, a true luxury in cities like São Paulo. Not as retrogression but as advance, it demonstrates that the integration between nature and city would be desirable. The approximated quantification of the variations which occur between actual scenario and greened scenarios shows the need to rethink the urban biome as a man-dominated ecosystem. The benefits of the urban vegetation are diverse. This work details plants as agents of climatic and ecosystem balance and performance. It also approaches current issues like climate change, energy efficiency and thermal comfort, as well as the purification of natural resources, through the treatment of water, soil and air. Especially because at present no efficient technical solutions exist, that could substitute the environmental services of the vegetation. These benefits contribute to quality of life and increase socio-environmental equity especially important in high-contrast megacities. The vegetation assumes two important roles in cities. The functional dimension brings concrete and measurable benefits to the environment. From a symbolic vision, vegetation represents Nature in cities, approximating humans to their origins. Conclusively the study defends the importance of the valorization of Nature and of the united efforts for literally green cities because it proves that financial investment in urban vegetation has direct effects on the costs destined to the areas of health and infrastructure. The City of São Paulo, invested in 2008 about US$ 180 million (one hundred and eighty million dollars) in urban green (and environment) which tends to save US$ 980 million (nine hundred and eighty million dollars) of expenses annually. In other words, for each US$ 1 invested in planting and maintenance of urban green, the society saves at least US$ 5 of expenses in health, construction of French drains, energy etc.
Lettenkeuper- und Schilfsandsteine sind in Thüringen weit verbreitet und wurden häufig als Werk- und Bildhauersandsteine verwendet. Die überwiegend tonig-ferritisch gebundenen Steine sind stark witterungsanfällig. Inzwischen droht ein unwiederbringlicher Substanzverlust an vielen denkmalpflegerisch wertvollen Gebäuden und an plastischen Bildwerken. Die Dissertation gibt einen Überblick über die Vorkommen, Eigenschaften und Schadbilder dieser Sandsteine in Thüringen. Konservierungsmaßnahmen, die in Thüringen in den vergangenen 20 Jahren an Lettenkeuper- und Schilfsandsteinen vorgenommen wurden, werden ausgewertet und neue Erkenntnisse zur Konservierung dieser Sandsteine vorgestellt.
Für die Sanierung von Bauwerken werden meist Informationen über die innere Struktur und den Aufbau, Belastungszustände, Feuchte- und Salzgehalte benötigt. Die Untersuchung mit zerstörungsarmen und -freien Methoden minimieren die dazu nötigen Eingriffe. Ebenfalls bieten die ZfP-Verfahren die Möglichkeit, den Erfolg einer Maßnahme zu kontrollieren sowie Prozesse über einen langen Zeitraum zu beobachten (Monitoring). Die vorliegende Arbeit befasst sich mit der zerstörungsfreien Untersuchung von inneren Strukturen und des Aufbaus von Mauerwerk mittels Ultraschall und Radar. Der untersuchte Querschnitt wird tomografisch rekonstruiert. Diese Darstellungsart bietet den Vorteil der Tiefenbestimmung von Objekten und der besseren Visualisierung für Auftraggeber und/oder Laien. Es wurden die Laufzeiten der Longitudinalwellen rekonstruiert. Die Frequenzen der Ultraschalluntersuchungen lagen bei 25 kHz sowie 85 kHz und der Radaruntersuchungen bei 900 MHz sowie 1,5 GHz. Die Rekonstruktion erfolgte mit dem Tomografieprogramm “Geo-Tom“, welches auf der Grundlage des SIRT-Algorithmus arbeitet. Die untersuchten Querschnitte beinhalteten Anomalien bestehend aus Luft, Granit, Holz und Mörtel. Die Abmaße der Anomalien lagen zwischen 10-27 cm bezogen auf einen Querschnitt von 0,76 x 1,0 m. Eine Ortung der Anomalien war möglich, wenn diese eine Laufzeitveränderung von mindestens der Größe des Messfehlers bewirken. Die Größe dieser Laufzeitdifferenz ist abhängig von den Abmaßen der Anomalie und dem Kontrast der elektromagnetischen bzw. akustischen Eigenschaften zwischen Anomalie und umgebenden Material. Eine Aussage über die Größe der Anomalie ist möglich, jedoch kann auf die Form nur bedingt geschlussfolgert werden. Des Weiteren kann durch den Vergleich der beiden Verfahren ein Rückschluss auf die möglichen Materialien der Anomalie gezogen werden.
Bauwerke sind in der Regel Unikate, für die meist eine komplette und aufwändige Neuplanung durchzuführen ist. Der Umfang und die Verschiedenartigkeit der einzelnen Planungsaufgaben bedingen ein paralleles Arbeiten der beteiligten Fachplaner. Darüber hinaus ist die Bauplanung ein kreativer und iterativer Prozess, der durch häufige Änderungen des Planungsmaterials und Abstimmungen zwischen den Fachplanern gekennzeichnet ist. Mithilfe von speziellen Fachanwendungen erstellen die Planungsbeteiligten verschiedene Datenmodelle, zwischen denen fachliche Abhängigkeiten bestehen. Ziel der Arbeit ist es, die Konsistenz der einzelnen Fachmodelle eines Bauwerks sicherzustellen, indem Abhängigkeiten auf Basis von Objektversionen definiert werden. Voraussetzung dafür ist, dass die Fachanwendungen nach dem etablierten Paradigma der objektorientierten Programmierung entwickelt wurden. Das sequentielle und parallele Arbeiten mehrerer Fachplaner wird auf Basis eines optimistischen Zugriffsmodells unterstützt, das ohne Schreibsperren auskommt. Weiterhin wird die Historie des Planungsmaterials gespeichert und die Definition von rechtsverbindlichen Freigabeständen ermöglicht. Als Vorbild für die Systemarchitektur diente das Softwarekonfigurationsmanagement, dessen Versionierungsansatz meist auf einem Client-Server-Modell beruht. Die formale Beschreibung des verwendeten Ansatzes wird über die Mengenlehre und Relationenalgebra vorgenommen, so dass er allgemeingültig und technologieunabhängig ist. Auf Grundlage dieses Ansatzes werden Konzepte für den Einsatz versionierter Objektmodelle im Bauwesen erarbeitet und mit einer Pilotimplementierung basierend auf einer Open-Source-Ingenieurplattform an einem praxisnahen Szenario verifiziert. Beim Entwurf der Konzepte wird besonderer Wert auf die Handhabbarkeit der Umsetzung gelegt. Das betrifft im Besonderen die hierarchische Strukturierung des Projektmaterials, die ergonomische Gestaltung der Benutzerschnittstellen und der Erzielung von geringen Anwortzeiten. Diese Aspekte sind eine wichtige Voraussetzung für die Effizienz und Akzeptanz von Software im praktischen Einsatz. Bestehende Fachanwendungen können durch geringen Entwicklungsaufwand einfach in die verteilte Umgebung integriert werden, ohne sie von Grund auf programmieren zu müssen.
Die betriebsfeste Auslegung von Hochdruckbauteilen ist technisch-wirtschaftlich notwendig. In dieser Arbeit werden die wissenschaftlichen Grundlagen dafür erarbeitet. Die technische Entwicklung der Hochdruckbauteile führt insbesondere bei Dieselmotoren zu stetig steigenden Drücken und damit zu einer wachsenden Herausforderung bei der Festigkeitsauslegung. Bei Hochdruckbauteilen sind die Möglichkeiten der Schwingfestigkeitssteigerung, z. B. durch Wanddickenvergrößerung oder durch den Einsatz höherfester Werkstoffe, begrenzt. Eine breite industrielle Anwendung findet derzeit die Autofrettage. Bei diesem Verfahren erzeugt eine einmalige statische Überlast tief in das Bauteil reichende Druckeigenspannungsfelder, die zu einer erheblichen Schwingfestigkeitssteigerung, insbesondere in der Rissfortschrittsphase, führen. Zuverlässige Lebensdauervorhersageverfahren für diese Phase existieren derzeit nicht. Sie werden in der vorliegenden Arbeit entwickelt und anhand experimenteller Ergebnisse verifiziert. Für das Berechnungsverfahren fand ein ingenieurmäßiger Ansatz Verwendung. Darin sollten zwar alle relevanten Effekte abgebildet werden, jedoch Komplexität und Modellierungsaufwand so gering wie möglich gehalten werden. Die gewählten Berechnungsmodule sind nach erfolgter Analyse der Literatur entnommen. Sie umfassen die Berechnung der Autofrettageeigenspannungen, der Spannungsintensität, des Rissöffnungs- und Rissschließverhalten und des Rissfortschrittes. Das Modul Eigenspannungsberechnung für die Autofrettage basiert auf der Superposition von Autofrettagebe- und -entlastung und ermöglicht die notwendige Berücksichtung des Bauschinger-Effektes. Spannungsintensitäten werden mit einer 3D-Gewichtsfunktion für einen ebenen Riss unter Mode I Beanspruchung ermittelt, weil aufgrund der Symmetrie der meisten Hochdruckbauteile das stabile Langrisswachstum ausschließlich unter Mode I Beanspruchung stattfindet. Die Rissöffnungs- und -schließeffekte werden über Näherungsformeln abgebildet. In der Anwendung dieser Näherungsformeln hat sich die Rissöffnungsbeziehung nach Ibrahim et. al. durch den Vergleich mit von rechnerischen mit experimentellen Lebensdaueren als am Besten geeignet erwiesen. Bei dem untersuchten Werkstoff 42CrMo4 spielen die Reihenfolgeeffekte eine untergeordnete Bedeutung und werden deshlab nicht modelliert. Für die Rissfortschrittsbeziehung konnte auf die Formulierung der Paris-Erdogan Beziehung für effektive Schwingweiten zurückgegriffen werden. Die gewählten Berechnungsmodule sind nach erfolgter Analyse der Literatur entnommen, aber in dieser Zusammenstellung ein neuer Ansatz. Da die Einzelmodule nur in geringem Umfang zu verifizieren sind, kann das Berechnungsverfahren nur in seiner Gesamtheit durch den Vergleich von experimentellen zu vorhergesagten Lebensdauern und Dauerfestigkeiten überprüft werden. In verschiedenen Sensitivitätsanalysen konnten für die Berechnungsparameter Rissöffnungsbeziehung, Anfangsrisslänge, Bruchzähigkeit, Rissfortschrittsgleichung und Schwellwert der Spannungsintensität der Einfluss auf die berechnete Rissfortschrittslebensdauer und -dauerfestigkeit aufgezeigt werden. So hat der Schwellwert der Spannungsintensität einen geringen Einfluss auf die Vorhersage der Rissstillstandsdauerfestigkeit autofrettierter Kreuzbohrungen, weil der Rissöffnungsdruck sehr nahe am Maximaldruck ist. Eine andere Sensitivitätsanalyse zeigt beispielsweise, dass sich die längsten Rissfortschrittslebensdauern bei Verwendung der Rissöffnungsbeziehung nach Ibrahim et. al. ergeben, weil diese Beziehung die größten Rissöffnungsdrücke vorhersagt. Für die Verifikation des Berechnungsverfahrens sind Innendruckschwellversuche an insgesamt 14 Versuchsreihen mit Kreuzbohrungen durchgeführt worden. Die allgemeine Anwendbarkeit des Berechnungsverfahrens konnte durch die Anwendung auf Kreuzbohrungen aus den Forschungsvorhaben Autofrettage I-III, auf Railstücke und auf Hochdruckverteilerleisten nachgewiesen werden. Auch hier stützt sich die Verifikation auf umfangreiche experimentelle Ergebnisse. Die statistische Auswertung des Verhältnisses der vorhergesagten zu experimentellen Lebensdauern und Schwingfestigkeiten aller untersuchten Bohrungsverschneidungen zeigt eine gute mittlere Vorhersagegüte bei geringer Streuung. Damit ist die Leistungsfähigkeit der vorgestellten Lebensdauervorhersagemethode nachgewiesen.
Im Rahmen des sich derzeit vollziehenden Wandels von der segmentierten, zeichnungsorientierten zur integrierten, modellbasierten Arbeitsweise bei der Planung von Bauwerken und ihrer Erstellung werden Computermodelle nicht mehr nur für die physikalische Simulation des Bauwerksverhaltens, sondern auch zur Koordination zwischen den einzelnen Planungsdisziplinen und Projektbeteiligten genutzt. Die gemeinsame Erstellung und Nutzung dieses Modells zur virtuellen Abbildung des Bauwerks und seiner Erstellungsprozesse, das sog. Building Information Modeling (BIM), ist dabei zentraler Bestandteil der Planung. Die Integration der Terminplanung in diese Arbeitsweise erfolgt bisher jedoch nur unzureichend, meist lediglich in der Form einer nachgelagerten 4D-Simulation zur Kommunikation der Planungsergebnisse. Sie weist damit im Verhältnis zum entstehenden Zusatzaufwand einen zu geringen Nutzen für den Terminplaner auf. Gegenstand der vorliegenden Arbeit ist die tiefere Einbettung der Terminplanung in die modellbasierte Arbeitsweise. Auf Basis einer umfassende Analyse der Rahmenbedingungen und des Informationsbedarfs der Terminplanung werden Konzepte zur effizienten Wiederverwendung von im Modell gespeicherten Daten mit Hilfe einer Verknüpfungssprache, zum umfassenden Datenaustausch auf Basis der Industry Foundation Classes (IFC) und für das Änderungsmanagement mittels einer Versionierung auf Objektebene entwickelt.Die für die modellbasierte Terminplanung relevanten Daten und ihre Beziehungen zueinander werden dabei formal beschrieben sowie die Kompatibilität ihrer Granularität durch eine Funktionalität zur Objektteilung sichergestellt. Zur zielgenauen Extraktion von Daten werden zudem Algorithmen für räumliche Anfragen entwickelt. Die vorgestellten Konzepte und ihre Anwendbarkeit werden mittels einer umfangreichen Pilotimplementierung anhand von mehreren Praxisbeispielen demonstriert und somit deren praktische Relevanz und Nutzen nachgewiesen.
Carl Heinrich Ferdinand Streichhan prägte zwischen 1848 und 1884 als Oberbaudirektor maßgeblich das Baugeschehen im Großherzogtum Sachsen-Weimar-Eisenach. Beauftragt mit für die zweite Hälfte des 19. Jahrhunderts typischen staatlichen Bauaufgaben, hinterließ er als Architekt ein zwar nicht sehr umfängliches, jedoch facettenreiches und zumindest regional bedeutendes Werk. Geprägt wurde seine Baugesinnung durch die dem Schinkel´schen Vorbild und einem spezifischen, selektiven Historismus verpflichtete, sogenannte Berliner Schule, der Streichhan zeit seines Berufslebens eng verbunden blieb. Neben einer Würdigung des Oeuvres fokussiert die Arbeit auf das weitgefächerte Aufgabenspektrum eines leitend im Staatsdienst tätigen „Bautechnikers“, das – wie zeitgenössisch üblich – sowohl konstruktiv planende als auch vielfältige administrative Tätigkeiten, ingenieurtechnische Leistungen ebenso wie baukünstlerische umfasste. Streichhans Bildungsweg, Laufbahn und berufliches Selbstverständnis sind für den Baubeamten des (mittleren) 19. Jahrhunderts ebenso typisch wie schließlich, infolge beschleunigter Wandlungsprozesse ab 1871, nicht mehr zeitgemäß: Im Kontext tiefgreifender Umwälzungen veränderten sich auch die Handlungsfelder der Architekten und die Bedingungen architektonischen Schaffens, wie Streichhans Wirken paradigmatisch belegt.
Die Arbeit beschäftigt sich mit der komplexen Aufgabe Stadtstrukturen mit einem Simulationsmodell im Rechner erzeugen zu können. Dafür wird ein Vierebenenmodell als Untermodellebene eingeführt, um mit allgemeinen Informationen, Parzellierung, Gebäuden und Optimierung der Struktur arbeiten zu können.
The Chinese Shopping Centre: Integration of a Western Commercial Format into Chinese Urban Space
(2009)
Being transposed to China and absorbed by its urban space, the Western shopping centre undergoes a process of “Sinicisation”, which turns it into a spatial hybrid: a Western retail format shaped by distinctive features of Chinese space production and space use. To a large extent, this study can be regarded as a marginal number of its kind which tries to scientifically understand the impact of a socially, culturally and economically absolutely different urban environment on the model (ideal type) of the Western shopping centre.
Objektorientierte Bauwerksmodelle sind derzeit Gegenstand umfangreicher Foschungsaktivitäten zur rechnerinternen Verwaltung bauwerksbezogener Informationen. Ein in diesem Rahmen diskutierter Ansatz ist die Realisierung eines virtuellen rechnerinternen Bauwerks in Form eines variablen Verbundes fachspezifischer objektorientierter Modelle. Diese Organisationsform der rechnerinternen Repräsentation eignet sich einerseits aufgrund ihrer Flexibilität sehr gut für eine lebensphasenübergreifende Fortschreibung als digitale Bauwerksakte. Eine solche Bauwerksakte bildet eine wichtige Informationsgrundlage für die Planung von Instandhaltungs-, Modernisierungs-, \Umbau- oder Erweiterungsmaßnahmen in späteren Lebensphasen des Bauwerks. Andererseits erschwert die dezentrale Organisationsform des Modellverbundes jedoch die Informationssuche, was in erster Linie durch das Vorhandensein multipler Repräsentationen einzelner Realweltobjekte sowie die Komplexität der am Verbund beteiligten Modellschemata bedingt ist. Gegenstand der vorliegenden Arbeit ist die Entwicklung eines generischen Systemkerns als Basis für eine projektbezogen konfigurierbare Informationsumgebung, die insbesondere in frühen Projektphasen einen handhabbaren Zugang zu den im Modellverbund verwalteten Informationen bereitstellen kann. Der vorgeschlagene Lösungsansatz erweitert den Modellverbund um eine Erschließungsstruktur, in der die einzelnen Elemente der individuellen baulich-räumlichen Struktur durch eindeutige Identifikatoren vertreten werden. Mit den Identifikatoren werden jeweils die fachspezifischen Repräsentationen des Objektes verknüpft und sind somit von einem zentralen Einstiegspunkt aus erreichbar. Der generische Systemkern definiert eine objektorientierte Datenstruktur zur Verwaltung der jeweils projektbezogen auszuprägenden Erschließungsstruktur. Die Interaktion mit dem erschlossenen Informationsraum erfordert eine entsprechende Nutzerschnittstelle, die in der Lage ist, nicht vorhersehbaren, spontan entstehenden Informationsbedarf zu bedienen. Darüber hinaus soll sie konfigurierbar sein bezüglich der unterstützten Suchstrategien. Der Lösungsansatz sieht eine hierarchische Organisationstruktur der Nutzerschnittstelle vor, die eine modulare Erweiterung ermöglicht. Ein entsprechender Kern der Nutzerschnittstelle wird als objektorientiertes Framework spezifiziert. Die Erschließungsstruktur und die Nutzerschnittstelle werden unter Anwendung des objektorientierten Paradigmas entwickelt und mit Hilfe einer formalen Notation auf implementierungsunabhängiger Ebene beschrieben. Anhand exemplarischer Umsetzungen kritischer Systemteile wird die prinzipielle Realisierbarkeit des beschriebenen Systems nachgewiesen.
Die Abkürzung PCC bezieht sie sich hier auf Polymer modified Cement Concrete, also mit Kunststoffen modifizierte Mörtel und Betone. Hierfür hat sich diese Abkürzung auch international durchgesetzt. Sie bezeichnet Baustoffe, die neben dem mineralischen Bindemittel Zement auch Kunststoffe enthalten. Zement und Kunststoff erzielen im späteren Mörtel bzw. Beton eine gemeinschaftliche Bindemittelwirkung. Wiederholter Gegenstand von Schadensfällen ist das Versagen des Haftverbundes zu anderer Bausubstanz. Da PCC häufig als dünne Schutzschicht auf vorhandenen Beton aufgetragen werden, führt ein Versagen der Adhäsion früher oder später auch zu einem Versagen dieser Schutzfunktion. Umgekehrt kann ein Versagen des Schutzes infolge von Rissen im PCC auch im Nachhinein zum Ablösen der Beschichtung führen. Ursächlich für dieses kohäsive Versagen sind dabei i. d. R. die Auswahl falscher bzw. nicht aufeinander abgestimmter Baustoffsysteme oder schlicht Verarbeitungsfehler. Das Ziel dieser Arbeit war es zu untersuchen, welchen Einfluss die kohäsiven und adhäsiven Eigenschaften von PCC auf deren Dauerhaftigkeit, insbesondere bei der Anwendung als Beschichtungsmaterial, haben. Dazu wurden vier maßgebliche Schwerpunkte bearbeitet. Eine zentrale Rolle für die Dauerhaftigkeit eines Beschichtungsmaterials spielt dessen Längenänderungsverhalten. Der Betrag der positiven und negativen Längenänderungen ist bestimmend für die Spannungen, die im Beschichtungsmaterial entstehen können. Sind die auftretenden Spannungen höher als die Zugfestigkeit des PCC erfolgt der Spannungsabbau durch Risse. Es kommt also zum Kohäsionsversagen im Mörtel. Wird der PCC als Beschichtungsmaterial genutzt, werden die Spannungen im Idealfall über die Verbundebene zum Beschichtungsuntergrund übertragen. Übersteigen dabei diese Spannungen die maximal aufnehmbaren Verbundspannungen, kommt es zum Adhäsionsversagen zwischen Beschichtung und Untergrund. In Modellversuchen werden die Effekte des Längenänderungsverhaltens kunststoffmodifizierter Zementsteine auf den Haftverbund zu einer Gesteinskörnung untersucht. Dadurch werden Rückschlüsse auf die Kohäsion innerhalb der PCC durch die Beschreibung des adhäsiven Verbundes zwischen Zementsteinmatrix und Gesteinskörnung gezogen. Neben der Längenänderung sind auch die Festigkeitseigenschaften der PCC bedeutsam für deren Dauerhaftigkeit. Es werden die Festigkeitseigenschaften kunststoffmodifizierter Mörtel und Betone nicht nur von der mechanischen Seite betrachtet. Der Focus liegt vielmehr auf der Beschreibung der durch die Kunststoffe beeinflussten kohäsiven Eigenschaften bei mechanischer Belastung. Es wird das Verhalten der polymeren Matrix nach einer Kurzzeitbelastung untersucht. Damit werden die Vorgänge, die letztlich zu einer Beeinflussung der Festigkeitseigenschaften führen, dargestellt. In diesem Zusammenhang wird auch der Einfluss der Temperatur auf die Festigkeit der PCC betrachtet. Die Untersuchung des Frost-Taumittel-Widerstandes mittels CDF- bzw. CIF-Verfahrens ist eine gute Möglichkeit, neben der Beurteilung der Dauerhaftigkeit auch Rückschlüsse auf die kohäsiven als auch, im mikroskopischen Maßstab betrachtet, die adhäsiven Eigenschaften der PCC zu ziehen. Damit ist gemeint, dass die Kohäsion von PCC durch deren adhäsive Eigenschaften zwischen kunststoffmodifizierter Zementsteinmatrix und Gesteinskörnern maßgeblich bestimmt wird. Einerseits kann bei starkem Abfall des relativen dynamischen E-Moduls von einer geringeren Kohäsion des PCC ausgegangen werden. Dies würde dann bei einem Mörtel eher zu Rissen führen, über die wiederum betonaggressive Medien eindringen können. Im Gegensatz dazu deutet ein konstant bleibender relativer dynamischer E-Modul auf eine hohe Kohäsion und damit, bei Anwendung des PCC als Beschichtungsmaterial, auf ein höheres adhäsives Versagensrisiko der Beschichtung hin. Andererseits stellt eine höhere Abwitterung, also sozusagen das schichtenweise kohäsive Versagen, eine Gefahr bei dünnen Beschichtungen dar. Dies könnte noch durch die Anwendung anderer Taumittel (z. B. organischer) verstärkt werden. Unter diesen Gesichtspunkten wurden Untersuchungen auf der Basis des CDF-Testes sowie zur Lösungsaufnahmefähigkeit der PCC durchgeführt. Der adhäsive Verbund von PCC zu Beton ist von vielen Faktoren abhängig. Bisher kaum betrachtet wurde die Art des Aufbringens oder der Einfluss der Probengeometrie bei Laborversuchen. Diese sowie der Einfluss einer Salzbelastung des Untergrundes bzw. der Beschichtung wurden untersucht. Ein Teil der durchgeführten Untersuchungen wurde im Rahmen des Teilprojektes B3 „Dauerhaftigkeit polymermodifizierter Mörtel und Betone“ des von der DFG geförderten Sonderforschungsbereiches 524 „Werkstoffe und Konstruktionen für die Revitalisierung von Bau-werken“ realisiert.
The nonlinear behavior of concrete can be attributed to the propagation of microcracks within the heterogeneous internal material structure. In this thesis, a mesoscale model is developed which allows for the explicit simulation of these microcracks. Consequently, the actual physical phenomena causing the complex nonlinear macroscopic behavior of concrete can be represented using rather simple material formulations. On the mesoscale, the numerical model explicitly resolves the components of the internal material structure. For concrete, a three-phase model consisting of aggregates, mortar matrix and interfacial transition zone is proposed. Based on prescribed grading curves, an efficient algorithm for the generation of three-dimensional aggregate distributions using ellipsoids is presented. In the numerical model, tensile failure of the mortar matrix is described using a continuum damage approach. In order to reduce spurious mesh sensitivities, introduced by the softening behavior of the matrix material, nonlocal integral-type material formulations are applied. The propagation of cracks at the interface between aggregates and mortar matrix is represented in a discrete way using a cohesive crack approach. The iterative solution procedure is stabilized using a new path following constraint within the framework of load-displacement-constraint methods which allows for an efficient representation of snap-back phenomena. In several examples, the influence of the randomly generated heterogeneous material structure on the stochastic scatter of the results is analyzed. Furthermore, the ability of mesoscale models to represent size effects is investigated. Mesoscale simulations require the discretization of the internal material structure. Compared to simulations on the macroscale, the numerical effort and the memory demand increases dramatically. Due to the complexity of the numerical model, mesoscale simulations are, in general, limited to small specimens. In this thesis, an adaptive heterogeneous multiscale approach is presented which allows for the incorporation of mesoscale models within nonlinear simulations of concrete structures. In heterogeneous multiscale models, only critical regions, i.e. regions in which damage develops, are resolved on the mesoscale, whereas undamaged or sparsely damage regions are modeled on the macroscale. A crucial point in simulations with heterogeneous multiscale models is the coupling of sub-domains discretized on different length scales. The sub-domains differ not only in the size of the finite elements but also in the constitutive description. In this thesis, different methods for the coupling of non-matching discretizations - constraint equations, the mortar method and the arlequin method - are investigated and the application to heterogeneous multiscale models is presented. Another important point is the detection of critical regions. An adaptive solution procedure allowing the transfer of macroscale sub-domains to the mesoscale is proposed. In this context, several indicators which trigger the model adaptation are introduced. Finally, the application of the proposed adaptive heterogeneous multiscale approach in nonlinear simulations of concrete structures is presented.
Seit Anfang der 80er Jahre stehen Zusatzmittel (engl. Shrinkage Reducing Admixture – SRA) der bauchemischen Industrie zur Verfügung, die das Schwinden von Zementstein und Beton reduzieren können. In der vorliegenden Arbeit wurden die Wirkungsmechanismen schwindreduzierender Zusatzmittel (SRA) und darin enthaltener Wirkstoffe in Zementstein systematisch untersucht. Es hat sich gezeigt, dass das autogene Schwinden von Zementstein wurde durch handelsübliche Schwindreduzierer und darin enthaltene Wirkstoffe im Alter von einem halben Jahr um bis zu 77 % reduziert. Durch Schwindreduzierer wurden in Bezug auf die jeweiligen Referenzproben ohne SRA die Anteile an Gelporen im Zementstein erhöht und die Anteile an Kapillarporen verringert. Gleichzeitig stellte sich in den Zementsteinen mit Schwindreduzierer bzw. den darin enthaltenen Wirkstoffen bei konservierender Lagerung eine höhere innere Ausgleichsfeuchte ein als in den jeweiligen Referenzproben ohne SRA. Die bisherige Annahme, die Abminderung des Schwindens durch SRA sei nur auf die Reduzierung der Oberflächenspannung der Porenlösung zurückzuführen, ist nur bedingt zutreffend. Während der Hydratation des Zements wird Wasser verbraucht und in Hydratphasen eingebaut. Hierbei reichern sich die SRA-Moleküle in der Porenlösung des Zementsteins an und verstärken die Spaltdruckwirkung der Porenlösung zwischen den Gelpartikeln. Dadurch wird das autogene Schwinden des Zementsteins vermindert.
Keramische Werkstoffe stellen bewährte, ästhetisch ansprechende und dauerhafte Baustoffe dar. Sie können als ökologisch wertvoll, gesund und wirtschaftlich eingestuft werden (Wagner et al. 1998)... Zum Einsatz von Sekundärrohstoffen in keramische Massen, d.h. zur Herstellung keramischer Erzeugnisse wurden bereits zahlreiche Untersuchungen durchgeführt. ... Die Zielstellung der vorliegenden Arbeit liegt daher in der umfassenden Beurteilung des Einsatzes von Sekundärrohstoffen in silikatkeramische Massen. Als Sekundärrohstoffe wurden Gesteins- sowie Glas- bzw. glashaltige Reststoffe unterschiedlicher Zusammensetzungen gewählt. ...
From a macroscopic point of view, failure within concrete structures is characterized by the initiation and propagation of cracks. In the first part of the thesis, a methodology for macroscopic crack growth simulations for concrete structures using a cohesive discrete crack approach based on the extended finite element method is introduced. Particular attention is turned to the investigation of criteria for crack initiation and crack growth. A drawback of the macroscopic simulation is that the real physical phenomena leading to the nonlinear behavior are only modeled phenomenologically. For concrete, the nonlinear behavior is characterized by the initiation of microcracks which coalesce into macroscopic cracks. In order to obtain a higher resolution of this failure zones, a mesoscale model for concrete is developed that models particles, mortar matrix and the interfacial transition zone (ITZ) explicitly. The essential features are a representation of particles using a prescribed grading curve, a material formulation based on a cohesive approach for the ITZ and a combined model with damage and plasticity for the mortar matrix. Compared to numerical simulations, the response of real structures exhibits a stochastic scatter. This is e.g. due to the intrinsic heterogeneities of the structure. For mesoscale models, these intrinsic heterogeneities are simulated by using a random distribution of particles and by a simulation of spatially variable material parameters using random fields. There are two major problems related to numerical simulations on the mesoscale. First of all, the material parameters for the constitutive description of the materials are often difficult to measure directly. In order to estimate material parameters from macroscopic experiments, a parameter identification procedure based on Bayesian neural networks is developed which is universally applicable to any parameter identification problem in numerical simulations based on experimental results. This approach offers information about the most probable set of material parameters based on experimental data and information about the accuracy of the estimate. Consequently, this approach can be used a priori to determine a set of experiments to be carried out in order to fit the parameters of a numerical model to experimental data. The second problem is the computational effort required for mesoscale simulations of a full macroscopic structure. For this purpose, a coupling between mesoscale and macroscale model is developed. Representative mesoscale simulations are used to train a metamodel that is finally used as a constitutive model in a macroscopic simulation. Special focus is placed on the ability of appropriately simulating unloading.
Wayfinding Situations
(2009)
Wayfinding, which is the task of getting from some origin to a destination, is one of the primary spatial problems humans encounter in everyday life. When we wayfind, we act in the environment based on the structure and features of the environment, set against a background of knowledge which is generally understood as having visual characteristics. As mobile and wireless technologies proliferate in urban space it can be considered as having an existence in terms of several spaces, those of places that make up our direct perceptual experience and those of the digital devices and networks that facilitate communication, which are primarily non-visual in nature. This thesis will extend existing work on perception and action in urban space to investigate the role of mobile and ubiquitous technologies in wayfinding and environmental legibility, or more literally how we orientate and find our way in space when we experience it both with and through technology. In order to do this, the research takes the approach of considering wayfinding as a situated activity that takes place against a rich and articulated background of experiences and social connections. Through a series of empirical studies the concept of wayfinding situations is explored from two different perspectives. The first study investigates the relationship between an individual and technology as they act in environmental settings, by comparing learning for a spatial task depending on whether the individual accesses a map or a mobile map to make judgements. The second study seeks to understand the relationship between individual and environment as they act in technological settings, and focuses on the perception and action in space as affected by wireless technologies. The combined outcome of these two empirical studies provides the basis for the definition of a richer and more differentiated concept of wayfinding situations. This informs the final stage of the research in which an applied response is proposed to supporting wayfinding in a specific urban scenario, where the aim is to embed the technology into the spatial setting.
In a historical perspective, the relationship between digital media and the museum environment is marked by the role of museums as example use cases for the appli- cation of digital media. Today, this exceptional use as an often technology oriented application has changed and instead digital media have turned into an integral part of mediation strategies in the museum environment. Alongside with this shift not only an increasing professionalization of application development but also a grow- ing demand for new content can be observed. Comparable to its role as the main cost factor in the media industry, the production of content rises to a challenge for museums. In particular small and medium scale european museums with limited funding and an often low level of staff coverage face this new demand and strive therefore for alternative production resources. While productive user contributions can be seen as such an alternative resource, user contributions are at the same time a manifestation for a different mode of in- teracting with content. In contrast to the dominantly passive role of audiences as re- ceivers of information, productive contributions emerge as a mode of content ex- ploration and become in this regard influential for museum mediation strategies. As applications of user contributions in museums and cultural heritage are currently rather seldom, a broader perspective towards user contributions becomes necessary to understand its specific challenges, opportunities and limitations. Productive user contributions can be found in a growing number of applications on the Internet where they either complement or fully substitute corporate content production processes. While the Wikipedia1, an online encyclopedia written entirely by a group of users and open to contributions by all its users, is one of the most prominent examples for this practice, several more applications emerged or are be- ing developed. In consequence user contributions are about to become a powerful source for the production of content in digital media environments.
Ziel der Arbeit ist es, eine neue Methode der seismischen Gefährdungsabschätzung vorzustellen. Es wird die Abschätzung der seismischen Gefährdung ohne die häufig angewandten Einteilungen in seismische Quellzonen beschrieben. Die vorgestellte Methode basiert auf Nachbarschaftsanalysen von Epizentren. Diese Nachbarschaftsanalysen ermöglichen ein selbst generierendes seismisches Quellenmodell. Entwicklung, Parameterstudien und Anwendung der Methode werden gezeigt.
In der vorliegenden Arbeit werden auf Basis des Tensegrity-Konzeptes Strukturen entwickelt und vorgestellt, welche durch einen signifikanten Steifigkeitszuwachs in der Lage sind, die Anforderungen an die Gebrauchstauglichkeit von Tragwerken zu erfüllen.
Selbstverankerte Strukturen mit aufgelösten Druckstäben werden als Seil-Stab-Systeme bezeichnet und sind alleiniger Gegenstand aller angestellten Betrachtungen.
Tensegrity-Strukturen sollen eine Untergruppe der Seil-Stab-Systeme darstellen, deren symptomatische Eigenschaft eine sich im Tensegrity-Zustand befindliche Geometrie ist.
Einer Definition des Tensegrity-Zustandes folgt ein Überblick über die zur Untersuchung von Seil-Stab-Systemen notwendigen Berechnungsalgorithmen.
Der Kern der Arbeit beschäftigt sich zunächst mit dem Einfluss der Geometrie auf die Empfindlichkeit von Seil-Stab-Systemen gegenüber unvermeidlichen Herstellungstoleranzen sowie dem Einfluss von Topologie, Vorspannung, lokaler Steifigkeit der Elemente und Geometrie auf die Steifigkeit dieser Systeme.
Darauf aufbauend wird eine Möglichkeit gezeigt, die Steifigkeit von beweglichen Seil-
Stab-Systemen merklich zu erhöhen, ohne die Strukturen durch zusätzliche Elemente oder Verbindungen optisch zu verändern.
Der zu erzielende Steifigkeitszuwachs wird mittels Vergleichrechnungen und durchgeführten Belastungsversuchen verifiziert.
Container sind nicht nur das bei weitem wichtigste Transportmittel für die allermeisten Waren, mit denen wir tagtäglich zu tun haben. Container sind, vielleicht wegen ihrer schlichten, klaren Ausdruckskraft, zu dem Symbol der Globalisierung geworden und vieler Phänomene, die man mit dieser Entwicklung in Zusammenhang bringt. Dabei handelt es sich um ein durch und durch ambivalentes Symbol. Container stehen genauso für die beeindruckende Dynamik des modernen Kapitalismus und den ihm trotz aller Krisen zugrunde liegenden Optimismus wie für die Ängste und Einwände dagegen; gegen die Indifferenz eines rein auf Optimierung ausgelegten logistischen Organisationshandelns und gegen die zwangsweise Annäherung und Angleichung ehedem entfernter Weltgegenden durch die exponentielle Vermehrung der Transport- und Kommunikationsvorgänge. Der Schwerpunkt der Arbeit liegt im 20. Jahrhundert. Sie untersucht die (Vor)Geschichte und Theorie des Containers als moderner Kulturtechnik und zentralem Bestandteil eines weltumspannenden logistischen Systems. Und sie zeigt ihn als Element eines Denkens und Organisationshandelns in modularen, beweglichen Raumeinheiten, das sich auch auf viele andere Bereiche außerhalb des Warentransports übertragen lässt. Dafür beschreibt und analysiert sie "Containersituationen" in so unterschiedlichen Feldern wie Handel und Transport, Architektur, Wissenschaften, Kunst und den sozialen Realitäten von Migranten und Seeleuten.
Die vorliegende Arbeit beschäftigt sich mit der geometrischen Suffosionsbeständigkeit von Erdstoffen. Mit dem wahrscheinlichkeitstheoretischen Ansatz der Perkolationstheorie wurde ein analytisches Verfahren gewählt, mit dem suffosive Materialtransportprozesse modelliert und quantifiziert werden können. Mit dem verwendeten Perkolationsmodell wurde eine beliebige Porenstruktur eines realen Erdstoffes im 3-Dimensionalen modelliert. Mögliche Materialtransportprozesse innerhalb der modellierten Porenstruktur wurden anschließend simuliert. Allgemein gültige Gesetzmäßigkeiten wurden hergeleitet und Grenzbedingungen formuliert. Diese sind vom Erdstoff unabhängig und beschreiben Zusammenhänge zwischen Materialtransport und Porenstruktur. Anwendbar sind diese Ergebnisse auf homogene, isotrope und selbstähnliche Erdstoffgefüge. Aussagen über konkrete Erdstoffe können über die Transformationsmethode erfolgen. Für die Verwendung der Transformationsmethode ist vorab die relevante Porenstruktur, d. h. die Porenengstellenverteilung, zu ermitteln.
Verkehrsmengenrisiko bei PPP-Projekten im Straßensektor - Determinanten effizienter Risikoallokation
(2010)
Trotz weltweit umfangreichen Erfahrungen mit Public Private Partnership Projekten im Straßensektor bleibt der Umgang mit dem Verkehrsmengenrisiko für die Projektbeteiligten eine Herausforderung. Die Arbeit widmet sich daher der wesentlichen Fragestellung nach einer effizienten Allokation dieses Risikos, dem nicht weniger Bedeutung zukommt als für den gesamtwirtschaftlichen Erfolg eines Straßenkonzessionsprojektes eine entscheidende Rolle zu spielen. Untersucht werden zunächst die Charakteristika des Verkehrsmengenrisikos mit seinen umfänglichen Einflussfaktoren. Anschließend werden die in der Praxis zur Anwendung kommenden Vertragsmodelle zur Bewirtschaftung von Straßeninfrastruktur dargestellt und analysiert, wie in den einzelnen Modellen Verkehrsmengenrisiko auf die verschiedenen Vertragspartner verteilt wird. Auf Basis dieser Grundlagen wird ein kriteriengestützter Analyserahmen entwickelt, der die Effizienz unterschiedlicher Risikoallokationen zwischen den Vertragspartner bewertet. Dabei werden einerseits die effizienzbeeinflussenden Eigenschaften der potentiellen Risikoträger eines PPP-Projektes berücksichtigt als auch die die effizienzbeeinflussenden Wirkungen der unterschiedlichen Vertragsmodelle. Aus den Erkenntnissen dieser Analyse werden letztlich Handlungs- und Gestaltungsempfehlungen zum Umgang mit dem Verkehrsmengenrisiko abgeleitet.
Die Behandlung von geometrischen Singularitäten bei der Lösung von Randwertaufgaben der Elastostatik stellt erhöhte Anforderungen an die mathematische Modellierung des Randwertproblems und erfordert für eine effiziente Auswertung speziell angepasste Berechnungsverfahren. Diese Arbeit beschäftigt sich mit der systematischen Verallgemeinerung der Methode der komplexen Spannungsfunktionen auf den Raum, wobei der Schwerpunkt in erster Linie auf der Begründung des mathematischen Verfahrens unter besonderer Berücksichtigung der praktischen Anwendbarkeit liegt. Den theoretischen Rahmen hierfür bildet die Theorie quaternionenwertiger Funktionen. Dementsprechend wird die Klasse der monogenen Funktionen als Grundlage verwendet, um im ersten Teil der Arbeit ein räumliches Analogon zum Darstellungssatz von Goursat zu beweisen und verallgemeinerte Kolosov-Muskhelishvili Formeln zu konstruieren. Im Hinblick auf die vielfältigen Anwendungsbereiche der Methode beschäftigt sich der zweite Teil der Arbeit mit der lokalen und globalen Approximation von monogenen Funktionen. Hierzu werden vollständige Orthogonalsysteme monogener Kugelfunktionen konstruiert, infolge dessen neuartige Darstellungen der kanonischen Reihenentwicklungen (Taylor, Fourier, Laurent) definiert werden. In Analogie zu den komplexen Potenz- und Laurentreihen auf der Grundlage der holomorphen z-Potenzen werden durch diese monogenen Orthogonalreihen alle wesentlichen Eigenschaften bezüglich der hyperkomplexen Ableitung und der monogenen Stammfunktion verallgemeinert. Anhand repräsentativer Beispiele werden die qualitativen und numerischen Eigenschaften der entwickelten funktionentheoretischen Verfahren abschließend evaluiert. In diesem Kontext werden ferner einige weiterführende Anwendungsbereiche im Rahmen der räumlichen Funktionentheorie betrachtet, welche die speziellen Struktureigenschaften der monogenen Potenz- und Laurentreihenentwicklungen benötigen.
Der Siedlungsbau in Hanoi kan heutzutage - über 20 Jahre nach dem Beginn der Renovierungspolitik udn der Markwirtschaft, die dem Städtebau eine große Gelegenheit zur Verbesserung gegeben haben - zurückblickend und eingeschätz werden. Die letzten 20 Jahre sind eine kurze Zeit in der tausendjährigen Geschichte der Stadt, trotzdem entwickelte sich die Stadt in diesem Zeitraum am schnellsten und auch am problematischten aus Sicht der Umwelt. Ohne eine passende Entwicklungsstategie oder eine geeignete Maßnahme bei der Stadtplanung vergrößert sich der Konflikt Ökonomie - Ökologie immer weiter. ... Die Findung eines neuen Wohnkonzeptes im Gleichgewicht zwischen Ökonomie und der Ökologie ist eine hochaktuelle Frage geworden.
This cumulative dissertation investigates aspects of consumer decision making in hedonic contexts and its implications for the marketing of media goods through a series of three empirical studies. All three studies take place within a common theoretical framework of decision making models, applying parts of the framework in novel ways to solve real-world marketing research problems (study 1 and 2), and examining theoretical relationships between variables within of the framework (study 3). One notable way in which the studies differ is their theoretical treatment of the hedonic component of decision making, i.e. the role and conceptualization of emotions.
In the last two decades, many cities have faced changes in their economic basis and therefore adopted an entrepreneurial approach in the municipal administration accompanied by city marketing strategies. Brazilian cities have also adopted this approach, like the case of Florianópolis. Florianópolis has promoted advertising campaigns on the natural resources of the Island of Santa Catarina as well as on its quality of life in comparison to other cities. However, due also to such campaigns, it has experienced a great demographic growth and, consequently, infrastructural and social problems. Nevertheless, it seems to have a good image within the national urban scenario and has been commonly considered an “urban consumption dream” for many Brazilians. This paradoxical situation is the reason why it has been chosen as the research object in this dissertation. Thus, the questions of this research are: is there a gap between the promise and the performance of the city of Florianópolis? If so, can tourists and residents recognize it? And finally, how can this gap be demonstrated? Accordingly, the main objective of this research is to propose a conformity assessment approach applicable to cities, by which the content of city advertisement campaigns can be compared to its performance indicators and satisfaction degree of its consumers. Therefore, this approach is composed by different methods: literature and legislation reviews, semi-structured and structured interviews with experts and inhabitants, an urban centrality development analysis, a qualitative discourse analysis of advertising material (including images), a qualitative content analysis of newspaper reports and a questionnaire survey. Finally, the theses are: yes, there is a gap between promise and performance of Florianópolis; this promise is a result of city marketing campaigns which advertise its natural features and at the same time hiding its urban aspects, supported by some political and private actors, mainly interested in the development of tourism and real estate market in the city; this gap has been already recognized by tourists and more intensively by residents; the selected methods worked as a kind of conformity assessment for cities and tourist destinations; and last but not least, since there is a gap, it designates the practice of “make-up urbanism”. Research limitations are the short time frame covered by this analysis and small and non-representative samples. However, its relevance lies in the attempt to fill in two disciplinary lacunas: a conformity assessment approach for cities and the creation of knowledge about Florianópolis and its further presentation at an international level, on the one hand. On the other hand, the transfer of this approach to other cities would help explaining a (common) contemporary urban phenomenon and appeal for more ethical conduct and transparency in the practices of city marketing.
In this dissertation, a new, unique and original biaxial device for testing unsaturated soil was designed and developed. A study on the mechanical behaviour of unsaturated sand in plane-strain conditions using the new device is presented. The tests were mainly conducted on Hostun sand specimens. A series of experiments including basic characterisation, soil water characteristic curves, and compression biaxial tests on dry, saturated, and unsaturated sand were conducted. A set of bearing capacity tests of strip model footing on unsaturated sand were performed. Additionally, since the presence of fine content (i.e., clay) influences the behavior of soils, soil water characteristic tests were also performed for sand-kaolin mixtures specimens.
Seit 1969 werden für die Bundesrepublik kontinuierlich Berechnungen zu den Gesamtkosten des Straßenverkehrs der Bundesfernstraßen und deren Verteilung auf die Verkehrsteilnehmer durchgeführt. Die Ergebnisse der Wegekostenrechnungen der Jahre 2002 und 2007 sind die Grundlage für die mittlerweile für das deutsche Autobahnnetz eingeführte fahrleistungsbezogene Benutzungsgebühr für Lkw mit einem zulässigen Gesamtgewicht von mindestens zwölf Tonnen. Damit wird die Forderung der EU-Richtlinie 1999/62/EG umgesetzt, nach der sich die durchschnittlichen Straßenbenutzungsgebühren an den Kosten für den Bau, den Betrieb und den Ausbau des betreffenden Verkehrswegenetzes orientieren sollen. Mit der EU-Richtlinie 2006/38/EG kündigt sich die weitere Entwicklung bei der Berechnung von Straßenbenutzungsgebühren an. Zukünftig sollen auch externe Kosten in die Berechnung einfließen. Ein erster Schritt zur Berücksichtigung dieser externen Kosten erfolgte mit Erstellung eines Handbuchs im Rahmen eines EU-Forschungsprojektes. Das Handbuch enthält aufgrund der unterschiedlichen Rahmenbedingungen in den Mitgliedsstaaten der EU keine exakten Berechnungsvorschriften, sondern stellt verschiedene methodische Ansätze bisher durchgeführter Studien zu externen Kosten vor, gibt Empfehlungen hinsichtlich der Methodenwahl und beinhaltet Schätzungen über die Höhe der externen Kosten. Die im europäischen Raum in den vergangenen Jahren durchgeführten Studien zur Ermittlung externer Kosten des Verkehrs zeichnen sich durch einander ähnelnde Vorgehensweisen aus, die aber vor allem hinsichtlich der Kostenrechnungsart und der verwendeten Kostensätze aus Sicht des Verfassers der vorliegenden Arbeit kritische Aspekte aufweisen. In der vorliegenden Dissertationsschrift wird daher eine alternative Berechnungsmethodik zur Ermittlung abschnitts-, fahrzeugklassen- und fahrleistungsbezogener externer Kosten für Autobahnen entwickelt und an einem ausgewählten Beispielnetz zur Anwendung gebracht. Dabei wird in einigen wesentlichen Punkten von der in aktuellen Studien überwiegend gewählten Vorgehensweise abgewichen, um eine andere Sichtweise darzustellen. Damit trägt die vorliegende Arbeit substanziell zur Erweiterung des Erkenntnisstands zu Berechnungsmethoden externer Kosten des Straßenverkehrs bei. Die hier entwickelte Berechnungsmethodik ist außerdem als Grundlage für ein in der Praxis anwendbares Verfahren zu verstehen und zeichnet sich auch daher durch eine einfach zu handhabende Übertragbarkeit auf das gesamte Autobahnnetz Deutschlands aus. Die Abschnitte entsprechen den Teilstrecken zwischen zwei Autobahnanschlussstellen. Es wird zwischen den beiden Fahrzeugklassen "Lkw ab 12 t zulässigem Gesamtgewicht" und "Sonstigen Fahrzeugen" unterschieden. Obwohl momentan nur eine Benutzungsgebühr für Lkw ab 12 t zulässigem Gesamtgewicht erhoben wird, ist es mit der entwickelten Methodik möglich, fahrleistungsbezogene externe Kosten für alle Kfz angeben zu können. Die Einbeziehung externer Nutzen wird in diesem Zusammenhang andiskutiert; der Schwerpunkt liegt allerdings auf den externen Kosten. Im Rahmen der Arbeit werden zunächst Definitionen wesentlicher Terminologien dargestellt, soweit diese für das Verständnis der sich anschließenden Diskussion und Festlegung der Grundlagen der entwickelten Berechnungsmethodik notwendig erscheinen. Diese Diskussion und Festlegung umfasst die Bereiche Kostenrechnungsart, Bewertungsverfahren zur Ermittlung des Wertegerüsts, Diskontrate, zu betrachtende Kostenbereiche, Mengengerüst und Allokationsrechnung. Darauf folgend werden die betrachteten Kostenbereiche anhand vorliegender Studien und eigener Überlegungen detailliert dargestellt und das Wertegerüst bestimmt. Außerdem wird die Allokationsrechnung und das für die Berechnung heranzuziehende Mengengerüst für jeden Bereich separat vorgestellt. Anschließend wird die entwickelte Berechnungsmethodik auf ein Beispielnetz (Autobahnnetz Thüringen) angewendet. Neben der Vorstellung des Untersuchungsgebiets, der Berechnung der externen Kosten und der disaggregierten Ergebnisdarstellung wird die Einteilung des Beispielnetzes in unterschiedliche Preiskategorien auf der Grundlage der abschnittsbezogen vorliegenden Ergebnisse diskutiert, auf deren Basis die externen Kosten über Straßenbenutzungsgebühren internalisiert werden könnten. Im Rahmen einer Sensitivitätsanalyse werden einzelne Annahmen der Berechnungsmethodik bzw. Kostensätze des Wertegerüsts variiert. Die Auswirkungen dieser Variationen werden wiederum am Beispielnetz, für das erneute Kostenberechnungen vorgenommen werden, dargelegt. Abschließend werden offen gebliebene Fragestellungen und Empfehlungen für weitere Untersuchungen benannt.
One of the main focuses of recent Chinese urban development is the creation and retrofitting of public spaces driven by the market force and demand. However, researches concerning human and cultural influences on shaping public spaces have been scanty. There still exist many undefined ambiguous planning aspects institutionally and legislatively. This is an explanatory research to address interactions, incorporations and interrelationship between the lived environment and its peoples. It is knowledge-seeking and normative. Theoretically, public space in a Chinese context is conceptualized; empirically, a selected case is inquired. The research has unfolded a comparatively complete understanding of China’s planning evolution and on-going practices. Data collection emphasizes the concept of ‘people’ and ‘space’. First-hand data is derived from the intensive fieldwork and observatory and participatory documentations. The ample detailed authentic empirical data empowers space syntax as a strong analysis tool in decoding how human’s activities influence the public space. Findings fall into two categories but interdependent. Firstly, it discloses the studied settlement as a generic, organic and incremental development model. Its growth and established environment is evolutionary and incremental, based on its intrinsic traditions, life values and available resources. As a self-sustaining settlement, it highlights certain vernacular traits of spatial development out of lifestyles and cultural practices. Its spatial articulation appears as a process parallel to socio-economic transitions. Secondly, crucial planning aspects are theoretically summarized to address the existing gap between current planning methodology and practicalities. It pinpoints several most significant and particular issues, namely, disintegrated land use system and urban planning; missing of urban design in the planning system, loss of a human-responsive environment resulted from standardized planning and under-estimation of heritage in urban development. The research challenges present Chinese planning laws and regulations through urban public space study; and pinpoints to yield certain growth leverage for planning and development. Thus, planning is able to empower inhabitants to make decisions along the process of shaping and sustaining their space. Therefore, it discusses not only legislative issues, concerning land use planning, urban design and heritage conservation. It leads to a pivotal proposal, i.e., the integration of human and their social spaces in formulating a new spatial strategy. It expects to inform policymakers of underpinning social values and cultural practices in reconfiguring postmodern Chinese spatiality. It propounds that social context endemic to communities shall be integrated as a crucial tool in spatial strategy design, hence to strengthen spatial attributes and improve life quality.
On the mechanisms of shrinkage reducing admixtures in self con-solidating mortars and concretes
(2010)
Self Consolidating Concrete – a dream has come true!(?) Self Consolidating Concrete (SCC) is mainly characterised by its special rheological properties. With-out any vibration this concrete can be placed and compacted under its own weight, without segrega-tion or bleeding. The use of such concrete can increase the productivity on construction sites and en-able the use of a higher degree of well distributed reinforcement for thin walled structural members. This new technology also reduces health risks since in contrast to the traditional handling of concrete, the emission of noise and vibration are substantially decreased. The specific mix design for self consolidating concretes was introduced around the 1980s in Japan. In comparison to normal vibrated concrete an increased paste volume enables a good distribution of aggregates within the paste matrix, minimising the influence of aggregates friction on the concrete flow property. The introduction of inert and/or pozzolanic additives as part of the paste provides the required excess paste volume without using disproportionally high amounts of plain cement. Due to further developments of concrete admixtures such as superplasticizers, the cement paste can gain self levelling properties without causing segregation of aggregates. Whereas SCC differs from normal vibrated concrete in its fresh attributes, it should reach similar properties in the hardened state. Due to the increased paste volume it usually shows higher shrinkage. Furthermore, owing to strength requirements, SCC is often produced at low water to cement ratios and hence may additionally suffer from autogenous shrinkage. This means that cracking caused by drying or autogenous shrinkage is a real risk for SCC and can compromise its durability as cracks may serve as ingression paths for gases and salts or might permit leaching. For the time being SCC still exhibits increased shrinkage and cracking probability and hence may be discarded in many practical applications. This can be overcome by a better understanding of those mechanisms and the ways to mitigate them. It is a target of this thesis to contribute to this. How to cope with increased shrinkage of SCC? In general, engineers are facing severe problems related to shrinkage and cracking. Even for normal and high performance concrete, containing moderate amounts of binder, a lot of effort was put on counteracting shrinkage and avoiding cracking. For the time being these efforts resulted in the knowledge of how to distribute cracks rather to avoid them. The most efficient way to decrease shrinkage turned out to be to decrease the cement content of concrete down to a minimum but still sufficient amount. For SCC this obviously seems to be contradictory with the requirement of a high paste volume. Indeed, the potential for shrinkage reduction is limited to some small range modifications in the mix design following two major concepts. The first one is the reduction of the required paste volume by optimising the aggregate grading curve. The second one involves high volume substitution of cement, preferentially using inert mineral additives. The optimization of grading curves is limited by several severe practical issues. Problems start with the availability of sufficiently fractionated aggregates. Usually attempts fail because of the enormous effort in composing application-optimized grading curves or mix designs. Due to durability reasons, the substitution rate for cement is limited depending on the application purpose and on environmental exposure of the hardened concrete. In the early 1980s Shrinkage Reducing Admixtures (SRA) were introduced to counteract drying shrinkage of concrete. The first publications explicitly dealing with SRA go back to Goto and Sato (Japan). They were published in 1983, which is also the time when the SCC concept was introduced. SRA modified concretes showed a substantial reduction of free drying shrinkage contributing to crack prevention or at least a significant decrease of crack width in situations of restrained drying shrinkage. Will shrinkage reducing admixtures contribute to a broader application of SCC? Within the last three decades performance tests on several types of concrete proved the efficiency of shrinkage reducing admixtures. So, at least in terms of shrinkage and cracking, concretes in general and SCC in particular can benefit from SRA application. But "One man's meat is another man's poison" and with respect to long term performance of SRA modified concretes there are still several issues to be clarified. One of these concerns the impact of SRAs on cement hydration. It is therefore an issue to know if changes in the hydrated phase composition, induced by SRA, result in undesired properties or decreased durability. Another issue is that the long term shrinkage reduction has to be evaluated. For example, one can wonder if SRA leaching may diminish or even eliminate long term shrinkage reduction and if the release of admixtures could be a severe environmental issue. It should also be noted that the basic mechanism or physical impact of SRA as well as its implementation in recent models for shrinkage of concrete is still being discussed. The present thesis tries to shed light on the role of SRA in self consolidating concrete focusing on the three questions outlined above: basic mechanisms of cement hydration, physical impact on shrinkage and the sustainability of SRA-application. Which contributions result from this study? Based on an extensive patent search, commercial SRAs could be identified to be synergistic mixtures of non-ionic surfactants and glycols. This turns out to be most important information for more than one reason and is the subject of chapter 4. An abundant literature focuses on properties of these non-ionic surfactants. Moreover, from this rich pool of information, the behaviour of SRAs and their interactions in cementitious systems were better understood through this thesis. For example, it could be anticipated how SRAs behave in strong electrolytes and how surface activity, i.e. surface tension, and interparticle forces might be affected. The synergy effect regarding enhanced performance induced by the presence of additional glycol in SRAs could be derived from the literature on the co-surfactant nature of glycols. Generally it now can be said that glycols ensure that the non-ionic surfactant is properly distributed onto the paste interfaces to efficiently reduce surface tension. In literature, the impact of organic matter on cement hydration was extensively studied for other admixtures like superplasticizer. From there, main impact factors related to the nature of these molecules could be identified. In addition, here again, the literature on non-ionic surfactants provides sufficient information to anticipate possible interactions of SRA with cement hydration based on the nature of non-ionic surfactants. All in all, the extensive study on the nature of non-ionic surfactants, presented in chapter 4, provides fundamental understanding of the behaviour of SRAs in cement paste. Taking a step further to relate this to the impact on drying and shrinkage required to review recent models for drying and shrinkage of cement paste as presented in chapter 3. There, it is shown that macroscopic thermodynamics of the open pore systems can be successfully applied to predict drying induced deformation, but that surface activity of SRA still has to be implemented to explain the shrinkage reduction it causes. Because of severe issues concerning the importance of capillary pressure on shrinkage, a new macroscopic thermodynamic model was derived in a way that meets requirements to properly incorporate surface activity of SRA. This is the subject of chapter 5. Based on theoretical considerations, in chapter 5 the broader impact of SRA on drying cementitious matter could be outlined. In a next step, cement paste was treated as a deformable, open drying pore system. Thereby, the drying phenomena of SRA modified mortars and concrete observed by other authors could be retrieved. This phenomenological consistency of the model constitutes an important contribution towards the understanding of SRA mechanisms. Another main contribution of this work came from introducing an artificial pore system, denominated the normcube. Using this model system, it could be shown how the evolution of interfacial area and its properties interact in presence of SRAs and how this impacts drying characteristics. In chapter 7, the surface activity of commercial SRAs in aqueous solution and synthetic pore solution was investigated. This shows how the electrolyte concentration of synthetic pore solution impacts the phase behaviour of SRA and conversely, how the presence of SRA impacts the aqueous electrolyte solution. Whilst electrolytes enhance self-aggregation of SRAs into micelles and liquid crystals, the presence of SRAs leads to precipitation of minerals as syngenite and mirabilite. Moreover, electrolyte solutions containing SRAs comprise limited miscibility or rather show miscibility gaps, where the liquid separates into isotropic micellar solutions and surfactant rich reverse micellar solutions. The investigation of surface activity and phase behaviour of SRA unravelled another important contribution. From macroscopic surface tension measurements, a relationship between excess surface concentration of SRA, bulk concentration of SRA and exposed interfacial area could be derived. Based on this, it is now possible to predict the actual surface tension of the pore fluid in the course of drying once the evolution of internal interfacial area is known. This is used later in this thesis to describe the specific drying and shrinkage behaviour of SRA modified pastes and mortars. Calorimetric studies on normal Portland cement and composite binders revealed that SRA alone show only minor impact on hydration kinetics. In presence of superplasticizer however the cement hydration can be significantly decelerated. The delaying impact of SRA could be related to a selective deceleration of silicate phase hydration. Moreover, it could be shown that portlandite precipitation in presence of SRA is changed, turning the compact habitus into more or less layered structures. Thereby, the specific surface increases, causing the amount of physically bound water to increase, which in turn reduces the maximum degree of hydration achievable for sealed systems. Extensive phase analysis shows that the hydrated phase composition of SRA modified binders re-mains almost unaffected. The appearance of a temporary mineral phase could be detected by environmental scanning electron microscopy. As could be shown for synthetic pore solutions, syngenite precipitates during early hydration stages and is later consumed in the course of aluminate hydration, i.e. when sulphates are depleted. Moreover, for some SRAs, the salting out phenomena supposed to be enhanced in strong electrolytes could also be shown to take place. The resulting organic precipitates could be identified by SEM-EDX in cement paste and by X-ray diffraction on solid residues of synthetic pore solution. The presence of SRAs could also be identified to impact microstructure of well cured cement paste. Based on nitrogen adsorption measurements and mercury intrusion porosimetry the amount of small pores is seen to increase with SRA dosage, whilst the overall porosity remains unchanged. The question regarding sustainability of SRA application is the subject of chapter 10. By means of leaching studies it could be shown that SRA can be leached significantly. The mechanism could be identified as a diffusion process and a range of effective diffusion coefficients could be estimated. Thereby, the leaching of SRA can now be estimated for real structural members. However, while the admixture can be leached to high extents in tank tests, the leaching rates in practical applications can be assumed to be low because of much reduced contact with water. This could be proven by quantifying admixture loss during long term drying and rewetting cycles. Despite a loss of admixture shrinkage reduction is hardly impacted. Moreover, the cyclic tests revealed that the total deformations in presence of SRA remain low due to a lower extent of irreversibly shrinkage deformations. Another important contribution towards the better understanding of the working mechanism of SRA for drying and shrinkage came from the same leaching tests. A significant fraction of SRA is found to be immobile and does not diffuse in leaching. This fraction of SRA is probably strongly associated to cement phases as the calcium-silicate-hydrates or portlandite. Based on these findings, it is now also possible to quantify the amount of admixture active at the interfaces. This means that, the evolution of surface tension in the course of drying can be approximated, which is a fundamental requirement for modeling shrinkage in presence of SRA. The last experimental chapter of this study focuses on the working mechanism and impact of SRA on drying and shrinkage. Based on the thermodynamics of the open deformable pore system introduced in chapter 5, energy balances are set up using desorption and shrinkage isotherms of actual samples. Information on distribution of SRA in the hydrated paste is used to estimate the actual surface tensions of the pore solution. In other words, this is the first time that the surface activity of the SRA in the course of the drying is fully accounted for. From the energy balances the evolution and properties of the internal interface are then obtained. This made it possible to explain why SRAs impact drying and shrinkage and in what specific range of relative humidity they are active. Summarising the findings of this thesis it can be said that the understanding of the impact of SRAs on hydration, drying and shrinkage was brought forward. Many of the new insights came from the careful investigation of the theory of non-ionic surfactants, something that the cement community had generally overlooked up to now.
The numerical simulation of damage using phenomenological models on the macroscale was state of the art for many decades. However, such models are not able to capture the complex nature of damage, which simultaneously proceeds on multiple length scales. Furthermore, these phenomenological models usually contain damage parameters, which are physically not interpretable. Consequently, a reasonable experimental determination of these parameters is often impossible. In the last twenty years, the ongoing advance in computational capacities provided new opportunities for more and more detailed studies of the microstructural damage behavior. Today, multiphase models with several million degrees of freedom enable for the numerical simulation of micro-damage phenomena in naturally heterogeneous materials. Therewith, the application of multiscale concepts for the numerical investigation of the complex nature of damage can be realized. The presented thesis contributes to a hierarchical multiscale strategy for the simulation of brittle intergranular damage in polycrystalline materials, for example aluminum. The numerical investigation of physical damage phenomena on an atomistic microscale and the integration of these physically based information into damage models on the continuum meso- and macroscale is intended. Therefore, numerical methods for the damage analysis on the micro- and mesoscale including the scale transfer are presented and the transition to the macroscale is discussed. The investigation of brittle intergranular damage on the microscale is realized by the application of the nonlocal Quasicontinuum method, which fully describes the material behavior by atomistic potential functions, but reduces the number of atomic degrees of freedom by introducing kinematic couplings. Since this promising method is applied only by a limited group of researchers for special problems, necessary improvements have been realized in an own parallelized implementation of the 3D nonlocal Quasicontinuum method. The aim of this implementation was to develop and combine robust and efficient algorithms for a general use of the Quasicontinuum method, and therewith to allow for the atomistic damage analysis in arbitrary grain boundary configurations. The implementation is applied in analyses of brittle intergranular damage in ideal and nonideal grain boundary models of FCC aluminum, considering arbitrary misorientations. From the microscale simulations traction separation laws are derived, which describe grain boundary decohesion on the mesoscale. Traction separation laws are part of cohesive zone models to simulate the brittle interface decohesion in heterogeneous polycrystal structures. 2D and 3D mesoscale models are presented, which are able to reproduce crack initiation and propagation along cohesive interfaces in polycrystals. An improved Voronoi algorithm is developed in 2D to generate polycrystal material structures based on arbitrary distribution functions of grain size. The new model is more flexible in representing realistic grain size distributions. Further improvements of the 2D model are realized by the implementation and application of an orthotropic material model with Hill plasticity criterion to grains. The 2D and 3D polycrystal models are applied to analyze crack initiation and propagation in statically loaded samples of aluminum on the mesoscale without the necessity of initial damage definition.
Besides home entertainment and business presentations, video projectors are powerful tools for modulating images spatially as well as temporally. The re-evolving need for stereoscopic displays increases the demand for low-latency projectors and recent advances in LED technology also offer high modulation frequencies. Combining such high-frequency illumination modules with synchronized, fast cameras, makes it possible to develop specialized high-speed illumination systems for visual effects production. In this thesis we present different systems for using spatially as well as temporally modulated illumination in combination with a synchronized camera to simplify the requirements of standard digital video composition techniques for film and television productions and to offer new possibilities for visual effects generation. After an overview of the basic terminology and a summary of related methods, we discuss and give examples of how modulated light can be applied to a scene recording context to enable a variety of effects which cannot be realized using standard methods, such as virtual studio technology or chroma keying. We propose using high-frequency, synchronized illumination which, in addition to providing illumination, is modulated in terms of intensity and wavelength to encode technical information for visual effects generation. This is carried out in such a way that the technical components do not influence the final composite and are also not visible to observers on the film set. Using this approach we present a real-time flash keying system for the generation of perspectively correct augmented composites by projecting imperceptible markers for optical camera tracking. Furthermore, we present a system which enables the generation of various digital video compositing effects outside of completely controlled studio environments, such as virtual studios. A third temporal keying system is presented that aims to overcome the constraints of traditional chroma keying in terms of color spill and color dependency. ...
The advent of high-performance mobile phones has opened up the opportunity to develop new context-aware applications for everyday life. In particular, applications for context-aware information retrieval in conjunction with image-based object recognition have become a focal area of recent research. In this thesis we introduce an adaptive mobile museum guidance system that allows visitors in a museum to identify exhibits by taking a picture with their mobile phone. Besides approaches to object recognition, we present different adaptation techniques that improve classification performance. After providing a comprehensive background of context-aware mobile information systems in general, we present an on-device object recognition algorithm and show how its classification performance can be improved by capturing multiple images of a single exhibit. To accomplish this, we combine the classification results of the individual pictures and consider the perspective relations among the retrieved database images. In order to identify multiple exhibits in pictures we present an approach that uses the spatial relationships among the objects in images. They make it possible to infer and validate the locations of undetected objects relative to the detected ones and additionally improve classification performance. To cope with environmental influences, we introduce an adaptation technique that establishes ad-hoc wireless networks among the visitors’ mobile devices to exchange classification data. This ensures constant classification rates under varying illumination levels and changing object placement. Finally, in addition to localization using RF-technology, we present an adaptation technique that uses user-generated spatio-temporal pathway data for person movement prediction. Based on the history of previously visited exhibits, the algorithm determines possible future locations and incorporates these predictions into the object classification process. This increases classification performance and offers benefits comparable to traditional localization approaches but without the need for additional hardware. Through multiple field studies and laboratory experiments we demonstrate the benefits of each approach and show how they influence the overall classification rate.
Public Private Partnership (PPP) setzt sich zunehmend als alternative Beschaffungsvariante für die öffentliche Hand durch. Im Krankenhausbereich bestehen erste Erfahrungen mit PPP, allerdings kann hier im Gegensatz zu anderen öffentlichen Bereichen noch nicht von einer Etablierung gesprochen werden. In vielen Krankenhäusern besteht Unklarheit über dieses neue Organisationskonzept. Was steckt hinter diesem Begriff, der teilweise synonym zur „Privatisierung“ verwendet wird? Ausgehend von dieser Fragestellung wird in der vorliegenden Arbeit gezeigt, dass PPP bei richtiger Anwendung eine Alternative zum Verkauf eines öffentlichen Krankenhauses darstellt. PPP ist ein Instrument, mit dem privates Know-how und Kapital für den öffentlichen Krankenhausträger nutzbar gemacht wird. Die öffentliche Trägerschaft des Krankenhauses bleibt dabei, im Gegensatz zu einer materiellen Privatisierung, erhalten. Die Rahmenbedingungen des Gesundheitswesens stellen insbesondere die öffentlichen Krankenhäuser vor große Herausforderungen. Die Lage ist zunehmend geprägt von Mittelknappheit, Sanierungsstau und stetig steigendem Wettbewerbsdruck um die Patienten. Die Reformbemühungen der Bundesregierung zur Senkung der Gesundheitsausgaben haben in den letzten Jahrzehnten zu immer neuen Gesetzesregelungen in immer kürzeren Zeitabständen geführt. Den bisher letzten großen Schritt in dieser Entwicklung stellt die Umstellung der Krankenhausvergütung auf DRG-Fallpauschalen dar. Die Auswirkungen sind insbesondere in den öffentlichen Krankenhäusern zu spüren. Defizitäre Einrichtungen, die bisher durch Subventionen gestützt wurden, werden nun nicht mehr „künstlich am Leben“ erhalten. Alle Krankenhäuser erhalten eine leistungsorientierte Vergütung, weitgehend unabhängig von den krankenhausspezifisch anfallenden Kosten. Durch diese Entwicklungen wurde das Bestreben in den Krankenhäuser, die internen Leistungsprozesse zu optimieren, weiter forciert. Dabei kommt den mit der Gebäudesubstanz verbundenen Leistungen eine besondere Bedeutung zu. Aufgrund hoher Investitionskosten und bedeutender Aufwendungen in der Nutzungsphase erreichen die nicht-medizinischen Leistungen in einem Krankenhaus einen beachtlichen Anteil an den Gesamtkosten. Fast ein Drittel der Krankenhaus-Kosten steht nicht in direkter Beziehung zum Heilungsprozess. In Deutschland macht dieser Anteil der nicht-medizinischen Abläufe jährlich rd. 18 Mrd. Euro aus. Das Optimierungspotenzial des nicht-medizinischen Leistungsbereichs, der auch die bau- und immobilienwirtschaftlichen Leistungen umfasst, wird bisher oft noch unterschätzt und ist in den meisten Fällen noch nicht ausgeschöpft. Allein schon aufgrund dessen finanzieller Bedeutung bedarf es einer verstärkten wissenschaftlichen Auseinandersetzung. Dieser Notwendigkeit ist bisher noch unzureichend Rechnung getragen wurden. Die vorliegende Arbeit will mit der Erforschung der Anwendbarkeit von PPP für Krankenaus-Immobilien einen Beitrag dazu leisten, diese Lücke zu schließen. Mit dieser für den deutschen Krankenhausbereich neuartigen Beschaffungsvariante wird ein Weg aufgezeigt, wie bei den nicht-medizinischen Leistungen nachhaltig Effizienzpotenziale erschlossen werden können und auf diese Weise ein Beitrag zum wirtschaftlichen Erfolg des gesamten Krankenhauses erzielt werden kann.
Virtual reality systems offer substantial potential in supporting decision processes based purely on computer-based representations and simulations. The automotive industry is a prime application domain for such technology, since almost all product parts are available as three-dimensional models. The consideration of ergonomic aspects during assembly tasks, the evaluation of humanmachine interfaces in the car interior, design decision meetings as well as customer presentations serve as but a few examples, wherein the benefit of virtual reality technology is obvious. All these tasks require the involvement of a group of people with different expertises. However, current stereoscopic display systems only provide correct 3D-images for a single user, while other users see a more or less distorted virtual model. This is a major reason why these systems still face limited acceptance in the automotive industry. They need to be operated by experts, who have an advanced understanding of the particular interaction techniques and are aware of the limitations and shortcomings of virtual reality technology. The central idea of this thesis is to investigate the utility of stereoscopic multi-user systems for various stages of the car development process. Such systems provide multiple users with individual and perspectively correct stereoscopic images, which are key features and serve as the premise for the appropriate support of collaborative group processes. The focus of the research is on questions related to various aspects of collaboration in multi-viewer systems such as verbal communication, deictic reference, embodiments and collaborative interaction techniques. The results of this endeavor provide scientific evidence that multi-viewer systems improve the usability of VR-applications for various automotive scenarios, wherein co-located group discussions are necessary. The thesis identifies and discusses the requirements for these scenarios as well as the limitations of applying multi-viewer technology in this context. A particularly important gesture in real-world group discussions is referencing an object by pointing with the hand and the accuracy which can be expected in VR is made evident. A novel two-user seating buck is introduced for the evaluation of ergonomics in a car interior and the requirements on avatar representations for users sitting in a car are identified. Collaborative assembly tasks require high precision. The novel concept of a two-user prop significantly increases the quality of such a simulation in a virtual environment and allows ergonomists to study the strain on workers during an assembly sequence. These findings contribute toward an increased acceptance of VR-technology for collaborative development meetings in the automotive industry and other domains.
This thesis focuses on the cryptanalysis and the design of block ciphers and hash func- tions. The thesis starts with an overview of methods for cryptanalysis of block ciphers which are based on differential cryptanalysis. We explain these concepts and also sev- eral combinations of these attacks. We propose new attacks on reduced versions of ARIA and AES. Furthermore, we analyze the strength of the internal block ciphers of hash functions. We propose the first attacks that break the internal block ciphers of Tiger, HAS-160, and a reduced round version of SHACAL-2. The last part of the thesis is concerned with the analysis and the design of cryptographic hash functions. We adopt a block cipher attack called slide attack into the scenario of hash function cryptanalysis. We then use this new method to attack different variants of GRINDAHL and RADIOGATUN. Finally, we propose a new hash function called TWISTER which was designed and pro- posed for the SHA-3 competition. TWISTER was accepted for round one of this com- petition. Our approach follows a new strategy to design a cryptographic hash function. We also describe several attacks on TWISTER and discuss the security issues concern- ing these attack on TWISTER.
In der vorliegenden Arbeit wird eine kraftschlüssige Verbindungstechnik für modulare, schalenartige Faserverbundbauteile vorgestellt. Die Verbindung basiert auf der Verklebung mit lokal begrenzten Stahlblechen. Aus dem Verbindungsansatz wird die Verklebung zwischen Stahl und Faserverbundkunststoff vertiefend betrachtet. Ziel sind die Wahl von technologischen Randbedingungen, die Erarbeitung eines Vorschlages zur numerischen Berechnung und Bemessung und die Formulierung konstruktiver Empfehlungen zum Entwurf von Verklebungen. Mechanische Kennwerte werden in Zugversuchen ermittelt und direkt auf die nichtlinearen Berechnungen übertragen. Technologische Einflüsse und die Streuungen aus realen Verklebungen werden über die Nachrechnung von Zugscherversuchen in die Bemessung integriert. Es wird gezeigt, dass die Verklebungen ausreichende Festigkeiten und ein zufriedenstellendes Bruchverhalten aufweisen. Die Kombination aus einer Werkstattverklebung und einer baustellengerechten Montage ermöglicht eine materialgerechte und effiziente Verbindungen für Faserverbundkonstruktionen unter den Randbedingungen des Bauwesens.
Vom Bauwerksinformationsmodell zur Terminplanung - Ein Modell zur Generierung von Bauablaufplänen
(2011)
Die effiziente und zielgerichtete Ausführung von Bauvorhaben wird in hohem Maße von der zugrunde liegenden Bauablaufplanung beeinflusst. Dabei ist unter Verwendung herkömmlicher Methoden und Modelle die Planung des Bauablaufs ein zumeist aufwändiger und fehlerträchtiger Prozess. Am Ende der gegenwärtig üblichen Vorgehensweise für die Planung eines Bauablaufs erfolgt lediglich die Dokumentation des Endergebnisses. Mögliche Ablaufalternativen, die im Verlauf der Planung betrachtet wurden, sind im resultierenden Bauablaufplan nicht enthalten und gehen verloren. Eine formale Kontrolle des geplanten Bauablaufs hinsichtlich seiner Vollständigkeit ist nur begrenzt möglich, da beispielsweise existierende Methoden der 4D-Visualisierung derzeit nicht ausreichend in den Prozess der Planung von Bauabläufen integriert sind. Gegenstand der vorliegenden Arbeit ist die Entwicklung eines neuen Modells für die Unterstützung der Bauablaufplanung. Dafür wird der größtenteils manuelle Vorgang der Bauablaufplanung auf Basis verfügbarer Bauwerksinformationsmodelle (BIM) weitestgehend automatisiert und die Methodik der 4D-Animation in den Prozess der Bauablaufplanung integriert. Ausgehend von in einer Erfahrungsdatenbank gespeicherten Informationen werden auf Basis einer Ähnlichkeitsermittlung Bauteilen des betrachteten BIM geeignete Vorgänge zugeordnet und mittels Algorithmen der Graphentheorie ein Workflowgraph aller mög\-lichen Bauablaufvarianten generiert. Aufgrund der vorgenommenen Kopplung des Bauablaufplans mit Bauteilen eines BIM und der visuellen Darstellung des Bauablaufs kann vom Planer im Rahmen der Modellierungsgenauigkeit des BIM auf die Vollständigkeit des Bauablaufplans geschlossen werden. Dies ermöglicht dem Anwender ein hohes Maß an Kontrolle des geplanten Bauablaufs bereits innerhalb der Planungsphase. Weiterhin unterstützt das entwickelte Modell die Integration von Ablaufvarianten, was deren Gegenüberstellung ermöglicht und die Wiederverwendbarkeit bereits geplanter Bauabläufe durch eine entsprechend ausgerichtete Abbildung des Modells. Die Anwendbarkeit des erarbeiteten Modells wird anhand einer prototypischen Implementierung nachgewiesen und anhand eines Praxisbeispiels verifiziert.
Das im Jahre 2003 verabschiedete und 2006 in Kraft getretene UNESCO-Übereinkommen zur Bewahrung des immateriellen Kulturerbes erweitert das Kulturverständnis von gebautem Kulturerbe gemäß der Konvention aus dem Jahre 1972 durch gelebtes Kulturerbe. Die Dissertation zeigt beispielhaft, wie sich Bürger einer Stadt und einer Region mit ihrer historischen Vergangenheit befassen und dass es lohnenswert ist, sich mit ihrem ererbten immateriellen Kulturerbe auseinander zu setzen. Sie bezeugt, dass eine moderne populäre Kultur die Pflege des immateriellen Kulturerbes voranbringt, dass personalisierte und vergesellschaftete Individuen die Sorge um den drohenden Kulturverlust ernst nehmen und diesem aktiv, eigenständig und unpolitisch entgegen treten. Ausgehend von der wertphilosophischen und kulturtheoretischen Annäherung werden im zweiten und dritten Kapitel beispielhaft die Ur-Inszenierung im Jahre 1475 und die Re-Inszenierung im 21. Jahrhundert gegenübergestellt. Die Ergebnisse aus der Untersuchung werden im vierten Kapitel diskutiert. An Hand der Promotionsschrift wird versucht, Antworten auf folgende Fragen zu finden: - Hat die Re-Inszenierung der „Landshuter Fürstenhochzeit 1475“ des 21. Jahrhunderts das Potential eines immateriellen Kulturerbes? - Kann sie den negativen Begleiterscheinungen des Generations- wechsels und der Globalisierung entgegentreten? - Ist sie eine zeitgenössische Transformationsmethode von (Denkmal)Werten? - Was sind die Schutzkomponenten? - Trägt die Re-Inszenierung zu der kulturellen Identität einer Stadt an authentischem Ort bei und hat sie Einfluss auf die Gestaltung der baulich-räumlichen Umwelt?
Das Bauen im Bestand ist ein wichtiges, aber vergleichsweise noch wenig erforschtes Wissenschaftsfeld. Die Konzentration auf das Bauen im Bestand im Wohnungsbau führte in den bautechnischen Abteilungen von Wohnungsunternehmen zu einem strategischen Wandel. Die Betreuung der Bestandsmaßnahmen ist zum wichtigsten Aufgabenfeld der technischen Bewirtschaftung geworden. Bestandsmaßnahmen bezeichnen die Baumaßnahmen, die die Wohnobjekte (Wohngebäude, Außenanlagen) und ihre Elemente erhalten oder verändern.
Basis für eine rationale und kosteneffiziente technische Bewirtschaftung der Wohnungsbestände sind Kenntnisse der charakteristischen Eigenschaften der Bestandsmaßnahmen und ihrer Abhängigkeiten. Die bisherigen empirischen Untersuchungen zu Bestandsmaßnahmen weisen forschungsmethodische und inhaltliche Defizite auf. Der Erkenntnisgewinn ist so noch nicht für die professionelle und kosteneffiziente technische Bewirtschaftung der Wohnungsbestände umsetzbar.
Ziel der Arbeit ist es, strategische Handlungsempfehlungen für die rationale und kostenoptimierte Auswahl von Bestandsmaßnahmen in Wohnungsunternehmen zu entwickeln und zu bewerten. Darauf aufbauend soll ein Konzept für eine objektiv begründete Auswahl von Bestandsmaßnahmen entworfen werden.
Die Arbeit basiert auf der empirischen Untersuchung von Bestandsmaßnahmen. Die Maßnahmen wurden am Beispiel eines unternehmensstrategisch interessanten Wohnungsunternehmens und eines statistisch gesehen typischen Wohnungsbestandes betrachtet. Es wurden circa 3000 Maßnahmen über einen Zeitraum von fünf Jahren untersucht.
Die Maßnahme- und Kostenverteilungen der Bestandsmaßnahmen werden in Abhängigkeit vom Baualter und von unternehmensstrategischen Einflussfaktoren charakterisiert. Mit diesen Erkenntnissen werden strategische Handlungsempfehlungen zur Erfüllung der Pflichten der technischen Bewirtschaftung sowie der Gewährleistung eines Investitionsminimums abgeleitet.
Die Handlungsempfehlungen dienen der Ermittlung von Kostensenkungspotentialen und der Berechnung des Investitionsminimums der technischen Bewirtschaftung. Sie werden in ein Konzept zur objektivierten und systematischen Auswahl der Maßnahmen eingebunden.
Numerical models and their combination with advanced solution strategies are standard tools for many engineering disciplines to design or redesign structures and to optimize designs with the purpose to improve specific requirements. As the successful application of numerical models depends on their suitability to represent the behavior related to the intended use, they should be validated by experimentally obtained results. If the discrepancy between numerically derived and experimentally obtained results is not acceptable, a model revision or a revision of the experiment need to be considered. Model revision is divided into two classes, the model updating and the basic revision of the numerical model. The presented thesis is related to a special branch of model updating, the vibration-based model updating. Vibration-based model updating is a tool to improve the correlation of the numerical model by adjusting uncertain model input parameters by means of results extracted from vibration tests. Evidently, uncertainties related to the experiment, the numerical model, or the applied numerical solving strategies can influence the correctness of the identified model input parameters. The reduction of uncertainties for two critical problems and the quantification of uncertainties related to the investigation of several nominally identical structures are the main emphases of this thesis. First, the reduction of uncertainties by optimizing reference sensor positions is considered. The presented approach relies on predicted power spectral amplitudes and an initial finite element model as a basis to define the assessment criterion for predefined sensor positions. In combination with geometry-based design variables, which represent the sensor positions, genetic and particle swarm optimization algorithms are applied. The applicability of the proposed approach is demonstrated on a numerical benchmark study of a simply supported beam and a case study of a real test specimen. Furthermore, the theory of determining the predicted power spectral amplitudes is validated with results from vibration tests. Second, the possibility to reduce uncertainties related to an inappropriate assignment for numerically derived and experimentally obtained modes is investigated. In the context of vibration-based model updating, the correct pairing is essential. The most common criterion for indicating corresponding mode shapes is the modal assurance criterion. Unfortunately, this criterion fails in certain cases and is not reliable for automatic approaches. Hence, an alternative criterion, the energy-based modal assurance criterion, is proposed. This criterion combines the mathematical characteristic of orthogonality with the physical properties of the structure by modal strain energies. A numerical example and a case study with experimental data are presented to show the advantages of the proposed energy-based modal assurance criterion in comparison to the traditional modal assurance criterion. Third, the application of optimization strategies combined with information theory based objective functions is analyzed for the purpose of stochastic model updating. This approach serves as an alternative to the common sensitivity-based stochastic model updating strategies. Their success depends strongly on the defined initial model input parameters. In contrast, approaches based on optimization strategies can be more flexible. It can be demonstrated, that the investigated nature inspired optimization strategies in combination with Bhattacharyya distance and Kullback-Leibler divergence are appropriate. The obtained accuracies and the respective computational effort are comparable with sensitivity-based stochastic model updating strategies. The application of model updating procedures to improve the quality and suitability of a numerical model is always related to additional costs. The presented innovative approaches will contribute to reduce and quantify uncertainties within a vibration-based model updating process. Therefore, the increased benefit can compensate the additional effort, which is necessary to apply model updating procedures.
This practice-based research examines platforms and encounters that have a participatory character as a strategy to create lived and shared experiences where new forms of appropriation of the city can emerge. The selected case studies propose and initiate certain urban experiences that induce changes in perception, the exchange of perspectives, and that denaturalize habits and patterns of behavior. I suggest that when these sensitive experiences become imprinted in body memory, they can empower citizens to have more active, creative, and/or critical attitudes towards their environments. Searching for new repertoires of everyday practices that contest commodification of both the body and the city, this thesis is oriented towards open-ended processes of constructing mentalities rather than those of planning changes on the material conditions of public space. It uses forms of academic investigation that merge intellectual debate and experimental practice, joining art, urbanism and social engaged practices in an extradisciplinary (Howes 2007) attitude towards the city. Based on the materials generated by the case studies (combining theoretical knowledge with artistic sensibility), the affective and corporeal involvement of researchers in the situations they analyze and co-create, is sustained in opposition to the traditional academic critical distance.
Bridge vibration due to traffic loading has been a subject of extensive research in the last decades. The focus of such research has been to develop solution algorithms and investigate responses or behaviors of interest. However, proving the quality and reliability of the model output in structural engineering has become a topic of increasing importance. Therefore, this study is an attempt to extend concepts of uncertainty and sensitivity analyses to assess the dynamic response of a coupled model in bridge engineering considering time-dependent vehicular loading. A setting for the sensitivity analysis is proposed, which enables performing the sensitivity analysis considering random stochastic processes. The classical and proposed sensitivity settings are used to identify the relevant input parameters and models that have the most influence on the variance of the dynamic response. The sensitivity analysis exercises the model itself and extracts results without the need for measurements or reference solutions; however, it does not offer a means of ranking the coupled models studied. Therefore, concepts of total uncertainty are employed to rank the coupled models studied according to their fitness in describing the dynamic problem.
The proposed procedures are applied in two examples to assess the output of coupled subsystems and coupled partial models in bridge engineering considering the passage of a heavy vehicle at various speeds.
Die thermochemische Wärmespeicherung über reversible Salzhydratation stellt einen aussichtsreichen Weg zur Speicherung von Niedertemperaturwärme, wie z.B. solarer Energie, dar.
Untersuchungen an Magnesiumsulfat-Hydraten zeigen, dass das bei 130°C entwässerte Magnesiumsulfat-Heptahydrat seinen thermodynamisch stabilen Endzustand während der Reaktion mit gasförmigem Wasser nicht wieder erreicht. Um diese kinetische Hemmung zu überwinden und den Einfluss von unterschiedlichen Porenräumen auf die Hydratation bzw. Sorption des Magnesiumsulfates zu charakterisieren, wurde das Magnesiumsulfat in Trägermaterialien auf Basis offenporiger Gläser mit durchschnittlichen Porendurchmessern von 4 nm bis 1,4 µm eingebracht und diese Kompositmaterialien untersucht. Dabei ist festgestellt worden, dass jede salzbezogene Sorptionswärme im Porenraum höher ist, als die des ungeträgerten Salzes und mit kleiner werdendem Porenradius weiter zunimmt.
Weiterhin wurden Teile des Magnesiumsulfates mit niedrig deliqueszierenden Salzen substituiert, um die Wasseraufnahme und somit die Wärmespeicherkapazität zu erhöhen. Dies stellt einen neuen Weg zur Herstellung von Kompositmaterialien dar, über den man Eigenschaften wie Deliqueszenzfeuchte und Desorptionstemperatur einstellen und an die Sorptionsbedingungen eines Speichers anpassen kann. Als niedrig deliqueszierende Salze wurden Magnesiumchlorid und Lithiumchlorid
als Zusätze untersucht, wobei ein Ansteigen der Sorptionswärme und Wasseraufnahme mit steigendem Chloridanteil festgestellt wurde. Aufgrund der geringeren Deliqueszenzfeuchte des Lithiumchlorides gegenüber dem Magnesiumchlorid wurden bei gleichen Massenverhältnissen höhere Sorptionswärmen erzielt. Untersuchungen zu Zinksulfat in Verbindung mit Chloriden bescheinigen diesem Salz -speziell bei tieferen Entwässerungstemperaturen- eine gute Eignung als Aktivstoff zur Wärmespeicherung.
Zusammenfassend konnte festgestellt werden, dass sich die Wärmespeicherkapazitäten über die Porengröße, in die das Salz eingebracht wird, und die gewählte Mischungszusammensetzung steuern lassen. Die gemessenen Sorptionswärmen ermöglichen insbesondere bei niedrigen Sorptionstemperaturen und hohen Luftfeuchtigkeiten den Schluss, dass die Verwendung von Salzmischungen als Aktivkomponente in Kompositmaterialien einen geeigneten Weg zur thermochemischen Speicherung solarer Wärme (≤130 °C) darstellt.
Architektonisches Entwerfen ist ein kreativer Prozess, der eine Lösung hervorbringt, die in ihrer Form und ihrer Funktionalität so noch nicht bestand. Resultat eines architektonischen Entwurfes ist ein Original, dessen Entstehen eine schöpferische Komponente erfordert. Dieser kreative Prozess ist nicht systematisierbar und kann auch nicht als Methode wiederholbar gemacht werden. Im Rahmen der architektonischen Lehre ist die Vermittlung von Methoden zur Entwurfsfindung jedoch ein wesentlicher Aspekt. Der hier vorgestellte Entwurf möchte zeigen, dass der Auffassung, allein intuitive Methoden als Entwurfsgrundlage zu nutzen, die Auffassung entgegen steht, eine reglementierte Methode zur Entwurfs- und Formfindung anzuwenden.
Eine solche reglementierte Methode wird hierbei als Entwurfsgrammatik bezeichnet.
In den 1950er Jahren entstehen zwei revolutionäre Werke des Komponisten und Architekten Iannis Xenakis: die Komposition Metastaseis und der Philips-Pavillon für die Weltausstellung in Brüssel. Basierend auf diesen Arbeiten wird eine Methode vorgestellt, welche musikalische Parameter in architektonischen Parameter transformiert.
Diese Methode bildet die Grundlage für ein exaktes räumliches Transformation-Modell, welches aus mathematischen Funktionen abgeleitet ist. Dabei weißt das Transformations-Modell eine starke Ähnlichkeit mit der Architektur des Pavillons auf.
Methods for model quality assessment are aiming to find the most appropriate model with respect to accuracy and computational effort for a structural system under investigation. Model error estimation techniques can be applied for this purpose when kinematical models are investigated. They are counted among the class of white box models, which means that the model hierarchy and therewith the best model is known. This thesis gives an overview of discretisation error estimators. Deduced from these, methods for model error estimation are presented. Their general goal is to make a prediction of the inaccuracies that are introduced using the simpler model without knowing the solution of a more complex model. This information can be used to steer an adaptive process. Techniques for linear and non-linear problems as well as global and goal-oriented errors are introduced. The estimation of the error in local quantities is realised by solving a dual problem, which serves as a weight for the primal error. So far, such techniques have mainly been applied in
material modelling and for dimensional adaptivity. Within the scope of this thesis, available model error estimators are adapted for an application to kinematical models. Their applicability is tested regarding the question of whether a geometrical non-linear calculation is necessary or not. The analysis is limited to non-linear estimators due to the structure of the underlying differential equations. These methods often involve simplification, e.g linearisations. It is investigated to which extent such assumptions lead to meaningful results, when applied to kinematical models.