Refine
Document Type
- Doctoral Thesis (494) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (14)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
Carl Heinrich Ferdinand Streichhan prägte zwischen 1848 und 1884 als Oberbaudirektor maßgeblich das Baugeschehen im Großherzogtum Sachsen-Weimar-Eisenach. Beauftragt mit für die zweite Hälfte des 19. Jahrhunderts typischen staatlichen Bauaufgaben, hinterließ er als Architekt ein zwar nicht sehr umfängliches, jedoch facettenreiches und zumindest regional bedeutendes Werk. Geprägt wurde seine Baugesinnung durch die dem Schinkel´schen Vorbild und einem spezifischen, selektiven Historismus verpflichtete, sogenannte Berliner Schule, der Streichhan zeit seines Berufslebens eng verbunden blieb. Neben einer Würdigung des Oeuvres fokussiert die Arbeit auf das weitgefächerte Aufgabenspektrum eines leitend im Staatsdienst tätigen „Bautechnikers“, das – wie zeitgenössisch üblich – sowohl konstruktiv planende als auch vielfältige administrative Tätigkeiten, ingenieurtechnische Leistungen ebenso wie baukünstlerische umfasste. Streichhans Bildungsweg, Laufbahn und berufliches Selbstverständnis sind für den Baubeamten des (mittleren) 19. Jahrhunderts ebenso typisch wie schließlich, infolge beschleunigter Wandlungsprozesse ab 1871, nicht mehr zeitgemäß: Im Kontext tiefgreifender Umwälzungen veränderten sich auch die Handlungsfelder der Architekten und die Bedingungen architektonischen Schaffens, wie Streichhans Wirken paradigmatisch belegt.
Die Arbeit beschäftigt sich mit der komplexen Aufgabe Stadtstrukturen mit einem Simulationsmodell im Rechner erzeugen zu können. Dafür wird ein Vierebenenmodell als Untermodellebene eingeführt, um mit allgemeinen Informationen, Parzellierung, Gebäuden und Optimierung der Struktur arbeiten zu können.
The Chinese Shopping Centre: Integration of a Western Commercial Format into Chinese Urban Space
(2009)
Being transposed to China and absorbed by its urban space, the Western shopping centre undergoes a process of “Sinicisation”, which turns it into a spatial hybrid: a Western retail format shaped by distinctive features of Chinese space production and space use. To a large extent, this study can be regarded as a marginal number of its kind which tries to scientifically understand the impact of a socially, culturally and economically absolutely different urban environment on the model (ideal type) of the Western shopping centre.
Objektorientierte Bauwerksmodelle sind derzeit Gegenstand umfangreicher Foschungsaktivitäten zur rechnerinternen Verwaltung bauwerksbezogener Informationen. Ein in diesem Rahmen diskutierter Ansatz ist die Realisierung eines virtuellen rechnerinternen Bauwerks in Form eines variablen Verbundes fachspezifischer objektorientierter Modelle. Diese Organisationsform der rechnerinternen Repräsentation eignet sich einerseits aufgrund ihrer Flexibilität sehr gut für eine lebensphasenübergreifende Fortschreibung als digitale Bauwerksakte. Eine solche Bauwerksakte bildet eine wichtige Informationsgrundlage für die Planung von Instandhaltungs-, Modernisierungs-, \Umbau- oder Erweiterungsmaßnahmen in späteren Lebensphasen des Bauwerks. Andererseits erschwert die dezentrale Organisationsform des Modellverbundes jedoch die Informationssuche, was in erster Linie durch das Vorhandensein multipler Repräsentationen einzelner Realweltobjekte sowie die Komplexität der am Verbund beteiligten Modellschemata bedingt ist. Gegenstand der vorliegenden Arbeit ist die Entwicklung eines generischen Systemkerns als Basis für eine projektbezogen konfigurierbare Informationsumgebung, die insbesondere in frühen Projektphasen einen handhabbaren Zugang zu den im Modellverbund verwalteten Informationen bereitstellen kann. Der vorgeschlagene Lösungsansatz erweitert den Modellverbund um eine Erschließungsstruktur, in der die einzelnen Elemente der individuellen baulich-räumlichen Struktur durch eindeutige Identifikatoren vertreten werden. Mit den Identifikatoren werden jeweils die fachspezifischen Repräsentationen des Objektes verknüpft und sind somit von einem zentralen Einstiegspunkt aus erreichbar. Der generische Systemkern definiert eine objektorientierte Datenstruktur zur Verwaltung der jeweils projektbezogen auszuprägenden Erschließungsstruktur. Die Interaktion mit dem erschlossenen Informationsraum erfordert eine entsprechende Nutzerschnittstelle, die in der Lage ist, nicht vorhersehbaren, spontan entstehenden Informationsbedarf zu bedienen. Darüber hinaus soll sie konfigurierbar sein bezüglich der unterstützten Suchstrategien. Der Lösungsansatz sieht eine hierarchische Organisationstruktur der Nutzerschnittstelle vor, die eine modulare Erweiterung ermöglicht. Ein entsprechender Kern der Nutzerschnittstelle wird als objektorientiertes Framework spezifiziert. Die Erschließungsstruktur und die Nutzerschnittstelle werden unter Anwendung des objektorientierten Paradigmas entwickelt und mit Hilfe einer formalen Notation auf implementierungsunabhängiger Ebene beschrieben. Anhand exemplarischer Umsetzungen kritischer Systemteile wird die prinzipielle Realisierbarkeit des beschriebenen Systems nachgewiesen.
Die Abkürzung PCC bezieht sie sich hier auf Polymer modified Cement Concrete, also mit Kunststoffen modifizierte Mörtel und Betone. Hierfür hat sich diese Abkürzung auch international durchgesetzt. Sie bezeichnet Baustoffe, die neben dem mineralischen Bindemittel Zement auch Kunststoffe enthalten. Zement und Kunststoff erzielen im späteren Mörtel bzw. Beton eine gemeinschaftliche Bindemittelwirkung. Wiederholter Gegenstand von Schadensfällen ist das Versagen des Haftverbundes zu anderer Bausubstanz. Da PCC häufig als dünne Schutzschicht auf vorhandenen Beton aufgetragen werden, führt ein Versagen der Adhäsion früher oder später auch zu einem Versagen dieser Schutzfunktion. Umgekehrt kann ein Versagen des Schutzes infolge von Rissen im PCC auch im Nachhinein zum Ablösen der Beschichtung führen. Ursächlich für dieses kohäsive Versagen sind dabei i. d. R. die Auswahl falscher bzw. nicht aufeinander abgestimmter Baustoffsysteme oder schlicht Verarbeitungsfehler. Das Ziel dieser Arbeit war es zu untersuchen, welchen Einfluss die kohäsiven und adhäsiven Eigenschaften von PCC auf deren Dauerhaftigkeit, insbesondere bei der Anwendung als Beschichtungsmaterial, haben. Dazu wurden vier maßgebliche Schwerpunkte bearbeitet. Eine zentrale Rolle für die Dauerhaftigkeit eines Beschichtungsmaterials spielt dessen Längenänderungsverhalten. Der Betrag der positiven und negativen Längenänderungen ist bestimmend für die Spannungen, die im Beschichtungsmaterial entstehen können. Sind die auftretenden Spannungen höher als die Zugfestigkeit des PCC erfolgt der Spannungsabbau durch Risse. Es kommt also zum Kohäsionsversagen im Mörtel. Wird der PCC als Beschichtungsmaterial genutzt, werden die Spannungen im Idealfall über die Verbundebene zum Beschichtungsuntergrund übertragen. Übersteigen dabei diese Spannungen die maximal aufnehmbaren Verbundspannungen, kommt es zum Adhäsionsversagen zwischen Beschichtung und Untergrund. In Modellversuchen werden die Effekte des Längenänderungsverhaltens kunststoffmodifizierter Zementsteine auf den Haftverbund zu einer Gesteinskörnung untersucht. Dadurch werden Rückschlüsse auf die Kohäsion innerhalb der PCC durch die Beschreibung des adhäsiven Verbundes zwischen Zementsteinmatrix und Gesteinskörnung gezogen. Neben der Längenänderung sind auch die Festigkeitseigenschaften der PCC bedeutsam für deren Dauerhaftigkeit. Es werden die Festigkeitseigenschaften kunststoffmodifizierter Mörtel und Betone nicht nur von der mechanischen Seite betrachtet. Der Focus liegt vielmehr auf der Beschreibung der durch die Kunststoffe beeinflussten kohäsiven Eigenschaften bei mechanischer Belastung. Es wird das Verhalten der polymeren Matrix nach einer Kurzzeitbelastung untersucht. Damit werden die Vorgänge, die letztlich zu einer Beeinflussung der Festigkeitseigenschaften führen, dargestellt. In diesem Zusammenhang wird auch der Einfluss der Temperatur auf die Festigkeit der PCC betrachtet. Die Untersuchung des Frost-Taumittel-Widerstandes mittels CDF- bzw. CIF-Verfahrens ist eine gute Möglichkeit, neben der Beurteilung der Dauerhaftigkeit auch Rückschlüsse auf die kohäsiven als auch, im mikroskopischen Maßstab betrachtet, die adhäsiven Eigenschaften der PCC zu ziehen. Damit ist gemeint, dass die Kohäsion von PCC durch deren adhäsive Eigenschaften zwischen kunststoffmodifizierter Zementsteinmatrix und Gesteinskörnern maßgeblich bestimmt wird. Einerseits kann bei starkem Abfall des relativen dynamischen E-Moduls von einer geringeren Kohäsion des PCC ausgegangen werden. Dies würde dann bei einem Mörtel eher zu Rissen führen, über die wiederum betonaggressive Medien eindringen können. Im Gegensatz dazu deutet ein konstant bleibender relativer dynamischer E-Modul auf eine hohe Kohäsion und damit, bei Anwendung des PCC als Beschichtungsmaterial, auf ein höheres adhäsives Versagensrisiko der Beschichtung hin. Andererseits stellt eine höhere Abwitterung, also sozusagen das schichtenweise kohäsive Versagen, eine Gefahr bei dünnen Beschichtungen dar. Dies könnte noch durch die Anwendung anderer Taumittel (z. B. organischer) verstärkt werden. Unter diesen Gesichtspunkten wurden Untersuchungen auf der Basis des CDF-Testes sowie zur Lösungsaufnahmefähigkeit der PCC durchgeführt. Der adhäsive Verbund von PCC zu Beton ist von vielen Faktoren abhängig. Bisher kaum betrachtet wurde die Art des Aufbringens oder der Einfluss der Probengeometrie bei Laborversuchen. Diese sowie der Einfluss einer Salzbelastung des Untergrundes bzw. der Beschichtung wurden untersucht. Ein Teil der durchgeführten Untersuchungen wurde im Rahmen des Teilprojektes B3 „Dauerhaftigkeit polymermodifizierter Mörtel und Betone“ des von der DFG geförderten Sonderforschungsbereiches 524 „Werkstoffe und Konstruktionen für die Revitalisierung von Bau-werken“ realisiert.
The nonlinear behavior of concrete can be attributed to the propagation of microcracks within the heterogeneous internal material structure. In this thesis, a mesoscale model is developed which allows for the explicit simulation of these microcracks. Consequently, the actual physical phenomena causing the complex nonlinear macroscopic behavior of concrete can be represented using rather simple material formulations. On the mesoscale, the numerical model explicitly resolves the components of the internal material structure. For concrete, a three-phase model consisting of aggregates, mortar matrix and interfacial transition zone is proposed. Based on prescribed grading curves, an efficient algorithm for the generation of three-dimensional aggregate distributions using ellipsoids is presented. In the numerical model, tensile failure of the mortar matrix is described using a continuum damage approach. In order to reduce spurious mesh sensitivities, introduced by the softening behavior of the matrix material, nonlocal integral-type material formulations are applied. The propagation of cracks at the interface between aggregates and mortar matrix is represented in a discrete way using a cohesive crack approach. The iterative solution procedure is stabilized using a new path following constraint within the framework of load-displacement-constraint methods which allows for an efficient representation of snap-back phenomena. In several examples, the influence of the randomly generated heterogeneous material structure on the stochastic scatter of the results is analyzed. Furthermore, the ability of mesoscale models to represent size effects is investigated. Mesoscale simulations require the discretization of the internal material structure. Compared to simulations on the macroscale, the numerical effort and the memory demand increases dramatically. Due to the complexity of the numerical model, mesoscale simulations are, in general, limited to small specimens. In this thesis, an adaptive heterogeneous multiscale approach is presented which allows for the incorporation of mesoscale models within nonlinear simulations of concrete structures. In heterogeneous multiscale models, only critical regions, i.e. regions in which damage develops, are resolved on the mesoscale, whereas undamaged or sparsely damage regions are modeled on the macroscale. A crucial point in simulations with heterogeneous multiscale models is the coupling of sub-domains discretized on different length scales. The sub-domains differ not only in the size of the finite elements but also in the constitutive description. In this thesis, different methods for the coupling of non-matching discretizations - constraint equations, the mortar method and the arlequin method - are investigated and the application to heterogeneous multiscale models is presented. Another important point is the detection of critical regions. An adaptive solution procedure allowing the transfer of macroscale sub-domains to the mesoscale is proposed. In this context, several indicators which trigger the model adaptation are introduced. Finally, the application of the proposed adaptive heterogeneous multiscale approach in nonlinear simulations of concrete structures is presented.
Seit Anfang der 80er Jahre stehen Zusatzmittel (engl. Shrinkage Reducing Admixture – SRA) der bauchemischen Industrie zur Verfügung, die das Schwinden von Zementstein und Beton reduzieren können. In der vorliegenden Arbeit wurden die Wirkungsmechanismen schwindreduzierender Zusatzmittel (SRA) und darin enthaltener Wirkstoffe in Zementstein systematisch untersucht. Es hat sich gezeigt, dass das autogene Schwinden von Zementstein wurde durch handelsübliche Schwindreduzierer und darin enthaltene Wirkstoffe im Alter von einem halben Jahr um bis zu 77 % reduziert. Durch Schwindreduzierer wurden in Bezug auf die jeweiligen Referenzproben ohne SRA die Anteile an Gelporen im Zementstein erhöht und die Anteile an Kapillarporen verringert. Gleichzeitig stellte sich in den Zementsteinen mit Schwindreduzierer bzw. den darin enthaltenen Wirkstoffen bei konservierender Lagerung eine höhere innere Ausgleichsfeuchte ein als in den jeweiligen Referenzproben ohne SRA. Die bisherige Annahme, die Abminderung des Schwindens durch SRA sei nur auf die Reduzierung der Oberflächenspannung der Porenlösung zurückzuführen, ist nur bedingt zutreffend. Während der Hydratation des Zements wird Wasser verbraucht und in Hydratphasen eingebaut. Hierbei reichern sich die SRA-Moleküle in der Porenlösung des Zementsteins an und verstärken die Spaltdruckwirkung der Porenlösung zwischen den Gelpartikeln. Dadurch wird das autogene Schwinden des Zementsteins vermindert.
Keramische Werkstoffe stellen bewährte, ästhetisch ansprechende und dauerhafte Baustoffe dar. Sie können als ökologisch wertvoll, gesund und wirtschaftlich eingestuft werden (Wagner et al. 1998)... Zum Einsatz von Sekundärrohstoffen in keramische Massen, d.h. zur Herstellung keramischer Erzeugnisse wurden bereits zahlreiche Untersuchungen durchgeführt. ... Die Zielstellung der vorliegenden Arbeit liegt daher in der umfassenden Beurteilung des Einsatzes von Sekundärrohstoffen in silikatkeramische Massen. Als Sekundärrohstoffe wurden Gesteins- sowie Glas- bzw. glashaltige Reststoffe unterschiedlicher Zusammensetzungen gewählt. ...
From a macroscopic point of view, failure within concrete structures is characterized by the initiation and propagation of cracks. In the first part of the thesis, a methodology for macroscopic crack growth simulations for concrete structures using a cohesive discrete crack approach based on the extended finite element method is introduced. Particular attention is turned to the investigation of criteria for crack initiation and crack growth. A drawback of the macroscopic simulation is that the real physical phenomena leading to the nonlinear behavior are only modeled phenomenologically. For concrete, the nonlinear behavior is characterized by the initiation of microcracks which coalesce into macroscopic cracks. In order to obtain a higher resolution of this failure zones, a mesoscale model for concrete is developed that models particles, mortar matrix and the interfacial transition zone (ITZ) explicitly. The essential features are a representation of particles using a prescribed grading curve, a material formulation based on a cohesive approach for the ITZ and a combined model with damage and plasticity for the mortar matrix. Compared to numerical simulations, the response of real structures exhibits a stochastic scatter. This is e.g. due to the intrinsic heterogeneities of the structure. For mesoscale models, these intrinsic heterogeneities are simulated by using a random distribution of particles and by a simulation of spatially variable material parameters using random fields. There are two major problems related to numerical simulations on the mesoscale. First of all, the material parameters for the constitutive description of the materials are often difficult to measure directly. In order to estimate material parameters from macroscopic experiments, a parameter identification procedure based on Bayesian neural networks is developed which is universally applicable to any parameter identification problem in numerical simulations based on experimental results. This approach offers information about the most probable set of material parameters based on experimental data and information about the accuracy of the estimate. Consequently, this approach can be used a priori to determine a set of experiments to be carried out in order to fit the parameters of a numerical model to experimental data. The second problem is the computational effort required for mesoscale simulations of a full macroscopic structure. For this purpose, a coupling between mesoscale and macroscale model is developed. Representative mesoscale simulations are used to train a metamodel that is finally used as a constitutive model in a macroscopic simulation. Special focus is placed on the ability of appropriately simulating unloading.
Wayfinding Situations
(2009)
Wayfinding, which is the task of getting from some origin to a destination, is one of the primary spatial problems humans encounter in everyday life. When we wayfind, we act in the environment based on the structure and features of the environment, set against a background of knowledge which is generally understood as having visual characteristics. As mobile and wireless technologies proliferate in urban space it can be considered as having an existence in terms of several spaces, those of places that make up our direct perceptual experience and those of the digital devices and networks that facilitate communication, which are primarily non-visual in nature. This thesis will extend existing work on perception and action in urban space to investigate the role of mobile and ubiquitous technologies in wayfinding and environmental legibility, or more literally how we orientate and find our way in space when we experience it both with and through technology. In order to do this, the research takes the approach of considering wayfinding as a situated activity that takes place against a rich and articulated background of experiences and social connections. Through a series of empirical studies the concept of wayfinding situations is explored from two different perspectives. The first study investigates the relationship between an individual and technology as they act in environmental settings, by comparing learning for a spatial task depending on whether the individual accesses a map or a mobile map to make judgements. The second study seeks to understand the relationship between individual and environment as they act in technological settings, and focuses on the perception and action in space as affected by wireless technologies. The combined outcome of these two empirical studies provides the basis for the definition of a richer and more differentiated concept of wayfinding situations. This informs the final stage of the research in which an applied response is proposed to supporting wayfinding in a specific urban scenario, where the aim is to embed the technology into the spatial setting.
In a historical perspective, the relationship between digital media and the museum environment is marked by the role of museums as example use cases for the appli- cation of digital media. Today, this exceptional use as an often technology oriented application has changed and instead digital media have turned into an integral part of mediation strategies in the museum environment. Alongside with this shift not only an increasing professionalization of application development but also a grow- ing demand for new content can be observed. Comparable to its role as the main cost factor in the media industry, the production of content rises to a challenge for museums. In particular small and medium scale european museums with limited funding and an often low level of staff coverage face this new demand and strive therefore for alternative production resources. While productive user contributions can be seen as such an alternative resource, user contributions are at the same time a manifestation for a different mode of in- teracting with content. In contrast to the dominantly passive role of audiences as re- ceivers of information, productive contributions emerge as a mode of content ex- ploration and become in this regard influential for museum mediation strategies. As applications of user contributions in museums and cultural heritage are currently rather seldom, a broader perspective towards user contributions becomes necessary to understand its specific challenges, opportunities and limitations. Productive user contributions can be found in a growing number of applications on the Internet where they either complement or fully substitute corporate content production processes. While the Wikipedia1, an online encyclopedia written entirely by a group of users and open to contributions by all its users, is one of the most prominent examples for this practice, several more applications emerged or are be- ing developed. In consequence user contributions are about to become a powerful source for the production of content in digital media environments.
Ziel der Arbeit ist es, eine neue Methode der seismischen Gefährdungsabschätzung vorzustellen. Es wird die Abschätzung der seismischen Gefährdung ohne die häufig angewandten Einteilungen in seismische Quellzonen beschrieben. Die vorgestellte Methode basiert auf Nachbarschaftsanalysen von Epizentren. Diese Nachbarschaftsanalysen ermöglichen ein selbst generierendes seismisches Quellenmodell. Entwicklung, Parameterstudien und Anwendung der Methode werden gezeigt.
In der vorliegenden Arbeit werden auf Basis des Tensegrity-Konzeptes Strukturen entwickelt und vorgestellt, welche durch einen signifikanten Steifigkeitszuwachs in der Lage sind, die Anforderungen an die Gebrauchstauglichkeit von Tragwerken zu erfüllen.
Selbstverankerte Strukturen mit aufgelösten Druckstäben werden als Seil-Stab-Systeme bezeichnet und sind alleiniger Gegenstand aller angestellten Betrachtungen.
Tensegrity-Strukturen sollen eine Untergruppe der Seil-Stab-Systeme darstellen, deren symptomatische Eigenschaft eine sich im Tensegrity-Zustand befindliche Geometrie ist.
Einer Definition des Tensegrity-Zustandes folgt ein Überblick über die zur Untersuchung von Seil-Stab-Systemen notwendigen Berechnungsalgorithmen.
Der Kern der Arbeit beschäftigt sich zunächst mit dem Einfluss der Geometrie auf die Empfindlichkeit von Seil-Stab-Systemen gegenüber unvermeidlichen Herstellungstoleranzen sowie dem Einfluss von Topologie, Vorspannung, lokaler Steifigkeit der Elemente und Geometrie auf die Steifigkeit dieser Systeme.
Darauf aufbauend wird eine Möglichkeit gezeigt, die Steifigkeit von beweglichen Seil-
Stab-Systemen merklich zu erhöhen, ohne die Strukturen durch zusätzliche Elemente oder Verbindungen optisch zu verändern.
Der zu erzielende Steifigkeitszuwachs wird mittels Vergleichrechnungen und durchgeführten Belastungsversuchen verifiziert.
Container sind nicht nur das bei weitem wichtigste Transportmittel für die allermeisten Waren, mit denen wir tagtäglich zu tun haben. Container sind, vielleicht wegen ihrer schlichten, klaren Ausdruckskraft, zu dem Symbol der Globalisierung geworden und vieler Phänomene, die man mit dieser Entwicklung in Zusammenhang bringt. Dabei handelt es sich um ein durch und durch ambivalentes Symbol. Container stehen genauso für die beeindruckende Dynamik des modernen Kapitalismus und den ihm trotz aller Krisen zugrunde liegenden Optimismus wie für die Ängste und Einwände dagegen; gegen die Indifferenz eines rein auf Optimierung ausgelegten logistischen Organisationshandelns und gegen die zwangsweise Annäherung und Angleichung ehedem entfernter Weltgegenden durch die exponentielle Vermehrung der Transport- und Kommunikationsvorgänge. Der Schwerpunkt der Arbeit liegt im 20. Jahrhundert. Sie untersucht die (Vor)Geschichte und Theorie des Containers als moderner Kulturtechnik und zentralem Bestandteil eines weltumspannenden logistischen Systems. Und sie zeigt ihn als Element eines Denkens und Organisationshandelns in modularen, beweglichen Raumeinheiten, das sich auch auf viele andere Bereiche außerhalb des Warentransports übertragen lässt. Dafür beschreibt und analysiert sie "Containersituationen" in so unterschiedlichen Feldern wie Handel und Transport, Architektur, Wissenschaften, Kunst und den sozialen Realitäten von Migranten und Seeleuten.
Die vorliegende Arbeit beschäftigt sich mit der geometrischen Suffosionsbeständigkeit von Erdstoffen. Mit dem wahrscheinlichkeitstheoretischen Ansatz der Perkolationstheorie wurde ein analytisches Verfahren gewählt, mit dem suffosive Materialtransportprozesse modelliert und quantifiziert werden können. Mit dem verwendeten Perkolationsmodell wurde eine beliebige Porenstruktur eines realen Erdstoffes im 3-Dimensionalen modelliert. Mögliche Materialtransportprozesse innerhalb der modellierten Porenstruktur wurden anschließend simuliert. Allgemein gültige Gesetzmäßigkeiten wurden hergeleitet und Grenzbedingungen formuliert. Diese sind vom Erdstoff unabhängig und beschreiben Zusammenhänge zwischen Materialtransport und Porenstruktur. Anwendbar sind diese Ergebnisse auf homogene, isotrope und selbstähnliche Erdstoffgefüge. Aussagen über konkrete Erdstoffe können über die Transformationsmethode erfolgen. Für die Verwendung der Transformationsmethode ist vorab die relevante Porenstruktur, d. h. die Porenengstellenverteilung, zu ermitteln.
Verkehrsmengenrisiko bei PPP-Projekten im Straßensektor - Determinanten effizienter Risikoallokation
(2010)
Trotz weltweit umfangreichen Erfahrungen mit Public Private Partnership Projekten im Straßensektor bleibt der Umgang mit dem Verkehrsmengenrisiko für die Projektbeteiligten eine Herausforderung. Die Arbeit widmet sich daher der wesentlichen Fragestellung nach einer effizienten Allokation dieses Risikos, dem nicht weniger Bedeutung zukommt als für den gesamtwirtschaftlichen Erfolg eines Straßenkonzessionsprojektes eine entscheidende Rolle zu spielen. Untersucht werden zunächst die Charakteristika des Verkehrsmengenrisikos mit seinen umfänglichen Einflussfaktoren. Anschließend werden die in der Praxis zur Anwendung kommenden Vertragsmodelle zur Bewirtschaftung von Straßeninfrastruktur dargestellt und analysiert, wie in den einzelnen Modellen Verkehrsmengenrisiko auf die verschiedenen Vertragspartner verteilt wird. Auf Basis dieser Grundlagen wird ein kriteriengestützter Analyserahmen entwickelt, der die Effizienz unterschiedlicher Risikoallokationen zwischen den Vertragspartner bewertet. Dabei werden einerseits die effizienzbeeinflussenden Eigenschaften der potentiellen Risikoträger eines PPP-Projektes berücksichtigt als auch die die effizienzbeeinflussenden Wirkungen der unterschiedlichen Vertragsmodelle. Aus den Erkenntnissen dieser Analyse werden letztlich Handlungs- und Gestaltungsempfehlungen zum Umgang mit dem Verkehrsmengenrisiko abgeleitet.
Die Behandlung von geometrischen Singularitäten bei der Lösung von Randwertaufgaben der Elastostatik stellt erhöhte Anforderungen an die mathematische Modellierung des Randwertproblems und erfordert für eine effiziente Auswertung speziell angepasste Berechnungsverfahren. Diese Arbeit beschäftigt sich mit der systematischen Verallgemeinerung der Methode der komplexen Spannungsfunktionen auf den Raum, wobei der Schwerpunkt in erster Linie auf der Begründung des mathematischen Verfahrens unter besonderer Berücksichtigung der praktischen Anwendbarkeit liegt. Den theoretischen Rahmen hierfür bildet die Theorie quaternionenwertiger Funktionen. Dementsprechend wird die Klasse der monogenen Funktionen als Grundlage verwendet, um im ersten Teil der Arbeit ein räumliches Analogon zum Darstellungssatz von Goursat zu beweisen und verallgemeinerte Kolosov-Muskhelishvili Formeln zu konstruieren. Im Hinblick auf die vielfältigen Anwendungsbereiche der Methode beschäftigt sich der zweite Teil der Arbeit mit der lokalen und globalen Approximation von monogenen Funktionen. Hierzu werden vollständige Orthogonalsysteme monogener Kugelfunktionen konstruiert, infolge dessen neuartige Darstellungen der kanonischen Reihenentwicklungen (Taylor, Fourier, Laurent) definiert werden. In Analogie zu den komplexen Potenz- und Laurentreihen auf der Grundlage der holomorphen z-Potenzen werden durch diese monogenen Orthogonalreihen alle wesentlichen Eigenschaften bezüglich der hyperkomplexen Ableitung und der monogenen Stammfunktion verallgemeinert. Anhand repräsentativer Beispiele werden die qualitativen und numerischen Eigenschaften der entwickelten funktionentheoretischen Verfahren abschließend evaluiert. In diesem Kontext werden ferner einige weiterführende Anwendungsbereiche im Rahmen der räumlichen Funktionentheorie betrachtet, welche die speziellen Struktureigenschaften der monogenen Potenz- und Laurentreihenentwicklungen benötigen.
Der Siedlungsbau in Hanoi kan heutzutage - über 20 Jahre nach dem Beginn der Renovierungspolitik udn der Markwirtschaft, die dem Städtebau eine große Gelegenheit zur Verbesserung gegeben haben - zurückblickend und eingeschätz werden. Die letzten 20 Jahre sind eine kurze Zeit in der tausendjährigen Geschichte der Stadt, trotzdem entwickelte sich die Stadt in diesem Zeitraum am schnellsten und auch am problematischten aus Sicht der Umwelt. Ohne eine passende Entwicklungsstategie oder eine geeignete Maßnahme bei der Stadtplanung vergrößert sich der Konflikt Ökonomie - Ökologie immer weiter. ... Die Findung eines neuen Wohnkonzeptes im Gleichgewicht zwischen Ökonomie und der Ökologie ist eine hochaktuelle Frage geworden.
This cumulative dissertation investigates aspects of consumer decision making in hedonic contexts and its implications for the marketing of media goods through a series of three empirical studies. All three studies take place within a common theoretical framework of decision making models, applying parts of the framework in novel ways to solve real-world marketing research problems (study 1 and 2), and examining theoretical relationships between variables within of the framework (study 3). One notable way in which the studies differ is their theoretical treatment of the hedonic component of decision making, i.e. the role and conceptualization of emotions.
In the last two decades, many cities have faced changes in their economic basis and therefore adopted an entrepreneurial approach in the municipal administration accompanied by city marketing strategies. Brazilian cities have also adopted this approach, like the case of Florianópolis. Florianópolis has promoted advertising campaigns on the natural resources of the Island of Santa Catarina as well as on its quality of life in comparison to other cities. However, due also to such campaigns, it has experienced a great demographic growth and, consequently, infrastructural and social problems. Nevertheless, it seems to have a good image within the national urban scenario and has been commonly considered an “urban consumption dream” for many Brazilians. This paradoxical situation is the reason why it has been chosen as the research object in this dissertation. Thus, the questions of this research are: is there a gap between the promise and the performance of the city of Florianópolis? If so, can tourists and residents recognize it? And finally, how can this gap be demonstrated? Accordingly, the main objective of this research is to propose a conformity assessment approach applicable to cities, by which the content of city advertisement campaigns can be compared to its performance indicators and satisfaction degree of its consumers. Therefore, this approach is composed by different methods: literature and legislation reviews, semi-structured and structured interviews with experts and inhabitants, an urban centrality development analysis, a qualitative discourse analysis of advertising material (including images), a qualitative content analysis of newspaper reports and a questionnaire survey. Finally, the theses are: yes, there is a gap between promise and performance of Florianópolis; this promise is a result of city marketing campaigns which advertise its natural features and at the same time hiding its urban aspects, supported by some political and private actors, mainly interested in the development of tourism and real estate market in the city; this gap has been already recognized by tourists and more intensively by residents; the selected methods worked as a kind of conformity assessment for cities and tourist destinations; and last but not least, since there is a gap, it designates the practice of “make-up urbanism”. Research limitations are the short time frame covered by this analysis and small and non-representative samples. However, its relevance lies in the attempt to fill in two disciplinary lacunas: a conformity assessment approach for cities and the creation of knowledge about Florianópolis and its further presentation at an international level, on the one hand. On the other hand, the transfer of this approach to other cities would help explaining a (common) contemporary urban phenomenon and appeal for more ethical conduct and transparency in the practices of city marketing.
In this dissertation, a new, unique and original biaxial device for testing unsaturated soil was designed and developed. A study on the mechanical behaviour of unsaturated sand in plane-strain conditions using the new device is presented. The tests were mainly conducted on Hostun sand specimens. A series of experiments including basic characterisation, soil water characteristic curves, and compression biaxial tests on dry, saturated, and unsaturated sand were conducted. A set of bearing capacity tests of strip model footing on unsaturated sand were performed. Additionally, since the presence of fine content (i.e., clay) influences the behavior of soils, soil water characteristic tests were also performed for sand-kaolin mixtures specimens.
Seit 1969 werden für die Bundesrepublik kontinuierlich Berechnungen zu den Gesamtkosten des Straßenverkehrs der Bundesfernstraßen und deren Verteilung auf die Verkehrsteilnehmer durchgeführt. Die Ergebnisse der Wegekostenrechnungen der Jahre 2002 und 2007 sind die Grundlage für die mittlerweile für das deutsche Autobahnnetz eingeführte fahrleistungsbezogene Benutzungsgebühr für Lkw mit einem zulässigen Gesamtgewicht von mindestens zwölf Tonnen. Damit wird die Forderung der EU-Richtlinie 1999/62/EG umgesetzt, nach der sich die durchschnittlichen Straßenbenutzungsgebühren an den Kosten für den Bau, den Betrieb und den Ausbau des betreffenden Verkehrswegenetzes orientieren sollen. Mit der EU-Richtlinie 2006/38/EG kündigt sich die weitere Entwicklung bei der Berechnung von Straßenbenutzungsgebühren an. Zukünftig sollen auch externe Kosten in die Berechnung einfließen. Ein erster Schritt zur Berücksichtigung dieser externen Kosten erfolgte mit Erstellung eines Handbuchs im Rahmen eines EU-Forschungsprojektes. Das Handbuch enthält aufgrund der unterschiedlichen Rahmenbedingungen in den Mitgliedsstaaten der EU keine exakten Berechnungsvorschriften, sondern stellt verschiedene methodische Ansätze bisher durchgeführter Studien zu externen Kosten vor, gibt Empfehlungen hinsichtlich der Methodenwahl und beinhaltet Schätzungen über die Höhe der externen Kosten. Die im europäischen Raum in den vergangenen Jahren durchgeführten Studien zur Ermittlung externer Kosten des Verkehrs zeichnen sich durch einander ähnelnde Vorgehensweisen aus, die aber vor allem hinsichtlich der Kostenrechnungsart und der verwendeten Kostensätze aus Sicht des Verfassers der vorliegenden Arbeit kritische Aspekte aufweisen. In der vorliegenden Dissertationsschrift wird daher eine alternative Berechnungsmethodik zur Ermittlung abschnitts-, fahrzeugklassen- und fahrleistungsbezogener externer Kosten für Autobahnen entwickelt und an einem ausgewählten Beispielnetz zur Anwendung gebracht. Dabei wird in einigen wesentlichen Punkten von der in aktuellen Studien überwiegend gewählten Vorgehensweise abgewichen, um eine andere Sichtweise darzustellen. Damit trägt die vorliegende Arbeit substanziell zur Erweiterung des Erkenntnisstands zu Berechnungsmethoden externer Kosten des Straßenverkehrs bei. Die hier entwickelte Berechnungsmethodik ist außerdem als Grundlage für ein in der Praxis anwendbares Verfahren zu verstehen und zeichnet sich auch daher durch eine einfach zu handhabende Übertragbarkeit auf das gesamte Autobahnnetz Deutschlands aus. Die Abschnitte entsprechen den Teilstrecken zwischen zwei Autobahnanschlussstellen. Es wird zwischen den beiden Fahrzeugklassen "Lkw ab 12 t zulässigem Gesamtgewicht" und "Sonstigen Fahrzeugen" unterschieden. Obwohl momentan nur eine Benutzungsgebühr für Lkw ab 12 t zulässigem Gesamtgewicht erhoben wird, ist es mit der entwickelten Methodik möglich, fahrleistungsbezogene externe Kosten für alle Kfz angeben zu können. Die Einbeziehung externer Nutzen wird in diesem Zusammenhang andiskutiert; der Schwerpunkt liegt allerdings auf den externen Kosten. Im Rahmen der Arbeit werden zunächst Definitionen wesentlicher Terminologien dargestellt, soweit diese für das Verständnis der sich anschließenden Diskussion und Festlegung der Grundlagen der entwickelten Berechnungsmethodik notwendig erscheinen. Diese Diskussion und Festlegung umfasst die Bereiche Kostenrechnungsart, Bewertungsverfahren zur Ermittlung des Wertegerüsts, Diskontrate, zu betrachtende Kostenbereiche, Mengengerüst und Allokationsrechnung. Darauf folgend werden die betrachteten Kostenbereiche anhand vorliegender Studien und eigener Überlegungen detailliert dargestellt und das Wertegerüst bestimmt. Außerdem wird die Allokationsrechnung und das für die Berechnung heranzuziehende Mengengerüst für jeden Bereich separat vorgestellt. Anschließend wird die entwickelte Berechnungsmethodik auf ein Beispielnetz (Autobahnnetz Thüringen) angewendet. Neben der Vorstellung des Untersuchungsgebiets, der Berechnung der externen Kosten und der disaggregierten Ergebnisdarstellung wird die Einteilung des Beispielnetzes in unterschiedliche Preiskategorien auf der Grundlage der abschnittsbezogen vorliegenden Ergebnisse diskutiert, auf deren Basis die externen Kosten über Straßenbenutzungsgebühren internalisiert werden könnten. Im Rahmen einer Sensitivitätsanalyse werden einzelne Annahmen der Berechnungsmethodik bzw. Kostensätze des Wertegerüsts variiert. Die Auswirkungen dieser Variationen werden wiederum am Beispielnetz, für das erneute Kostenberechnungen vorgenommen werden, dargelegt. Abschließend werden offen gebliebene Fragestellungen und Empfehlungen für weitere Untersuchungen benannt.
One of the main focuses of recent Chinese urban development is the creation and retrofitting of public spaces driven by the market force and demand. However, researches concerning human and cultural influences on shaping public spaces have been scanty. There still exist many undefined ambiguous planning aspects institutionally and legislatively. This is an explanatory research to address interactions, incorporations and interrelationship between the lived environment and its peoples. It is knowledge-seeking and normative. Theoretically, public space in a Chinese context is conceptualized; empirically, a selected case is inquired. The research has unfolded a comparatively complete understanding of China’s planning evolution and on-going practices. Data collection emphasizes the concept of ‘people’ and ‘space’. First-hand data is derived from the intensive fieldwork and observatory and participatory documentations. The ample detailed authentic empirical data empowers space syntax as a strong analysis tool in decoding how human’s activities influence the public space. Findings fall into two categories but interdependent. Firstly, it discloses the studied settlement as a generic, organic and incremental development model. Its growth and established environment is evolutionary and incremental, based on its intrinsic traditions, life values and available resources. As a self-sustaining settlement, it highlights certain vernacular traits of spatial development out of lifestyles and cultural practices. Its spatial articulation appears as a process parallel to socio-economic transitions. Secondly, crucial planning aspects are theoretically summarized to address the existing gap between current planning methodology and practicalities. It pinpoints several most significant and particular issues, namely, disintegrated land use system and urban planning; missing of urban design in the planning system, loss of a human-responsive environment resulted from standardized planning and under-estimation of heritage in urban development. The research challenges present Chinese planning laws and regulations through urban public space study; and pinpoints to yield certain growth leverage for planning and development. Thus, planning is able to empower inhabitants to make decisions along the process of shaping and sustaining their space. Therefore, it discusses not only legislative issues, concerning land use planning, urban design and heritage conservation. It leads to a pivotal proposal, i.e., the integration of human and their social spaces in formulating a new spatial strategy. It expects to inform policymakers of underpinning social values and cultural practices in reconfiguring postmodern Chinese spatiality. It propounds that social context endemic to communities shall be integrated as a crucial tool in spatial strategy design, hence to strengthen spatial attributes and improve life quality.
On the mechanisms of shrinkage reducing admixtures in self con-solidating mortars and concretes
(2010)
Self Consolidating Concrete – a dream has come true!(?) Self Consolidating Concrete (SCC) is mainly characterised by its special rheological properties. With-out any vibration this concrete can be placed and compacted under its own weight, without segrega-tion or bleeding. The use of such concrete can increase the productivity on construction sites and en-able the use of a higher degree of well distributed reinforcement for thin walled structural members. This new technology also reduces health risks since in contrast to the traditional handling of concrete, the emission of noise and vibration are substantially decreased. The specific mix design for self consolidating concretes was introduced around the 1980s in Japan. In comparison to normal vibrated concrete an increased paste volume enables a good distribution of aggregates within the paste matrix, minimising the influence of aggregates friction on the concrete flow property. The introduction of inert and/or pozzolanic additives as part of the paste provides the required excess paste volume without using disproportionally high amounts of plain cement. Due to further developments of concrete admixtures such as superplasticizers, the cement paste can gain self levelling properties without causing segregation of aggregates. Whereas SCC differs from normal vibrated concrete in its fresh attributes, it should reach similar properties in the hardened state. Due to the increased paste volume it usually shows higher shrinkage. Furthermore, owing to strength requirements, SCC is often produced at low water to cement ratios and hence may additionally suffer from autogenous shrinkage. This means that cracking caused by drying or autogenous shrinkage is a real risk for SCC and can compromise its durability as cracks may serve as ingression paths for gases and salts or might permit leaching. For the time being SCC still exhibits increased shrinkage and cracking probability and hence may be discarded in many practical applications. This can be overcome by a better understanding of those mechanisms and the ways to mitigate them. It is a target of this thesis to contribute to this. How to cope with increased shrinkage of SCC? In general, engineers are facing severe problems related to shrinkage and cracking. Even for normal and high performance concrete, containing moderate amounts of binder, a lot of effort was put on counteracting shrinkage and avoiding cracking. For the time being these efforts resulted in the knowledge of how to distribute cracks rather to avoid them. The most efficient way to decrease shrinkage turned out to be to decrease the cement content of concrete down to a minimum but still sufficient amount. For SCC this obviously seems to be contradictory with the requirement of a high paste volume. Indeed, the potential for shrinkage reduction is limited to some small range modifications in the mix design following two major concepts. The first one is the reduction of the required paste volume by optimising the aggregate grading curve. The second one involves high volume substitution of cement, preferentially using inert mineral additives. The optimization of grading curves is limited by several severe practical issues. Problems start with the availability of sufficiently fractionated aggregates. Usually attempts fail because of the enormous effort in composing application-optimized grading curves or mix designs. Due to durability reasons, the substitution rate for cement is limited depending on the application purpose and on environmental exposure of the hardened concrete. In the early 1980s Shrinkage Reducing Admixtures (SRA) were introduced to counteract drying shrinkage of concrete. The first publications explicitly dealing with SRA go back to Goto and Sato (Japan). They were published in 1983, which is also the time when the SCC concept was introduced. SRA modified concretes showed a substantial reduction of free drying shrinkage contributing to crack prevention or at least a significant decrease of crack width in situations of restrained drying shrinkage. Will shrinkage reducing admixtures contribute to a broader application of SCC? Within the last three decades performance tests on several types of concrete proved the efficiency of shrinkage reducing admixtures. So, at least in terms of shrinkage and cracking, concretes in general and SCC in particular can benefit from SRA application. But "One man's meat is another man's poison" and with respect to long term performance of SRA modified concretes there are still several issues to be clarified. One of these concerns the impact of SRAs on cement hydration. It is therefore an issue to know if changes in the hydrated phase composition, induced by SRA, result in undesired properties or decreased durability. Another issue is that the long term shrinkage reduction has to be evaluated. For example, one can wonder if SRA leaching may diminish or even eliminate long term shrinkage reduction and if the release of admixtures could be a severe environmental issue. It should also be noted that the basic mechanism or physical impact of SRA as well as its implementation in recent models for shrinkage of concrete is still being discussed. The present thesis tries to shed light on the role of SRA in self consolidating concrete focusing on the three questions outlined above: basic mechanisms of cement hydration, physical impact on shrinkage and the sustainability of SRA-application. Which contributions result from this study? Based on an extensive patent search, commercial SRAs could be identified to be synergistic mixtures of non-ionic surfactants and glycols. This turns out to be most important information for more than one reason and is the subject of chapter 4. An abundant literature focuses on properties of these non-ionic surfactants. Moreover, from this rich pool of information, the behaviour of SRAs and their interactions in cementitious systems were better understood through this thesis. For example, it could be anticipated how SRAs behave in strong electrolytes and how surface activity, i.e. surface tension, and interparticle forces might be affected. The synergy effect regarding enhanced performance induced by the presence of additional glycol in SRAs could be derived from the literature on the co-surfactant nature of glycols. Generally it now can be said that glycols ensure that the non-ionic surfactant is properly distributed onto the paste interfaces to efficiently reduce surface tension. In literature, the impact of organic matter on cement hydration was extensively studied for other admixtures like superplasticizer. From there, main impact factors related to the nature of these molecules could be identified. In addition, here again, the literature on non-ionic surfactants provides sufficient information to anticipate possible interactions of SRA with cement hydration based on the nature of non-ionic surfactants. All in all, the extensive study on the nature of non-ionic surfactants, presented in chapter 4, provides fundamental understanding of the behaviour of SRAs in cement paste. Taking a step further to relate this to the impact on drying and shrinkage required to review recent models for drying and shrinkage of cement paste as presented in chapter 3. There, it is shown that macroscopic thermodynamics of the open pore systems can be successfully applied to predict drying induced deformation, but that surface activity of SRA still has to be implemented to explain the shrinkage reduction it causes. Because of severe issues concerning the importance of capillary pressure on shrinkage, a new macroscopic thermodynamic model was derived in a way that meets requirements to properly incorporate surface activity of SRA. This is the subject of chapter 5. Based on theoretical considerations, in chapter 5 the broader impact of SRA on drying cementitious matter could be outlined. In a next step, cement paste was treated as a deformable, open drying pore system. Thereby, the drying phenomena of SRA modified mortars and concrete observed by other authors could be retrieved. This phenomenological consistency of the model constitutes an important contribution towards the understanding of SRA mechanisms. Another main contribution of this work came from introducing an artificial pore system, denominated the normcube. Using this model system, it could be shown how the evolution of interfacial area and its properties interact in presence of SRAs and how this impacts drying characteristics. In chapter 7, the surface activity of commercial SRAs in aqueous solution and synthetic pore solution was investigated. This shows how the electrolyte concentration of synthetic pore solution impacts the phase behaviour of SRA and conversely, how the presence of SRA impacts the aqueous electrolyte solution. Whilst electrolytes enhance self-aggregation of SRAs into micelles and liquid crystals, the presence of SRAs leads to precipitation of minerals as syngenite and mirabilite. Moreover, electrolyte solutions containing SRAs comprise limited miscibility or rather show miscibility gaps, where the liquid separates into isotropic micellar solutions and surfactant rich reverse micellar solutions. The investigation of surface activity and phase behaviour of SRA unravelled another important contribution. From macroscopic surface tension measurements, a relationship between excess surface concentration of SRA, bulk concentration of SRA and exposed interfacial area could be derived. Based on this, it is now possible to predict the actual surface tension of the pore fluid in the course of drying once the evolution of internal interfacial area is known. This is used later in this thesis to describe the specific drying and shrinkage behaviour of SRA modified pastes and mortars. Calorimetric studies on normal Portland cement and composite binders revealed that SRA alone show only minor impact on hydration kinetics. In presence of superplasticizer however the cement hydration can be significantly decelerated. The delaying impact of SRA could be related to a selective deceleration of silicate phase hydration. Moreover, it could be shown that portlandite precipitation in presence of SRA is changed, turning the compact habitus into more or less layered structures. Thereby, the specific surface increases, causing the amount of physically bound water to increase, which in turn reduces the maximum degree of hydration achievable for sealed systems. Extensive phase analysis shows that the hydrated phase composition of SRA modified binders re-mains almost unaffected. The appearance of a temporary mineral phase could be detected by environmental scanning electron microscopy. As could be shown for synthetic pore solutions, syngenite precipitates during early hydration stages and is later consumed in the course of aluminate hydration, i.e. when sulphates are depleted. Moreover, for some SRAs, the salting out phenomena supposed to be enhanced in strong electrolytes could also be shown to take place. The resulting organic precipitates could be identified by SEM-EDX in cement paste and by X-ray diffraction on solid residues of synthetic pore solution. The presence of SRAs could also be identified to impact microstructure of well cured cement paste. Based on nitrogen adsorption measurements and mercury intrusion porosimetry the amount of small pores is seen to increase with SRA dosage, whilst the overall porosity remains unchanged. The question regarding sustainability of SRA application is the subject of chapter 10. By means of leaching studies it could be shown that SRA can be leached significantly. The mechanism could be identified as a diffusion process and a range of effective diffusion coefficients could be estimated. Thereby, the leaching of SRA can now be estimated for real structural members. However, while the admixture can be leached to high extents in tank tests, the leaching rates in practical applications can be assumed to be low because of much reduced contact with water. This could be proven by quantifying admixture loss during long term drying and rewetting cycles. Despite a loss of admixture shrinkage reduction is hardly impacted. Moreover, the cyclic tests revealed that the total deformations in presence of SRA remain low due to a lower extent of irreversibly shrinkage deformations. Another important contribution towards the better understanding of the working mechanism of SRA for drying and shrinkage came from the same leaching tests. A significant fraction of SRA is found to be immobile and does not diffuse in leaching. This fraction of SRA is probably strongly associated to cement phases as the calcium-silicate-hydrates or portlandite. Based on these findings, it is now also possible to quantify the amount of admixture active at the interfaces. This means that, the evolution of surface tension in the course of drying can be approximated, which is a fundamental requirement for modeling shrinkage in presence of SRA. The last experimental chapter of this study focuses on the working mechanism and impact of SRA on drying and shrinkage. Based on the thermodynamics of the open deformable pore system introduced in chapter 5, energy balances are set up using desorption and shrinkage isotherms of actual samples. Information on distribution of SRA in the hydrated paste is used to estimate the actual surface tensions of the pore solution. In other words, this is the first time that the surface activity of the SRA in the course of the drying is fully accounted for. From the energy balances the evolution and properties of the internal interface are then obtained. This made it possible to explain why SRAs impact drying and shrinkage and in what specific range of relative humidity they are active. Summarising the findings of this thesis it can be said that the understanding of the impact of SRAs on hydration, drying and shrinkage was brought forward. Many of the new insights came from the careful investigation of the theory of non-ionic surfactants, something that the cement community had generally overlooked up to now.
The numerical simulation of damage using phenomenological models on the macroscale was state of the art for many decades. However, such models are not able to capture the complex nature of damage, which simultaneously proceeds on multiple length scales. Furthermore, these phenomenological models usually contain damage parameters, which are physically not interpretable. Consequently, a reasonable experimental determination of these parameters is often impossible. In the last twenty years, the ongoing advance in computational capacities provided new opportunities for more and more detailed studies of the microstructural damage behavior. Today, multiphase models with several million degrees of freedom enable for the numerical simulation of micro-damage phenomena in naturally heterogeneous materials. Therewith, the application of multiscale concepts for the numerical investigation of the complex nature of damage can be realized. The presented thesis contributes to a hierarchical multiscale strategy for the simulation of brittle intergranular damage in polycrystalline materials, for example aluminum. The numerical investigation of physical damage phenomena on an atomistic microscale and the integration of these physically based information into damage models on the continuum meso- and macroscale is intended. Therefore, numerical methods for the damage analysis on the micro- and mesoscale including the scale transfer are presented and the transition to the macroscale is discussed. The investigation of brittle intergranular damage on the microscale is realized by the application of the nonlocal Quasicontinuum method, which fully describes the material behavior by atomistic potential functions, but reduces the number of atomic degrees of freedom by introducing kinematic couplings. Since this promising method is applied only by a limited group of researchers for special problems, necessary improvements have been realized in an own parallelized implementation of the 3D nonlocal Quasicontinuum method. The aim of this implementation was to develop and combine robust and efficient algorithms for a general use of the Quasicontinuum method, and therewith to allow for the atomistic damage analysis in arbitrary grain boundary configurations. The implementation is applied in analyses of brittle intergranular damage in ideal and nonideal grain boundary models of FCC aluminum, considering arbitrary misorientations. From the microscale simulations traction separation laws are derived, which describe grain boundary decohesion on the mesoscale. Traction separation laws are part of cohesive zone models to simulate the brittle interface decohesion in heterogeneous polycrystal structures. 2D and 3D mesoscale models are presented, which are able to reproduce crack initiation and propagation along cohesive interfaces in polycrystals. An improved Voronoi algorithm is developed in 2D to generate polycrystal material structures based on arbitrary distribution functions of grain size. The new model is more flexible in representing realistic grain size distributions. Further improvements of the 2D model are realized by the implementation and application of an orthotropic material model with Hill plasticity criterion to grains. The 2D and 3D polycrystal models are applied to analyze crack initiation and propagation in statically loaded samples of aluminum on the mesoscale without the necessity of initial damage definition.
Besides home entertainment and business presentations, video projectors are powerful tools for modulating images spatially as well as temporally. The re-evolving need for stereoscopic displays increases the demand for low-latency projectors and recent advances in LED technology also offer high modulation frequencies. Combining such high-frequency illumination modules with synchronized, fast cameras, makes it possible to develop specialized high-speed illumination systems for visual effects production. In this thesis we present different systems for using spatially as well as temporally modulated illumination in combination with a synchronized camera to simplify the requirements of standard digital video composition techniques for film and television productions and to offer new possibilities for visual effects generation. After an overview of the basic terminology and a summary of related methods, we discuss and give examples of how modulated light can be applied to a scene recording context to enable a variety of effects which cannot be realized using standard methods, such as virtual studio technology or chroma keying. We propose using high-frequency, synchronized illumination which, in addition to providing illumination, is modulated in terms of intensity and wavelength to encode technical information for visual effects generation. This is carried out in such a way that the technical components do not influence the final composite and are also not visible to observers on the film set. Using this approach we present a real-time flash keying system for the generation of perspectively correct augmented composites by projecting imperceptible markers for optical camera tracking. Furthermore, we present a system which enables the generation of various digital video compositing effects outside of completely controlled studio environments, such as virtual studios. A third temporal keying system is presented that aims to overcome the constraints of traditional chroma keying in terms of color spill and color dependency. ...
The advent of high-performance mobile phones has opened up the opportunity to develop new context-aware applications for everyday life. In particular, applications for context-aware information retrieval in conjunction with image-based object recognition have become a focal area of recent research. In this thesis we introduce an adaptive mobile museum guidance system that allows visitors in a museum to identify exhibits by taking a picture with their mobile phone. Besides approaches to object recognition, we present different adaptation techniques that improve classification performance. After providing a comprehensive background of context-aware mobile information systems in general, we present an on-device object recognition algorithm and show how its classification performance can be improved by capturing multiple images of a single exhibit. To accomplish this, we combine the classification results of the individual pictures and consider the perspective relations among the retrieved database images. In order to identify multiple exhibits in pictures we present an approach that uses the spatial relationships among the objects in images. They make it possible to infer and validate the locations of undetected objects relative to the detected ones and additionally improve classification performance. To cope with environmental influences, we introduce an adaptation technique that establishes ad-hoc wireless networks among the visitors’ mobile devices to exchange classification data. This ensures constant classification rates under varying illumination levels and changing object placement. Finally, in addition to localization using RF-technology, we present an adaptation technique that uses user-generated spatio-temporal pathway data for person movement prediction. Based on the history of previously visited exhibits, the algorithm determines possible future locations and incorporates these predictions into the object classification process. This increases classification performance and offers benefits comparable to traditional localization approaches but without the need for additional hardware. Through multiple field studies and laboratory experiments we demonstrate the benefits of each approach and show how they influence the overall classification rate.
Public Private Partnership (PPP) setzt sich zunehmend als alternative Beschaffungsvariante für die öffentliche Hand durch. Im Krankenhausbereich bestehen erste Erfahrungen mit PPP, allerdings kann hier im Gegensatz zu anderen öffentlichen Bereichen noch nicht von einer Etablierung gesprochen werden. In vielen Krankenhäusern besteht Unklarheit über dieses neue Organisationskonzept. Was steckt hinter diesem Begriff, der teilweise synonym zur „Privatisierung“ verwendet wird? Ausgehend von dieser Fragestellung wird in der vorliegenden Arbeit gezeigt, dass PPP bei richtiger Anwendung eine Alternative zum Verkauf eines öffentlichen Krankenhauses darstellt. PPP ist ein Instrument, mit dem privates Know-how und Kapital für den öffentlichen Krankenhausträger nutzbar gemacht wird. Die öffentliche Trägerschaft des Krankenhauses bleibt dabei, im Gegensatz zu einer materiellen Privatisierung, erhalten. Die Rahmenbedingungen des Gesundheitswesens stellen insbesondere die öffentlichen Krankenhäuser vor große Herausforderungen. Die Lage ist zunehmend geprägt von Mittelknappheit, Sanierungsstau und stetig steigendem Wettbewerbsdruck um die Patienten. Die Reformbemühungen der Bundesregierung zur Senkung der Gesundheitsausgaben haben in den letzten Jahrzehnten zu immer neuen Gesetzesregelungen in immer kürzeren Zeitabständen geführt. Den bisher letzten großen Schritt in dieser Entwicklung stellt die Umstellung der Krankenhausvergütung auf DRG-Fallpauschalen dar. Die Auswirkungen sind insbesondere in den öffentlichen Krankenhäusern zu spüren. Defizitäre Einrichtungen, die bisher durch Subventionen gestützt wurden, werden nun nicht mehr „künstlich am Leben“ erhalten. Alle Krankenhäuser erhalten eine leistungsorientierte Vergütung, weitgehend unabhängig von den krankenhausspezifisch anfallenden Kosten. Durch diese Entwicklungen wurde das Bestreben in den Krankenhäuser, die internen Leistungsprozesse zu optimieren, weiter forciert. Dabei kommt den mit der Gebäudesubstanz verbundenen Leistungen eine besondere Bedeutung zu. Aufgrund hoher Investitionskosten und bedeutender Aufwendungen in der Nutzungsphase erreichen die nicht-medizinischen Leistungen in einem Krankenhaus einen beachtlichen Anteil an den Gesamtkosten. Fast ein Drittel der Krankenhaus-Kosten steht nicht in direkter Beziehung zum Heilungsprozess. In Deutschland macht dieser Anteil der nicht-medizinischen Abläufe jährlich rd. 18 Mrd. Euro aus. Das Optimierungspotenzial des nicht-medizinischen Leistungsbereichs, der auch die bau- und immobilienwirtschaftlichen Leistungen umfasst, wird bisher oft noch unterschätzt und ist in den meisten Fällen noch nicht ausgeschöpft. Allein schon aufgrund dessen finanzieller Bedeutung bedarf es einer verstärkten wissenschaftlichen Auseinandersetzung. Dieser Notwendigkeit ist bisher noch unzureichend Rechnung getragen wurden. Die vorliegende Arbeit will mit der Erforschung der Anwendbarkeit von PPP für Krankenaus-Immobilien einen Beitrag dazu leisten, diese Lücke zu schließen. Mit dieser für den deutschen Krankenhausbereich neuartigen Beschaffungsvariante wird ein Weg aufgezeigt, wie bei den nicht-medizinischen Leistungen nachhaltig Effizienzpotenziale erschlossen werden können und auf diese Weise ein Beitrag zum wirtschaftlichen Erfolg des gesamten Krankenhauses erzielt werden kann.
Virtual reality systems offer substantial potential in supporting decision processes based purely on computer-based representations and simulations. The automotive industry is a prime application domain for such technology, since almost all product parts are available as three-dimensional models. The consideration of ergonomic aspects during assembly tasks, the evaluation of humanmachine interfaces in the car interior, design decision meetings as well as customer presentations serve as but a few examples, wherein the benefit of virtual reality technology is obvious. All these tasks require the involvement of a group of people with different expertises. However, current stereoscopic display systems only provide correct 3D-images for a single user, while other users see a more or less distorted virtual model. This is a major reason why these systems still face limited acceptance in the automotive industry. They need to be operated by experts, who have an advanced understanding of the particular interaction techniques and are aware of the limitations and shortcomings of virtual reality technology. The central idea of this thesis is to investigate the utility of stereoscopic multi-user systems for various stages of the car development process. Such systems provide multiple users with individual and perspectively correct stereoscopic images, which are key features and serve as the premise for the appropriate support of collaborative group processes. The focus of the research is on questions related to various aspects of collaboration in multi-viewer systems such as verbal communication, deictic reference, embodiments and collaborative interaction techniques. The results of this endeavor provide scientific evidence that multi-viewer systems improve the usability of VR-applications for various automotive scenarios, wherein co-located group discussions are necessary. The thesis identifies and discusses the requirements for these scenarios as well as the limitations of applying multi-viewer technology in this context. A particularly important gesture in real-world group discussions is referencing an object by pointing with the hand and the accuracy which can be expected in VR is made evident. A novel two-user seating buck is introduced for the evaluation of ergonomics in a car interior and the requirements on avatar representations for users sitting in a car are identified. Collaborative assembly tasks require high precision. The novel concept of a two-user prop significantly increases the quality of such a simulation in a virtual environment and allows ergonomists to study the strain on workers during an assembly sequence. These findings contribute toward an increased acceptance of VR-technology for collaborative development meetings in the automotive industry and other domains.
This thesis focuses on the cryptanalysis and the design of block ciphers and hash func- tions. The thesis starts with an overview of methods for cryptanalysis of block ciphers which are based on differential cryptanalysis. We explain these concepts and also sev- eral combinations of these attacks. We propose new attacks on reduced versions of ARIA and AES. Furthermore, we analyze the strength of the internal block ciphers of hash functions. We propose the first attacks that break the internal block ciphers of Tiger, HAS-160, and a reduced round version of SHACAL-2. The last part of the thesis is concerned with the analysis and the design of cryptographic hash functions. We adopt a block cipher attack called slide attack into the scenario of hash function cryptanalysis. We then use this new method to attack different variants of GRINDAHL and RADIOGATUN. Finally, we propose a new hash function called TWISTER which was designed and pro- posed for the SHA-3 competition. TWISTER was accepted for round one of this com- petition. Our approach follows a new strategy to design a cryptographic hash function. We also describe several attacks on TWISTER and discuss the security issues concern- ing these attack on TWISTER.
In der vorliegenden Arbeit wird eine kraftschlüssige Verbindungstechnik für modulare, schalenartige Faserverbundbauteile vorgestellt. Die Verbindung basiert auf der Verklebung mit lokal begrenzten Stahlblechen. Aus dem Verbindungsansatz wird die Verklebung zwischen Stahl und Faserverbundkunststoff vertiefend betrachtet. Ziel sind die Wahl von technologischen Randbedingungen, die Erarbeitung eines Vorschlages zur numerischen Berechnung und Bemessung und die Formulierung konstruktiver Empfehlungen zum Entwurf von Verklebungen. Mechanische Kennwerte werden in Zugversuchen ermittelt und direkt auf die nichtlinearen Berechnungen übertragen. Technologische Einflüsse und die Streuungen aus realen Verklebungen werden über die Nachrechnung von Zugscherversuchen in die Bemessung integriert. Es wird gezeigt, dass die Verklebungen ausreichende Festigkeiten und ein zufriedenstellendes Bruchverhalten aufweisen. Die Kombination aus einer Werkstattverklebung und einer baustellengerechten Montage ermöglicht eine materialgerechte und effiziente Verbindungen für Faserverbundkonstruktionen unter den Randbedingungen des Bauwesens.
Vom Bauwerksinformationsmodell zur Terminplanung - Ein Modell zur Generierung von Bauablaufplänen
(2011)
Die effiziente und zielgerichtete Ausführung von Bauvorhaben wird in hohem Maße von der zugrunde liegenden Bauablaufplanung beeinflusst. Dabei ist unter Verwendung herkömmlicher Methoden und Modelle die Planung des Bauablaufs ein zumeist aufwändiger und fehlerträchtiger Prozess. Am Ende der gegenwärtig üblichen Vorgehensweise für die Planung eines Bauablaufs erfolgt lediglich die Dokumentation des Endergebnisses. Mögliche Ablaufalternativen, die im Verlauf der Planung betrachtet wurden, sind im resultierenden Bauablaufplan nicht enthalten und gehen verloren. Eine formale Kontrolle des geplanten Bauablaufs hinsichtlich seiner Vollständigkeit ist nur begrenzt möglich, da beispielsweise existierende Methoden der 4D-Visualisierung derzeit nicht ausreichend in den Prozess der Planung von Bauabläufen integriert sind. Gegenstand der vorliegenden Arbeit ist die Entwicklung eines neuen Modells für die Unterstützung der Bauablaufplanung. Dafür wird der größtenteils manuelle Vorgang der Bauablaufplanung auf Basis verfügbarer Bauwerksinformationsmodelle (BIM) weitestgehend automatisiert und die Methodik der 4D-Animation in den Prozess der Bauablaufplanung integriert. Ausgehend von in einer Erfahrungsdatenbank gespeicherten Informationen werden auf Basis einer Ähnlichkeitsermittlung Bauteilen des betrachteten BIM geeignete Vorgänge zugeordnet und mittels Algorithmen der Graphentheorie ein Workflowgraph aller mög\-lichen Bauablaufvarianten generiert. Aufgrund der vorgenommenen Kopplung des Bauablaufplans mit Bauteilen eines BIM und der visuellen Darstellung des Bauablaufs kann vom Planer im Rahmen der Modellierungsgenauigkeit des BIM auf die Vollständigkeit des Bauablaufplans geschlossen werden. Dies ermöglicht dem Anwender ein hohes Maß an Kontrolle des geplanten Bauablaufs bereits innerhalb der Planungsphase. Weiterhin unterstützt das entwickelte Modell die Integration von Ablaufvarianten, was deren Gegenüberstellung ermöglicht und die Wiederverwendbarkeit bereits geplanter Bauabläufe durch eine entsprechend ausgerichtete Abbildung des Modells. Die Anwendbarkeit des erarbeiteten Modells wird anhand einer prototypischen Implementierung nachgewiesen und anhand eines Praxisbeispiels verifiziert.
Das im Jahre 2003 verabschiedete und 2006 in Kraft getretene UNESCO-Übereinkommen zur Bewahrung des immateriellen Kulturerbes erweitert das Kulturverständnis von gebautem Kulturerbe gemäß der Konvention aus dem Jahre 1972 durch gelebtes Kulturerbe. Die Dissertation zeigt beispielhaft, wie sich Bürger einer Stadt und einer Region mit ihrer historischen Vergangenheit befassen und dass es lohnenswert ist, sich mit ihrem ererbten immateriellen Kulturerbe auseinander zu setzen. Sie bezeugt, dass eine moderne populäre Kultur die Pflege des immateriellen Kulturerbes voranbringt, dass personalisierte und vergesellschaftete Individuen die Sorge um den drohenden Kulturverlust ernst nehmen und diesem aktiv, eigenständig und unpolitisch entgegen treten. Ausgehend von der wertphilosophischen und kulturtheoretischen Annäherung werden im zweiten und dritten Kapitel beispielhaft die Ur-Inszenierung im Jahre 1475 und die Re-Inszenierung im 21. Jahrhundert gegenübergestellt. Die Ergebnisse aus der Untersuchung werden im vierten Kapitel diskutiert. An Hand der Promotionsschrift wird versucht, Antworten auf folgende Fragen zu finden: - Hat die Re-Inszenierung der „Landshuter Fürstenhochzeit 1475“ des 21. Jahrhunderts das Potential eines immateriellen Kulturerbes? - Kann sie den negativen Begleiterscheinungen des Generations- wechsels und der Globalisierung entgegentreten? - Ist sie eine zeitgenössische Transformationsmethode von (Denkmal)Werten? - Was sind die Schutzkomponenten? - Trägt die Re-Inszenierung zu der kulturellen Identität einer Stadt an authentischem Ort bei und hat sie Einfluss auf die Gestaltung der baulich-räumlichen Umwelt?
Das Bauen im Bestand ist ein wichtiges, aber vergleichsweise noch wenig erforschtes Wissenschaftsfeld. Die Konzentration auf das Bauen im Bestand im Wohnungsbau führte in den bautechnischen Abteilungen von Wohnungsunternehmen zu einem strategischen Wandel. Die Betreuung der Bestandsmaßnahmen ist zum wichtigsten Aufgabenfeld der technischen Bewirtschaftung geworden. Bestandsmaßnahmen bezeichnen die Baumaßnahmen, die die Wohnobjekte (Wohngebäude, Außenanlagen) und ihre Elemente erhalten oder verändern.
Basis für eine rationale und kosteneffiziente technische Bewirtschaftung der Wohnungsbestände sind Kenntnisse der charakteristischen Eigenschaften der Bestandsmaßnahmen und ihrer Abhängigkeiten. Die bisherigen empirischen Untersuchungen zu Bestandsmaßnahmen weisen forschungsmethodische und inhaltliche Defizite auf. Der Erkenntnisgewinn ist so noch nicht für die professionelle und kosteneffiziente technische Bewirtschaftung der Wohnungsbestände umsetzbar.
Ziel der Arbeit ist es, strategische Handlungsempfehlungen für die rationale und kostenoptimierte Auswahl von Bestandsmaßnahmen in Wohnungsunternehmen zu entwickeln und zu bewerten. Darauf aufbauend soll ein Konzept für eine objektiv begründete Auswahl von Bestandsmaßnahmen entworfen werden.
Die Arbeit basiert auf der empirischen Untersuchung von Bestandsmaßnahmen. Die Maßnahmen wurden am Beispiel eines unternehmensstrategisch interessanten Wohnungsunternehmens und eines statistisch gesehen typischen Wohnungsbestandes betrachtet. Es wurden circa 3000 Maßnahmen über einen Zeitraum von fünf Jahren untersucht.
Die Maßnahme- und Kostenverteilungen der Bestandsmaßnahmen werden in Abhängigkeit vom Baualter und von unternehmensstrategischen Einflussfaktoren charakterisiert. Mit diesen Erkenntnissen werden strategische Handlungsempfehlungen zur Erfüllung der Pflichten der technischen Bewirtschaftung sowie der Gewährleistung eines Investitionsminimums abgeleitet.
Die Handlungsempfehlungen dienen der Ermittlung von Kostensenkungspotentialen und der Berechnung des Investitionsminimums der technischen Bewirtschaftung. Sie werden in ein Konzept zur objektivierten und systematischen Auswahl der Maßnahmen eingebunden.
Numerical models and their combination with advanced solution strategies are standard tools for many engineering disciplines to design or redesign structures and to optimize designs with the purpose to improve specific requirements. As the successful application of numerical models depends on their suitability to represent the behavior related to the intended use, they should be validated by experimentally obtained results. If the discrepancy between numerically derived and experimentally obtained results is not acceptable, a model revision or a revision of the experiment need to be considered. Model revision is divided into two classes, the model updating and the basic revision of the numerical model. The presented thesis is related to a special branch of model updating, the vibration-based model updating. Vibration-based model updating is a tool to improve the correlation of the numerical model by adjusting uncertain model input parameters by means of results extracted from vibration tests. Evidently, uncertainties related to the experiment, the numerical model, or the applied numerical solving strategies can influence the correctness of the identified model input parameters. The reduction of uncertainties for two critical problems and the quantification of uncertainties related to the investigation of several nominally identical structures are the main emphases of this thesis. First, the reduction of uncertainties by optimizing reference sensor positions is considered. The presented approach relies on predicted power spectral amplitudes and an initial finite element model as a basis to define the assessment criterion for predefined sensor positions. In combination with geometry-based design variables, which represent the sensor positions, genetic and particle swarm optimization algorithms are applied. The applicability of the proposed approach is demonstrated on a numerical benchmark study of a simply supported beam and a case study of a real test specimen. Furthermore, the theory of determining the predicted power spectral amplitudes is validated with results from vibration tests. Second, the possibility to reduce uncertainties related to an inappropriate assignment for numerically derived and experimentally obtained modes is investigated. In the context of vibration-based model updating, the correct pairing is essential. The most common criterion for indicating corresponding mode shapes is the modal assurance criterion. Unfortunately, this criterion fails in certain cases and is not reliable for automatic approaches. Hence, an alternative criterion, the energy-based modal assurance criterion, is proposed. This criterion combines the mathematical characteristic of orthogonality with the physical properties of the structure by modal strain energies. A numerical example and a case study with experimental data are presented to show the advantages of the proposed energy-based modal assurance criterion in comparison to the traditional modal assurance criterion. Third, the application of optimization strategies combined with information theory based objective functions is analyzed for the purpose of stochastic model updating. This approach serves as an alternative to the common sensitivity-based stochastic model updating strategies. Their success depends strongly on the defined initial model input parameters. In contrast, approaches based on optimization strategies can be more flexible. It can be demonstrated, that the investigated nature inspired optimization strategies in combination with Bhattacharyya distance and Kullback-Leibler divergence are appropriate. The obtained accuracies and the respective computational effort are comparable with sensitivity-based stochastic model updating strategies. The application of model updating procedures to improve the quality and suitability of a numerical model is always related to additional costs. The presented innovative approaches will contribute to reduce and quantify uncertainties within a vibration-based model updating process. Therefore, the increased benefit can compensate the additional effort, which is necessary to apply model updating procedures.
This practice-based research examines platforms and encounters that have a participatory character as a strategy to create lived and shared experiences where new forms of appropriation of the city can emerge. The selected case studies propose and initiate certain urban experiences that induce changes in perception, the exchange of perspectives, and that denaturalize habits and patterns of behavior. I suggest that when these sensitive experiences become imprinted in body memory, they can empower citizens to have more active, creative, and/or critical attitudes towards their environments. Searching for new repertoires of everyday practices that contest commodification of both the body and the city, this thesis is oriented towards open-ended processes of constructing mentalities rather than those of planning changes on the material conditions of public space. It uses forms of academic investigation that merge intellectual debate and experimental practice, joining art, urbanism and social engaged practices in an extradisciplinary (Howes 2007) attitude towards the city. Based on the materials generated by the case studies (combining theoretical knowledge with artistic sensibility), the affective and corporeal involvement of researchers in the situations they analyze and co-create, is sustained in opposition to the traditional academic critical distance.
Bridge vibration due to traffic loading has been a subject of extensive research in the last decades. The focus of such research has been to develop solution algorithms and investigate responses or behaviors of interest. However, proving the quality and reliability of the model output in structural engineering has become a topic of increasing importance. Therefore, this study is an attempt to extend concepts of uncertainty and sensitivity analyses to assess the dynamic response of a coupled model in bridge engineering considering time-dependent vehicular loading. A setting for the sensitivity analysis is proposed, which enables performing the sensitivity analysis considering random stochastic processes. The classical and proposed sensitivity settings are used to identify the relevant input parameters and models that have the most influence on the variance of the dynamic response. The sensitivity analysis exercises the model itself and extracts results without the need for measurements or reference solutions; however, it does not offer a means of ranking the coupled models studied. Therefore, concepts of total uncertainty are employed to rank the coupled models studied according to their fitness in describing the dynamic problem.
The proposed procedures are applied in two examples to assess the output of coupled subsystems and coupled partial models in bridge engineering considering the passage of a heavy vehicle at various speeds.
Die thermochemische Wärmespeicherung über reversible Salzhydratation stellt einen aussichtsreichen Weg zur Speicherung von Niedertemperaturwärme, wie z.B. solarer Energie, dar.
Untersuchungen an Magnesiumsulfat-Hydraten zeigen, dass das bei 130°C entwässerte Magnesiumsulfat-Heptahydrat seinen thermodynamisch stabilen Endzustand während der Reaktion mit gasförmigem Wasser nicht wieder erreicht. Um diese kinetische Hemmung zu überwinden und den Einfluss von unterschiedlichen Porenräumen auf die Hydratation bzw. Sorption des Magnesiumsulfates zu charakterisieren, wurde das Magnesiumsulfat in Trägermaterialien auf Basis offenporiger Gläser mit durchschnittlichen Porendurchmessern von 4 nm bis 1,4 µm eingebracht und diese Kompositmaterialien untersucht. Dabei ist festgestellt worden, dass jede salzbezogene Sorptionswärme im Porenraum höher ist, als die des ungeträgerten Salzes und mit kleiner werdendem Porenradius weiter zunimmt.
Weiterhin wurden Teile des Magnesiumsulfates mit niedrig deliqueszierenden Salzen substituiert, um die Wasseraufnahme und somit die Wärmespeicherkapazität zu erhöhen. Dies stellt einen neuen Weg zur Herstellung von Kompositmaterialien dar, über den man Eigenschaften wie Deliqueszenzfeuchte und Desorptionstemperatur einstellen und an die Sorptionsbedingungen eines Speichers anpassen kann. Als niedrig deliqueszierende Salze wurden Magnesiumchlorid und Lithiumchlorid
als Zusätze untersucht, wobei ein Ansteigen der Sorptionswärme und Wasseraufnahme mit steigendem Chloridanteil festgestellt wurde. Aufgrund der geringeren Deliqueszenzfeuchte des Lithiumchlorides gegenüber dem Magnesiumchlorid wurden bei gleichen Massenverhältnissen höhere Sorptionswärmen erzielt. Untersuchungen zu Zinksulfat in Verbindung mit Chloriden bescheinigen diesem Salz -speziell bei tieferen Entwässerungstemperaturen- eine gute Eignung als Aktivstoff zur Wärmespeicherung.
Zusammenfassend konnte festgestellt werden, dass sich die Wärmespeicherkapazitäten über die Porengröße, in die das Salz eingebracht wird, und die gewählte Mischungszusammensetzung steuern lassen. Die gemessenen Sorptionswärmen ermöglichen insbesondere bei niedrigen Sorptionstemperaturen und hohen Luftfeuchtigkeiten den Schluss, dass die Verwendung von Salzmischungen als Aktivkomponente in Kompositmaterialien einen geeigneten Weg zur thermochemischen Speicherung solarer Wärme (≤130 °C) darstellt.
Architektonisches Entwerfen ist ein kreativer Prozess, der eine Lösung hervorbringt, die in ihrer Form und ihrer Funktionalität so noch nicht bestand. Resultat eines architektonischen Entwurfes ist ein Original, dessen Entstehen eine schöpferische Komponente erfordert. Dieser kreative Prozess ist nicht systematisierbar und kann auch nicht als Methode wiederholbar gemacht werden. Im Rahmen der architektonischen Lehre ist die Vermittlung von Methoden zur Entwurfsfindung jedoch ein wesentlicher Aspekt. Der hier vorgestellte Entwurf möchte zeigen, dass der Auffassung, allein intuitive Methoden als Entwurfsgrundlage zu nutzen, die Auffassung entgegen steht, eine reglementierte Methode zur Entwurfs- und Formfindung anzuwenden.
Eine solche reglementierte Methode wird hierbei als Entwurfsgrammatik bezeichnet.
In den 1950er Jahren entstehen zwei revolutionäre Werke des Komponisten und Architekten Iannis Xenakis: die Komposition Metastaseis und der Philips-Pavillon für die Weltausstellung in Brüssel. Basierend auf diesen Arbeiten wird eine Methode vorgestellt, welche musikalische Parameter in architektonischen Parameter transformiert.
Diese Methode bildet die Grundlage für ein exaktes räumliches Transformation-Modell, welches aus mathematischen Funktionen abgeleitet ist. Dabei weißt das Transformations-Modell eine starke Ähnlichkeit mit der Architektur des Pavillons auf.
Methods for model quality assessment are aiming to find the most appropriate model with respect to accuracy and computational effort for a structural system under investigation. Model error estimation techniques can be applied for this purpose when kinematical models are investigated. They are counted among the class of white box models, which means that the model hierarchy and therewith the best model is known. This thesis gives an overview of discretisation error estimators. Deduced from these, methods for model error estimation are presented. Their general goal is to make a prediction of the inaccuracies that are introduced using the simpler model without knowing the solution of a more complex model. This information can be used to steer an adaptive process. Techniques for linear and non-linear problems as well as global and goal-oriented errors are introduced. The estimation of the error in local quantities is realised by solving a dual problem, which serves as a weight for the primal error. So far, such techniques have mainly been applied in
material modelling and for dimensional adaptivity. Within the scope of this thesis, available model error estimators are adapted for an application to kinematical models. Their applicability is tested regarding the question of whether a geometrical non-linear calculation is necessary or not. The analysis is limited to non-linear estimators due to the structure of the underlying differential equations. These methods often involve simplification, e.g linearisations. It is investigated to which extent such assumptions lead to meaningful results, when applied to kinematical models.
Die Vorstellung des Gesamtwerkes der halleschen Architekten Julius Kallmeyer und Wilhelm Facilides, die sich Anfang der 1920er Jahre zu einer Zusammenarbeit entschlossen und eine Vielzahl interessanter Gebäude für die Saalestadt schufen, ist in der Fokussierung der Gesamtthematik der Lebens- und Werksdarstellung das Grundanliegen dieser Ausarbeitung. Dieses bisher nicht in Angriff genommene architekturgeschichtliche Anliegen beschäftigt sich mit den Ergebnissen der Bürogeschichte einer- und der Lebensgeschichte der Persönlichkeiten andererseits. Bis heute gelten die klassisch modernen Architekturen Kallmeyers & Facilides ́, gerade für den gehobenen Wohnhausbau in Halle an der Saale, als herausragende Leistungen.
Increasingly powerful hard- and software allows for the numerical simulation of complex physical phenomena with high levels of detail. In light of this development the definition of numerical models for the Finite Element Method (FEM) has become the bottleneck in the simulation process. Characteristic features of the model generation are large manual efforts and a de-coupling of geometric and numerical model. In the highly probable case of design revisions all steps of model preprocessing and mesh generation have to be repeated. This includes the idealization and approximation of a geometric model as well as the definition of boundary conditions and model parameters. Design variants leading to more resource-efficient structures might hence be disregarded due to limited budgets and constrained time frames.
A potential solution to above problem is given with the concept of Isogeometric Analysis (IGA). Core idea of this method is to directly employ a geometric model for numerical simulations, which allows to circumvent model transformations and the accompanying data losses. Basis for this method are geometric models described in terms of Non-uniform rational B-Splines (NURBS). This class of piecewise continuous rational polynomial functions is ubiquitous in computer graphics and Computer-Aided Design (CAD). It allows the description of a wide range of geometries using a compact mathematical representation. The shape of an object thereby results from the interpolation of a set of control points by means of the NURBS functions, allowing efficient representations for curves, surfaces and solid bodies alike. Existing software applications, however, only support the modeling and manipulation of the former two. The description of three-dimensional solid bodies consequently requires significant manual effort, thus essentially forbidding the setup of complex models.
This thesis proposes a procedural approach for the generation of volumetric NURBS models. That is, a model is not described in terms of its data structures but as a sequence of modeling operations applied to a simple initial shape. In a sense this describes the "evolution" of the geometric model under the sequence of operations. In order to adapt this concept to NURBS geometries, only a compact set of commands is necessary which, in turn, can be adapted from existing algorithms. A model then can be treated in terms of interpretable model parameters. This leads to an abstraction from its data structures and model variants can be set up by variation of the governing parameters.
The proposed concept complements existing template modeling approaches: templates can not only be defined in terms of modeling commands but can also serve as input geometry for said operations. Such templates, arranged in a nested hierarchy, provide an elegant model representation. They offer adaptivity on each tier of the model hierarchy and allow to create complex models from only few model parameters. This is demonstrated for volumetric fluid domains used in the simulation of vertical-axis wind turbines. Starting from a template representation of airfoil cross-sections, the complete "negative space" around the rotor blades can be described by a small set of model parameters, and model variants can be set up in a fraction of a second.
NURBS models offer a high geometric flexibility, allowing to represent a given shape in different ways. Different model instances can exhibit varying suitability for numerical analyses. For their assessment, Finite Element mesh quality metrics are regarded. The considered metrics are based on purely geometric criteria and allow to identify model degenerations commonly used to achieve certain geometric features. They can be used to decide upon model adaptions and provide a measure for their efficacy. Unfortunately, they do not reveal a relation between mesh distortion and ill-conditioning of the equation systems resulting from the numerical model.
6 Zusammenfassung und Ausblick
Die hydrothermal induzierte Phasentransformation konnte für ATZ-Keramik mit tiefenge-mittelten und tiefenaufgelösten Methoden charkterisiert und quantifiziert werden.
Die zeit- und temperaturabhängige Alterungskinetik von ATZ wurde durch neun Tempera-turstufen in einem Temperaturbereich von 50 °C bis 134 °C untersucht und die kinetischen Parameter nummerisch bestimmt. Für 3Y-TZP wurde diese Prozedur bei drei Temperaturen im Temperaturbereich von 70 °C bis 134 °C angewendet. Aufgrund des ARRHENIUS-Verhaltens der Umwandlungskinetik konnte der zeitliche Verlauf der isotherm stattfinden-den hydrothermal induzierten Phasentransformation bei Körpertemperatur simuliert wer-den. Die Simulation dient zur Bewertung der Langzeitstabilität von medizinischen Implanta-ten aus ATZ bzw. 3Y-TZP. Die Untersuchungen wurden in Wasser und in Wasserdampf bzw. wasserdampfgesättigter Luft durchgeführt. Die Langzeitsimulation für 3Y-TZP wurde an-hand von Explantat-Untersuchungen verifiziert.
ATZ zeigt gegenüber 3Y-TZP eine höhere Alterungsstabilität bezogen auf die zeitliche Ent-wicklung der monoklinen Phase. Im Hinblick auf die Oberflächenhärte, die durch die Pha-senumwandlung stark beeinflusst wird, erweist sich ATZ über einen langen Alterungszeit-raum stabiler als 3Y-TZP. Bis zu einem monoklinen Gehalt von 40 % beweist ATZ einen deutlichen Härtevorteil gegenüber 3Y TZP, dieser entspricht in der Langzeitsimulation für die Wasserlagerung ca. 35 Jahre. Das wirkt sich insbesondere bei Verschleißpaarungen wie beim künstlichen Hüftgelenk positiv aus.
Verschleißuntersuchungen an einer neu entwickelten Kugel-auf-Scheibe-Geometrie mit li-nearer Kinematik, die dem Hüftgelenk nachempfunden wurde, belegen die vorteilhaften Verschleißeigenschaften von ATZ in Form von sehr geringen Abtragsraten und einer intak-ten Oberfläche nach 720 000 absolvierten Zyklen. Dabei wurde sogar eine Aufhärtung der Oberfläche durch die Verschleißbeanspruchung um bis zu 8 % nachgewiesen.
Bei der tiefengemittelten Charakterisierung der hydrothermalen Alterung wurde in beiden Materialtypen festgestellt, dass die Geschwindigkeit der Phasentransformation neben der Temperatur merklich von der Änderung der H2O-Stoffmengenkonzentrantion an der Ober-fläche der Keramik abhängig ist, was sich mit den unterschiedlichen Aktivierungsenergien für Wasser- bzw. Wasserdampflagerung belegen lässt. Die Aktivierungsenergie Ea der hyd-rothermalen Phasentransformation wurde mit Hilfe der ARRHENIUS-Beziehung ermittelt und beträgt für ATZ bei Wasserdampflagerung 102 kJ/mol und bei Wasserlagerung 92 kJ/mol. Für Y-TZP beträgt die Aktivierungsenergie 114 kJ/mol bei Wasserdampflagerung und 102 kJ/mol bei Wasserlagerung. Der resultierende präexponentielle Faktor k0 unterscheidet sich für Wasserlagerung und Wasserdampflagerung um eine Größenordnung, was auf einen leicht andersartigen thermisch aktivierten Gesamtprozess hinweist.
Der Avrami-Exponent n, der einen Hinweis auf den Mechanismus der Keimbildung sowie deren geometrische Ordnung geben kann, zeigte keine signifikante Abhängigkeit von der Temperatur und vom Umgebungsmedium. Er ist dagegen zeitabhängig und fällt mit zuneh-mender Alterungszeit, d.h. mit zunehmendem monoklinem Gehalt von ca. 4 auf 0,5 ab, was auf eine abnehmende Keimbildungsrate hindeutet. In Verbindung mit weiteren Untersu-chungen durch unabhängige und zum Teil tiefenauflösende Methoden wie GIXRD, NRA und Knoop-Mikrohärte-Messungen lässt sich der Alterungsmechanismus, bzw. sein zeitlicher und örtlicher Ablauf, durch die drei Stadien A, B und C beschreiben:
A 0-5 ma. % m-ZrO2 Quasi-homogene Keimbildung an bevorzugten Orten wie Kornkan-ten und Kornecken (n≈4), Wassertransport wahrscheinlich via Korngrenzendiffusion, Aufhärtung der Oberfläche
B 5-40 ma. % m-ZrO2 Keimbildung an den Korngrenzflächen bis zur Keimsättigung (n≈2), monokline Randschicht wächst zeitlich linear, Wassertransport konvektiv über Mikrorisse, deutlicher Härteverlust der Oberfläche
C ≥ 40 ma. % m-ZrO2 Wachstum der monoklinen Kristallite von den Korngrenzflächen in die tetragonalen Kristallite unter starker Verzwillingung (n≈0,5), Abnahme der tetragonalen Kristallitgröße, starke Mikrorissbildung, dramatischer Rückgang der Oberflächenhärte
Die Kristallitgröße der monoklinen Phase verbleibt im ATZ über alle drei Abschnitte bei 30 ±5 nm. Ein Anwachsen der Kristallite ist mechanische behindert. Kleinere monokline Kristallite sind im ATZ thermodynamisch instabil. Die Kristallitgröße der tetragonalen Phase fällt in den Abschnitten A und B sehr langsam und in C sehr schnell bis auf 25 nm ab. Bei dieser Kristallitgröße ist die tetragonale Phase gegenüber der monoklinen Phase thermody-namisch stabil. Diese residualen tetragonalen Kristallite weisen nach vollständigem Reakti-onsablauf einem Anteil von 7 ma. % auf. Der Sättigungsgehalt der monoklinen Phase betrug in beiden Materialen unabhängig von der Temperatur bzw. dem Umgebungsmedium 75 % der ZrO2-Phase.
In Abschnitt C besitzt die residuale tetragonale Phase eine starke Orientierung. Dadurch wird die geometrische Bedingtheit der hydrothermal induzierten Phasenumwandlung ver-deutlicht. Die monokline Phase ist über den gesamten Alterungsprozess stark nach m(1 1 1) orientiert, was mit einer bevorzugten Umklapprichtung der c-Achse zur freien Oberfläche hin verbunden ist.
Mit Hilfe der tiefenaufgelösten Phasenanalyse konnte die Wachstumsgeschwindigkeit der monoklinen Randschicht von der Oberfläche in das Volumen untersucht werden. Die Ge-schwindigkeit des Schichtwachstums ist in Abschnitt B nicht zeit- und tiefenabhängig, son-dern konstant mit ausgeprägtem ARRHENIUS-Verhalten (Temperaturabhängigkeit). Die Akti-vierungsenergie der Schichtwachstumsgeschwindigkeit km liegt in der gleichen Größenord-nung wie die der Transformationskonstante k.
Die Umwandlungszone schreitet also mit konstanter Geschwindigkeit in das Volumen fort und hinterlässt ein verzweigtes Mikro- und Nanoriss-System. FESEM-Aufnahmen bestätigen das Vorhandensein einer porösen Randschicht, durch die das Wasser nahezu ungehindert eindringen kann.
NRA Untersuchungen deuten in Stadium A auf Korngrenzendiffusion hin und bestätigen in Stadium B einen konvektiven Transport des Wassers an die Transformationszone. Eine Dif-fusion über Sauerstoffleerstellen im Gitter konnte anhand von Proben aus 8YSZ nicht nach-gewiesen werden. Dagegen kommt es in dem verzweigten Riss- und Porensystem in der gealterten Randschicht zum Rücktransport des Wassers an die Oberfläche, sobald die Pro-ben aus der hydrothermalen Atmosphäre genommen, an Luft gelagert oder in die Hochva-kuumkammer der NRA-Messapparatur eingeschleust werden.
Mikrostrukturelle Untersuchungen an eigens entwickelten Verschleißpaarungen zeigten nach 720000 Zyklen ähnliche Oberflächeneigenschaften wie im Alterungsstadium A. Man kann daher davon ausgehen, dass die Stadien B und C aus Stabilitätsgründen in der tribolo-gischen Kontaktzone nicht existieren können und es dass sich im Falle einer gleichzeitigen, hydrothermalen und tribologischen Beanspruchung um einen stationären Alterungs- und Verschleißprozess handelt. Durch quasiplastische Deformation der monoklinen und tetra-gonalen Kristallite wird die Verschleißrate und die Abriebpartikel bei einer hart /hart Paa-rung aus ATZ deutlich minimiert, so dass ATZ für die Hüftendoprothetik ein durchaus geeig-neten Werkstoff darstellt, der sich auf der Grundlage der in dieser Arbeit gewonnenen Daten über eine Imlantationsdauer von .mehr als 15 Jahre stabil verhalten kann.
Die Arbeit »Anachronismen: Historiografie und Kino« geht von einer zunächst einfachen Beobachtung aus: beinahe immer, wenn Historiker_innen sich mit Geschichtsfilmen auseinander setzen, findet sich die lautstark geführte Beschwerde über die zahlreichen und vermeidbaren Anachronismen der Filme, die sie als ernst zu nehmende historiografische Beiträge desavouieren.
Von hier ausgehend verfolgt die Arbeit ein dreifaches Projekt: zunächst in einer kritischen Analyse geschichtstheoretischer Texte einige Hinweise für den Status von Anachronismen für die moderne westliche Historiografie zu gewinnen. Zweitens zu untersuchen, welche Rolle Anachronismen für den Geschichtsfilm spielen. Und drittens von dort aus das epistemische Potential anachronistischen Geschichtskinos zu untersuchen.
Eine der Hauptthesen, welche den Blick sowohl auf die Filme wie auf die theoretischen Texte leitet, besagt, dass Anachronismen genau jene Punkte sind, an denen die Medien einer jeden Geschichtsschreibung beobachtbar werden. Die Beobachtung und Beschreibung dieser Medien der kinematografischen Geschichtsschreibung unternimmt die Arbeit unter Zuhilfenahme einiger theoretischer Überlegungen der Actor Network Theory (ANT).
Die Arbeit ist in vier Kapitel gegliedert, in deren Zentrum jeweils die Diskussion eines ANT-Begriffs sowie die Analyse eines Geschichtsfilmes steht. Zu den untersuchten Filmen gehören Shutter Island (Martin Scorsese, 2010), Chronik der Anna Magdalena Bach (Jean-Marie Straub/Danièle Huillet, 1968), Cleopatra (Joseph L. Mankiewicz, 1963) und Caravaggio (Derek Jarman, 1986). Die Arbeit kommentiert außerdem theoretische Texte zur Historiografie und zu Anachronismen von Walter Benjamin, Leo Bersani, Georges Didi-Huberman, Siegfried Kracauer, Friedrich Meinecke, Friedrich Nietzsche, Jacques Rancière, Leopold Ranke, Paul Ricœur, Georg Simmel, Hayden White u. a.
There is a continuous exacerbation of environmental problems in big cities of today’s world, thereby, diminishing the quality of life in them. Of particular concern is the fact that today’s megacities are evolving in the developing world without corresponding growth in the economy, infrastructure and other human development indices. As urban population continues to grow in these cities of the Global South, governing institutions are usually unable to keep pace with their social responsibilities, thus, making the issue of urban governance very critical. This is because effective and efficient urban governance is highly essential for the creation, strengthening and sustenance of governing institutions.
Lagos, a mega-city of over 15.45 million people and the most populous metropolitan area on the African continent epitomizes the fundamental grave characteristics of the emerging megacities of the Global South, thereby, constituting an apt choice in understanding the emerging megacities of the next generation. Two out of every three Lagos residents live in slums and de-humanizing physical and social conditions. Many of them sleep, work, eat and cook under highway bridges, at the mercy of weather elements.
This research, therefore, evaluated urban governance through housing administration in Africa’s largest megacity. It examines the extent of housing problems in the city, the causal factors and the culpability of government agencies statutorily responsible for the provision, control and management of housing development in Lagos - the tenth largest city in the world. A representative geographic part of the city which manifests classic characteristics of slum life, listed by Mike Davis as the largest slum in Africa and the 6th largest in the world – Ajegunle - was adopted for case study. The research design combined rigorous literature search (desk research) with quantitative and, especially, qualitative approaches to data collection. The qualitative approach was more intensely adopted because government officials often respond to enquiries with ‘official answers and data’ which may not be reliable and the study had to rely on keen observation of physical traces, social interaction and personal investigation. The cross-sectional research method was adopted. Information was solicited from house-owners, building industry professionals, sociologists and officials of relevant government agencies, through research tools like questionnaires, interviews, focused group discussions and personal observations.
The analysis and discussion of these field data, in conjunction with the information from the desk research gave a better understanding of the status-quo, which informed the recommendations proposed in the dissertation for mitigating the problems. The research discovered that many of the statutory housing agencies have the capacity to effectively discharge their responsibilities. However, it was also shown that corruption and abdication of responsibilities by the staff of these agencies constitute primary causes of the chasm between the anticipated lofty outcome from the laudable building regulations/bye-laws and the appalling reality. It also discovered that lack of political will and apathy on the part of successive Governments of Lagos State to the improvement of housing conditions of the poor masses are major causes of the housing debacle in Lagos.
Several germane and realistic recommendations for redressing the situation were subsequently proffered. These include amongst others, the conduction of an accurate census for Lagos, in conjunction with credible international agencies, as a requisite basis for effective planning of any sort. The process of obtaining legal titles for land should also be made less cumbersome, while the housing administration process should be computerized; in order to reduce inter-personal contacts between applicants and government officials to the barest minimum, as a means of curbing the wide spread corruption in the system.
This thesis explores how architecture aids in the performance of open-ended narratives by engaging both actively and passively with memory, i.e. remembering and forgetting. I argue that architecture old and new stems from specific cultural and social forms, and is dictated by processes of remembering and forgetting. It is through interaction (between inhabitant and object) that architecture is given innate meanings within an urban environment that makes its role in the interplay one of investigative interest.
To enable the study of this performance, I develop a framework based on various theoretical paradigms to investigate three broad questions: 1) How does one study the performance of memory and forgetting through architecture in dynamic urban landscapes? 2) Is there a way to identify markers and elements within the urban environment that enable such a study? 3) What is the role that urban form plays within this framework and does the transformation of urban form imply the transformation of memory and forgetting?
The developed framework is applied to a macro (an urban level study of Bangalore, India) and micro level study (a singular or object level study of Stari Most/ Old Bridge, Mostar, BiH), to analyse the performance of remembering and forgetting in various urban spheres through interaction with architecture and form. By means of observations, archival research, qualitative mapping, drawings and narrative interviews, the study demonstrates that certain sites and characteristics of architecture enable the performance of remembering and the questioning of forgetting by embodying features that support this act.
Combining theory and empirical studies this thesis is an attempt to elucidate on the processes through which remembering and forgetting is initiated and experienced through architectural forms. The thesis argues for recognising the potential of architecture as one that embodies and supports the performance of memory and forgetting, by acting as an auratic contact zone.
Ziel dieser Arbeit ist die Entwicklung von Methoden, mit denen die Prognosequalität von Kriechmodellen des Betons bestimmt werden kann. Die Methoden werden in zwei Ausgangsszenarien unterschieden: die Bewertung ohne und die Bewertung mit Verwendung von spezifischen Versuchsdaten zum Kriechverhalten des Betons. Die Modellqualität wird anhand der Gesamtunsicherheit der prognostizierten Kriechnachgiebigkeit quantifiziert. Die Unsicherheit wird für die Kriechprognose ohne Versuchsdaten über eine Unsicherheitsanalyse unter Berücksichtigung korrelierter Eingangsparameter ermittelt. Bei der Verwendung experimenteller Daten werden die stochastischen Eigenschaften der Modellparameter mittels Bayesian Updating bestimmt. Die Bewertung erfolgt erneut basierend auf einer Unsicherheitsanalyse sowie alternativ mittels Modellselektion nach Bayes.
Weiterhin wird eine auf Graphentheorie und Sensitivitätsanalysen basierende Methode zur Bewertung von gekoppelten Partialmodellen entwickelt. Damit wird der Einfluss eines Partialmodells auf das Verhalten einer globalen Tragstruktur quantifiziert, Interaktionen von Partialmodellen festgestellt und ein Maß für die Qualität eines Gesamtmodells ermittelt.
Metakaolin made from kaolin is used around the world but rarely in Vietnam where abundant deposits of kaolin is found. The first studies of producing metakaolin were conducted with high quality Vietnamese kaolins. The results showed the potential to produce metakaolin, and its effect has on strength development of mortars and concretes. However, utilisation of a low quality kaolin for producing Vietnamese metakaolin has not been studied so far.
The objectives of this study were to produce a good quality metakaolin made from low quality Vietnamese kaolin and to facilitate the utilisation of Vietnamese metakaolin in composite cements.
In order to reach such goals, the optimal thermal conversion of Vietnamese kaolin into metakaolin was carried out by many investigations, and as such the optimal conversion is found using the analysis results of DSC/TGA, XRD and CSI. During the calcination in a range of 500 – 800 oC lasting for 1 – 5 hours, the characterisation of calcinated kaolin was also monitored for mass loss, BET surface, PSD, density as well as the presence of the residual water. It is found to have a well correlation between residual water and BET surface.
The pozzolanic activity of metakaolin was tested by various methods regarding to the saturated lime method, mCh and TGA-CaO method. The results of the study showed which method is the most suitable one to characterise the real activity of metakaolin and can reach the greatest agreement with concrete performance. Furthermore, the pozzolanic activity results tested using methods were also analysed and compared to each other with respect to the BET surface.
The properties of Vietnam metakaolin was established using investigations on water demand, setting time, spread-flowability, and strength. It is concluded that depending on the intended use of composite cement and weather conditions of cure, each Vietnamese metakaolin can be used appropriately to produce (1) a composite cement with a low water demand (2) a high strength of composite cement (3) a composite cement that aims to reduce CO2 emissions and to improve economics of cement products (4) a high performance mortar.
The durability of metakaolin mortar was tested to find the needed metakaolin content against ASR, sulfat and sulfuric acid attacks successfully.
Modern digital material approaches for the visualization and simulation of heterogeneous materials allow to investigate the behavior of complex multiphase materials with their physical nonlinear material response at various scales. However, these computational techniques require extensive hardware resources with respect to computing power and main memory to solve numerically large-scale discretized models in 3D. Due to a very high number of degrees of freedom, which may rapidly be increased to the two-digit million range, the limited hardware ressources are to be utilized in a most efficient way to enable an execution of the numerical algorithms in minimal computation time. Hence, in the field of computational mechanics, various methods and algorithms can lead to an optimized runtime behavior of nonlinear simulation models, where several approaches are proposed and investigated in this thesis.
Today, the numerical simulation of damage effects in heterogeneous materials is performed by the adaption of multiscale methods. A consistent modeling in the three-dimensional space with an appropriate discretization resolution on each scale (based on a hierarchical or concurrent multiscale model), however, still contains computational challenges in respect to the convergence behavior, the scale transition or the solver performance of the weak coupled problems. The computational efficiency and the distribution among available hardware resources (often based on a parallel hardware architecture) can significantly be improved. In the past years, high-performance computing (HPC) and graphics processing unit (GPU) based computation techniques were established for the investigationof scientific objectives. Their application results in the modification of existing and the development of new computational methods for the numerical implementation, which enables to take advantage of massively clustered computer hardware resources. In the field of numerical simulation in material science, e.g. within the investigation of damage effects in multiphase composites, the suitability of such models is often restricted by the number of degrees of freedom (d.o.f.s) in the three-dimensional spatial discretization. This proves to be difficult for the type of implementation method used for the nonlinear simulation procedure and, simultaneously has a great influence on memory demand and computational time.
In this thesis, a hybrid discretization technique has been developed for the three-dimensional discretization of a three-phase material, which is respecting the numerical efficiency of nonlinear (damage) simulations of these materials. The increase of the computational efficiency is enabled by the improved scalability of the numerical algorithms. Consequently, substructuring methods for partitioning the hybrid mesh were implemented, tested and adapted to the HPC computing framework using several hundred CPU (central processing units) nodes for building the finite element assembly. A memory-efficient iterative and parallelized equation solver combined with a special preconditioning technique for solving the underlying equation system was modified and adapted to enable combined CPU and GPU based computations.
Hence, it is recommended by the author to apply the substructuring method for hybrid meshes, which respects different material phases and their mechanical behavior and which enables to split the structure in elastic and inelastic parts. However, the consideration of the nonlinear material behavior, specified for the corresponding phase, is limited to the inelastic domains only, and by that causes a decreased computing time for the nonlinear procedure. Due to the high numerical effort for such simulations, an alternative approach for the nonlinear finite element analysis, based on the sequential linear analysis, was implemented in respect to scalable HPC. The incremental-iterative procedure in finite element analysis (FEA) during the nonlinear step was then replaced by a sequence of linear FE analysis when damage in critical regions occured, known in literature as saw-tooth approach. As a result, qualitative (smeared) crack initiation in 3D multiphase specimens has efficiently been simulated.
Gaze based human-computer-interaction has been a research topic for over a quarter century. Since then, the main scenario for gaze interaction has been helping handicapped people to communicate an interact with their environment. With the rapid development of mobile and wearable display technologies, a new application field for gaze interaction has appeared, opening new research questions.
This thesis investigates the feasibility of mobile gaze based interaction, studying deeply the use of pie menus as a generic and robust widget for gaze interaction as well as visual and perceptual issues on head mounted (wearable) optical see-through displays.
It reviews conventional gaze-based selection methods and investigates in detail the use of pie menus for gaze control. It studies and discusses layout issues, selection methods and applications. Results show that pie menus can allocate up to six items in width and multiple depth layers, allowing a fast and accurate navigation through hierarchical levels by using or combining multiple selection methods. Based on these results, several text entry methods based on pie menus are proposed. Character-by-character text entry, text entry with bigrams and with text entry with bigrams derived by word prediction, as well as possible selection methods, are examined in a longitudinal study. Data showed large advantages of the bigram entry methods over single character text entry in speed and accuracy. Participants preferred the novel selection method based on saccades (selecting by borders) over the conventional and well established dwell time method.
On the one hand, pie menus showed to be a feasible and robust widget, which may enable the efficient use of mobile eye tracking systems that may not be accurate enough for controlling elements on conventional interface. On the other hand, visual perception on mobile displays technologies need to be examined in order to deduce if the mentioned results can be transported to mobile devices.
Optical see-through devices enable observers to see additional information embedded in real environments. There is already some evidence of increasing visual load on the respective systems. We investigated visual performance on participants with a visual search tasks and dual tasks presenting visual stimuli on the optical see-through device, only on a computer screen, and simultaneously on both devices. Results showed that switching between the presentation devices (i.e. perceiving information simultaneously from both devices) produced costs in visual performance. The implications of these costs and of further perceptual and technical factors for mobile gaze-based interaction are discussed and solutions are proposed.