Refine
Document Type
- Doctoral Thesis (494) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (14)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
Polymeric nanocomposites (PNCs) are considered for numerous nanotechnology such as: nano-biotechnology, nano-systems, nanoelectronics, and nano-structured materials. Commonly , they are formed by polymer (epoxy) matrix reinforced with a nanosized filler. The addition of rigid nanofillers to the epoxy matrix has offered great improvements in the fracture toughness without sacrificing other important thermo-mechanical properties. The physics of the fracture in PNCs is rather complicated and is influenced by different parameters. The presence of uncertainty in the predicted output is expected as a result of stochastic variance in the factors affecting the fracture mechanism. Consequently, evaluating the improved fracture toughness in PNCs is a challenging problem.
Artificial neural network (ANN) and adaptive neuro-fuzzy inference system (ANFIS) have been employed to predict the fracture energy of polymer/particle nanocomposites. The ANN and ANFIS models were constructed, trained, and tested based on a collection of 115 experimental datasets gathered from the literature. The performance evaluation indices of the developed ANN and ANFIS showed relatively small error, with high coefficients of determination (R2), and low root mean square error and mean absolute percentage error.
In the framework for uncertainty quantification of PNCs, a sensitivity analysis (SA) has been conducted to examine the influence of uncertain input parameters on the fracture toughness of polymer/clay nanocomposites (PNCs). The phase-field approach is employed to predict the macroscopic properties of the composite considering six uncertain input parameters. The efficiency, robustness, and repeatability are compared and evaluated comprehensively for five different SA methods.
The Bayesian method is applied to develop a methodology in order to evaluate the performance of different analytical models used in predicting the fracture toughness of polymeric particles nanocomposites. The developed method have considered the model and parameters uncertainties based on different reference data (experimental measurements) gained from the literature. Three analytical models differing in theory and assumptions were examined. The coefficients of variation of the model predictions to the measurements are calculated using the approximated optimal parameter sets. Then, the model selection probability is obtained with respect to the different reference data.
Stochastic finite element modeling is implemented to predict the fracture toughness of polymer/particle nanocomposites. For this purpose, 2D finite element model containing an epoxy matrix and rigid nanoparticles surrounded by an interphase zone is generated. The crack propagation is simulated by the cohesive segments method and phantom nodes. Considering the uncertainties in the input parameters, a polynomial chaos expansion (PCE) surrogate model is construed followed by a sensitivity analysis.
Bunker—TV, TV—Bunker: Heterotope Mechanismen am Beispiel von Schutzbauwerken und (Fernseh-)Serien
(2017)
Die vorliegende Dissertation widmet sich anhand eines kurios anmutenden, aber auf einer Metaebene fruchtbaren Vergleichs von Schutzbauwerken und Fernsehserien historischen und aktuellen Mechanismen menschlichen Denkens und Handelns.
Als theoretische Basis dieser Abhandlung fungiert die Heterotopie – ein Konzept des französischen Philosophen Michel Foucault. Die Heterotopie ist ein inflationär gebrauchtes, oft nur oberflächlich betrachtetes Theorem. Das Konzept wird hier nun mit Blick auf das Gesamtwerk Foucaults en détail untersucht sowie um korrelierende Ansätze (Augé, Lefebvre, Soja ...) ergänzt. Aus dieser Betrachtung lässt sich ein über Foucault hinausgehender, analytisch nutzbarer Katalog ableiten.
Verkürzt wird die Heterotopie folgendermaßen bestimmt: Neben der Definition der Heterotopie als Raum des Anderen, als (gesellschaftskritischer) Gegenraum kann sie dem wie auch immer bestimmten Normalraum unterstellt sein. Die Heterotopie ist möglicherweise eine bauliche Manifestation schwarz-weißen Denkens, von Ausgrenzung und sichtbarer Unsichtbarkeit, sie wird zur Realisation wie auch immer definierter Ideale oder Stereotypen. Die Heterotopie ist allerdings auch als ein (hybrides) Dazwischen denkbar, welches sich als katalytischer Raum, im dialektischen Sinne als Ort der Synthese äußert. Es könnte als Niemandsland oder als Phase (im Leben) charakterisiert werden.
Analog zum letzten Beispiel lässt sich die Heterotopie als progressiv-seriell beschreiben. Ihre stagnierend bis variierende Serialität kann sich im Betreten identischer Räume äußern – mal als verlässlich oder ermüdend empfunden.
Nicht nur die einem entsprechenden Raum entgegengebrachten Konnotationen sind vielfältig bis ambivalent, die Heterotopie ist neben real-räumlicher auch virtueller Fasson: Betonmauer finden bisweilen eine Entsprechung im einfachen Harmoniefernsehen. Einander heterotop gegenüberstehenden Räumen wird etwa mit der Figur Walter White in der komplexen Fernsehserie "Breaking Bad" entsprochen – ist er doch hin und her gerissen zwischen seiner biederen, aber geliebten Familie einerseits und der abstoßend gewalttätigen, aber extrovertierende Potentiale bergenden Drogenproduktion andererseits.
Die sogenannte Leihkörperschaft bzw. die Immersion lassen sich zur Beschreibung verschiedener Heterotopie-Erfahrungen nutzen. Dieses Eintauchen/Betreten wird hier als Rezeptionsphänomen zwischen sensomotorischer Illusion und inhaltlich-narrativem Sog, zw. Fixierung des Körpers und Einbezug desselbigen definiert.
Die beiden Untersuchungsfelder werden jeweils für sich historisch und theoretisch umrissen. Zum noch jungen Feld serieller Theorie/der Definition narrativer Typen (im TV bzw. dem Qualitätsfernsehen) wird ein einführender Überblick geboten.
Die praktischen Arbeiten setzen sich ästhetisch, narrativ und inhaltlich mit der Heterotopie auseinander: In "Habitat" und "Habitat 2" werden serielle Konzepte audiovisuell (u. a. als Fulldome-Version) erprobt. Dabei wird insbesondere das Heterotope im Konzept "Autor" untersucht – der Autor als distinkte und gleichsam konfliktbehaftete, in zahlreiche Subjekte zerlegte Figur. "Habitat 3" ist ein Publikationskonzept, welches mit etablierten (heterotopen) Strukturen des Sammelbands bricht und zugleich die heterotopen Facetten des fiktionalen Fernsehens simuliert.
Band I beinhaltet sowohl den theoretischen Teil der Promotion als auch die Erläuterung der praktischen Arbeiten. Band II ermöglicht einen Einblick in die konzeptionellen Prozesse hinter den drei künstlerischen Projekten.
The detailed structural analysis of thin-walled circular pipe members often requires the use of a shell or solid-based finite element method. Although these methods provide a very good approximation of the deformations, they require a higher degree of discretization which causes high computational costs. On the other hand, the analysis of thin-walled circular pipe members based on classical beam theories is easy to implement and needs much less computation time, however, they are limited in their ability to approximate the deformations as they cannot consider the deformation of the cross-section.
This dissertation focuses on the study of the Generalized Beam Theory (GBT) which is both accurate and efficient in analyzing thin-walled members. This theory is based on the separation of variables in which the displacement field is expressed as a combination of predetermined deformation modes related to the cross-section, and unknown amplitude functions defined on the beam's longitudinal axis. Although the GBT was initially developed for long straight members, through the consideration of complementary deformation modes, which amend the null transverse and shear membrane strain assumptions of the classical GBT, problems involving short members, pipe bends, and geometrical nonlinearity can also be analyzed using GBT. In this dissertation, the GBT formulation for the analysis of these problems is developed and the application and capabilities of the method are illustrated using several numerical examples. Furthermore, the displacement and stress field results of these examples are verified using an equivalent refined shell-based finite element model.
The developed static and dynamic GBT formulations for curved thin-walled circular pipes are based on the linear kinematic description of the curved shell theory. In these formulations, the complex problem in pipe bends due to the strong coupling effect of the longitudinal bending, warping and the cross-sectional ovalization is handled precisely through the derivation of the coupling tensors between the considered GBT deformation modes. Similarly, the geometrically nonlinear GBT analysis is formulated for thin-walled circular pipes based on the nonlinear membrane kinematic equations. Here, the initial linear and quadratic stress and displacement tangent stiffness matrices are built using the third and fourth-order GBT deformation mode coupling tensors.
Longitudinally, the formulation of the coupled GBT element stiffness and mass matrices are presented using a beam-based finite element formulation. Furthermore, the formulated GBT elements are tested for shear and membrane locking problems and the limitations of the formulations regarding the membrane locking problem are discussed.
Beitrag zur Berechnung von nachgiebig gelagerten Behältertragwerken unter seismischen Einwirkungen
(2001)
In der Baupraxis werden zur Erfassung der bei seismischen Einwirkungen auftretenden Interaktionseffekte zwischen Behältertragwerk, Flüssigkeit und Untergrund oftmals sogenannte Ingenieurverfahren eingesetzt. Diese sind durch die ihnen zugrundeliegenden einfachen mechanischen Modelle und die Anwendung der Strukturmethode zur Berücksichtigung der Behälter-Boden-Interaktion gekennzeichnet. Die modale Analyse der Interaktionsschwingung von Flüssigkeit und Behälterschale wird in der Arbeit durch die Integralgleichungsmethode behandelt. Diese wird sowohl auf die ideale Flüssigkeit als auch zur Untersuchung des Einflusses der Flüssigkeitskompressibilität angewendet. Es wird ein Modell zur Berücksichtigung der Flüssigkeitsviskosität entwickelt und daraus Dämpfungsfaktoren für die Schwingung der Flüssigkeitsoberfläche abgeleitet. Für die Behältergründung werden in Abhängigkeit von der Gründungsflexibilität Impedanzfunktionen bestimmt. Aus dem Gesamtsystem von Behälter, Flüssigkeit und Untergrund werden Dämpfungsmaße und Frequenzänderungen ermittelt, die für die Anwendung in einem normentauglichen Berechnungskonzept bestimmt sind.
Die Entwicklung von Hybridtechnologien führt zu vielen neuartigen und effizienten Anwen-dungen. Hybridtechnologien kommen immer dann zum Einsatz, wenn die ausschließliche Nutzung einer Technologie oder eines Werkstoffs nicht zum gewünschten Ergebnis führt. Dann kann durch Kombination unterschiedlicher Werkstoffe oder Technologien ein System geschaffen werden, das in seiner Konfiguration ein Optimum an Eigenschaften darstellt.
Im Bauwesen geht die Entwicklung schon seit jeher in Richtung von immer schlankeren ar-chitektonisch ansprechenden Konstruktionen. In der gegenwärtigen Entwicklung ermöglichen hochtechnologische Kunststoffe und Faserwerkstoffe, wie z. B. Kohlenstofffasern, sehr schlanke, leichte und dennoch hochtragfähiger Konstruktionen. Der wirtschaftliche Aspekt bei der Entwicklung von Tragsystemen bzw. -strukturen erfordert dabei in fast allen Fällen eine kostengünstig effiziente Ausbildung und die Optimierung von Trageigenschaften und Kostenfaktoren. Daher besteht oft die Anforderung nach einem Verbundsystem, bei dem unterschiedliche Materialien in der Art miteinander kombiniert werden, dass jeder Werkstoff für eine bestimmte Beanspruchung angeordnet wird und sein Tragfähigkeitspotenzial optimal ausschöpft. Im Rahmen dieser Arbeit werden an konkreten Beispielen Möglichkeiten aufge-zeigt, Hochtechnologiewerkstoffe in effizienter Art und Weise zu nutzen.
Der Kunststoff-Faser-Verbundwerkstoff stellt eine Möglichkeit dar, den als solches nur für dünnschichtige Klebverbindungen nutzbaren Klebstoff in seinen Anwendungsmöglichkeiten zu erweitern. Die Fasern wirken dabei dem mechanischen Schwachpunkt des Klebstoffs, einer nur geringen Zugfestigkeit, effektiv entgegen. Mit faserverstärkten Klebstoff können Anwendungen realisiert werden, bei denen der Klebstoff auch zur Zugkraftübertragung ge-nutzt wird. Zusätzlich bieten Füllstoffe eine Möglichkeit, die Steifigkeit des Klebstoffs zu stei-gern, was für viele mechanischen Beanspruchungen Vorteile mit sich bringt. Die Kombination aus einem partikelgefüllten und zusätzlich faserverstärkten Klebstoff führt zu einem Ver-bundwerkstoff, der für viele unterschiedliche Anwendungen geeignet ist. Praktische Anwen-dungsmöglichkeiten finden sich in der Herstellung von Fassadenelementen, wo der faserver-stärkte Klebstoff zur Verbindung von Aluminiumhohlprofilen verwendet wird. Weitere Anwen-dungsgebiete erstrecken sich auf die Zugkraftbewehrung von Betontragelementen, bei denen der faserverstärkte Klebstoff die Rolle einer Zugbewehrung an der Betonoberfläche übernimmt.
Alu-CFK-Hybridelemente ermöglichen die Herstellung sehr effizienter Tragsysteme, bei de-nen Gewichtsreduzierung der Tragstruktur und Kosteneinsparungen im Betrieb des Bauwerks gleichermaßen ermöglicht werden. Die CFK-Lamellen werden dabei in den am stärksten längskraftbeanspruchten Bereichen eines Aluminiumtragelementes angeordnet, wodurch sich die Biegetragfähigkeit des dann hybriden Tragelements signifikant erhöht. In der Folge können Gewichtsreduzierungen, verglichen mit herkömmlichen Aluminiumtragelementen, erzielt werden. Weiterhin können die Querschnittsaußenmaße bei Alu-CFK-Hybridelementen deutlich reduziert werden. In der Folge vereinfachen sich der Transport und die Montage dieser Art Tragwerke, was besonders bei fliegenden Bauten einen wesentlichen Vorteil dar-stellt.
Der Einsatz von Glas-Kunststoff-Hybridelementen ermöglicht die Konstruktion transparenter Tragstrukturen in einer optisch einzigartigen Qualität. Die Konstruktion eines Glas-Kunststoff-Hybridelementes ermöglicht ein redundant wirkendes Tragverhalten, bei dem die Steifigkeit und optische Qualität des Glases optimal im Tragsystem genutzt werden können. Der Kunst-stoff stellt eine Art Sicherheitselement dar und übernimmt im Falle eines Glasbruchs die Tragwirkung des Glases. Die Eigenschaft der Vorankündigung eines Systemversagens stellt die Grundlage für eine baupraktische Anwendung des Glas-Kunststoff-Hybridelementes als statisches Tragsystem dar. Durch die Redundanz des Tragverhaltens von Glas-Kunststoff-Hybridelementen ist das Versagen dieser Tragstruktur durch optische oder strukturelle An-zeichen erkennbar und eine Bemessung somit möglich.
Für die mechanische Analyse grundlegender Zusammenhänge in Hybridsystemen können ingenieurmäßige, analytische und numerische Betrachtungen durchgeführt werden. Die in-genieurmäßigen Betrachtungen sind sehr gut geeignet, um Abschätzungen zu treffen, die in später durchgeführten experimentellen Bauteiluntersuchungen oft auch ihre Bestätigung fan-den. Bei Detailbetrachtungen, wie z. B. der Analyse eines nichtlinearen Spannungsverlaufes in mechanisch beanspruchten Klebfugen, bietet eine numerische Betrachtung mittels FEM Vorteile, da sie eine sehr detaillierte Auswertung in Bereichen mit hohen Spannungsgradien-ten ermöglicht. Durch die Anwendung der FEM ist es möglich, Strukturen in unterschiedlichen Skalierungsbereichen zu analysieren und dabei auch Bereiche einzubeziehen, die für experimentelle Untersuchungen nur sehr schwer zugänglich sind. Genaue Kenntnisse über das Materialverhalten der zu analysierenden Stoffe stellen dabei eine wesentliche Grundlage für die Erstellung qualitativ hochwertiger Rechenmodelle dar.
Polymer-modified cement concrete (PCC) is a heterogeneous building material with a hierarchically organized microstructure. Therefore, continuum micromechanics-based multiscale models represent a promising method to estimate the mechanical properties. By means of a bottom-up approach, homogenized properties at the macroscopic scale are derived considering microstructural characteristics. The extension of existing multiscale models for the application to PCC is the main objective of this work. For that, cross-scale experimental studies are required. Both macroscopic and microscopic mechanical tests are performed to characterize the elastic and viscoelastic properties of different PCC. The comparison between experiment and model prediction illustrates the success of the modeling approach.
Die interdisziplinäre Dissertationsschrift lässt sich im Horizont internationaler Forschungen zu Denkmalwerten, neuer Ansätze in der Kultur- und Wissensvermittlung rund um Baudenkmale sowie künstlerisch- ethnographischem Forschen an und mit Denkmalen verorten.
Der erste Teil der Arbeit widmet sich Denkmalen und der Denkmalpflege im Kontext künstlerischer und sozialwissenschaftlicher Allianzen. Ausgangspunkt ist die Feststellung, dass die Denkmalpflege zwar sehr vieles über Denkmale weiß, aber kaum etwas über deren Rezeption beim breiten Publikum. Im Mittelpunkt steht die Frage, wie hier Praktiken der bildenden Kunst und Arbeitsweisen der Kulturanthropologie die Disziplin der Denkmalpflege bereichern können, oder sogar müssen.
Den zweiten Teil bildet eine empirische Studie, in der die populäre Wahrnehmung von Denkmalen qualitativ erforscht wird. Das Schloss und Rittergut Bedheim im südlichen ländlichen Thüringen dient dabei als konkreter Untersuchungsort. Reaktionen von Besucherinnen und Besuchern werden mit Hilfe von drei künstlerischen Eingriffen angeregt und diese dann ethnographisch-offen dokumentiert und ausgewertet.
Auf dieser Basis werden Zugänge zum Denkmal ermittelt. Während die meisten BesucherInnen das Denkmal als „Arbeit“ wahrnehmen, geraten einige ins „Träumen“ oder „Erinnern“, man „genießt“ das Ensemble als authentische und ästhetische Ressource, oder findet Zugang über das spontane „Erklären“ baukonstruktiver oder baulicher Situationen. Für andere bedeutet der Besuch die „Teilhabe“ an einem Prozess. Schloss Bedheim wird als Ort stetiger Veränderung geschätzt. In der Wahrnehmung der BesucherInnen verquicken sich Aspekte des Bewunderns mit solchen des Abgrenzens. Die eigene Alltagswelt und das eigene Zuhause bilden hierbei Bezugspunkte. Schloss Bedheim wird auf diese Weise zum Imaginationsraum, zur Energietankstelle und zur gern besuchten Problemwelt.
Die Ergebnisse der Arbeit liegen in zwei Erkenntnisfeldern: Auf einer methodischen Ebene zeigt sie, wie in der Denkmalpflege vertiefte Fachlichkeit mit einer tatsächlichen Kontaktaufnahme mit dem Publikum verbunden werden kann und damit soziale Gefüge an Baudenkmalen qualitativ ermittelt werden können. Ebenso wird deutlich, dass künstlerische Eingriffe Auslöser von Gesprächen sind, als Kontaktflächen zur Alltagswelt dienen und so zu einer vielfältigen Auseinandersetzung mit Denkmalen führen.
Auf einer inhaltlichen Ebene liefert die Arbeit Erkenntnisse zu Wahrnehmungsweisen von Denkmalen. Neben den erwähnten Zugängen, wird die Existenz und Bedeutung einer regional vernetzten Wahrnehmung von Denkmalen aufgedeckt. Des Weiteren zeigen die Ergebnisse, dass das Öffnen von Baudenkmalen als und im Prozess ungenutzte Potentiale birgt und es wird angeregt, dies in zukünftigen denkmalpflegerischen Konzepten eine größere Rolle spielen zu lassen. Die Vision eines „Kompendiums der Zugänge“ wird entwickelt, mit dessen Hilfe sich ein enormes Wissen über Rollen und Bedeutungen die Baudenkmale in unserer Gesellschaft spielen, sammeln ließe.
Besides home entertainment and business presentations, video projectors are powerful tools for modulating images spatially as well as temporally. The re-evolving need for stereoscopic displays increases the demand for low-latency projectors and recent advances in LED technology also offer high modulation frequencies. Combining such high-frequency illumination modules with synchronized, fast cameras, makes it possible to develop specialized high-speed illumination systems for visual effects production. In this thesis we present different systems for using spatially as well as temporally modulated illumination in combination with a synchronized camera to simplify the requirements of standard digital video composition techniques for film and television productions and to offer new possibilities for visual effects generation. After an overview of the basic terminology and a summary of related methods, we discuss and give examples of how modulated light can be applied to a scene recording context to enable a variety of effects which cannot be realized using standard methods, such as virtual studio technology or chroma keying. We propose using high-frequency, synchronized illumination which, in addition to providing illumination, is modulated in terms of intensity and wavelength to encode technical information for visual effects generation. This is carried out in such a way that the technical components do not influence the final composite and are also not visible to observers on the film set. Using this approach we present a real-time flash keying system for the generation of perspectively correct augmented composites by projecting imperceptible markers for optical camera tracking. Furthermore, we present a system which enables the generation of various digital video compositing effects outside of completely controlled studio environments, such as virtual studios. A third temporal keying system is presented that aims to overcome the constraints of traditional chroma keying in terms of color spill and color dependency. ...
Gashochdruckleitungen aus Stahl werden mit Hilfe eines deterministischen Sicherheitskonzeptes bemessen. Im unveränderten Bemessungszustand und im bestimmungsgemäßem Betrieb ist die statische Tragfähigkeit der Gashochdruckleitungen gegeben.
Mit den Jahren unterliegen Gashochdruckleitungen aus Stahl geometrischen Veränderungen, die häufig durch Korrosion hervorgerufen werden. Die Beurteilung der statischen Tragfähigkeit erfolgt dann unter Berücksichtigung dieser geometrischen Änderung.
Deterministische Sicherheitsbeiwerte der Bemessung neuer Gashochdruckleitungen können für die Bemessung bestehender korrosionsgeschädigter Gashochdruckleitungen nicht herangezogen werden, da diese einen definierten Beanspruchungs- und Geometriezustand unterstellen, welcher durch den geometrischen Einfluss der Korrosion so nicht mehr besteht.
Die Arbeit befasst sich mit der Ermittlung deterministischer Sicherheitsbeiwerte für die Bemessung korrosionsgeschädigter Gashochdruckleitungen auf Basis von Versagenswahrscheinlichkeiten und stellt ein Anwendungskonzept zu deren Nutzung vor.
Gashochdruckleitungen aus Stahl werden mit Hilfe eines deterministischen Sicherheitskonzeptes bemessen. Im unveränderten Bemessungszustand und im bestimmungsgemäßem Betrieb ist die statische Tragfähigkeit der Gashochdruckleitungen gegeben.
Mit den Jahren unterliegen Gashochdruckleitungen aus Stahl geometrischen Veränderungen, die häufig durch Korrosion hervorgerufen werden. Die Beurteilung der statischen Tragfähigkeit erfolgt dann unter Berücksichtigung dieser geometrischen Änderung.
Deterministische Sicherheitsbeiwerte der Bemessung neuer Gashochdruckleitungen können für die Bemessung bestehender korrosionsgeschädigter Gashochdruckleitungen nicht herangezogen werden, da diese einen definierten Beanspruchungs- und Geometriezustand unterstellen, welcher durch den geometrischen Einfluss der Korrosion so nicht mehr besteht.
Die Arbeit befasst sich mit der Ermittlung deterministischer Sicherheitsbeiwerte für die Bemessung korrosionsgeschädigter Gashochdruckleitungen auf Basis von Versagenswahrscheinlichkeiten und stellt ein Anwendungskonzept zu deren Nutzung vor.
In der Arbeit wird ein räumliches Materialmodell für den anisotropen Werkstoff Holz vorgestellt. Dessen Leistungsfähigkeit wird durch Verifikationsrechnungen und die Simulation eigener Versuche aufgezeigt. In diesen Versuchen wurde das Tragverhalten spezieller Schubverbindungselemente der Brettstapel-Beton-Verbundbauweise untersucht. Die Kombination eines Brettstapels mit einer schubfest angeschlossenen Betonplatte ist eine vorteilhafte Möglichkeit, Schnittholz mit geringem Querschnitt effektiv in biegebeanspruchten Bauteilen einzusetzen. Es werden die Ergebnisse der experimentellen Untersuchungen zu den Schubverbindungselementen Flachstahlschloss und Nutverbindung vorgestellt. Diese zeichnen sich durch eine über die gesamte Plattenbreite kontinuierliche Übertragung der Schubkraft per Kontaktpressung aus. Vor allem in Brettstapel-Beton-Verbunddecken werden somit ein sehr hoher Verschiebungsmodul sowie eine eminente Tragfähigkeit erreicht. Um mit numerischen Strukturanalysen die in den Versuchen beobachteten Versagensmechanismen adäquat abbilden und realistische Prognosen für das Tragverhalten von Bauteilen oder Verbindungen treffen zu können, muss das physikalisch nichtlineare Verhalten aller beteiligter Baustoffe in die Berechnungen einbezogen werden. Im Rahmen der Dissertation wurde ein auf der Plastizitätstheorie basierendes Materialmodell für Nadelholz hergeleitet und in das FE-Programm ANSYS implementiert, welches die Mikrostruktur des Holzes als verschmierendes Ersatzkontinuum erfasst. Anhand des anatomischen Aufbaus des inhomogenen, anisotropen und porigen Werkstoffs werden die holzspezifischen Versagensmechanismen und die daraus abgeleiteten konstitutiven Beziehungen erläutert. Das ausgeprägt anisotrope Tragverhalten von Holz ist vor allem durch erstaunliche Duktilität bei Stauchung, sprödes Versagen bei Zug- und Schubbeanspruchung und enorme Festigkeitsunterschiede in den Wuchsrichtungen gekennzeichnet. Die Auswirkungen der größtenteils unabhängig voneinander auftretenden, mikromechanischen Versagensmechanismen auf die Spannungs-Verformungsbeziehungen wurden durch die Formulierung adäquater Ver- resp. Entfestigungsfunktionen in Abhängigkeit der Beanspruchungsmodi erfasst. Das dem Materialmodell zu Grunde liegende mehrflächige Fließkriterium berücksichtigt die Interaktion aller sechs Komponenten des räumlichen Spannungszustandes. Die durchgeführten Verifikations- und Simulationsberechnungen belegen, dass der erarbeitete Ansatz sowohl zur Bewertung des Tragvermögens als auch zur Beurteilung von Riss- bzw. Schädigungsursachen von Holzbauteilen eingesetzt werden kann. Die numerische Simulation eröffnet neue, bisher wenig beachtete Möglichkeiten zur Untersuchung komplexer Holzstrukturen sowie Anschlussdetails und wird sich auf Grund der Aussagekraft und Flexibilität auch im Ingenieurholzbau mehr und mehr gegenüber ausschließlich experimenteller Untersuchung durchsetzen.
Problemstellung, Stand der Forschung und Zielsetzung der Arbeit Seit mehreren Jahren bestimmen veränderte Zielsetzungen in Europa den politischen Handlungsrahmen in der Organisation der Wasserwirtschaft und folgen dem Trend zu stärker ökonomisch und ökologisch ausgerichtetem Handeln. So fordert die Europäische Wasserrahmenrichtlinie u.a. die Umsetzung einer flussgebietsorientierten Bewirtschaftung der Oberflächengewässer und des Grundwassers innerhalb bestimmter Fristen. Derzeitige Modernisierungskonzepte der Wasserwirtschaft fokussieren im Wesentlichen die Organisationsstrukturen kommunaler Aufgabenträger und deren Unternehmen, nicht aber eine Veränderung der umfassenden politischen und verwaltenden Organisationsstrukturen zur Steuerung der operativen Ebene. Die angestrebte Modernisierung wird daher insbesondere in kleinteiligen und komplexen, so genannten fragmentierten Organisationsstrukturen mit einer ausschließlich auf Unternehmen fokussierten Betrachtung nicht erreichbar sein. Diese kaum erforschten Strukturen bieten aufgrund der bestehenden Intransparenz und Komplexität der zahlreichen Organisationselemente vielfältige Ansatzpunkte für Optimierungsmöglichkeiten. Den entsprechenden Stand der Forschung bilden nur grundlegende Ansätze zur Betrachtung des Zusammenwirkens von Akteuren in Organisationsstrukturen sowie entsprechende Optimierungsansätze der Organisations- und Managementtheorien. Sie beziehen sich meist nur auf Unternehmen allgemein. Es fehlen derzeit umfassende und transparente Darstellungen der komplexen Organisationsstruktur der Wasserwirtschaft. Zielsetzung der vorliegenden Arbeit ist es, eine ganzheitliche Modernisierung insbesondere fragmentierter Wasserwirtschaftsstrukturen voranzutreiben. Es soll eine Steigerung der gesamten Leistungsfähigkeit sowohl der politischen, der verwaltungs- als auch der unternehmensbezogenen Organisationsstrukturen in der Wasserwirtschaft erreicht werden. Vorgehensweise und Methodik In einer Situationsanalyse wird ein umfassender politischer, verwaltungs- und unternehmensorientierter Organisationsrahmen mit den Handlungsspektren transparent gemacht. Nicht nur unternehmensorientierte, sondern ebenso politische und verwaltungsorientierte Akteure der Organisationsstrukturen werden dabei als potenziell Handelnde analysiert. Schwerpunkt ist dabei insbesondere das Zusammenwirken bestehender kleinteiliger oder so genannter fragmentierter Organisationsstrukturen. Aus weiteren mit theoretischen Abhandlungen zu Aufwand, Nutzen, Werten und Wertketten des akteursbezogenen Handlungsspektrums wird ein Werthandlungsmodell für die Wasserwirtschaft entwickelt. Internationale Organisationsmodelle der Wasserwirtschaft werden hinsichtlich gesamtheitlichen Zusammenwirkens untersucht. Dem folgt eine empirische Untersuchung der Aufgabenträger des Thüringer Strukturhilfeprogramms der Jahre 1999 bis 2006, um weitere Erkenntnisse über fragmentierte Organisationsstrukturen zu gewinnen. Aus den in Theorie und Praxis gewonnen Erkenntnissen wird ein Instrument zur Entscheidungsunterstützung in mehren Schritten entwickelt, das Entscheidungsträger auf nationaler Ebene beziehungsweise entsprechender föderaler Zuständigkeit darin unterstützt, die Leistungsfähigkeit der Organisationsstrukturen der Wasserwirtschaft im Sinne eines effizienten Erreichens gesetzter Qualitätsziele zu optimieren. Ergebnisse Die ökonomisch-technische Arbeit gibt Hilfestellung bei geeigneten Optimierungsanstrengungen in für die Wasserwirtschaft typischen fragmentierten Organisationsstrukturen. Das fünfstufige Werthandlungsmodell mit seiner transparenten Darstellung des Zusammenspiels operativer, administrativer und politischer Akteure liefert Handlungsansätze für eine verbesserte Erfüllung der veränderten Zielsetzungen in Europa. Im Gegensatz zu bisherigen ausschließlich unternehmensspezifischen Darstellungen erlaubt das Modell eine institutionen- beziehungsweise unternehmensübergreifende Untersuchung. Diese wird den Belangen wasserwirtschaftlicher Organisationsstrukturen gerecht, die sich bisher an politischen anstatt an wasserwirtschaftlichen Grenzen orientieren. Eine modellbezogene Untersuchung mehrerer Fusionsprojekte ergab im Wesentlichen, dass Versorgungsgebiete kleiner Aufgabenträger am stärksten vom Zusammenwirken mit einer größeren Einheit profitieren können. Hierbei können Probleme unzureichender personeller und struktureller Ressourcen gelöst und eine ordnungsgemäße Betriebsführung erreicht werden. Das Zusammenwirken führt neben Aufwandsoptimierungen zu essentiellen Qualitätsverbesserungen in den Betriebsabläufen, die die Betriebssicherheit erhöhen. Zudem erlaubt das Zusammenwirken in größeren Einheiten die Implementierung einer ganzheitlichen Unternehmensphilosophie und damit eine qualifizierte Steuerung von Eigen- und Fremdleistungen. Die vorgenommene Systematisierung der Synergieeffekte sowie der dazu notwendigen Maßnahmen und Voraussetzungen bietet eine grundlegende Struktur, an der sich weiterführende Untersuchungen von Projekten der Zusammenarbeit in der Wasserwirtschaft orientieren können. Aus den Untersuchungen zu internationalen Organisationsansätzen und regionalen Fusionsprojekten lässt sich folgern, dass über ein geeignetes Zusammenwirken in der Wasserwirtschaft nur fallbezogen zu entscheiden ist. Diese Erkenntnis führte zu der Entwicklung eines Instrumentes, das die Organisationsstrukturen transparent macht und die Entscheidungsfindung unterstützt. Die Anwendung des Instrumentes zur Entscheidungsunterstützung bietet die Chance, geeignete organisatorische Veränderungen hin zu einer zukunftsorientierten Wasserwirtschaft unter Berücksichtigung regionaler Aspekte durchzuführen und gleichzeitig Synergiepotenzial bei einer Zusammenlegung kleiner Unternehmen mit anderen Unternehmen realisieren zu können. Fallstudien behandeln das Instrument und unterstützen die adressierten Entscheidungsträger darin, sich ein klares Bild über das mögliche Optimierungspotenzial durch Veränderungen der umfassenden Organisationsstrukturen zu machen. Dies fördert sowohl eine optimierte Koordination der Handlungsportfolios als auch deren Umsetzung. Die Arbeit bietet einen Anhalt für eine intensivere Begleitung und Aufarbeitung von Kooperations- und Konzentrationsprozessen insbesondere an Schnittstellen zwischen Aufgabenträgern, Unternehmen und Behörden der Wasserwirtschaft. Die Zuordnung, welche Akteure von den Chancen der Wertbeitragssteigerung am stärksten profitieren, bleibt die Aufgabe der politischen Willensbildung. Abschließend ist festzustellen, dass die Wasserwirtschaft nur dann den ehrgeizigen Zielen politischer Willensbildung nahe kommt und dem Wohle der Gesellschaft dient, wenn sie in geeigneten Organisationsstrukturen stattfindet. Hierfür liefert die beschriebene Arbeit ihren Beitrag, indem sie Entscheidungsträgern auf Bundes- und Länderebene das Handwerkszeug bereitstellt, geeignete Veränderungen der Strukturen abwägen und veranlassen zu können.
This thesis presents the advances and applications of phase field modeling in fracture analysis. In this approach, the sharp crack surface topology in a solid is approximated by a diffusive crack zone governed by a scalar auxiliary variable. The uniqueness of phase field modeling is that the crack paths are automatically determined as part of the solution and no interface tracking is required. The damage parameter varies continuously over the domain. But this flexibility comes with associated difficulties: (1) a very fine spatial discretization is required to represent sharp local gradients correctly; (2) fine discretization results in high computational cost; (3) computation of higher-order derivatives for improved convergence rates and (4) curse of dimensionality in conventional numerical integration techniques. As a consequence, the practical applicability of phase field models is severely limited.
The research presented in this thesis addresses the difficulties of the conventional numerical integration techniques for phase field modeling in quasi-static brittle fracture analysis. The first method relies on polynomial splines over hierarchical T-meshes (PHT-splines) in the framework of isogeometric analysis (IGA). An adaptive h-refinement scheme is developed based on the variational energy formulation of phase field modeling. The fourth-order phase field model provides increased regularity in the exact solution of the phase field equation and improved convergence rates for numerical solutions on a coarser discretization, compared to the second-order model. However, second-order derivatives of the phase field are required in the fourth-order model. Hence, at least a minimum of C1 continuous basis functions are essential, which is achieved using hierarchical cubic B-splines in IGA. PHT-splines enable the refinement to remain local at singularities and high gradients, consequently reducing the computational cost greatly. Unfortunately, when modeling complex geometries, multiple parameter spaces (patches) are joined together to describe the physical domain and there is typically a loss of continuity at the patch boundaries. This decrease of smoothness is dictated by the geometry description, where C0 parameterizations are normally used to deal with kinks and corners in the domain. Hence, the application of the fourth-order model is severely restricted. To overcome the high computational cost for the second-order model, we develop a dual-mesh adaptive h-refinement approach. This approach uses a coarser discretization for the elastic field and a finer discretization for the phase field. Independent refinement strategies have been used for each field.
The next contribution is based on physics informed deep neural networks. The network is trained based on the minimization of the variational energy of the system described by general non-linear partial differential equations while respecting any given law of physics, hence the name physics informed neural network (PINN). The developed approach needs only a set of points to define the geometry, contrary to the conventional mesh-based discretization techniques. The concept of `transfer learning' is integrated with the developed PINN approach to improve the computational efficiency of the network at each displacement step. This approach allows a numerically stable crack growth even with larger displacement steps. An adaptive h-refinement scheme based on the generation of more quadrature points in the damage zone is developed in this framework. For all the developed methods, displacement-controlled loading is considered. The accuracy and the efficiency of both methods are studied numerically showing that the developed methods are powerful and computationally efficient tools for accurately predicting fractures.
This thesis focuses on the cryptanalysis and the design of block ciphers and hash func- tions. The thesis starts with an overview of methods for cryptanalysis of block ciphers which are based on differential cryptanalysis. We explain these concepts and also sev- eral combinations of these attacks. We propose new attacks on reduced versions of ARIA and AES. Furthermore, we analyze the strength of the internal block ciphers of hash functions. We propose the first attacks that break the internal block ciphers of Tiger, HAS-160, and a reduced round version of SHACAL-2. The last part of the thesis is concerned with the analysis and the design of cryptographic hash functions. We adopt a block cipher attack called slide attack into the scenario of hash function cryptanalysis. We then use this new method to attack different variants of GRINDAHL and RADIOGATUN. Finally, we propose a new hash function called TWISTER which was designed and pro- posed for the SHA-3 competition. TWISTER was accepted for round one of this com- petition. Our approach follows a new strategy to design a cryptographic hash function. We also describe several attacks on TWISTER and discuss the security issues concern- ing these attack on TWISTER.
In the last two decades, many cities have faced changes in their economic basis and therefore adopted an entrepreneurial approach in the municipal administration accompanied by city marketing strategies. Brazilian cities have also adopted this approach, like the case of Florianópolis. Florianópolis has promoted advertising campaigns on the natural resources of the Island of Santa Catarina as well as on its quality of life in comparison to other cities. However, due also to such campaigns, it has experienced a great demographic growth and, consequently, infrastructural and social problems. Nevertheless, it seems to have a good image within the national urban scenario and has been commonly considered an “urban consumption dream” for many Brazilians. This paradoxical situation is the reason why it has been chosen as the research object in this dissertation. Thus, the questions of this research are: is there a gap between the promise and the performance of the city of Florianópolis? If so, can tourists and residents recognize it? And finally, how can this gap be demonstrated? Accordingly, the main objective of this research is to propose a conformity assessment approach applicable to cities, by which the content of city advertisement campaigns can be compared to its performance indicators and satisfaction degree of its consumers. Therefore, this approach is composed by different methods: literature and legislation reviews, semi-structured and structured interviews with experts and inhabitants, an urban centrality development analysis, a qualitative discourse analysis of advertising material (including images), a qualitative content analysis of newspaper reports and a questionnaire survey. Finally, the theses are: yes, there is a gap between promise and performance of Florianópolis; this promise is a result of city marketing campaigns which advertise its natural features and at the same time hiding its urban aspects, supported by some political and private actors, mainly interested in the development of tourism and real estate market in the city; this gap has been already recognized by tourists and more intensively by residents; the selected methods worked as a kind of conformity assessment for cities and tourist destinations; and last but not least, since there is a gap, it designates the practice of “make-up urbanism”. Research limitations are the short time frame covered by this analysis and small and non-representative samples. However, its relevance lies in the attempt to fill in two disciplinary lacunas: a conformity assessment approach for cities and the creation of knowledge about Florianópolis and its further presentation at an international level, on the one hand. On the other hand, the transfer of this approach to other cities would help explaining a (common) contemporary urban phenomenon and appeal for more ethical conduct and transparency in the practices of city marketing.
In ten chapters, this thesis presents information retrieval technology which is tailored to the research activities that arise in the context of corpus-based digital humanities projects.
The presentation is structured by a conceptual research process that is introduced in Chapter 1. The process distinguishes a set of five research activities: research question generation, corpus acquisition, research question modeling, corpus annotation, and result dissemination. Each of these research activities elicits different information retrieval tasks with special challenges, for which algorithmic approaches are presented after an introduction of the core information retrieval concepts in Chapter 2.
A vital concept in many of the presented approaches is the keyquery paradigm introduced in Chapter 3, which represents an operation that returns relevant search queries in response to a given set of input documents. Keyqueries are proposed in Chapter 4 for the recommendation of related work, and in Chapter 5 for improving access to aspects hidden in the long tail of search result lists.
With pseudo-descriptions, a document expansion approach is presented in Chapter 6. The approach improves the retrieval performance for corpora where only bibliographic meta-data is originally available. In Chapter 7, the keyquery paradigm is employed to generate dynamic taxonomies for corpora in an unsupervised fashion.
Chapter 8 turns to the exploration of annotated corpora, and presents scoped facets as a conceptual extension to faceted search systems, which is particularly useful in exploratory search settings. For the purpose of highlighting the major topical differences in a sequence of sub-corpora, an algorithm called topical sequence profiling is presented in Chapter 9.
The thesis concludes with two pilot studies regarding the visualization of (re)search results for the means of successful result dissemination: a metaphoric interpretation of the information nutrition label, as well as the philosophical bodies, which are 3D-printed search results.
Ziel der Arbeit ist es, eine neue Methode der seismischen Gefährdungsabschätzung vorzustellen. Es wird die Abschätzung der seismischen Gefährdung ohne die häufig angewandten Einteilungen in seismische Quellzonen beschrieben. Die vorgestellte Methode basiert auf Nachbarschaftsanalysen von Epizentren. Diese Nachbarschaftsanalysen ermöglichen ein selbst generierendes seismisches Quellenmodell. Entwicklung, Parameterstudien und Anwendung der Methode werden gezeigt.
Kritische Theorie des Ornaments – Zum Statuswandel der Ästhetik in der architektonischen Moderne
(2002)
Gegen die Kahlschlagmetapher von der "Liquidierung des Ornaments" steht im Zentrum der Dissertation die These vom Statuswandel des Ornaments in der architektonischen Moderne. Am Punkt des technologischen Paradigmenwechsels wird das Ornament im Spannungsfeld diskutiert zwischen der Maschinenproduktion zu Beginn des 20. Jhd. und der Virtualisierung der Kultur im Computerzeitalter, d.h. zwischen der vermeintlichen Abschaffung des Ornaments durch Loos (1910) und Eisenmans performativen Entwurfsverfahren (1990). Die Frage stellt sich, inwiefern die Ornamentproblematik der Moderne nicht als Vorgeschichte zur spezifischen Problematik der medialisierten Massenkultur und ihrer digitalen Bildlogik heute zu lesen wäre. Mit V. Sklovskij und S. Freud, M. Tafuri und K. M. Hays, aber auch zwischen Adornos Ästhetik der "Nicht-Identität" und Derridas "Parergonalität" geht es um die semiologische Reformulierung des Ornaments: im Übergang der Ästhetik der Moderne vom Dualismusprinzip zum Wiederholungsprinzip, von der affirmativen Rückbezüglichkeit zur kritischen Performativität und von der Objektproduktion zur Medialisierung der Kultur.
Das Hauptziel der Arbeit war es zu klären, ob alkalihaltige Enteisungsmittel eine Alkali-Kieselsäure-Reaktion (AKR) auslösen und/oder beschleunigen können und was die dabei ggf. zugrunde liegenden Mechanismen sind. Die Untersuchungen dazu ergaben, dass die auf Verkehrsflächen eingesetzten alkalihaltigen Enteisungsmittel auf Basis von Natriumchlorid (Fahrbahndecken) bzw. auf Basis der Alkaliacetate und -formiate (Flugbetriebsflächen) den Ablauf einer AKR in Betonen mit alkalireaktiven Gesteinskörnungen auslösen und mitunter stark beschleunigen können. Dabei nimmt die AKR-fördernde Wirkung der Enteisungsmittel in der Reihenfolge Natriumchlorid - Alkaliacetate - Alkaliformiate erheblich zu.
Es zeigte sich, dass im Fall der Alkaliacetate und -formiate nicht allein die Zufuhr von Alkalien von Bedeutung ist, sondern dass es außerdem zu einer Freisetzung von OH-Ionen aus dem Portlandit und folglich zu einem Anstieg des pH-Wertes in der Porenlösung kommt. Dadurch wird der Angriff auf alkalireaktives SiO2 in Gesteinskörnungen verstärkt und der Ablauf einer AKR beschleunigt. Unter äußerer NaCl-Zufuhr kommt es hingegen nicht zu einem Anstieg des pH-Wertes, was der Grund für die weniger stark AKR-fördernde Wirkung von NaCl ist. Von Bedeutung sind hier die zugeführten Na-Ionen und offenbar ein sich andeutender, direkter Einfluss von NaCl auf das SiO2-Löseverhalten. Sind pH-Wert und Na-Konzentration in der Porenlösung ausreichend hoch, wird sich thermodynamisch bedingt AKR-Gel bilden. Die Bildung von FRIEDEL’schem Salz ist dabei nur eine Begleiterscheinung, aber keine Voraussetzung für den Ablauf einer AKR unter äußerer NaCl-Zufuhr.
Es zeigte sich weiter, dass sich mit der FIB-Klimawechsellagerung als Performance-Prüfung das AKR-Schädigungspotential von Betonen für Fahrbahndecken und Flugbetriebsflächen zuverlässig beurteilen lässt. Die Vorteile der FIB-Klimawechsellagerung liegen in der Prüfung kompletter, projektspezifischer Betonzusammensetzungen unter Beachtung aller praxisrelevanten klimatischen Einwirkungen und vor allem in der Berücksichtigung einer äußeren Alkalizufuhr. Innerhalb von 36 Wochen kann das AKR-Schädigungspotential einer Betonzusammensetzung für eine Nutzungsdauer von 20-30 Jahren in der Praxis sicher beurteilt werden.
Briefly, the two basic questions that this research is supposed to answer are:
1. Howmuch fiber is needed and how fibers should be distributed through a fiber reinforced composite (FRC) structure in order to obtain the optimal and reliable structural response?
2. How do uncertainties influence the optimization results and reliability of the structure?
Giving answer to the above questions a double stage sequential optimization algorithm for finding the optimal content of short fiber reinforcements and their distribution in the composite structure, considering uncertain design parameters, is presented. In the first stage, the optimal amount of short fibers in a FRC structure with uniformly distributed fibers is conducted in the framework of a Reliability Based Design Optimization (RBDO) problem. Presented model considers material, structural and modeling uncertainties. In the second stage, the fiber distribution optimization (with the aim to further increase in structural reliability) is performed by defining a fiber distribution function through a Non-Uniform Rational BSpline (NURBS) surface. The advantages of using the NURBS surface as a fiber distribution function include: using the same data set for the optimization and analysis; high convergence rate due to the smoothness of the NURBS; mesh independency of the optimal layout; no need for any post processing technique and its non-heuristic nature. The output of stage 1 (the optimal fiber content for homogeneously distributed fibers) is considered as the input of stage 2. The output of stage 2 is the Reliability Index (b ) of the structure with the optimal fiber content and distribution.
First order reliability method (in order to approximate the limit state function) as well as different material models including Rule of Mixtures, Mori-Tanaka, energy-based approach and stochastic multi-scales are implemented in different examples. The proposed combined model is able to capture the role of available uncertainties in FRC structures through a computationally efficient algorithm using all sequential, NURBS and sensitivity based techniques. The methodology is successfully implemented for interfacial shear stress optimization in sandwich beams and also for optimization of the internal cooling channels in a ceramic matrix composite.
Finally, after some changes and modifications by combining Isogeometric Analysis, level set and point wise density mapping techniques, the computational framework is extended for topology optimization of piezoelectric / flexoelectric materials.
Der Entwurfsraum für den Entwurf eines Tragwerks ist ein n-dimensionaler Raum, der aus allen freien Parametern des Modells aufgespannt wird.
Traditionell werden nur wenige Punkte dieses Raumes durch eine numerische (computergestützte) Simulation evaluiert, meist auf Basis der Finite-Elemente-Methode.
Mehrere Faktoren führen dazu, dass heute oft viele Revisionen eines Simulationsmodells durchlaufen werden: Zum einen ergeben sich oft Planungsänderungen, zum anderen ist oft die Untersuchung von Planungsalternativen und die Suche nach einem Optimum wünschenswert.
In dieser Arbeit soll für ein vorhandenes Finite-Elemente-Framework die sequentielle Datei-Eingabeschnittstelle durch eine Netzwerkschnittstelle ersetzt werden, die den Erfordernissen einer interaktiven Arbeitsweise entspricht. So erlaubt die hier konzipierte Schnittstelle interaktive, inkrementelle Modelländerungen sowie Status- und Berechnungsergebnis-Abfragen durch eine bidirektionale Schnittstelle.
Die Kombination aus interaktiver numerischer Simulation und Interoperabilität durch die Anwendung von Konzepten zur Bauwerks-Informations-Modellierung im Tragwerksentwurf ist Ziel dieser Dissertation. Die Beschreibung der Konzeption und prototypischen Umsetzung ist Gegenstand der schriftlichen Arbeit.
Die Arbeit befasst sich mit der Anwendung faserverstärkter Kunststoffe für Tragwerke des Hochbaus. Es wird ein geschichtlicher Überblick über die Jahre 1950 bis 1980 gegeben und dabei herausgestellt, wie es 1. zur Einführung des bis 1950 unbekannten Werkstoffes im Bauwesen kommen konnte 2. welche Personen und Institute maßgeblich an der Einführung und Entwicklung des Bauens mit FVK beteiligt waren 3. welche Tragwerke verwendet wurden 4. wie die Pioniere diese Tragwerke bemaßen 5. welche konstruktiven Besonderheiten sich mit der Verwendung von FVK in der Tragstruktur ergaben Nach einer Einführung werden im Kapitel 2 die wichtigsten Faktoren der Entwicklung von Tragwerken aus GFK erörtert. Im Kapitel 3 wird die Technik der Fertigung von GFK-Teilen und deren Fügung beschrieben. Im Kapitel 4 werden die Tragwerke beschrieben und einzelne Tragwerkstypen eingehend erörtert. Im Kapitel 5 werden die Bemessungskonzepte und deren Entwicklung erörtert. In der Bilanz werden die Faktoren aufgezählt, die zum Abklingen des Bauens mit FVK in der Tragstruktur geführt haben. Die Arbeit wird ergänzt durch eine ca. 40-seitige Tabelle in der die gebauten Tragwerke in Abhängigkeit von den technischen Parametern Spannweiten und Lasten dargestellt werden. Im Anhang werden 10 exemplarische Bauten detailliert erörtert.
Für die Optimierung eines bereits bestehenden Prozesses, z.B. im Hinblick auf den maximal möglichen Durchsatz bei gleich bleibender Qualität der Pyrolyseprodukte oder für die Einstellung der Betriebsparameter bei einem unbekannten Einsatzstoff, kann ein mathematisches Modell eine erste Abschätzung für die Einstellung betrieblicher Parameter, wie z.B. Temperaturprofile im Gas und Feststoff, geben. Darüber hinaus kann man mit einem Modell für neu zu konzipierende Anlagen konstruktive Parameter ermitteln oder überprüfen. In dem hier dargestellten vereinfachten Modellansatz werden u. a. die Umsatzvorgänge für ein Partikelkollektiv mit Hilfe von Summenparametern aus Untersuchungen an einer Thermowaage und ergänzend im Drehrohr ermittelt. Das Prozessmodell basiert auf einem Reaktormodell, das das Verweilzeitverhalten des Einsatzstoffes im Reaktor beschreibt und einem Basismodell, bestehend aus Massen- und Energiebilanzen für Solid und Gas sowie Ansätzen zur Trocknung und zum Umsatz. Im Hinblick auf die Verfügbarkeit von stoffspezifischen Daten von Abfällen sind insbesondere zur Berechnung des Verweilzeitverhaltens und des Umsatzes im Heißbetrieb vereinfachende Ansätze durch die Bildung von Summenparametern hilfreich. Das Prozessmodell wurde schrittweise validiert: Zunächst wurde in Kaltversuchen ein Summenparameter, der u.a. die unbekannten Reibungsverhältnisse im Drehrohr berücksichtigt, durch Vergleich von Experiment und Rechnung für Sand ermittelt. Für heterogene Abfallgemische kann dieser Materialfaktor zwar für Kaltversuche bestimmt werden (soweit dies für Abfälle möglich ist), im Heißbetrieb ändern sich jedoch alle wesentlichen Stoffparameter wie Partikeldurchmesser, Schüttdichte und Schüttwinkel sowie die Reibungsverhältnisse. Für diesen Fall wird der Materialfaktor zu Eins gesetzt und die wesentlichen Stoffgrößen umsatzabhängig modelliert. Dazu ist die Kenntnis der Schüttdichten, statischen Schüttwinkel und mittleren Partikeldurchmesser vom Abfall und Koks aus dem Abfall notwendig. Die mit diesen Stoffdaten berechnete Verweilzeit wurde in einem Heißversuch bei der Pyrolyse von Brennstoff aus Müll- (BRAM) Pellets mit einem Fehler von ca. 20 % erreicht. Das Basismodell wurde zunächst ohne Umsatz an Messergebnisse mit Sand im Drehrohr unter Variation von Temperaturen und Massenstrom angepasst bevor mit diesem Modell die Pyrolyse von einem homogenen Einsatzstoff (Polyethylen mit Sand) im Drehrohr berechnet wurde. Hier konnte bereits gezeigt werden, dass mit diesem vereinfachten Modellansatz gute Ergebnisse beim Vergleich von Modell und Experiment erzielt werden können. Im nächsten Schritt wurde der Sand angefeuchtet, um die Teilmodelle der Trocknung unterhalb und bei Siedetemperatur zu validieren. Die Mess- und Modellierungsergebnisse stimmen gut miteinander überein. Für ein Abfallgemisch aus BRAM-Pellets konnte der Verlauf der Solidtemperaturen unter der Berücksichtigung variabler Stoffwerte des Solids und eines Verschmutzungsfaktors, der den Belag des Drehrohres mit anklebendem Pellets bis zur Verkokung berücksichtigt, gut wiedergegeben werden. Die Gastemperaturen können in erster Näherung ausreichend genau durch das mathematische Modell beschrieben werden. Mit diesem vereinfachten mathematischen Modellansatz steht nun ein Hilfsmittel zur Auslegung und Optimierung von indirekt beheizten Drehrohren zur Verfügung, um bei einem neuen Einsatzstoff mit Daten aus experimentellen Basisuntersuchungen, die Temperaturverläufe im Feststoff und Gas sowie die Gaszusammensetzung in Abhängigkeit der wesentlichen Einflussgrößen abzuschätzen.
In this work, practice-based research is conducted to rethink the understanding of aesthetics, especially in relation to current media art. Granted, we live in times when technologies merge with living organisms, but we also live in times that provide unlimited resources of knowledge and maker tools. I raise the question: In what way does the hybridization of living organisms and non-living technologies affect art audiences in the culture that may be defined as Maker culture? My hypothesis is that active participation of an audience in an artwork is inevitable for experiencing the artwork itself, while also suggesting that the impact of the umwelt changes the perception of an artwork. I emphasize artistic projects that unfold through mutual interaction among diverse peers, including humans, non-human organisms, and machines. In my thesis, I pursue collaborative scenarios that lead to the realization of artistic ideas: (1) the development of ideas by others influenced by me and (2) the materialization of my own ideas influenced by others. By developing the scenarios of collaborative work as an artistic experience, I conclude that the role of an artist in Maker culture is to mediate different types of knowledge and different positions, whereas the role of the audience is to actively engage in the artwork itself. At the same time, aesthetics as experience is triggered by the other, including living and non-living actors. It is intended that the developed methodologies could be further adapted in artistic practices, philosophy, anthropology, and environmental studies.
Verbundverhalten von GFK-Bewehrungsstäben und Rissentwicklung in GFK-stabbewehrten Betonbauteilen
(2004)
In der vorliegenden Arbeit werden im Rahmen von Ausziehversuchen die Verbundeigenschaften verschiedener Bewehrungsstäbe aus glasfaserverstärkten Kunststoffen (GFK) unter Berücksichti-gung signifikanter Einflussgrößen auf das Verbundverhalten wie Oberflächenprofilierung der Stäbe, Stabdurchmesser, Betonfestigkeit, Verbundlänge sowie Beanspruchungsart unter einheitlichen Versuchsrandbedingungen bestimmt. Es erfolgt eine Bewertung der Einflussgrößen, der Verbundeigenschaften und des Verbundversagens der untersuchten GFK-Bewehrungsstäbe. Basierend auf der Modellbildung zum Verbund zwischen GFK-Stäben und Beton wird die Bestimmung der Verankerungslänge aufgezeigt. Im Rahmen von Versuchen an GFK-stabbewehrten Dehnkörpern und Balken wird die Auswirkung der spezifischen mechanischen Eigenschaften der GFK-Stäbe auf die Rissentwicklung gegenüber stahlbewehrten Bauteilen untersucht. Insbesondere wird betrachtet, welchen Einfluss das Bewehrungsmaterial, der Bewehrungsgrad, die Betonfestigkeit sowie die Belastungsart auf die Mitwirkung des Betons auf Zug zwischen den Rissen sowie auf die Entwicklung des Rissbildes, der Rissbreiten und der Rissabstände haben. Auf Grundlage der experimentellen Untersuchungen wird die Übertragbarkeit der für Stahlbetonbauteile üblichen Ansätze zur Bestimmung der Rissbreite auf GFK-stabbewehrte Betonbauteile bewertet.
The planning process in civil engineering is highly complex and not manageable in its entirety.
The state of the art decomposes complex tasks into smaller, manageable sub-tasks. Due to the close interrelatedness of the sub-tasks, it is essential to couple them. However, from a software engineering point of view, this is quite challenging to do because of the numerous incompatible software applications on the market. This study is concerned with two main objectives: The first is the generic formulation of coupling strategies in order to support engineers in the implementation and selection of adequate coupling strategies. This has been achieved by the use of a coupling pattern language combined with a four-layered, metamodel architecture, whose applicability has been performed on a real coupling scenario. The second one is the quality assessment of coupled software. This has been developed based on the evaluated schema mapping. This approach has been described using mathematical expressions derived from the set theory and graph theory by taking the various mapping patterns into account. Moreover, the coupling quality has been evaluated within the formalization process by considering the uncertainties that arise during mapping and has resulted in global quality values, which can be used by the user to assess the exchange. Finally, the applicability of the proposed approach has been shown using an engineering case study.
Verkehrsmengenrisiko bei PPP-Projekten im Straßensektor - Determinanten effizienter Risikoallokation
(2010)
Trotz weltweit umfangreichen Erfahrungen mit Public Private Partnership Projekten im Straßensektor bleibt der Umgang mit dem Verkehrsmengenrisiko für die Projektbeteiligten eine Herausforderung. Die Arbeit widmet sich daher der wesentlichen Fragestellung nach einer effizienten Allokation dieses Risikos, dem nicht weniger Bedeutung zukommt als für den gesamtwirtschaftlichen Erfolg eines Straßenkonzessionsprojektes eine entscheidende Rolle zu spielen. Untersucht werden zunächst die Charakteristika des Verkehrsmengenrisikos mit seinen umfänglichen Einflussfaktoren. Anschließend werden die in der Praxis zur Anwendung kommenden Vertragsmodelle zur Bewirtschaftung von Straßeninfrastruktur dargestellt und analysiert, wie in den einzelnen Modellen Verkehrsmengenrisiko auf die verschiedenen Vertragspartner verteilt wird. Auf Basis dieser Grundlagen wird ein kriteriengestützter Analyserahmen entwickelt, der die Effizienz unterschiedlicher Risikoallokationen zwischen den Vertragspartner bewertet. Dabei werden einerseits die effizienzbeeinflussenden Eigenschaften der potentiellen Risikoträger eines PPP-Projektes berücksichtigt als auch die die effizienzbeeinflussenden Wirkungen der unterschiedlichen Vertragsmodelle. Aus den Erkenntnissen dieser Analyse werden letztlich Handlungs- und Gestaltungsempfehlungen zum Umgang mit dem Verkehrsmengenrisiko abgeleitet.
This thesis deals with the basic design and rigorous analysis of cryptographic schemes and primitives, especially of authenticated encryption schemes, hash functions, and password-hashing schemes.
In the last decade, security issues such as the PS3 jailbreak demonstrate that common security notions are rather restrictive, and it seems that they do not model the real world adequately. As a result, in the first part of this work, we introduce a less restrictive security model that is closer to reality. In this model it turned out that existing (on-line) authenticated encryption schemes cannot longer beconsidered secure, i.e. they can guarantee neither data privacy nor data integrity. Therefore, we present two novel authenticated encryption scheme, namely COFFE and McOE, which are not only secure in the standard model but also reasonably secure in our generalized security model, i.e. both preserve full data inegrity. In addition, McOE preserves a resonable level of data privacy.
The second part of this thesis starts with proposing the hash function Twister-Pi, a revised version of the accepted SHA-3 candidate Twister. We not only fixed all known security issues
of Twister, but also increased the overall soundness of our hash-function design.
Furthermore, we present some fundamental groundwork in the area of password-hashing schemes. This research was mainly inspired by the medial omnipresence of password-leakage incidences. We show that the password-hashing scheme scrypt is vulnerable against cache-timing attacks due to the existence of a password-dependent memory-access pattern. Finally, we introduce Catena the first password-hashing scheme that is both memory-consuming and resistant against cache-timing attacks.
This thesis examines urban partition in Nicosia, the capital of Cyprus, and how its changing roles and shifting perceptions in a post-conflict setting reflect power relations, and their constant renegotiation. Nicosia, the capital of Cyprus, was officially divided in 1974 in the aftermath of an eighteen-year-long conflict between the island’s Turkish- and Greek-Cypriot communities. As a result, a heavily militarized Buffer Zone, established as an emergency measure against perpetuation of intercommunal violence, has been cutting through its historic centre ever since.
This thesis departs from a genuine interest in the material and ideational dimensions of urban partition. How is it constructed, not merely in physical terms but in the minds of the societies affected by conflict? How is it established in official and everyday discourses? What kinds of mechanisms have been developed to maintain it, and make an inseparable part of the urban experience? Moreover, taking into account the consensus in relevant literature pertaining to the imperative for its removal, this thesis is inquiring into the relevance of peace agreements to overcoming urban partition. For this purpose, it also looks at narratives and practices that have attempted to contest it.
The examples examined in this thesis offer pregnant analytical moments to understand Nicosia’s Buffer Zone as a dynamic social construct, accommodating multiple visions of and for the city. Its space ‘in-between’ facilitates encounters between various actors, accommodates new meanings, socio-spatial practices and diverse imaginaries. In this sense, urban partition is explored in this thesis as a phenomenon that transcends scales as well as temporalities, entwining past, present, and future.
In dieser Arbeit werden die Ergebnisse von experimentellen Untersuchungen an unbewehrten und bewehrten modifizierten Betonen unter monoton steigender Belastung bis zum Bruch, einfacher Kurzzeitbelastung im Grenzbereich der Tragfähigkeit und mehrfach wiederholter Belastung mit kontinuierlicher Be- und Entlastungsgeschwindigkeit vorgestellt und ausgewertet. Für die Modifizierung der Betone wurden zwei grundsätzliche Vorgehens¬weisen angewendet: die Variation der Gesteinskörnung und die Modifizierung der Bindemittelphase mit thermoplastischen Polymeren. Die Auswirkungen der Modifikationen auf die Festigkeitseigenschaften und das Formänderungsverhalten des Betons bei Kurzzeitbelastung waren dabei von besonderem Interesse.
Die beobachteten Veränderungen der Festbetoneigenschaften sowie der nichtlineare Zu-sammenhang zwischen den elastischen und nichtelastischen Verformungsanteilen signali-sieren, dass derartige Modifizierungen das Verformungs- und Bruchverhalten von Beton sig-nifikant beeinflussen und somit beim Nachweis der Tragfähigkeit und Gebrauchstauglichkeit berücksichtigt werden müssen. Neben der Evaluierung des beanspruchungsabhängigen Formänderungsverhaltens werden die etablierten Ansätze zur Beschreibung der Gefügezu-standsbereiche bei Druckbelastung weiter entwickelt, so dass die Übergänge zwischen den Bereichen exakt ermittelt und die Ausprägung der Bereiche quantifiziert werden können. Damit ist ein genauerer Vergleich der durch die Modifizierungen hervorgerufenen Verände-rungen möglich.
Das Waldhufendorf Nakléřov (Nollendorf) gehört, wie eine Vielzahl weiterer Orte im bis 1945 hauptsächlich von deutschsprachiger Bevölkerung besiedelten tschechischen »Grenzgebiet«, zu jenen Orten, die heute aus der Perspektive verschiedener Akteure als verschwunden oder untergegangen beschrieben werden. Auf Grund ihres allgegenwärtigen fragmentarischen Erhaltungszustands und der oft fehlenden Bausubstanz scheinen sie bei einer oberflächlichen Schau nicht als Interessensgebiete der Denkmalpflege in Frage zu kommen. Untersucht man sie mit den wertneutralen Analyse- und Inventarisierungsverfahren der Angewandten Historischen Geografie, so kommt man zu einem differenzierteren Ergebnis, das zum einen die Darstellung als verschwundene Orte fragwürdig erscheinen lässt und zum anderen zu einer Neufokussierung des Aspekts der Abwesenheit aus denkmalpflegerischer Sicht führt. Im Verlauf der Bestandsaufnahme der gegenwärtigen materiellen Verfasstheit des paradigmatisch untersuchten Ortes, der Gesamtschau des Noch-Vorhandenen als komplexem Netz unterschiedlichster Indizien, die sowohl auf historische Tiefenschichtungen als auch auf Abwesenheiten verweisen, hat sich gezeigt, dass der Ort Nakléřov über vielfältige Relikte und Spuren verfügt, die auf seine Entstehung sowie unterschiedliche historische Epochen und Zäsuren verweisen. Basierend auf dem Palimpsest als Vorstellungsgerüst und der Spurensuche als Leitmotiv einer verräumlichten Geschichtsschreibung führte der am Ort erprobte mikrohistorische Blick zu einer geschärften Perspektive auf verborgene und verschwundene Schichten und Objekte, auf sich räumlich ausdrückende Machtverhältnisse und politische Zäsuren.
Zur Veranschaulichung wurden verschiedene Möglichkeiten einer GIS-basierten kartografischen Erfassung aufgezeigt, die der Besonderheit einer Landschaft der Leerstellen des 20. Jahrhunderts mit der Wüstung eines Ortes vor dem Hintergrund der Zwangsmigration der deutschen Bevölkerung und des politischen Regimewechsels nach 1945 gerecht werden sollte. In Fortführung der Denkanstöße von Norbert HUSE, den denkmalpflegerischen Leistungsbegriff in Frage zu stellen und auch Orte der Abwesenheit hinsichtlich ihrer potentiellen Denkmalwertigkeit zu hinterfragen, sowie in Anknüpfung an das Konzept der European Landscape Convention (2004), auch Landschaftsschäden und die Vergegenwärtigung nicht mehr vorhandener Landschaftscharakteristika in die Inventarisierung einzubeziehen, wurde im Untersuchungsgebiet der Kartierung stark geschädigter und verschwundener Bereiche und Objekte besondere Aufmerksamkeit gewidmet. Den Ausgangspunkt bildete die Bestandsaufnahme der Kulturlandschaftselemente mit historischem Zeugniswert, die unabhängig von Kriterien wie Schönheit oder kunsthistorischer Wert erfasst wurden. Auf der Chronotop-Karte hingegen wurde die Genese des Ortes zurückverfolgt. Das gleichzeitige Nebeneinander ungleichzeitiger Elemente wurde in verschiedenen räumlichen Ausschnitten hinsichtlich seiner Entwicklungsgeschichte analysiert, historisch kontextualisiert und auf Kontinuitäten und Zäsuren hin überprüft. Dabei stand nicht die Eruierung eines kulturlandschaftlichen »Urtextes« im Fokus, sondern das Herausarbeiten von Zeitschichten. Eine Gründung als Waldhufendorf von deutschen Siedlern um 1100, wie in den Dorfchroniken kolportiert, war nicht nachweisbar. Zu belegen ist, dass sich das im Kern mittelalterliche Dorf mit einer spätestens in der ersten Hälfte des 17. Jh. planmäßig angelegten Waldhufenstruktur bis zur Zäsur von 1945 über ca. 350 Jahre in dieser Form auch weiterentwickelt hat.
Mit der Zwangsmigration der deutschsprachigen Bevölkerung verschwand das »Pflegepersonal« der Kulturlandschaft. Auch durch die nachfolgende genossenschaftliche und militärische Nutzung veränderte sich der Ort flächendeckend. Die kleinteilige und durch pflanzliche Diversität gekennzeichnete Bewirtschaftung wich unter den neuen sozio-ökonomischen Bedingungen einer monokulturellen Flächenbewirtschaftung. Während die Teile des Flurbildes, die in funktionalem Zusammenhang mit der dörflichen Siedlung standen, größtenteils verloren gegangen sind, wurde der Charakter des Verkehrskorridors hingegen noch verstärkt. Der 1938 geplante Autobahnabschnitt auf der Trasse des prähistorischen Nollendorfer Passes wurde zu Beginn des 21. Jh. als Teil der A17 realisiert. Die zentrale Lage in einer Transitlandschaft erwies als entscheidend für die Entwicklung des Dorfes. Neben der Bedeutung als Handels- und Poststraße war die durch den Ort führende Querung des Osterzgebirges militärstrategisch wichtig und wurde im Verlauf verschiedener Kriege spätestens ab dem 11. Jh. bis 1945 rege genutzt. Mehrfach wurden Teile des Dorfes zerstört, doch im Gegensatz zur Zäsur nach 1945 erfolgte stets ein Wiederaufbau. Ernsthafte Bemühungen einer Neubesiedlung im Zuge der Wiederbesiedlungspolitik im Grenzgebiet sind nicht zu verzeichnen. Vielmehr wurden fast 90% des Gebäudebestands zwischen 1949–1964 als Abbruchhäuser verkauft oder dem Verfall überlassen.
Heute existieren in Nakléřov bauliche Zeugnisse in unterschiedlichen Erhaltungsgraden, die im Zusammenhang mit verschiedenen Phasen der Expansion, Stagnation und Regression in der Siedlungsentwicklung zu sehen sind. Die historische Bedeutung des Ortes ist nicht allein aus seiner fragmentarisch erhaltenen Gebäudesubstanz abzuleiten, sondern liegt in der Kontinuität der Gebäudestandorte und der Verbindung von Flur und Bauparzelle. In einem Waldhufendorf stellen die Lesesteinwälle das materialisierte Ordnungsgefüge dar. An ihnen wird der Dorfgrundriss mit seiner Parzellenstruktur erkennbar, der zur ältesten materiellen geschichtlichen Überlieferung auf dem Lande gehört. Die bauliche Substanz tritt in ihrer Bedeutung in den Hintergrund, wird zum Inventar, das auf Grund besonderer Rahmenbedingungen ausgetauscht wird. Vielmehr ist es in Nakléřov das durch die Lesesteinrücken markierte Nichtmehrvorhandensein vieler baulicher Strukturen, das als Bestandteil des historischen Zeugniswertes des Ortes zu bewerten ist. Die Lesesteinrücken sind nicht nur Spuren im Sinne von siedlungsgeschichtlich relevanten Überresten, sondern zugleich auch Spuren im Sinne von materiellen Anhaltspunkten, die Abwesenheit bezeugen und über das impulsgebende Potential verfügen, diese Abwesenheit zu hinterfragen und dem spurenbildenden Geschehen nachzuspüren. Das für Nakléřov prägnante ubiquitäre Zusammenspiel von an- und abwesenden Objekten wurde auf einer eigens entwickelten, auch auf andere Orte (im Grenzgebiet) übertragbaren Kartierung (KE) festgehalten, in der die Materialströme 1945–2012 dokumentiert wurden. Aktuell durch materielle Konstellationen markierte Orte der Leere wurden dechiffriert, indem Relikte nach Zeitschichten gestaffelt mit Visualisierungen verschwundener Objekte hinterlegt wurden.
Die über materielle Überreste transportierte Erfahrung von Abwesenheit wird auch an scheinbar kontext- und funktionslosen Elementen deutlich. Dazu gehört in Nakléřov z.B. ein Parkplatz, dessen Verwendungszweck zwar eindeutig ist, wohingegen sich seine Funktion an diesem Ort nicht ohne Hinzuziehung von Quellen erschließt. Ihn als Erwartungen störendes Element, dem eine »verdächtige Abwesenheit« inhärent ist, aufzufassen und als unabsichtliche Hinterlassenschaft zu hinterfragen, hat den Anstoß zur erinnerungskulturellen Dechiffrierung der banal anmutenden Fläche gegeben. Das Weiterverfolgen seiner Spur hat verschiedene Strategien der Verdrängung von erinnerungsstützenden und wahrnehmungslenkenden Artefakten und Zeichensetzungen sowie das dynamische und teils antagonistische Beziehungsgeflecht der sich in diesem räumlichen Ausschnitt befindlichen Objekte offengelegt. Neben Beschriftungen an einem Aussichtsturm und einem Schlachtendenkmal, deren Wechsel sich verändernde gesellschaftspolitische Bedingungen des 20. Jh. reflektieren, ist es ein »dichter Ort«, dessen geografische Lage zum Versuch einer gedächtnispolitischen Umcodierung und räumlichen Verankerung eines neuen Geschichtsnarrativs geführt hat. Der heute durch ein Holzkreuz markierte Ort war 300 Jahre lang Standort einer sakralen Landschaftsdominante, die 1975 in Vorbereitung der Installation eines Sowjetdenkmals gesprengt wurde. Die Planungsunterlagen belegen, dass ein Zulassen räumlich sichtbarer Erinnerungskonkurrenzen auszuschließen war und eine politisch motivierte Neubesetzung des Ortes unter besonderer Berücksichtigung seiner in die Landschaft ausgreifenden Raumwirkung angestrebt war. Einer der wenigen materiellen Überreste, die auf die Geschichte zur Errichtung des größten Sowjetdenkmals in Nordböhmen verweisen, ist der Parkplatz. Vor allem an diesem Beispiel hat sich auch gezeigt, dass der sich aus einem feinen Gespinst unterschiedlichster materieller Konstellationen zusammensetzende Ort als Geschichtsquelle nur bedingt anschaulich und »lesbar« ist. Neben die Bestimmung des historischen Zeugniswertes des Untersuchungsgebietes durch kartierte und »erzählte Geschichte« trat so zwangsläufig auch der Subtext einer Beschreibung des Prozesses der Spureninterpretation.
Dieser »dichte Ort« ist heute ein Ort aktiver objektgebundener Gedenkpraktiken, der durch eine Koexistenz von Erinnerungssträngen gekennzeichnet ist und von unterschiedlichen Akteuren genutzt wird. Die zweisprachige Tafel am Schlachtendenkmal, Pläne zur Wiedererrichtung des Aussichtsturms und zu Baumaßnahmen unter Berücksichtigung der historischen Siedlungsstruktur deuten auf eine wachsende Akzeptanz des kulturhistorischen Erbes der deutschsprachigen Bevölkerung hin. Auch verschiedene tschechische Projekte zur Dokumentation des Grenzgebiets, einschließlich der Erfassung dessen, was zerstört oder nur noch in Überresten vorhanden ist, belegen die Bereitschaft, sich mit der Geschichte der Landschaft auseinanderzusetzen. Orte, an denen die Erfahrung von Abwesenheit und Leere auf den flächendeckend offensichtlichen Bruch im Grenzland verweist, beinhalten das Potential als »storyscape« zu fungieren und ein an den Raum rückgebundenes Erzählen von erinnerungskulturell und sozial bedeutsamen »Geschichten« zu initiieren. Der mögliche Denkmalwert eines Ortes wie Nakléřov als repräsentativer und zugleich singulärer Bestandteil einer historischen Kulturlandschaft besteht in seinem Vermögen, Fragen aufzuwerfen und eine Beschäftigung mit der Geschichte des Ortes im lokalen, regionalen und europäischen Kontext einzuleiten. Das denkmalpflegerische Kriterium der Leistung manifestiert sich nicht im Objekt, sondern im Potential eines bestimmten räumlichen Ausschnitts, erinnerungskulturelle Prozesse und angesichts »umstrittener« oder »geteilter« Objekte und Orte Dialoge in Gang zu setzen.
Ein Ort, dessen historischer und erinnerungskultureller Wert aus dem Spannungsfeld zwischen an- und abwesenden Elementen, zwischen Leerstellen und Relikten resultiert, führt an die Grenzen traditioneller Denkmalbegrifflichkeiten, ist aber auf der Basis der Zusammenschau verschiedener theoretischer und praktischer Ansätze der Denkmalpflege, die unter dem Begriff »unbequeme Kulturlandschaft« zu subsumieren sind, in seiner potentiellen Denkmalwürdigkeit zu diskutieren. Die Grenzen dessen, was Denkmal sein kann, sind zwar seit den 1970er Jahren räumlich, substanziell und ideell durchlässiger geworden, werden aber immer noch von Ansprüchen an die materielle Substanz des Denkmals und an das Denkmal als Zeugnis von Leistung markiert. Auch HUSE sieht in der Bindung der Denkmalpflege »an die materielle Spur« sowohl eine Stärke als auch eine Schwäche: »Wo es diese nicht mehr gibt, kann es auch keine Denkmalpflege mehr geben.« Aber Denkmalpflege kann es auch dort geben, wo die Spur in existentieller Abhängigkeit vom Vorhandensein der sie umgebenden Substanz als interpretationsoffenes Zeitfenster im Raum verstanden wird. Die Spur ist an das Vorhandensein von materieller Substanz gebunden, denn ohne diese wäre die Spur weder präsent noch wahrnehmbar. Spuren sind dergestalt als Ensembles zu begreifen, die aus einer Leerstelle sowie der sie umgebenden, sie hervorbringenden und auf sie verweisenden materiellen Umgebung bestehen.
Für den Denkmalpfleger als Spurenleser stünde somit das sich über das Materielle ausdrückende Spannungsfeld zwischen Absenz und Präsenz im Fokus, das unter den Vorzeichen des Erinnerns und Vergessens für den kulturwissenschaftlichen Erinnerungs- und Gedächtnisdiskurs von Bedeutung ist. Ein umfassender Spurenbegriff wäre dem Substanzbegriff als Korrektiv zur Seite zu stellen, mit dem Potential, auf Abwesenheit als Resultat von destruktiven Einwirkungen hinzuweisen, Fragen auch nach (un)freiwilligen Zeugnissen, Kontexten, Ursachen, Menschen und ihrem Handeln aufzuwerfen, und dabei dennoch den Konnex zum Materiellen halten zu können. Ein Spurenbegriff, der über das Oszillieren der Spur zwischen ästhetischem und historischem Wert hinausgeht, verweisend auf tiefgreifende Verluste und Zerstörungsprozesse, scheint dazu geeignet, die Funktion des Denkmals auch als »Erinnerung an Brüche, Unschönes und Schwieriges, an Niederlagen und Irrwege, aber auch an Alternativen« zu stärken, die denkmalpflegerische Kanonbildung sowie Kernbegriffe der Disziplin wie Substanz und Leistung hinsichtlich ihrer generellen Anwendbarkeit auf die bestehende und potentielle Denkmalwelt zu hinterfragen. Orte und Objekte abseits traditioneller Vorstellungen vom Denkmal erfordern eine Neufokussierung des Substanzbegriffs, um eine komplexere und vielschichtige, auch konfligierende Deutungen zulassende Kultur- und Geschichtsbetrachtung zu ermöglichen. Eine Denkmalpflege als wissenschaftlich verankerte Disziplin, die sich mit ihren vielfältigen materialbasierten und verorteten Medien der Erinnerung, stärker in den fächer- und längst auch grenzübergreifenden Erinnerungsdiskurs einbringen will, braucht zu Beginn des 21. Jh. nach den Verwerfungen des 20. Jh. noch andere Orientierungspunkte, um sich auch in disparaten, auch von Destruktion geprägten Kulturräumen bewegen zu können.
This thesis focuses on the analysis and design of hash functions and authenticated encryption schemes that are blockcipher based. We give an introduction into these fields of research – taking in a blockcipher
based point of view – with special emphasis on the topics of double length, double call blockcipher based compression functions. The first main topic (thesis parts I - III) is on analysis and design of
hash functions. We start with a collision security analysis of some well known double length blockcipher based compression functions and hash functions: Abreast-DM, Tandem-DM and MDC-4. We also propose new double length compression functions that have elevated collision security guarantees. We complement the collision analysis with a preimage analysis by stating (near) optimal security results for Abreast-DM, Tandem-DM, and Hirose-DM. Also, some generalizations are discussed. These are the first preimage security results for blockcipher based double length hash functions that go beyond the birthday barrier.
We then raise the abstraction level and analyze the notion of ’hash function indifferentiability from a random oracle’. So we not anymore focus on how to obtain a good compression function but, instead, on how to obtain a good hash function using (other) cryptographic primitives. In particular we give some examples when this strong notion of hash function security might give questionable advice for building a practical hash function. In the second main topic (thesis part IV), which is on authenticated encryption schemes, we present an on-line authenticated encryption scheme, McOEx, that simultaneously achieves privacy and confidentiality and is secure against nonce-misuse. It is the first dedicated scheme that achieves high standards of security and – at the same time – is on-line computable.
Entsprechend des jeweiligen Erhaltungszustandes einer Straße müssen immer wieder Arbeitsstellen eingerichtet werden, um Baumaßnahmen zum Substanzerhalt der Straßeninfrastruktur durchzuführen. Die vorliegende Arbeit befasst sich mit solchen Arbeitsstellen an vierstreifigen Autobahnen. Für vierstreifige Autobahnen ergibt sich aus den bestehenden Regelwerken und Anforderungen des Straßenbaulastträgers die Erfordernis, möglichst Behelfsverkehrsführungen der Form 4+0 einzurichten. Ferner sollen die beiden Fahrtrichtungen zur Erhöhung der Verkehrssicherheit möglichst durch transportable Schutzeinrichtungen getrennt werden. Unter Berücksichtigung der Mindestwerte die in den gültigen Regelwerken für Behelfsfahrstreifen genannt werden, ergibt sich für eine Behelfsverkehrsführung der Form 4+0, mit Trennung des Gegenverkehrs durch transportable Schutzeinrichtungen, eine Mindestbreite von 12,0 m, die als befestigte Fläche zur Verfügung stehen muss. In der Praxis haben die Richtungsfahrbahnen von vierstreifigen Autobahnen in der Regel Breiten der befestigten Fläche von deutlich weniger als 12,0 m. Daher werden in der Baupraxis Kompromisslösungen eingesetzt, die im wesentlichen darauf beruhen, entweder eine andere Verkehrsführung als 4+0 einzusetzen, auf die Trennung mittels transportabler Schutzeinrichtung zu verzichten, die Fahrstreifenbreiten unter das geforderte Mindestmaß zu verringern oder die Breite der befestigten Fläche im Vorfeld der Maßnahme baulich zu verbreitern. Die vorliegende Arbeit nimmt sich dieser Problematik an. Hierzu werden die bestehenden Anforderungen und Randbedingungen analysiert, die hieraus resultierenden Konflikte beschrieben und die in der Praxis eingesetzten Varianten, Kombinationen aus Behelfsfahrstreifenbreiten, Verkehrsführung und Trennungssystem, vergleichend bewertet. Dieser Vergleich erfolgt für verschiedene Breiten der Richtungsfahrbahnen und für verschiedene Verkehrsstärken. Aufgabe des Vergleichs war es, die Variante herauszufinden, welche unter bestimmten Randbedingungen (wie z. B. Verkehrsstärke, Höhe der Baukosten) die niedrigsten volkswirtschaftlichen Gesamtkosten aufweist. Als Vergleichsverfahren wurde ein volkswirtschaftlicher Ansatz gewählt. Für die Durchführung des volkswirtschaftlichen Vergleiches wurde zunächst analysiert, auf welche bewertungsrelevanten Größen sich die untersuchten Varianten auswirken. Hierbei stellten sich die Größen Investitionskosten, Arbeitsstellendauer, Fahrzeuggeschwindigkeiten und Unfallkosten als die relevanten Einflussgrößen dar. Die Wirkungen der eingesetzten Varianten auf die relevanten Einflussgrößen mussten im Rahmen der vorliegenden Arbeit quantifiziert werden. Die Quantifizierung der Wirkungen erfolgte daher weitgehend im Rahmen der vorliegenden Arbeit, bestehende Kenntnislücken konnten durch die vorliegende Arbeit verkleinert werden. Als Grundlage zur Quantifizierung der Wirkungen konnte dabei auf vorhandene empirische Daten und Auswertungen zurückgegriffen werden. Zur Absicherung der, durch das volkswirtschaftliche Bewertungsverfahren erzielten Berechnungsergebnisse, wurden in der Berechnung maßgebliche Kenngrößen variiert. Hierdurch konnten Aussagen zur Sensitivität der Berechnungsergebnisse erzielt werden. Die Arbeit zeigt, dass ein Vergleich der betrachteten Varianten mit dem in der Arbeit angepassten Bewertungsverfahren möglich ist. Für die untersuchten Varianten wurden jeweils deren volkswirtschaftliche Vor- und Nachteile herausgearbeitet und aufgezeigt, aus welchen der betrachteten Felder (Verkehrsablauf, Verkehrssicherheit, Kosten, Umwelt) diese Vor- und Nachteile resultieren. Die erzielten Berechnungsergebnisse wurden dahingehend ausgearbeitet, dass Einsatzempfehlungen für die einzelnen Varianten gegeben werden konnten. Dabei wurden jeweils Empfehlungen für vier verschiedene Breiten der befestigten Fläche, drei unterschiedliche Baukostenansätze und sechs verschiedene Verkehrsstärken gegeben. Durch die Arbeit konnten einige bislang vorhandene Kenntnislücken geschlossen bzw. verkleinert werden, dies betrifft z. B. die Darstellung der Zusammenhänge zwischen Behelfsverkehrsführung, Baukosten und Bauzeit, die Ermittlung von Unfallkenngrößen für verschiedene Verkehrsführungen und Behelfsfahrstreifenbreiten, die Ermittlung von Verkehrsstärke-Geschwindigkeitsbeziehungen für verschiedene Verkehrsführungen und Behelfsfahrstreifenbreiten sowie die Ableitung von Mindestbreiten von Behelfsfahrstreifen. Durch die Arbeit konnte auch aufgezeigt werden, dass in einigen Teilbereichen noch weiterer Forschungsbedarf besteht.
Die Auseinandersetzung mit der Digitalisierung ist in den letzten Jahren in den Medien, auf Konferenzen und in Ausschüssen der Bau- und Immobilienbranche angekommen. Während manche Bereiche Neuerungen hervorbringen und einige Akteure als Pioniere zu bezeichnen sind, weisen andere Themen noch Defizite hinsichtlich der digitalen Transformation auf. Zu dieser Kategorie kann auch das Baugenehmigungsverfahren gezählt werden. Unabhängig davon, wie Architekten und Ingenieure in den Planungsbüros auf innovative Methoden setzen, bleiben die Bauvorlagen bisher zuhauf in Papierform oder werden nach der elektronischen Einreichung in der Behörde ausgedruckt. Vorhandene Ressourcen, beispielsweise in Form eines Bauwerksinformationsmodells, die Unterstützung bei der Baugenehmigungsfeststellung bieten können, werden nicht ausgeschöpft. Um mit digitalen Werkzeugen eine Entscheidungshilfe für die Baugenehmigungsbehörden zu erarbeiten, ist es notwendig, den Ist-Zustand zu verstehen und Gegebenheiten zu hinterfragen, bevor eine Gesamtautomatisierung der innerbehördlichen Vorgänge als alleinige Lösung zu verfolgen ist.
Mit einer inhaltlich-organisatorischen Betrachtung der relevanten Bereiche, die Einfluss auf die Baugenehmigungsfeststellung nehmen, wird eine Optimierung des Baugenehmigungsverfahrens in den
Behörden angestrebt. Es werden die komplexen Bereiche, wie die Gesetzeslage, der Einsatz von Technologie aber auch die subjektiven Handlungsalternativen, ermittelt und strukturiert. Mit der Entwicklung eines Modells zur Feststellung der Baugenehmigungsfähigkeit wird sowohl ein Verständnis für Einflussfaktoren vermittelt als auch eine Transparenzsteigerung für alle Beteiligten geschaffen.
Neben einer internationalen Literaturrecherche diente eine empirische Studie als Untersuchungsmethode. Die empirische Studie wurde in Form von qualitativen Experteninterviews durchgeführt, um den Ist-Zustand im Bereich der Baugenehmigungsverfahren festzustellen. Das erhobene Datenmaterial wurde aufbereitet und anschließend einer softwaregestützten Inhaltsanalyse unterzogen. Die Ergebnisse wurden in Kombination mit den Erkenntnissen der Literaturrecherche in verschiedenen Analysen als Modellgrundlage aufgearbeitet.
Ergebnis der Untersuchung stellt ein Entscheidungsmodell dar, welches eine Lücke zwischen den gegenwärtigen
Abläufen in den Baubehörden und einer Gesamtautomatisierung der Baugenehmigungsprüfung schließt. Die prozessorientierte Strukturierung entscheidungsrelevanter Sachverhalte im Modell ermöglicht eine Unterstützung bei der Baugenehmigungsfeststellung für Prüfer und Antragsteller. Das theoretische Modell konnte in Form einer Webanwendung in die Praxis übertragen werden.
In recent years, the discussion of digitalization has arrived in the media, at conferences, and in committees of the construction and real estate industry. While some areas are producing innovations and some contributors can be described as pioneers, other topics still show deficits with regard to digital transformation. The building permit process can also be counted in this category. Regardless of how architects and engineers in planning offices rely on innovative methods, building documents have so far remained in paper form in too many cases, or are printed out after electronic submission to the authority. Existing resources – for example in the form of a building information model, which could provide support in the building permit process – are not being taken advantage of. In order to use digital tools to support decision-making by the building permit authorities, it is necessary to understand the current situation and to question conditions before pursuing the overall automation of internal authority processes as the sole solution.
With a substantive-organizational consideration of the relevant areas that influence building permit determination, an improvement of the building permit procedure within authorities is proposed. Complex areas – such as legal situations, the use of technology, as well as the subjective alternative action – are determined and structured. With the development of a model for the determination of building permitability, both an understanding of influencing factors is conveyed and an increase in transparency for all parties involved is created.
In addition to an international literature review, an empirical study served as the research method. The empirical study was conducted in the form of qualitative expert interviews in order to determine the current state in the field of building permit procedures. The collected data material was processed and subsequently subjected to a software-supported content analysis. The results were processed, in combination with findings from the literature review, in various analyses to form the basis for a proposed model.
The result of the study is a decision model that closes the gap between the current processes within the building authorities and an overall automation of the building permit review process. The model offers support to examiners and applicants in determining building permit eligibility, through its process-oriented structuring of decision-relevant facts. The theoretical model could be transferred into practice in the form of a web application.
Ausgangspunkt der Arbeit ist der Aspekt des Unheimlichen in jener Hochhausstadt, deren Entwurf Ludwig Hilberseimer 1924 zum ersten Mal publizierte und die später zum Synonym für die Aberrationen modernistischen Städtebaus wurde. Daraus geht die Forschungsfrage hervor, wie der Eindruck des Unheimlichen evoziert wird und an welchen Elementen des Entwurfs und/oder der Darstellung dieser festgemacht werden kann. Hier geht es nicht um eine Analyse der Intentionen des Autors der Hochhausstadt, der diese ja als Verbesserung zu den herrschenden Wohnverhältnissen anpries; stattdessen wird eine Reihe von unterschiedlichen interpretatorischen Ansätzen gewählt (von Nelson Goodmans Theorie der Notation über Norman Brysons visuelles Zeichensystem bis hin zu Adornos Negativer Dialektik; von der „Bildwissenschaft“ bis hin zur „visual theory“). In diesem Zusammenhang werden schließlich auch jene Divergenzen herausgearbeitet, die zwischen der Architektur der Moderne und der Kunst der Avantgarde herrschten. Da aufgrund der Frage nach der Bildwirkung der beiden Perspektiven der Hochhausstadt die Ästhetik des Erhabenen eine besondere Rolle spielt, reicht der Fokus der Arbeit bis in den kunst- und architekturtheoretischen Diskurs des 18. Jahrhundert zurück. Zuletzt mündet die Arbeit in eine Diskussion von Interpretation selbst und der Möglichkeit einer kritischen Architekturtheorie.
Die Dissertation „Hey! I’m an Angel! Zum Verhältnis von Medium, Subjekt und Wirklichkeit in Eija-Liisa Ahtilas Videoinstallationen“ untersucht in der Hauptsache vier zentrale Videoinstallationen Ahtilas aus den Jahren 1995 bis 2014. Grundlegend ist die These, dass Ahtilas Arbeiten nicht, wie bisher angenommen, in den Kontext einer medien-, erkenntnis- und subjektkritischen Videokunst einzuordnen sind. Stattdessen werden sie als mediale Vehikel intersubjektiv geprägter Wirklichkeitserfahrungen für das Subjekt bereitgestellt: Entgegen dem aktuellen Forschungsstand arbeitet sich Ahtila nicht an der Kritik des Mediums Film/Video ab, das einen wirklichkeitsverfälschenden oder -ersetzenden Einfluss auf das manipulierte Subjekt nimmt. Vielmehr nutzt die Künstlerin das Potenzial des Mediums Film/Video aus, um einem relativ stabilen Subjekt die Wirklichkeitserfahrungen Anderer zu öffnen und auf diese Weise seinen Erfahrungshorizont zu erweitern.
Der systematische Schwerpunkt der Arbeit liegt erstens darauf, ein sich durch Ahtilas bisheriges Schaffen ziehendes ‚Ziel‘ der Integration der Betrachterin in eine intersubjektive Erfahrungssphäre nachvollziehbar zu machen. Hierfür wird insbesondere eine Perspektive auf die frühen Arbeiten entwickelt, in der die Brüche in Ahtila Arbeiten integrative statt distanzierende Wirkung haben. Zweitens wird in eingehenden Analysen der Wandel verständlich, der sich zwischen Ahtilas früher Schaffensphase (1995 – 2002) und der aktuellen Schaffensphase (seit 2010) hinsichtlich der Art und Weise vollzieht, wie diese Integration gelingt. Es zeigt sich, dass der Einstieg in die intersubjektiv geprägten Erfahrungssphären in der frühen Phase ästhetisch konstituiert ist. Mit der aktuellen Schaffensphase werden hingegen alltägliche Formen der Empathie und Mimesis zentral, sowie deren leibliche Konsequenzen für die Betrachterin. Drittens wird eine zunehmende pragmatische Tendenz darin deutlich, die Integration der Betrachterin in die Erfahrungen Anderer zu ermöglichen. Dies wird vor dem Hintergrund eines allgemeinen pragmatischen Zuges aktueller zeitgeistiger Bewegungen erläutert. Viertens wird gezeigt, dass Ahtilas Arbeiten auf der Annahme einer Kontinuität in gewisser Hinsicht von der außerfilmischen Wirklichkeit in die filmische Fiktion hinein basieren, sowie auf dem Verständnis filmischer Fiktionen als virtuelle Weltfassungen. Ahtila fragt auf der Grundlage dieses Verständnisses filmischer Fiktion nicht nach der Wahrheit dieser Fiktion als These über die Wirklichkeit, wie es dem Forschungskanon über die Künstlerin zu entnehmen ist. Sondern nach der Wirksamkeit der filmischen Fiktion für die Wirklichkeit.
Ausgehend von der vielfachen Verwertung der bäuerlichen Kleidung durch den Staat während des Sozialismus in Rumänien wird in der Arbeit das ‚Gemacht-Sein‘ von Volkstrachten befragt entlang von im untersuchten Zeitraum wirkenden Diskursen, wie dem Prozess der Modernisierung oder der Hervorhebung nationaler Werte. Die künstlerische Forschung setzt dabei auf Simulacra (Roland Barthes). Ziel war, tradierte Formate der Wissensaufbereitung und -verbreitung zu appropriieren, so auch von Strategien, die auf der Ebene von Bildern und Sprache agieren, um eine Re-Lektüre sowohl von ‚Volkstracht‘ im Sozialismus als auch von ihren Entsprechungen nach 1989 zu ermöglichen.
The specific socio-political frame and context in Federal Republic of Yugoslavia (SRJ) was in many ways unique in Europe. The way social space was produced, starting from mid eighties in the former Socialist Federal Republic of Yugoslavia (SFRJ) in the period of severe economic and political crises, and later in the new independent republics formed after it’s disintegration, was extremely harsh. The new SRJ had an especially peculiar context due to the sanctions of UN that were introduced in 1992 after the clashes in Bosnia and cases of ethnic cleansing. One of the causes for the production of such a drastic social space could be seen in the strongest wave of ethnonationalism recorded in recent European history, accompanied with the equally strong wave of populism, that were interestingly enough conceived as a program of Serbian national and cultural renaissance in the highest cultural institutions in Serbia like the Serbian Academy of Sciences and Arts and Association of Writers of Serbia, and supported by the Serbian Orthodox Church. After being recognized as a powerful homogenizing force by the communist elite that came to power, Slobodan Miloševi's being its strongest representative, these ideological matrixes thus induced their reproduction in all spheres of the society. On the other side the sanctions by UN and isolation of the country caused the "economy of destruction", economic collapse with the highest rate of inflation ever recorded. The effects of these phenomena were devastating for the new SRJ, where thus produced social milieu was dominated by patriarchalism, authoritarianism, a warlike spirit, xenophobia, and national-chauvinism. In Miloševi's Serbia of the 90’s after introduction of the multi party parliamentary democracy, two public spheres have functioned in autonomous way: one official having all the monopolistic instruments from the former communist ideological structures, and the other alternative and oppositional having just support from a few alternative media houses and mainly the streets for public address and speech. When the wave of ethnonationalism and populism came back from the political realm to the sphere of culture and contaminated it, the highest national institutions of culture started to reproduce this ideological matrix. The task of the artworks was to glorify the history of Serbian people and they could be read as symptoms of the social pathology of the milieu where they originated. Their performative role was to contribute to the production of such a social space and reproduce the hate speech so present in all the media. For the artists who didn't want to conform to the dominant ideological matrix the trauma experienced had different effect and caused strong reaction. One aspect was the withdrawal from the social sphere into the closed, hermetic artistic circles and the strategy defined as active escapism; another was gathering into groups and associations with the aim to criticize, oppose, and face the social reality with engaged artworks. Finally, I focus on different artistic strategies towards the produced social space and analyze both the art practices that reproduced the dominant ideological matrix in the use of the regime, as well as the ones that tried to enter the publics sphere in the critical way and offer the alternative model of the (cultural) public sphere. The paradigm for the analysis of the Serbian art scene or community in the period of sanctions and isolation, mostly in the first half of the nineties, but also encompassing the whole decade, was the one of the “art in the closed society”. As much as this formulation was explanatory for the situation in Serbia under the sanctions, my perspective on the problem is that self-isolation by the artists was more important that the outer wall of barriers, and what mattered was the decision of the majority of the artists to stay out of the public and social spheres. In the global age of informational society where Internet was providing all necessary information on the actual happenings in art, the paradigm of the closed society could be more used as a psychological feature of self-isolation and withdrawal from the reality as it was too hard to bare it. I am therefore focusing mainly on art practices that were trying to deconstruct the dominant ideological matrix, create platforms and arenas where artists could engage in cultural activity and raise different critical issues, and eventually construct the alternative cultural public sphere where many >marginal< voices could be heard, many micro-social spaces could be visible.
Die Arbeit gliedert sich in drei Komplexe. Der erste Komplex umfaßt Voruntersuchungen zum Ultraschallmeßsystem hinsichtlich Sendefrequenzen, Ankoppeldruck und gerätespezifischen Verzögerungszeiten. Zur schrittweisen Entwicklung eines berührungslos arbeitenden Ultraschallverfahrens werden Grundlagenuntersuchungen zur laserinduzierten Anregung von Ultraschallwellen und zur berührungslosen Signalerfassung mittels Laservibrometer durchgeführt. Der zweite Komplex beinhaltet die Untersuchung von Gefügeschädigungen durch Frostangriff. Als Kennwert der inneren Schädigung wird die Änderung des dynamischen E-Moduls durch Anwendung von akustischen Meßverfahren (z.B. Dehnwellenresonanzverfahren) bestimmt. Der Erfassung und Visualisierung des Schädigungsgradienten wird besondere Bedeutung beigemessen. Der dritte Komplex umfaßt die Untersuchung der Gefügeentwicklung während der Hydratation von Normalbetonen zur Bestimmung der Erhärtungsdruckfestigkeit mit dem Ultraschallmeßsystem CONSONIC 60. Ausgewertet werden kontinuierliche und diskontinuierliche Impulslaufzeitmessungen unter Einbeziehung der Betonrezeptur.
Promotion an der Bauhaus-Universität Weimar (Dr. phil.) und zugleich PhD an der University of British Columbia Vancouver.
2015 auf dem Server der University of British Columbia mit Embargo veröffentlicht. Das Embargo wird immer wieder verlängert. Aktuell:
This item is embargoed until 2026-06-30, you need to request access to be able to view the item's media before that date.
The study of memory, architecture, and urban space has been the interest of researchers from the diverse fields around the world due to, the significance of dealing with memories especially after the tragedy of the Second World War. Nations in Europe has chosen not to neglect their past, moreover, overcoming it by strengthening the national identity. An approach was clear in the literature, art, further in the way of rebuilding their cities; that mainly has reflected on the value of urban spaces and their role in narrating the country’s national memory. Thanks to this approach, which has supported the post-war European nations to invite to an act of forgiveness rather than to forget.
On the contrary, memory, in relation to architecture is a form of knowledge has been neglected in Egypt, especially during the previous decades after the declaration of independence from the colonial power, and since 1952 revolution. Recently, a rising debate about Egypt national history and the need to renationalize the Egyptian historical consciousness has rapidly grown up, due to the political transformation has occurred because of the 25th uprising, 2011, which unveiled the power of public spaces in constituting the nation thoughts, especially Tahrir square. At the same time, this has unveiled the results of neglecting the past instead of overcoming it; unveiled a present carries the danger of conflict and repeating previous mistakes.
Researchers, historians, politicians, governmental organization, have worked in the purpose of revisiting the historical information, and have tried to document the current transformation of the 25th uprising. There was a public demand for redesigning Tahrir square to reflect the memory of the uprising as a symbol of the power of the public. However, after eight years, those memories have faded as if the 25th uprising has never happened.
Those circumstances are very relevant to the gap between urban design and the art of memory-work, in the scientific field. Few studies in Egypt conducted the concept of memory in relation to urban spaces, however, the matter requires more attention, to associate the need for renationalizing Egypt memory, with viewing urban space as a mean of narrating the country’s national memory and reflecting the citizens' current thoughts, as a try of nearing the distances between competing narratives.
Therefore, the research aims at developing a methodological framework that should contribute to renationalizing memory through urban space. Further, benefiting from the German experience by investigating lessons to learn. That is based on the hypothesis that, although there is no fixed formula for all countries to renationalize the historical consciousness of memory through urban spaces, lessons to be learned from Germany experience could be a driving dimension when designing Egyptian urban spaces with a concept of memory as an essential factor.
To guide the validity of the study’s hypothesis, a set of research questions are thus formulated: Starting from why memory is an essential factor when designing urban spaces? Regarding Egypt national memory, how it was constituted through history and how to read its representation on urban spaces? Also, the study quests the means of nationalizing memory through urban spaces? And What are the learned lessons from the German experience?
The study tries to answer those questions. Via an inductive analytical methodology which moves from the gap of knowledge and from a particular situation in Egypt, to study the German experience in renationalizing the concept of memory through urban spaces.
Within the scope of the study, exploring Egypt prevailing narratives and the inherited concepts which influenced the national memory is essential. Moreover, the research develops analytical political psychosocial model that could help reading memories in urban spaces, memory’s actors, and memory influences. To validate this model, case studies are analysed in light of the concluded aspects. Consequently, the expected result is to infer broad general learned lessons for the Egyptian case.
Research findings and conclusions answer the research questions, interpret literature review, recommend some guide points to three target groups: first, practice field; to encourage designers to value the national and collective memories when designing urban spaces. Second, to ask policymakers to take the public participation into consideration, when taking decisions related to urban development. Third, the thesis recommends future researches of urban memory that connect theoretical information with the practice field.
Finally, enhancing the memory-work in relation to the national narrative, conveying a meaningful message, when designing urban spaces could encourage citizens to learn, to interact, and to dissolve boundaries between the competing narratives in post-conflict societies.
The Garden Suburbs of Cairo. A morphological urban analysis of Zamālik, Ma‘ādī, and Heliopolis
(2019)
During the British occupation of Egypt in the beginning of the 20th century, several suburban developments were established on the periphery of the city of Cairo. These initially attracted the small British community and later foreigners and Egyptians, mainly from the elite community. These suburban developments, including Ma‘ādī, Zamālik, Heliopolis, Qubbah-Gardens, and Garden City, became the fashionable residential quarters of Cairo. Until now, some of these areas still represent the distinguishable residential settlements of the city. Ma‘ādī, Zamālik, and Heliopolis specifically are nostalgically appropriated in the design of recent suburban developments around Greater Cairo.
Some of the 20th century suburban developments around Cairo are labeled or described as “garden cities.” During the early 20th century, two thriving British town planning movements emerged, namely, the garden city movement and the garden suburb movement. This study investigates the hypothesis that these suburban developments, are indeed “garden suburbs” like the British movement, despite that few are labeled or described as “garden cities,”. Although several studies have examined the historical development of such settlements, their relation, however, to the British planning movements and their transfer process received little attention from planning historians. Few studies also analyze the urban design aspects that made these suburban developments distinguishable since their foundation and until today.
To guide the validity of this study’s hypothesis, a set of research questions are formulated: (1) What is the difference between the garden city and the garden suburb movements? (2) How were the British planning movements transferred to Egypt? (3) What are the urban design aspects that makes these suburban developments distinguishable as garden suburbs? To answer these research questions, a historical morphological urban analysis is conducted through case studies.
The study first studies the difference between the garden city and the garden suburb movements, mainly in Britain, through the analysis of publications on the promoter of both movements: for the garden city, E. Howards’ book “The Garden City of Tomorrow,” published in 1902, and for the garden suburb, R. Unwin’s books “Town Planning in Practice,” published in 1909, and “Nothing Gained from Overcrowding,” published in 1912. Then a morphological urban analysis of Letchworth Garden City and Brentham Garden Suburb, considered the first examples of each movement, is conducted. In order to analyze the transfer process, the study adopts M. Volait and J. Nasr’s theory on transporting planning, through investigating the authority in power responsible for the establishment of these suburban developments. This is followed by the morphological urban analysis of three suburban developments around Cairo, namely, Zamālik, Ma‘ādī, and Heliopolis. The morphological analysis focuses on the background of their establishment, authority in power responsible for the development, design principles, urban context, street typology, residential block typology, social infrastructure, and social target group.
Finally, the study compares between Brentham, Letchworth, Zamālik, Ma‘ādī, and Heliopolis. The comparative analysis aims to highlight the differences between the studied cases of Cairo and how they are different from or alike the British movements. This study concludes that the suburban developments around Cairo during the British occupation, are in fact garden suburbs, despite that some are being described or labeled as garden city. This movement was exported via urban land development companies with foreign European capital, rather than via colonial dominance. It finally highlights a set of urban design aspects that distinguish them as garden suburbs of Cairo. This study hopes to support future conservation plan of these areas and the design of future suburban developments.
Die Festigkeitsentwicklung des Zementbetons basiert auf der chemischen Reaktion des Zementes mit dem Anmachwasser. Durch Nachbehandlungsmaßnahmen muss dafür gesorgt werden, dass dem Zement genügend Wasser für seine Reaktion zur Verfügung steht, da sonst ein Beton mit minderer Qualität entsteht. Die vorliegende Arbeit behandelt die grundsätzlichen Fragen der Betonnachbehandlung bei Anwendung von Straßenbetonen. Im Speziellen wird die Frage des erforderlichen Nachbehandlungsbedarfs von hüttensandhaltigen Kompositzementen betrachtet. Die Wirkung der Nachbehandlung wird anhand des erreichten Frost-Tausalz-Widerstandes und der Gefügeausbildung in der unmittelbaren Betonrandzone bewertet. Der Fokus der Untersuchungen lag auf abgezogenen Betonoberflächen. Es wurde ein Modell zur Austrocknung des jungen Betons erarbeitet. Es konnte gezeigt werden, dass in einer frühen Austrocknung (Kapillarphase) keine kritische Austrocknung der Betonrandzone einsetzt, sondern der Beton annährend gleichmäßig über die Höhe austrocknet. Es wurde ein Nomogramm entwickelt, mit dem die Dauer der Kapillarphase in Abhängigkeit der Witterung für Straßenbetone abgeschätzt werden kann. Eine kritische Austrocknung der wichtigen Randzone setzt nach Ende der Kapillarphase ein. Für Betone unter Verwendung von Zementen mit langsamer Festigkeitsentwicklung ist die Austrocknung der Randzone nach Ende der Kapillarphase besonders ausgeprägt. Im Ergebnis zeigen diese Betone dann einen geringen Frost-Tausalz-Widerstand. Mit Zementen, die eine 2d-Zementdruckfestigkeit ≥ 23,0 N/mm² aufweisen, wurde unabhängig von der Zementart (CEM I oder CEM II/B-S) auch dann ein hoher Frost-Tausalz-Widerstand erreicht, wenn keine oder eine schlechtere Nachbehandlung angewendet wurde. Für die Praxis ergibt sich damit eine einfache Möglichkeit der Vorauswahl von geeigneten Zementen für den Verkehrsflächenbau. Betone, die unter Verwendung von Zementen mit langsamere Festigkeitsentwicklung hergestellt werden, erreichen einen hohen Frost-Tausalz-Widerstand nur mit einer geeigneten Nachbehandlung. Die Anwendung von flüssigen Nachbehandlungsmitteln (NBM gemäß TL NBM-StB) erreicht eine ähnliche Wirksamkeit wie eine 5 tägige Feuchtnachbehandlung. Voraussetzung für die Wirksamkeit der NBM ist, dass sie auf eine Betonoberfläche ohne sichtbaren Feuchtigkeitsfilm (feuchter Glanz) aufgesprüht werden. Besonders wichtig ist die Beachtung des richtigen Auftragszeitpunktes bei kühler Witterung, da hier aufgrund der verlangsamten Zementreaktion der Beton länger Anmachwasser abstößt. Ein zu früher Auftrag des Nachbehandlungsmittels führt zu einer Verschlechterung der Qualität der Betonrandzone. Durch Bereitstellung hydratationsabhängiger Transportkenngrößen (Feuchtetransport im Beton) konnten numerische Berechnungen zum Zusammenspiel zwischen der Austrocknung, der Nachbehandlung und der Gefügeentwicklung durchgeführt werden. Mit dem erstellten Berechnungsmodell wurden Parameterstudien durchgeführt. Die Berechnungen bestätigen die wesentlichen Erkenntnisse der Laboruntersuchungen. Darüber hinaus lässt sich mit dem Berechnungsmodell zeigen, dass gerade bei langsam reagierenden Zementen und kühler Witterung ohne eine Nachbehandlung eine sehr dünne Randzone (ca. 500 µm – 1000 µm) mit stark erhöhter Kapillarporosität entsteht.
The nonlinear behavior of concrete can be attributed to the propagation of microcracks within the heterogeneous internal material structure. In this thesis, a mesoscale model is developed which allows for the explicit simulation of these microcracks. Consequently, the actual physical phenomena causing the complex nonlinear macroscopic behavior of concrete can be represented using rather simple material formulations. On the mesoscale, the numerical model explicitly resolves the components of the internal material structure. For concrete, a three-phase model consisting of aggregates, mortar matrix and interfacial transition zone is proposed. Based on prescribed grading curves, an efficient algorithm for the generation of three-dimensional aggregate distributions using ellipsoids is presented. In the numerical model, tensile failure of the mortar matrix is described using a continuum damage approach. In order to reduce spurious mesh sensitivities, introduced by the softening behavior of the matrix material, nonlocal integral-type material formulations are applied. The propagation of cracks at the interface between aggregates and mortar matrix is represented in a discrete way using a cohesive crack approach. The iterative solution procedure is stabilized using a new path following constraint within the framework of load-displacement-constraint methods which allows for an efficient representation of snap-back phenomena. In several examples, the influence of the randomly generated heterogeneous material structure on the stochastic scatter of the results is analyzed. Furthermore, the ability of mesoscale models to represent size effects is investigated. Mesoscale simulations require the discretization of the internal material structure. Compared to simulations on the macroscale, the numerical effort and the memory demand increases dramatically. Due to the complexity of the numerical model, mesoscale simulations are, in general, limited to small specimens. In this thesis, an adaptive heterogeneous multiscale approach is presented which allows for the incorporation of mesoscale models within nonlinear simulations of concrete structures. In heterogeneous multiscale models, only critical regions, i.e. regions in which damage develops, are resolved on the mesoscale, whereas undamaged or sparsely damage regions are modeled on the macroscale. A crucial point in simulations with heterogeneous multiscale models is the coupling of sub-domains discretized on different length scales. The sub-domains differ not only in the size of the finite elements but also in the constitutive description. In this thesis, different methods for the coupling of non-matching discretizations - constraint equations, the mortar method and the arlequin method - are investigated and the application to heterogeneous multiscale models is presented. Another important point is the detection of critical regions. An adaptive solution procedure allowing the transfer of macroscale sub-domains to the mesoscale is proposed. In this context, several indicators which trigger the model adaptation are introduced. Finally, the application of the proposed adaptive heterogeneous multiscale approach in nonlinear simulations of concrete structures is presented.
Der Zusammenhang zwischen Schädigung und der Veränderung dynamischer und statischer Eigenschaften von Stahlbetonstrukturen wird untersucht. Auf der einen Seite stehen die statischen Lastversuche in Verbindung mit dynamischen Experimenten an Stahlbetonstrukturen (Platten und Balken). Auf der anderen Seite wird für die Balkenstrukturen ein nichtlineares Stochastisches Finite Elemente Modell entwickelt. Dies berücksichtigt zufällige Material- und Festigkeitseigenschaften durch räumlich korrelierte Zufallsfelder. So werden stochastische Rissentwicklungen für den Stahlbeton simuliert. Für die Berechnungen vieler Realisationen und damit verschiedenartige "Lebensgeschichten" einer Struktur wird als Monte Carlo Methode Latin Hypercube Sampling verwendet. Die Auswertung der Strukturantworten für die Lastgeschichte zeigt den Einfluss der zufälligen Eigenschaften auf die Schädigungsentwicklung. Die Arbeit leistet einen Beitrag zur Bewertung und zum zukünftigen Einsatz dynamischer Untersuchungsmethoden im Bauwesen.
On the mechanisms of shrinkage reducing admixtures in self con-solidating mortars and concretes
(2010)
Self Consolidating Concrete – a dream has come true!(?) Self Consolidating Concrete (SCC) is mainly characterised by its special rheological properties. With-out any vibration this concrete can be placed and compacted under its own weight, without segrega-tion or bleeding. The use of such concrete can increase the productivity on construction sites and en-able the use of a higher degree of well distributed reinforcement for thin walled structural members. This new technology also reduces health risks since in contrast to the traditional handling of concrete, the emission of noise and vibration are substantially decreased. The specific mix design for self consolidating concretes was introduced around the 1980s in Japan. In comparison to normal vibrated concrete an increased paste volume enables a good distribution of aggregates within the paste matrix, minimising the influence of aggregates friction on the concrete flow property. The introduction of inert and/or pozzolanic additives as part of the paste provides the required excess paste volume without using disproportionally high amounts of plain cement. Due to further developments of concrete admixtures such as superplasticizers, the cement paste can gain self levelling properties without causing segregation of aggregates. Whereas SCC differs from normal vibrated concrete in its fresh attributes, it should reach similar properties in the hardened state. Due to the increased paste volume it usually shows higher shrinkage. Furthermore, owing to strength requirements, SCC is often produced at low water to cement ratios and hence may additionally suffer from autogenous shrinkage. This means that cracking caused by drying or autogenous shrinkage is a real risk for SCC and can compromise its durability as cracks may serve as ingression paths for gases and salts or might permit leaching. For the time being SCC still exhibits increased shrinkage and cracking probability and hence may be discarded in many practical applications. This can be overcome by a better understanding of those mechanisms and the ways to mitigate them. It is a target of this thesis to contribute to this. How to cope with increased shrinkage of SCC? In general, engineers are facing severe problems related to shrinkage and cracking. Even for normal and high performance concrete, containing moderate amounts of binder, a lot of effort was put on counteracting shrinkage and avoiding cracking. For the time being these efforts resulted in the knowledge of how to distribute cracks rather to avoid them. The most efficient way to decrease shrinkage turned out to be to decrease the cement content of concrete down to a minimum but still sufficient amount. For SCC this obviously seems to be contradictory with the requirement of a high paste volume. Indeed, the potential for shrinkage reduction is limited to some small range modifications in the mix design following two major concepts. The first one is the reduction of the required paste volume by optimising the aggregate grading curve. The second one involves high volume substitution of cement, preferentially using inert mineral additives. The optimization of grading curves is limited by several severe practical issues. Problems start with the availability of sufficiently fractionated aggregates. Usually attempts fail because of the enormous effort in composing application-optimized grading curves or mix designs. Due to durability reasons, the substitution rate for cement is limited depending on the application purpose and on environmental exposure of the hardened concrete. In the early 1980s Shrinkage Reducing Admixtures (SRA) were introduced to counteract drying shrinkage of concrete. The first publications explicitly dealing with SRA go back to Goto and Sato (Japan). They were published in 1983, which is also the time when the SCC concept was introduced. SRA modified concretes showed a substantial reduction of free drying shrinkage contributing to crack prevention or at least a significant decrease of crack width in situations of restrained drying shrinkage. Will shrinkage reducing admixtures contribute to a broader application of SCC? Within the last three decades performance tests on several types of concrete proved the efficiency of shrinkage reducing admixtures. So, at least in terms of shrinkage and cracking, concretes in general and SCC in particular can benefit from SRA application. But "One man's meat is another man's poison" and with respect to long term performance of SRA modified concretes there are still several issues to be clarified. One of these concerns the impact of SRAs on cement hydration. It is therefore an issue to know if changes in the hydrated phase composition, induced by SRA, result in undesired properties or decreased durability. Another issue is that the long term shrinkage reduction has to be evaluated. For example, one can wonder if SRA leaching may diminish or even eliminate long term shrinkage reduction and if the release of admixtures could be a severe environmental issue. It should also be noted that the basic mechanism or physical impact of SRA as well as its implementation in recent models for shrinkage of concrete is still being discussed. The present thesis tries to shed light on the role of SRA in self consolidating concrete focusing on the three questions outlined above: basic mechanisms of cement hydration, physical impact on shrinkage and the sustainability of SRA-application. Which contributions result from this study? Based on an extensive patent search, commercial SRAs could be identified to be synergistic mixtures of non-ionic surfactants and glycols. This turns out to be most important information for more than one reason and is the subject of chapter 4. An abundant literature focuses on properties of these non-ionic surfactants. Moreover, from this rich pool of information, the behaviour of SRAs and their interactions in cementitious systems were better understood through this thesis. For example, it could be anticipated how SRAs behave in strong electrolytes and how surface activity, i.e. surface tension, and interparticle forces might be affected. The synergy effect regarding enhanced performance induced by the presence of additional glycol in SRAs could be derived from the literature on the co-surfactant nature of glycols. Generally it now can be said that glycols ensure that the non-ionic surfactant is properly distributed onto the paste interfaces to efficiently reduce surface tension. In literature, the impact of organic matter on cement hydration was extensively studied for other admixtures like superplasticizer. From there, main impact factors related to the nature of these molecules could be identified. In addition, here again, the literature on non-ionic surfactants provides sufficient information to anticipate possible interactions of SRA with cement hydration based on the nature of non-ionic surfactants. All in all, the extensive study on the nature of non-ionic surfactants, presented in chapter 4, provides fundamental understanding of the behaviour of SRAs in cement paste. Taking a step further to relate this to the impact on drying and shrinkage required to review recent models for drying and shrinkage of cement paste as presented in chapter 3. There, it is shown that macroscopic thermodynamics of the open pore systems can be successfully applied to predict drying induced deformation, but that surface activity of SRA still has to be implemented to explain the shrinkage reduction it causes. Because of severe issues concerning the importance of capillary pressure on shrinkage, a new macroscopic thermodynamic model was derived in a way that meets requirements to properly incorporate surface activity of SRA. This is the subject of chapter 5. Based on theoretical considerations, in chapter 5 the broader impact of SRA on drying cementitious matter could be outlined. In a next step, cement paste was treated as a deformable, open drying pore system. Thereby, the drying phenomena of SRA modified mortars and concrete observed by other authors could be retrieved. This phenomenological consistency of the model constitutes an important contribution towards the understanding of SRA mechanisms. Another main contribution of this work came from introducing an artificial pore system, denominated the normcube. Using this model system, it could be shown how the evolution of interfacial area and its properties interact in presence of SRAs and how this impacts drying characteristics. In chapter 7, the surface activity of commercial SRAs in aqueous solution and synthetic pore solution was investigated. This shows how the electrolyte concentration of synthetic pore solution impacts the phase behaviour of SRA and conversely, how the presence of SRA impacts the aqueous electrolyte solution. Whilst electrolytes enhance self-aggregation of SRAs into micelles and liquid crystals, the presence of SRAs leads to precipitation of minerals as syngenite and mirabilite. Moreover, electrolyte solutions containing SRAs comprise limited miscibility or rather show miscibility gaps, where the liquid separates into isotropic micellar solutions and surfactant rich reverse micellar solutions. The investigation of surface activity and phase behaviour of SRA unravelled another important contribution. From macroscopic surface tension measurements, a relationship between excess surface concentration of SRA, bulk concentration of SRA and exposed interfacial area could be derived. Based on this, it is now possible to predict the actual surface tension of the pore fluid in the course of drying once the evolution of internal interfacial area is known. This is used later in this thesis to describe the specific drying and shrinkage behaviour of SRA modified pastes and mortars. Calorimetric studies on normal Portland cement and composite binders revealed that SRA alone show only minor impact on hydration kinetics. In presence of superplasticizer however the cement hydration can be significantly decelerated. The delaying impact of SRA could be related to a selective deceleration of silicate phase hydration. Moreover, it could be shown that portlandite precipitation in presence of SRA is changed, turning the compact habitus into more or less layered structures. Thereby, the specific surface increases, causing the amount of physically bound water to increase, which in turn reduces the maximum degree of hydration achievable for sealed systems. Extensive phase analysis shows that the hydrated phase composition of SRA modified binders re-mains almost unaffected. The appearance of a temporary mineral phase could be detected by environmental scanning electron microscopy. As could be shown for synthetic pore solutions, syngenite precipitates during early hydration stages and is later consumed in the course of aluminate hydration, i.e. when sulphates are depleted. Moreover, for some SRAs, the salting out phenomena supposed to be enhanced in strong electrolytes could also be shown to take place. The resulting organic precipitates could be identified by SEM-EDX in cement paste and by X-ray diffraction on solid residues of synthetic pore solution. The presence of SRAs could also be identified to impact microstructure of well cured cement paste. Based on nitrogen adsorption measurements and mercury intrusion porosimetry the amount of small pores is seen to increase with SRA dosage, whilst the overall porosity remains unchanged. The question regarding sustainability of SRA application is the subject of chapter 10. By means of leaching studies it could be shown that SRA can be leached significantly. The mechanism could be identified as a diffusion process and a range of effective diffusion coefficients could be estimated. Thereby, the leaching of SRA can now be estimated for real structural members. However, while the admixture can be leached to high extents in tank tests, the leaching rates in practical applications can be assumed to be low because of much reduced contact with water. This could be proven by quantifying admixture loss during long term drying and rewetting cycles. Despite a loss of admixture shrinkage reduction is hardly impacted. Moreover, the cyclic tests revealed that the total deformations in presence of SRA remain low due to a lower extent of irreversibly shrinkage deformations. Another important contribution towards the better understanding of the working mechanism of SRA for drying and shrinkage came from the same leaching tests. A significant fraction of SRA is found to be immobile and does not diffuse in leaching. This fraction of SRA is probably strongly associated to cement phases as the calcium-silicate-hydrates or portlandite. Based on these findings, it is now also possible to quantify the amount of admixture active at the interfaces. This means that, the evolution of surface tension in the course of drying can be approximated, which is a fundamental requirement for modeling shrinkage in presence of SRA. The last experimental chapter of this study focuses on the working mechanism and impact of SRA on drying and shrinkage. Based on the thermodynamics of the open deformable pore system introduced in chapter 5, energy balances are set up using desorption and shrinkage isotherms of actual samples. Information on distribution of SRA in the hydrated paste is used to estimate the actual surface tensions of the pore solution. In other words, this is the first time that the surface activity of the SRA in the course of the drying is fully accounted for. From the energy balances the evolution and properties of the internal interface are then obtained. This made it possible to explain why SRAs impact drying and shrinkage and in what specific range of relative humidity they are active. Summarising the findings of this thesis it can be said that the understanding of the impact of SRAs on hydration, drying and shrinkage was brought forward. Many of the new insights came from the careful investigation of the theory of non-ionic surfactants, something that the cement community had generally overlooked up to now.
Die vorliegende Arbeit beschäftigt sich mit dem Thema Stadthotels in Deutschland zwischen Energieeffizienz und Wirtschaftlichkeit - Studie auf Grundlagen der EnEV-Anforderungen. Die Arbeit setzt sich mit einer qualitativen und quantitativen Analyse über die Energieeffizienz auf Grundlagen der EnEV-Anforderungen und deren Wirtschaftlichkeit bei Stadthotels in Deutschland auseinander. Die Analyse wurde anhand von verschiedenen Untersuchungen bei Hotels aufgebaut. Diese umfassen empirische, energetische und wirtschaftliche Untersuchungen. Die durchgeführten Untersuchungen kommen schließlich zu eindeutigen Ergebnissen auf verschiedenen Ebenen. Im Ergebnis wird deutlich, dass die Optimierung der Gebäudetechnik sowie auch die Verbesserung der energetischen Qualität der Gebäudehülle der Hotels bedeutende Einflussfaktoren zur Steigerung der Energieeffizienz darstellen. Dabei ist jedoch festzuhalten, dass sich die Optimierung der Gebäudetechnik der Hotels insbesondere im Bereich der Lüftungs- und Klimatechnik als besonders wirksam erwiesen hat. Die Effektivität dieser Maßnahmen konnte sowohl in Hinsicht auf die Steigerung der Energieeffizienz als auch in Bezug auf die Wirtschaftlichkeit bewiesen werden.
One of the main focuses of recent Chinese urban development is the creation and retrofitting of public spaces driven by the market force and demand. However, researches concerning human and cultural influences on shaping public spaces have been scanty. There still exist many undefined ambiguous planning aspects institutionally and legislatively. This is an explanatory research to address interactions, incorporations and interrelationship between the lived environment and its peoples. It is knowledge-seeking and normative. Theoretically, public space in a Chinese context is conceptualized; empirically, a selected case is inquired. The research has unfolded a comparatively complete understanding of China’s planning evolution and on-going practices. Data collection emphasizes the concept of ‘people’ and ‘space’. First-hand data is derived from the intensive fieldwork and observatory and participatory documentations. The ample detailed authentic empirical data empowers space syntax as a strong analysis tool in decoding how human’s activities influence the public space. Findings fall into two categories but interdependent. Firstly, it discloses the studied settlement as a generic, organic and incremental development model. Its growth and established environment is evolutionary and incremental, based on its intrinsic traditions, life values and available resources. As a self-sustaining settlement, it highlights certain vernacular traits of spatial development out of lifestyles and cultural practices. Its spatial articulation appears as a process parallel to socio-economic transitions. Secondly, crucial planning aspects are theoretically summarized to address the existing gap between current planning methodology and practicalities. It pinpoints several most significant and particular issues, namely, disintegrated land use system and urban planning; missing of urban design in the planning system, loss of a human-responsive environment resulted from standardized planning and under-estimation of heritage in urban development. The research challenges present Chinese planning laws and regulations through urban public space study; and pinpoints to yield certain growth leverage for planning and development. Thus, planning is able to empower inhabitants to make decisions along the process of shaping and sustaining their space. Therefore, it discusses not only legislative issues, concerning land use planning, urban design and heritage conservation. It leads to a pivotal proposal, i.e., the integration of human and their social spaces in formulating a new spatial strategy. It expects to inform policymakers of underpinning social values and cultural practices in reconfiguring postmodern Chinese spatiality. It propounds that social context endemic to communities shall be integrated as a crucial tool in spatial strategy design, hence to strengthen spatial attributes and improve life quality.
Open Innovation in kleinen und mittleren Unternehmen (KMU) hat sich stark ausdifferenziert. Dabei zeigt die Empirie, dass KMU unterschiedliche Wege in der offenen Entwicklung von Innovationen begehen. Um die bestehende Literatur zu erweitern, wurden mit dieser Dissertation die Ziele verfolgt 1) offene Innovationsaktivitäten in KMU aus einer Prozessperspektive aufzudecken und genau zu beschreiben und 2) zu erklären, warum sich die Öffnung von Innovationsprozessen in KMU unterscheidet. Dafür wurde auf eine multiple Fallstudienanalyse zurückgegriffen. Untersuchungsobjekte waren kleine etablierte High-Tech Unternehmen aus den neuen Bundesländern. Die Ergebnisse zeigen sechs Prozessmodelle der offenen Innovationsentwicklung, beschrieben als Open Innovation Muster. Deskriptionen dieser Muster unter Berücksichtigung von formenden Innovationsaktivitäten, ausgetauschtem Wissen, beteiligten externen Akteuren und Gründen für und gegen Open Innovation vermitteln ein über den bisherigen Forschungsstand hinausgehendes Verständnis von Open Innovation in KMU. Zudem zeigen die Ergebnisse, dass die Entrepreneurial Orientation erklärt, warum KMU bei der Ausgestaltung von offenen Innovationsprozessen unterschiedlich vorgehen. In der Dissertation wird detailliert dargelegt, welche Open Innovation Muster sich anhand der Entrepreneurial Orientation von KMU (nicht-entrepreneurial bis entrepreneurial) zeigen. Die Ergebnisse liefern sowohl wissenschaftliche Implikationen, als auch Handlungsempfehlungen für die Unternehmenspraxis.
Die Untersuchungen zu Frost-Tau-Widerstand und Alkali-Zuschlag-Reaktionen an Gesteinen, Gesteinskörnungen sowie daraus hergestelltem Beton erfolgen jeweils mit und ohne Taumitteleinfluss. Neben Untersuchungen nach in Deutschland gebräuchlichen Normen und Richtlinien werden auch Prüfverfahren nach US-Standards und -Richtlinien einbezogen und kritisch analysiert, Modifikationsvorschläge unterbreitet sowie Klimawechsellagerungen und Auslagerungsversuche durchgeführt. Ziel war u.a. festzustellen, ob anhand von Prüfergebnissen an Gesteinskörnungen tatsächlich auf deren Dauerhaftigkeitsverhalten im Beton zu schließen ist. Im Ergebnis erwies sich der Washington Hydraulic Fracture Test als optimales Frostprüfverfahren. Eine Alkali-Carbontat-Reaktion kann theoretisch und praktisch ablaufen, war aber in Mörtel und Beton nicht nachweisbar. Mittels Klimawechsellagerung konnte die Prüfzeit für AKR-gefährdete Gesteine in Beton drastisch verkürzt werden. Zudem fördern alkalihaltige Taumittel eine AKR.
One of the main criteria determining the thermal comfort of occupants is the air temperature. To monitor this parameter, a thermostat is traditionally mounted in the indoor environment for instance in office rooms in the workplaces, or directly on the radiator or in another location in a room. One of the drawbacks of this conventional method is the measurement at a certain location instead of the temperature distribution in the entire room including the occupant zone. As a result, the climatic conditions measured at the thermostat point may differ from those at the user's location. This not only negatively impacts the thermal comfort assessment but also leads to a waste of energy due to unnecessary heating and cooling. Moreover, for measuring the distribution of the air temperature under laboratory conditions, multiple thermal sensors should be installed in the area under investigation. This requires high effort in both installation and expense.
To overcome the shortcomings of traditional sensors, Acoustic travel-time TOMography (ATOM) offers an alternative based on measuring the transmission sound velocity signals. The basis of the ATOM technique is the first-order dependency of the sound velocity on the medium's temperature. The average sound velocity, along the propagation paths, can be determined by travel-times estimation of a defined acoustic signal between transducers. After the travel-times collection, the room is divided into several volumetric grid cells, i.e. voxels, whose sizes are defined depending on the dimension of the room and the number of sound paths. Accordingly, the spatial air temperature in each voxel can be determined using a suitable tomographic algorithm. Recent studies indicate that despite the great potential of this technique to detect room climate, few experiments have been conducted.
This thesis aims to develop the ATOM technique for indoor climatic applications while coupling the analysis methods of tomography and room acoustics. The method developed in this thesis uses high-energy early reflections in addition to the direct paths between transducers for travel time estimation. In this way, reflections can provide multiple sound paths that allow the room coverage to be maintained even when a few or even only one transmitter and receiver are used.
In the development of the ATOM measurement system, several approaches have been employed, including the development of numerical methods and simulations and conducting experimental measurements, each of which has contributed to the improvement of the system's accuracy. In order to effectively separate the early reflections and ensure adequate coverage of the room with sound paths, a numerical method was developed based on the optimization of the coordinates of the sound transducers in the test room. The validation of the optimal positioning method shows that the reconstructed temperatures were significantly improved by placing the transducers at the optimal coordinates derived from the developed numerical method. The other numerical method developed is related to the selection of the travel times of the early reflections. Accordingly, the detection of the travel times has been improved by adjusting the lengths of the multiple analysis time-windows according to the individual travel times in the reflectogram of the room impulse response. This can reduce the probability of trapping faulty travel times in the analysis time-windows.
The simulation model used in this thesis is based on the image source model (ISM) method for simulating the theoretical travel times of early reflection sound paths. The simulation model was developed to simulate the theoretical travel times up to third-order reflections.
The empirical measurements were carried out in the climate lab of the Chair of Building Physics under different boundary conditions, i.e., combinations of different room air temperatures under both steady-state and transient conditions, and different measurement setups. With the measurements under controllable conditions in the climate lab, the validity of the developed numerical methods was confirmed.
In this thesis, the performance of the ATOM measurement system was evaluated using two measurement setups. The setup for the initial investigations consists of an omnidirectional receiver and a near omnidirectional sound source, keeping the number of transducers as few as possible. This has led to accurately identify the sources of error that could occur in each part of the measuring system. The second measurement setup consists of two directional sound sources and one omnidirectional receiver. This arrangement of transducers allowed a higher number of well-detected travel times for tomography reconstruction, a better travel time estimation due to the directivity of the sound source, and better space utilization. Furthermore, this new measurement setup was tested to determine an optimal selection of the excitation signal. The results showed that for the utilized setup, a linear chirp signal with a frequency range of 200 - 4000 Hz and a signal duration of t = 1 s represents an optimal selection with respect to the reliability of the measured travel times and higher signal-to-noise ratio (SNR).
To evaluate the performance of the measuring setups, the ATOM temperatures were always compared with the temperatures of high-resolution NTC thermistors with an accuracy of ±0.2 K. The entire measurement program, including acoustic measurements, simulation, signal processing, and visualization of measurement results are performed in MATLAB software.
In addition, to reduce the uncertainty of the positioning of the transducers, the acoustic centre of the loudspeaker was determined experimentally for three types of excitation signals, namely MLS (maximum length sequence) signals with different lengths and duration, linear and logarithmic chirp signals with different defined frequency ranges. For this purpose, the climate lab was converted into a fully anechoic chamber by attaching absorption panels to the entire surfaces of the room. The measurement results indicated that the measurement of the acoustic centre of the sound source significantly reduces the displacement error of the transducer position.
Moreover, to measure the air temperature in an occupied room, an algorithm was developed that can convert distorted signals into pure reference signals using an adaptive filter. The measurement results confirm the validity of the approach for a temperature interval of 4 K inside the climate lab.
Accordingly, the accuracy of the reconstructed temperatures indicated that ATOM is very suitable for measuring the air temperature distribution in rooms.
Die kommunale Energiewende stellt die beteiligten Akteure vor große Herausforderungen: Auf Grundlage strukturierter Daten sollen Maßnahmen
für eine nachhaltige Infrastruktur geplant und umgesetzt werden. Oft fehlt
den Beteiligten jedoch das nötige Wissen über die lokalen Potentiale und Rahmenbedingungen—und an geeigneten Methoden der Informationsvermittlung. Gegenstand dieser Arbeit ist die Analyse der Planungsstrukturen und der Entwurf eines visuellen Informationssystems. Mit der vorliegenden Untersuchung wird gezeigt, wie mit Hilfe von Befragungen, partizipativen Visualisierungen, fiktionalen Szenarien und der systematischen Anwendung visueller Variablen eine fundierte Grundlage geschaffen werden kann für eine nutzerorientierte Gestaltung.
Die Einflüsse polymerer Zusätze auf die Ausbildung der Mikrostruktur im frühen Stadium der Erhärtung und auf die Eigenschaften, insbesondere die Dauerhaftigkeit der modifizierten Mörtel wurden erforscht. Es sollte die Frage beantwortet werden, ob durch die Modifizierung die Dauerhaftigkeit von Mörteln mehr verbessert werden kann, als dies durch übliche betontechnologische Maßnahmen möglich ist. Die Ausbildung der Mikrostruktur in den ersten 24 Stunden der Erhärtung wurde mit verschiedenen Methoden, u.a. mittels ESEM, untersucht. Es wurden Modellvorstellungen zur Ausbildung der organischen Matrix und der anorganischen Matrix entwickelt: Interaktionen sind Adsorptionsreaktionen, Agglomerationen und Behinderung der Hydratation. Es wurden Frisch- und Festmörteluntersuchungen beschrieben und interpretiert. Unterschiedliche Dauerhaftigkeitsuntersuchungen wurden durchgeführt und bewertet. Die Mikrostruktur der Festmörtel wurde hinsichtlich ihres Einflusses auf die Dauerhaftigkeit betrachtet.
Der Schwerpunkt der Arbeit ist die Entwicklung eines Berechnungskonzeptes, mit dem die Auswirkungen des zeitabhängigen Materialverhaltens des Betons und der Spannbewehrung auf das Tragverhalten von Stahlbeton und Spannbetonbauteilen wirklichkeitsnah abgeschätzt werden können. Dabei wird auf die Berücksichtigung des nichtlinearen Kriechens und der Rißbildung besonderer Wert gelegt. Das Konzept basiert auf der sukzessiven Ermittlung der Schnittgrößenanteile und der Deformationen zu festgelegten Zeitpunkten, wobei die Ergebnisse der vorausgehenden Zeitschritte berücksichtigt werden können. Ausgehend von der Formulierung des mechanischen Problems als Extremalaufgabe wird die Berechnung innerhalb eines Zeitschritts auf die Lösung einer quadratischen Optimierungsaufgabe zurückgeführt, wobei die Rißbildung des Betons und geometrisch nichtlineare Einflüsse berücksichtigt werden können. Die Einbeziehung des nichtlinearen Kriechens erfolgt durch Beschleunigung der linearen Kriechgeschwindigkeit mit einem, von der aktuellen Betonspannung abhängigen Kriechzahlerhöhungsfaktor. Das Berechnungsmodell wird anhand von Langzeitversuchen an hochbelasteten Betonprismen und Stahlbetonstützen verifiziert. In umfangreichen numerischen Untersuchungen wird der Einfluß des nichtlinearen Kriechens auf das Tragverhalten von vorgespannten Querschnitten und Stahlbetonstützen analysiert.
Die vorliegende Arbeit besitzt zwei Schwerpunkte. Zum einen wird das Einsatzhärten von Bauteilen basierend auf vorhandenen Materialmodellen simuliert. Zum anderen wird ein Konzept zur Abschätzung der Dauerfestigkeit einsatzgehärteter Bauteile vorgestellt, in dem wesentliche Ergebnisse der Wärmebehandlungssimulation als neue Ausgangsgrößen verwendet werden. Damit konnte erstmals ein geschlossenes werkstoffmechanisches Dauerfestigkeitskonzept für einsatzgehärtete Bauteile erarbeitet werden. Für die Analyse beliebiger Bauteilgeometrien ist eine Implementation der Materialmodelle in die FEM notwendig. Im Rahmen dieser Arbeit wurde das FE-Programm ABAQUS verwendet. Speziell für dieses FE-Programm wurde innerhalb dieser Arbeit das Subroutine-System ANTRI zur Simulation des Einsatzhärtens und Abschätzung der Dauerfestigkeit für einsatzgehärtete Bauteile entwickelt. Zur Verifikation des Subroutine-Systems ANTRI wurden experimenteller Ergebnisse aus der Literatur herangezogen. Für alle untersuchten Beispiele wurde eine sehr gute Übereinstimmung zwischen experimentell ermittelten Daten und simulierten Daten festgestellt.
The most fundamental understating of hybridization methodology takes the form of stable but dynamic notions, accumulated over time in the memory of individuals. Schematized and abstracted, the hybrids representation needs to be reproduced and reused in order to reconstruct and bring back other memories. Reinvented, or reused hybrids can support getting access to social, traditional, religious understanding of nations. In this manner, they take the form of the messenger / the mediator an innate, equivalent to the use of mental places in the art of memory. We remember mythology in order to remember other things.
From individual memory perspective, or group collective memory, the act of recollection is assumed to be an individual act, biologically based in the brain, but by definition conditioned by social collectives. Following Halbwachs, this thesis does not recognize a dichotomy between individual and collective memory as two different types of remembering. Conversely, the collective is thought of as inherent to individual thought, questioning perspectives that regard individual recollection as isolated from social settings. The individual places himself in relation to the group and makes use of the collective frameworks of thought when he localizes and reconstructs the past, whether in private or in social settings. The frameworks of social relations, of time, and of space are constructs originating in social interaction and distributed in the memory of the group members. The individual has his own perspective on the collective frameworks of the group, and the group’s collective frameworks can be regarded as a common denominator of the individual outlooks on the framework.
In acts of remembering, the individual may actualize the depicted symbols in memory, but he could also employ precepts from the environment. The latter have been referred to as material or external frameworks of memory, suggesting their similar role as catalysts for processes of remembrance such as that of the hybrids in my paintings. It is only with reference to the hybrids, who work as messengers / mediators with a dual nature, that communicate between the past and the present, the internal and external space, that individual memory and group memory is in focus.
The exhibition at the Egyptian museum in Leipzig is my practical method to create a communicative memory, using hybrids as mediators in cultural transimission, as when the act refers to informal and everyday situations in which group members informally search for the past, it takes place in the communicative
162
memory. As explained in chapter one, the exhibition at the Egyptian museum in Leipzig is an act of remembering in search for the past with support of my paintings, which then can considered as part of the cultural memory.
In addition to the theoretical framework summarized above, I have applied my hypothesis practically in the form of the public exhibition, and shared the methodology with public audience from Cairo / Egypt and Leipzig / German in the form of visual art workshops and open discussions. I have also suggested an analyzed description of the meaning of hybrids in my artwork as mediators and messengers for the purpose of cultural transmission, as well as in relation to other artists’ work and use of a similar concept.
By using my hybrid creatures in my visual artwork, I am creating a bridge, mediators to represent both the past and the present, what we remember of the past, and how we understand the past. It is as explained in chapter two; that the hybridization methodology in terms of double membership represented in different cultures –Cairo / Egypt and Leipzig / Germany- can provide a framework which allows artistic discussions and could be individually interpreted, so individual cultures / individual memory can become transparent without losing their identities and turn into communicative memory. This transmission through the hybridization theoretical approech was explicitly clarified with the support of Krämer’s hypothesis. The practical attempt was examined by creating a relationship between the witness –me as an artist– and the audience –the exhibition visitors–, to cross space and time, not to bridge differences, rather to represent the contrasts transparently.
The Kin-making proposition is adopted by many academics and scholars in modern society and theoretical research; the topic was represented in the roots of the ancient Egyptian mindset and supported theoretically by similar understandings such as Haraway’s definition of kin-making. The practical implementation of kin- making can be observed in many of my artwork and was analyzed visually and artistically in chapter three.
My practical project outcome tested success by using hybrids in my paintings as mediators, it opened a communicative artistic discussion. This methodology gave a possible path of communication through paintings / visual analyses, and offered relativity through image self-interpretation.
Public Private Partnership (PPP) setzt sich zunehmend als alternative Beschaffungsvariante für die öffentliche Hand durch. Im Krankenhausbereich bestehen erste Erfahrungen mit PPP, allerdings kann hier im Gegensatz zu anderen öffentlichen Bereichen noch nicht von einer Etablierung gesprochen werden. In vielen Krankenhäusern besteht Unklarheit über dieses neue Organisationskonzept. Was steckt hinter diesem Begriff, der teilweise synonym zur „Privatisierung“ verwendet wird? Ausgehend von dieser Fragestellung wird in der vorliegenden Arbeit gezeigt, dass PPP bei richtiger Anwendung eine Alternative zum Verkauf eines öffentlichen Krankenhauses darstellt. PPP ist ein Instrument, mit dem privates Know-how und Kapital für den öffentlichen Krankenhausträger nutzbar gemacht wird. Die öffentliche Trägerschaft des Krankenhauses bleibt dabei, im Gegensatz zu einer materiellen Privatisierung, erhalten. Die Rahmenbedingungen des Gesundheitswesens stellen insbesondere die öffentlichen Krankenhäuser vor große Herausforderungen. Die Lage ist zunehmend geprägt von Mittelknappheit, Sanierungsstau und stetig steigendem Wettbewerbsdruck um die Patienten. Die Reformbemühungen der Bundesregierung zur Senkung der Gesundheitsausgaben haben in den letzten Jahrzehnten zu immer neuen Gesetzesregelungen in immer kürzeren Zeitabständen geführt. Den bisher letzten großen Schritt in dieser Entwicklung stellt die Umstellung der Krankenhausvergütung auf DRG-Fallpauschalen dar. Die Auswirkungen sind insbesondere in den öffentlichen Krankenhäusern zu spüren. Defizitäre Einrichtungen, die bisher durch Subventionen gestützt wurden, werden nun nicht mehr „künstlich am Leben“ erhalten. Alle Krankenhäuser erhalten eine leistungsorientierte Vergütung, weitgehend unabhängig von den krankenhausspezifisch anfallenden Kosten. Durch diese Entwicklungen wurde das Bestreben in den Krankenhäuser, die internen Leistungsprozesse zu optimieren, weiter forciert. Dabei kommt den mit der Gebäudesubstanz verbundenen Leistungen eine besondere Bedeutung zu. Aufgrund hoher Investitionskosten und bedeutender Aufwendungen in der Nutzungsphase erreichen die nicht-medizinischen Leistungen in einem Krankenhaus einen beachtlichen Anteil an den Gesamtkosten. Fast ein Drittel der Krankenhaus-Kosten steht nicht in direkter Beziehung zum Heilungsprozess. In Deutschland macht dieser Anteil der nicht-medizinischen Abläufe jährlich rd. 18 Mrd. Euro aus. Das Optimierungspotenzial des nicht-medizinischen Leistungsbereichs, der auch die bau- und immobilienwirtschaftlichen Leistungen umfasst, wird bisher oft noch unterschätzt und ist in den meisten Fällen noch nicht ausgeschöpft. Allein schon aufgrund dessen finanzieller Bedeutung bedarf es einer verstärkten wissenschaftlichen Auseinandersetzung. Dieser Notwendigkeit ist bisher noch unzureichend Rechnung getragen wurden. Die vorliegende Arbeit will mit der Erforschung der Anwendbarkeit von PPP für Krankenaus-Immobilien einen Beitrag dazu leisten, diese Lücke zu schließen. Mit dieser für den deutschen Krankenhausbereich neuartigen Beschaffungsvariante wird ein Weg aufgezeigt, wie bei den nicht-medizinischen Leistungen nachhaltig Effizienzpotenziale erschlossen werden können und auf diese Weise ein Beitrag zum wirtschaftlichen Erfolg des gesamten Krankenhauses erzielt werden kann.
The increasing success of BIM (Building Information Model) and the emergence of its implementation in 3D construction models have paved a way for improving scheduling process. The recent research on application of BIM in scheduling has focused on quantity take-off, duration estimation for individual trades, schedule visualization, and clash detection.
Several experiments indicated that the lack of detailed planning causes about 30% non-productive time and stacking of trades. However, detailed planning still has not been implemented in practice despite receiving a lot of interest from researchers. The reason is associated with the huge amount and complexity of input data. In order to create a detailed planning, it is time consuming to manually decompose activities, collect and calculate the detailed information in relevant. Moreover, the coordination of detailed activities requires much effort for dealing with their complex constraints.
This dissertation aims to support the generation of detailed schedules from a rough schedule. It proposes a model for automated detailing of 4D schedules by integrating BIM, simulation and Pareto-based optimization.
Strategien der Sichtbarkeit und Sichtbarmachung von ‚Wearable Enhancement‘ im Bereich Smart Health
(2022)
Die vorliegende Forschungsarbeit befasst sich mit der Entwicklung und Gestaltung von körpernahen, tragbaren Artefakten für den digitalisierten Gesundheitsbereich. Unter dem entwickelten Begriff des Wearable Enhancements werden die verschiedenen Termini aus smarten Textilien, Fashion Technologies, Wearable Technologies sowie elektronischen Textilien zusammengefasst und zwei zentrale Forschungsfragen untersucht. Wie kann Wearable Enhancement im Bereich Smart Health ethisch, sozial und ökologisch entwickelt und gestaltet werden? Inwiefern können textile Schnittstellen die Wahrnehmung und die Wahrnehmbarkeit des Körpers verändern? Mit der ersten Forschungsfrage sollen vorrangig Ansätze und Strategien der Sichtbarkeit für die Entwicklung und Gestaltung diskutiert werden, welche Aussagen für die Designpraxis, den Gestaltungs- und Designforschungsprozess sowie die Designlösungen selbst generieren sollen. Die zweite Forschungsfrage zielt darauf, Formen der Sichtbarmachung von sowie für Wearable Enhancement zu untersuchen.
Anhand von drei konkreten Fallstudien werden wesentliche Aspekte der Rezeption, Perzeption, Konstruktion, Konfiguration und Konzeption von soziotechnischen Artefakten zur Funktionssteigerung des menschlichen Körpers untersucht und verschiedene Formen der Sichtbarkeit und Sichtbarmachung entwickelt. In der Arbeit wird ein dual-angelegter transdisziplinärer Designforschungsansatz entwickelt und praktiziert, welcher sowohl die menschlichen Bedürfnisse der Nutzer*innen als auch die Weiterentwicklung von Technologien berücksichtigt. Auf dieser Grundlage wird versucht Anregungen für ein zukunftsfähiges und zugleich verantwortungsorientiertes Design zu geben.
The modern industries of the 19th and 20th centuries had multiple effects on the spatial transformation of cities and regions. The past decade has witnessed increasing scholarly and governmental attempts toward conserving modern industrial heritage in the so-called Global North, with the goal, among others, of leveraging this heritage as a driver for urban economic development. In Egypt, the process continues to lag behind; on the one hand, this is due to the perplexing official recognition of the (in)tangible witnesses of modern industries. On the other hand, the official recognition and previous publications focus predominantly on weighing the significance of industrial structures based on their monumental architectural aesthetics. Their historical urban role and spatial attributes as part of urban heritage have yet to be seriously acknowledged. Accordingly, this hinders the integration of the extant industrial sites into the broader debate surrounding urban conservation, leaving them vulnerable to decay and destruction.
This dissertation steers away from the singular investigation of selective modern industrial sites to recall their historical spatial development on a city scale. This is effected by investigating a case study - the Egyptian port city of Alexandria. With the limited secondary data available on modern industries in Alexandria, this dissertation relied predominantly on primary sources. The author collected and leveraged both quantitative and qualitative data to recontextualize modern industries in terms of their spatial dynamics, order, and rationale within cities’ transformation.
By recalling historical spatial development in Alexandria, the contribution of this dissertation lies in highlighting what the author refers to as the Omitted Heritage. This is defined by the modern industries in Egypt that are intentionally, unintentionally, and forgetfully excluded in terms of physical documentation, evaluation, appreciation, and integration within urban development plans. The method used excavated the richness of the established modern industries in Alexandria in terms of their quantity and diversity, which would have otherwise remained largely forgotten. The contextualization of modern industries unveiled spatial periodization, spatial dynamics, and conceptual development. The study draws on important analytical aspects that transcend the sites’ boundaries, elevating their significance to the municipal, regional, national, and even global levels. Its recommendations for further research are also divided into those levels.
Seit 1969 werden für die Bundesrepublik kontinuierlich Berechnungen zu den Gesamtkosten des Straßenverkehrs der Bundesfernstraßen und deren Verteilung auf die Verkehrsteilnehmer durchgeführt. Die Ergebnisse der Wegekostenrechnungen der Jahre 2002 und 2007 sind die Grundlage für die mittlerweile für das deutsche Autobahnnetz eingeführte fahrleistungsbezogene Benutzungsgebühr für Lkw mit einem zulässigen Gesamtgewicht von mindestens zwölf Tonnen. Damit wird die Forderung der EU-Richtlinie 1999/62/EG umgesetzt, nach der sich die durchschnittlichen Straßenbenutzungsgebühren an den Kosten für den Bau, den Betrieb und den Ausbau des betreffenden Verkehrswegenetzes orientieren sollen. Mit der EU-Richtlinie 2006/38/EG kündigt sich die weitere Entwicklung bei der Berechnung von Straßenbenutzungsgebühren an. Zukünftig sollen auch externe Kosten in die Berechnung einfließen. Ein erster Schritt zur Berücksichtigung dieser externen Kosten erfolgte mit Erstellung eines Handbuchs im Rahmen eines EU-Forschungsprojektes. Das Handbuch enthält aufgrund der unterschiedlichen Rahmenbedingungen in den Mitgliedsstaaten der EU keine exakten Berechnungsvorschriften, sondern stellt verschiedene methodische Ansätze bisher durchgeführter Studien zu externen Kosten vor, gibt Empfehlungen hinsichtlich der Methodenwahl und beinhaltet Schätzungen über die Höhe der externen Kosten. Die im europäischen Raum in den vergangenen Jahren durchgeführten Studien zur Ermittlung externer Kosten des Verkehrs zeichnen sich durch einander ähnelnde Vorgehensweisen aus, die aber vor allem hinsichtlich der Kostenrechnungsart und der verwendeten Kostensätze aus Sicht des Verfassers der vorliegenden Arbeit kritische Aspekte aufweisen. In der vorliegenden Dissertationsschrift wird daher eine alternative Berechnungsmethodik zur Ermittlung abschnitts-, fahrzeugklassen- und fahrleistungsbezogener externer Kosten für Autobahnen entwickelt und an einem ausgewählten Beispielnetz zur Anwendung gebracht. Dabei wird in einigen wesentlichen Punkten von der in aktuellen Studien überwiegend gewählten Vorgehensweise abgewichen, um eine andere Sichtweise darzustellen. Damit trägt die vorliegende Arbeit substanziell zur Erweiterung des Erkenntnisstands zu Berechnungsmethoden externer Kosten des Straßenverkehrs bei. Die hier entwickelte Berechnungsmethodik ist außerdem als Grundlage für ein in der Praxis anwendbares Verfahren zu verstehen und zeichnet sich auch daher durch eine einfach zu handhabende Übertragbarkeit auf das gesamte Autobahnnetz Deutschlands aus. Die Abschnitte entsprechen den Teilstrecken zwischen zwei Autobahnanschlussstellen. Es wird zwischen den beiden Fahrzeugklassen "Lkw ab 12 t zulässigem Gesamtgewicht" und "Sonstigen Fahrzeugen" unterschieden. Obwohl momentan nur eine Benutzungsgebühr für Lkw ab 12 t zulässigem Gesamtgewicht erhoben wird, ist es mit der entwickelten Methodik möglich, fahrleistungsbezogene externe Kosten für alle Kfz angeben zu können. Die Einbeziehung externer Nutzen wird in diesem Zusammenhang andiskutiert; der Schwerpunkt liegt allerdings auf den externen Kosten. Im Rahmen der Arbeit werden zunächst Definitionen wesentlicher Terminologien dargestellt, soweit diese für das Verständnis der sich anschließenden Diskussion und Festlegung der Grundlagen der entwickelten Berechnungsmethodik notwendig erscheinen. Diese Diskussion und Festlegung umfasst die Bereiche Kostenrechnungsart, Bewertungsverfahren zur Ermittlung des Wertegerüsts, Diskontrate, zu betrachtende Kostenbereiche, Mengengerüst und Allokationsrechnung. Darauf folgend werden die betrachteten Kostenbereiche anhand vorliegender Studien und eigener Überlegungen detailliert dargestellt und das Wertegerüst bestimmt. Außerdem wird die Allokationsrechnung und das für die Berechnung heranzuziehende Mengengerüst für jeden Bereich separat vorgestellt. Anschließend wird die entwickelte Berechnungsmethodik auf ein Beispielnetz (Autobahnnetz Thüringen) angewendet. Neben der Vorstellung des Untersuchungsgebiets, der Berechnung der externen Kosten und der disaggregierten Ergebnisdarstellung wird die Einteilung des Beispielnetzes in unterschiedliche Preiskategorien auf der Grundlage der abschnittsbezogen vorliegenden Ergebnisse diskutiert, auf deren Basis die externen Kosten über Straßenbenutzungsgebühren internalisiert werden könnten. Im Rahmen einer Sensitivitätsanalyse werden einzelne Annahmen der Berechnungsmethodik bzw. Kostensätze des Wertegerüsts variiert. Die Auswirkungen dieser Variationen werden wiederum am Beispielnetz, für das erneute Kostenberechnungen vorgenommen werden, dargelegt. Abschließend werden offen gebliebene Fragestellungen und Empfehlungen für weitere Untersuchungen benannt.
Das Ziel dieser Arbeit war es, durch Verwendung geeigneter vorhandener CAD-Pläne die Bearbeitung neuer CAD-Pläne zu unterstützen. Entstanden ist ein generischer Ansatz zum fallbasierten Schließens. Da in CAD-Plänen die räumliche Struktur eine wichtige Rolle spielt, ist das Konzept auf strukturorientierte Anwendungen ausgerichtet. Deshalb bezeichne ich es als ein Konzept zum " strukturorientierten fallbasierten Schließen". Die Arbeit spezifiziert das Minimum an Wissen, welches zur Suche und Wiederverwendung von Fällen benötigt wird, wie das darüber hinausgehende Wissen verarbeitet wird, welche Zusammenhänge es zum Beispiel zwischen Vergleichs- und Anpassungswissen gibt und wie man das Wissen modellieren kann. Zur Erläuterung wird das benötigte Wissen anhand verschiedener Anwendungen dargestellt. Das in der Arbeit vorgestellte Konzept erlaubt die Ergänzung, Detaillierung und Korrektur einer Anfrage. Die beiden entscheidenden Algorithmen dienen dem Vergleich von Anfrage und Fall und der Anpassung der Information des Falles zur Modifikation der Anfrage.
Die Arbeit untersucht auf der Basis der Neuen Institutionenökonomik die Rolle von Immobilieninvestoren, d.h. offene und geschlossene Immobilienfonds, Real Estate Investment Trusts, Real Estate Private Equity Fonds und Lebensversicherungen, auf dem deutschen Markt für Public Private Partnership Projekte im öffentlichen Hochbau. Dafür werden Immobilienanlagevehikel als institutionelle Ausgestaltung einer Prinzipal-Agent-Beziehung aufgefasst, bei der der Anleger als Prinzipal die Kapitalanlage an den Immobilieninvestor als Agent delegiert. Die geschäftlichen Aktivitäten eines Immobilieninvestors werden durch den normierten Handlungsspielraum, d.h. die rechtlichen Vorgaben, determiniert. Daneben beeinflusst auch die Ausgestaltung der PA-Beziehung, d.h. die Rechte des Prinzipals und die Anreize für den Agenten, die geschäftlichen Aktivitäten eines Immobilieninvestors. Zusammengeführt werden diese beiden Kategorien unter dem Begriff des „definierten Gestaltungsrahmens“, der als Rahmen der geschäftlichen Aktivitäten eines Immobilieninvestors verstanden wird, der dessen PPP-Investitionsmöglichkeiten bestimmt. So ist die Eignung eines Immobilieninvestors für eine PPP-Investition davon abhängig, ob sein „definierter Gestaltungsrahmen“ zum „erforderlichen Gesamtgestaltungsrahmen“ des PPP-Projektes passt. Letzterer wird dabei durch das PPP-Vertragsmodell, die PPP-Immobilienart, die PPP-Wertschöpfungsphase sowie die gewählte Handlungsoption des Investors auf dem PPP-Markt determiniert. In der Arbeit werden theoretische PPP-Investitionsmodelle entwickelt, in denen dargelegt wird, welche Immobilieninvestoren in welche PPP-Projekte investieren sollten. Dabei werden Empfehlungen zu den geeigneten Handlungsoptionen des jeweiligen Investors auf dem PPP-Markt erarbeitet und dargelegt, in welcher PPP-Wertschöpfungsphase dieser investieren sollte und welche der PPP-Vertragsmodelle und PPP-Immobilienarten für eine Investition geeignet sind. Zudem werden Gestaltungsempfehlungen zum rechtlichen Rahmen hergeleitet. Des Weiteren werden die Immobilieninvestoren auch für die bisher schon auf dem PPP-Markt agierenden Bau- und Betreiberunternehmen, insbesondere den Mittelstand, als potentielle Kooperationspartner auf dem Erstmarkt (Primärmarkt), als Exitpartner auf dem Zweitmarkt (Sekundärmarkt) oder als Wettbewerber klassifiziert. Die Thematik ist auch für die öffentliche Hand von Interesse, da der durch den Markteintritt neuer Investoren erhöhte Wettbewerb die Konditionen der PPP-Verträge verbessern kann und die Einbindung des Mittelstandes in PPP-Projekte ausdrückliches Ziel der Bundesregierung ist.
Organisation im soziotechnischen Gemenge - Mediale Umschichtungen durch die Einführung von SAP
(2017)
Der Alltag in Organisationen besteht vor allem aus den Medien und Technologien, mit denen die Koordination zwischen einzelnen Arbeitsabläufen hergestellt wird.
Diese ethnografische Studie begleitet den Prozess der Einführung eines SAP-Systems in einem mittelständischen Unternehmen und zeigt, wie das bestehende Geflecht aus Praktiken und Technologien eine Neuanordnung erfährt. Dabei tritt das komplexe soziotechnische Gemenge zutage, auf dem Koordination und Organisation beruhen. Es geht um Hardware, ebenso wie Software, um mechanische und elektronische Medien, um Papiere, Drucker, Akten, Interfaces und Tastaturen, aber auch um die jahrzehntelang eingespielten Routinen und das Erfahrungswissen der Angestellten.
The aim of this doctoral thesis was to investigate whether the German term “shrinking city” is appropriate to depopulating Polish cities. In order to do so an attempt to define the currently still vague notion of “shrinking city” was made. The urban development of Eastern Germany was thoroughly examined both in a short term perspective and in a wide historical as well as international context, with the Polish urban development used as reference. 25 cities (kreisfreie Städte) in Eastern Germany and depopulating Polish cities: Łódź and the Metropolis Silesia were chosen as case studies.
On the basis of the gathered information a “shrinking city” in Eastern Germany was defined as a city with a long-lasting population decrease coupled with over-dimensioned, growth-oriented development policies carried out for decades. Such a development path is triggering negative consequences in the spatial, economic and also demographic dimension, which tend to intensify each other.
The thesis postulates that the definition of the “shrinking city in Eastern Germany” is not appropriate to depopulating cities in Poland. Polish cities are characterized by a short-lasting population decrease and this trend is not triggering negative spatial and economic consequences. Oversized growth development policies were never present in the cities and they still suffer from great deficiencies in housing and other basic infrastructure, which derive from the socialist period. Furthermore, radical de-economization, known from Eastern German cities, did not occur in the Polish cities. Both Łódź and the Metropolis Silesia remain main production centers of the country.
This doctoral thesis presents a contradictory view to contemporary publications on “shrinking cities”, in which this phenomenon is regarded as having occurred suddenly after the collapse of the socialism. It proved that “shrinking cities” in Eastern Germany are not the outcome of short-lasting processes, but are deeply rooted in the past. Moreover, they represent a very distinct development pattern that highly differentiates from the one found in Central Eastern Europe and the one in Western Europe. In this way the doctoral thesis provided a new, critical approach to the discourse on “shrinking cities” in Germany. It also draws attention to the importance of the historical analysis in cities’ development research, particularly in cross border studies. In time of European integration peculiarities resulting from centuries of different spatial, economic and social development paths should not be underestimated.
Revisiting vernacular technique: Engineering a low environmental impact earth stabilisation method
(2022)
The major drawbacks of earth as a construction material — such as its low water stability and moderate strength — have led mankind to stabilize earth. Different civilizations developed vernacular techniques mainly focussing on lime, pozzolan or gypsum stabilization. Recently, cement has become the most commonly used additive in earth stabilization as it improves the strength and durability of plain earth. Also, it is a familiar and globally available construction material. However, using cement as an additive reduces the environmental advantages of earth and run counter to global targets regarding the reduction of CO2 emissions. Alternatives to cement stabilization are currently neither efficient enough to reduce its environmental impact nor allow the possibility of obtaining better results than those of cement. As such, this thesis deals with the rediscovery of a reverse engineering approach for a low environmental impact earth stabilization technique, aiming to replace cement in earth stabilization.
The first step in the method consists in a comprehensive review of earth stabilization with regards to earthen building standards and soil classification, which allows us to identify the research gap. The review showed that there is great potential in using other additives which result in similar improvements as those achieved by cement. However, the studies that have been conducted so far either use expansive soils, which are not suitable for earth constructions or artificial pozzolans that indirectly contribute to CO2 emissions. This is the main research gap.
The key concept for the development in the second step of the method is to combine vernacular additives to both improve the strength and durability of plain earth and to reduce the CO2 emissions. Various earth-mixtures were prepared and both development and performance tests were done to investigate the performance of this technique. The laboratory analyses on mix-design have proven a high durability and the results show a remarkable increase in strength performance. Furthermore, a significant reduction in CO2 emissions in comparison to cement stabilization could be shown.
The third step of the method discusses the results drawn from the experimental programme. In addition, the potential of the new earth mixture with regards to its usability in the field of building construction and architectural design is further elaborated on.
The method used in this study is the first of its kind that allows investors to avoid the very time-consuming processes such as finding a suitable source for soil excavation and soil classification. The developed mixture has significant workability and suitability for production of stabilized earthen panels — the very first of its kind. Such a panel is practically feasible, reasonable, and could be integrated into earthen building standards in general and in particular to DIN 18948, which is related to earthen boards and published in 2018.
Exploratory Research into Transformation Processes of Former Industrial Complexes of Leipziger Baumwollspinnerei (Leipzig) and Mattatoio di Testaccio (Rome); New Meanings of Industrial Heritage
Physical manifestations of the Industrial Revolution left a permanent imprint on the complexion of cities. Abandonment that followed the deindustrialization contributed to an estrangement, turning derelict industrial spaces and run‐down factories into a ballast to conjure with. At present, industrial heritage management applies flexibility and creativity, partially overcoming the essentially traditional paradigm of heritage preservation. This approach permits sustainable conservation – utilization and integration of disused industrial constructs in the contemporary urban landscape. Being a part of the European cultural stock, industrial heritage is an exciting and unique setting from many perspectives. It is defined and consumed by many markets, ranging from the industrial heritage tourism to the market of special events and festivals. Reused industrial buildings and factories come into view as products of post‐industrial societies, fitting to the Western post‐industrial (consumer) culture, offering a field of activities that are at an interface between the industrial history and contemporary socio‐cultural milieu.
Alteration of values, growth of new roles and definitions of industrial heritage, generated by functional restructuring, is a subject which is often left behind the general discussion about sustainable conservation and adaptive reuse of industrial heritage. Yet, in the modified state, industrial heritage is very complex to understand and to define.
By conducting a desk and a case study research of former industrial complexes – Leipziger Baumwollspinnerei and Mattatoio di Testaccio, this doctoral thesis aims to identify industrial heritage as a contemporary (post‐industrial) concept. Observation of ideas, values and definitions that emerge as a consequence of the transformation and re‐conceptualization of industrial heritage are intended to raise awareness and appreciation of industrial heritage in the full richness of its contemporary interpretation.
Die Reise der Zeichen - Eine Studie zur symbolischen Bildwelt der Xiyü-Kultur an der Seidenstraße
(2015)
Kurzfassung
Die vorliegende Studie untersucht die traditionellen Xiyü-Zeichen im Visuellen verschiedener Volksgruppen am Beispiel Xinjiangs im Nordwesten Chinas, wo einst die alte Seidenstraße entlangführte. Die Untersuchung versteht sich als ein Versuch der systematischen Darstellung der symbolischen Bildwelt in Xinjiang und damit im weiteren Sinne auch als ein Versuch, das Xiyü-Kulturerbe zu bewahren, das angesichts des tiefgreifenden Wandels in China und der Go-West-Strategie des chinesischen Wirtschaftsprogramms, welches sich auf die weiten Westgebiete Chinas bezieht, in Gefahr geraten ist. Es muss ein Weg gefunden werden, Modernisierung und Tradition in Einklang zu bringen.
Diese Studie beschreibt, analysiert und bewertet exemplarisch, wie sich Zeichen und Symbole des Wissens und der Kultur entlang der Seidenstraße in Xinjiang zwischen den östlichen und westlichen Kulturen vermischt haben, wie sie übertragen wurden und inwieweit die Xiyü-Kultur reflektiert, dass Xinjiang ein Treffpunkt zwischen östlichen und westlichen Einflüssen war. In der Annährung an dieses Forschungsziel werden drei Hauptfragen zusammengefasst:
Erstens, was kann das Erfahrungsmodell der alten Seidenstraße zum Verständnis der kulturellen Entwicklung im heutigen Informationszeitalter beitragen?
Zweitens, was bedeutet Vielfalt für die kulturelle Kommunikation in Xinjiang? Steigen die Medienereignisse der visuellen Kommunikation und die internationalen Einflüsse an?
Drittens, wie kann Xinjiang die Chancen der Go-West-Strategie des chinesischen Wirtschaftsprogramms in einer zunehmend globalisierten Welt nutzen und in der zukünftigen weltwirtschaftlichen Entwicklung wieder Vitalität zeigen?
Um sich auf diese Weise den Antworten zu nähern, verwendet diese Studie einen Ansatz, der eine kulturanthropologische Perspektive integriert. Auf Grundlage einer Feldstudie werden Eigenschaften der traditionellen visuellen Xiyü-Zeichen, ihre Bedeutung für die ethnischen Volksgruppen Xinjiangs und den kulturellen Austausch zwischen Europa und Asien diskutiert und der besondere Einfluss von Handel und Verkehrswegen aufgezeigt.
Die visuellen Zeichenformen der Xiyü-Kultur wurden von der Zeit vor der Islamisierung bis hin zur heutigen islamischen Zeit dargestellt. Die Forschung zeigt, dass die Zeichen kein ortsgebundenes Kulturphänomen oder eine lokale Tradition sind, vielmehr werden sie von regionalen, nationalen und internationalen Kulturkreisen bewusst oder unbewusst beeinflusst. Sie sind ein Ergebnis kultureller Kommunikation. Schließlich setzt sich die Studie mit den Zeichen der Xiyü-Kultur Xinjiangs in Relation mit der Go-West-Strategie der chinesischen Regierung auseinander. Die wirtschaftliche Entwicklung bringt für Xinjiang nicht nur Modernisierung und Wohlstand, sondern auch ein kulturelles und ökologisches Ungleichgewicht.
Der Mensch strukturiert alles, was er in seiner Umgebung wahrnimmt, mit Zeichen. Die Xiyü-Zeichen schaffen eine visuelle Strukturierung. Die Xiyü-Kultur hat nach wie vor Einfluss auf die Lebensweise der ethnischen Gruppen in Xinjiang. Heute hat die Konfrontation zwischen der traditionellen Xiyü-Kultur und der wirtschaftlichen Entwicklung zu einem ernsthaften Konflikt in Xinjiang geführt.
Diese Studie versteht sich als eine kritische Interpretation der aktuellen Situation der Xiyü-Kultur bzw. des chinesischen Wirtschaftsprogramms in Xinjiang. Sie will darüber hinaus einen Beitrag leisten zur Analyse der bislang nur unzureichend erfassten Wechselwirkungen zwischen Geschichte, Kultur, Politik und Wirtschaft in der kulturellen Globalisierung in Xinjiang.
Recent years have seen a gradual shift in focus of international policies from a national and regional perspective to that of cities, a shift which is closely related to the rapid urbanization of developing countries. As revealed in the 2011 Revision of the World Urbanization Prospects published by the United Nations, 51% of the global population (approximately 3.6 billion people) lives in cities. The report predicts that by 2050, the world’s urban population will increase by 2.3 billion, making up 68% of the population. The growth of urbanization in the next few decades is expected to primarily come from developing countries, one third of which will be in China and India.
With rapid urbanization and the ongoing growth of mega cities, cities must become increasingly resilient and intelligent to cope with numerous challenges and crises like droughts and floods arising from extreme climate, destruction brought by severe natural disasters, and aggregated social contradictions resulting from economic crises. All cities face the urban development dynamics and uncertainties arising from these problems. Under such circumstances, cities are considered the critical path from crisis to prosperity, so scholars and organizations have proposed the construction of “resilient cities.” On the one hand, this theory emphasizes cities’ defenses and buffering capacity against disasters, crises and uncertainties, as well as recovery after destruction; on the other hand, it highlights the learning capacity of urban systems, identification of opportunities amid challenges, and maintenance of development vitality. Some scholars even believe that urban resilience is a powerful supplement to sustainable development. Hence, resilience assessment has become the latest and most important perspective for evaluating the development and crisis defense capacity of cities.
Rather than a general abstract concept, urban resilience is a comprehensive measurement of a city’s level of development. The dynamic development of problems is reflected through quantitative indicators and appraisal systems not only from the perspective of academic research, but also governmental policy, so as to scientifically guide development, and measure and compare cities’ development levels. Although international scholars have proposed
quantitative methods for urban resilience assessment, they are however insufficiently systematic and regionally adaptive for China’s current urban development needs. On the basis of comparative study on European and North American resilient city theories, therefore, this paper puts forwards a theoretical framework for resilient city systems consistent with China’s national conditions in light of economic development pressure, natural resource depletion, pollution, and other salient development crises in China. The key factors influencing urban resilience are taken into full consideration; expert appraisal is conducted based on the Delphi Method and the analytic hierarchy process (AHP) to design an extensible and updatable resilient city evaluation system which is sufficiently systematic, geographically adaptable, and sustainable for China’s current urban development needs. Finally, Changsha is taken as the main case for empirical study on comprehensive evaluation of similar cities in Central China to improve the indicator system.
Theoretischer Teil:
Durch den Vergleich der Daten, die sowohl von den Instituten bzw. Statistikunternehmen z. B. Google, Bundesnetzagentur und Statista in Deutschland, 中国互联网络信息中心 in China, FIND in Taiwan usw. zur Verfügung gestellt wurden, als auch durch die von mir durchgeführten Umfragen in den jeweiligen Ländern, sowie durch die Interviews in Weimar, zeigen sich die kulturellen Unterschiede sowie die Gemeinsamkeiten bei der Nutzung des Smartphones. Darüber hinaus ergaben sich noch einige Konsequenzen bei den Interpretationen dieser Ergebnisse, die eng mit der Entstehung der kulturellen Unterschiede zusammenhängen.
Praktischer Teil:
Der erste Entwurf ist eine visuelle Tastatur. Um die Bildschirmtastatur zu verbessern, versucht type right ! (der Name meines Entwurfs) das Problem von Vertippen beim Eingeben zu lösen. type right ! hat zwei Schwerpunkte: 1. geänderte Positionen der Buchstaben und Zeichen und 2. geänderte Form der Taste.
Der zweite Entwurf handelt von einem Konzept einer App für die Integrationsmöglichkeit der Kommunikation.
The Chinese Shopping Centre: Integration of a Western Commercial Format into Chinese Urban Space
(2009)
Being transposed to China and absorbed by its urban space, the Western shopping centre undergoes a process of “Sinicisation”, which turns it into a spatial hybrid: a Western retail format shaped by distinctive features of Chinese space production and space use. To a large extent, this study can be regarded as a marginal number of its kind which tries to scientifically understand the impact of a socially, culturally and economically absolutely different urban environment on the model (ideal type) of the Western shopping centre.
Abstract
In this research, based on socio-spatiality as the starting point, it has conducted extensive city space analysis to advance a new urban social space theory. Resting upon the basis of traditional continent philosophy, this social space theory has adopted the structuration methods, at the same time trying to build certain combination between theoretical frame work establishment and empirical observations. Therefore, the socio-spatial transition study is neither a macro theory of traditional structuralism nor a typology of urban planning theory, or a positivism social geography, but an operative theory on practical purpose. Firstly, what’s distinct from the traditional structuralism is that this study examines the endless transiting structural relations, not macroscopic narrations of absolute definition and structure. In fact, any city and space are always co-existed in their structurational transiting relationship, thus research in transition has become the main body of this study. And case study is a must for research in transition, as part of efforts to apply the structuration concept into practice reason. Secondly, this study first establishes the fundamental structuration concept of socio-spatial transition, which, as an operative tool, is applied to conduct transition analysis on specific case about the City of Beijing. Therefore, as a social space theory, referring to as science, remains criticism of traditional continent philosophy. However, this criticism did not working on the level of ideology or conceptions, but on transiting under structural relations, keeping it from incompetent ideology criticism of continental critical theory. Unfortunately contemporary urban and space development have now gone extremely unbalanced under a background of globalization; yet traditional macro theories are incapable of either producing significant impact on practice or helping people identify practical problems. While facing general issues, particularly the Chinese urban issue category established on a meta-structured city mode, the micro-case study has plunged into dilemma for unknowing either to ask questions or to answer questions. Therefore, this study is set to identify dilemma and find direction for future relevant research. In this dissertation, Beijing is used as a model, and structuration methods as tools. It has extensively analyzed the social-spatial transition of the city space of Beijing, acquiring brand-new knowledge of its urban space development. It is helpful to an in-depth understanding of the city space development not only in Beijing, but also in many other cities that were influenced by the capital model of Beijing. Since the start of reform and opening-up, China has created a unique development mode of the new-styled metropolitan and urbanization in history. This research is expected to analyze or decode what China’s urban development in between communal space and associative space.
Structures under wind action can exhibit various aeroelastic interaction phenomena, which can lead to destructive and catastrophic events. Such unstable interaction can be beneficially used for small-scale aeroelastic energy harvesting. Proper understanding and prediction of fluid−structure interactions (FSI) phenomena are therefore crucial in many engineering fields. This research intends to develop coupled FSI models to extend the applicability of Vortex Particle Methods (VPM) for numerically analysing the complex FSI of thin-walled flexible structures under steady and fluctuating incoming flows. In this context, the flow around deforming thin bodies is analysed using the two-dimensional and pseudo-three-dimensional implementations of VPM. The structural behaviour is modelled and analysed using the Finite Element Method. The partitioned coupling approach is considered because of the flexibility of using different mathematical procedures for solving fluid and solid mechanics. The developed coupled models are validated with several benchmark FSI problems in the literature. Finally, the models are applied to several fundamental and application field of FSI problems of different thin-walled flexible structures irrespective of their size.
The purpose of this study is to develop self-contained methods for obtaining smooth meshes which are compatible with isogeometric analysis (IGA). The study contains three main parts. We start by developing a better understanding of shapes and splines through the study of an image-related problem. Then we proceed towards obtaining smooth volumetric meshes of the given voxel-based images. Finally, we treat the smoothness issue on the multi-patch domains with C1 coupling. Following are the highlights of each part.
First, we present a B-spline convolution method for boundary representation of voxel-based images. We adopt the filtering technique to compute the B-spline coefficients and gradients of the images effectively. We then implement the B-spline convolution for developing a non-rigid images registration method. The proposed method is in some sense of “isoparametric”, for which all the computation is done within the B-splines framework. Particularly, updating the images by using B-spline composition promote smooth transformation map between the images. We show the possible medical applications of our method by applying it for registration of brain images.
Secondly, we develop a self-contained volumetric parametrization method based on the B-splines boundary representation. We aim to convert a given voxel-based data to a matching C1 representation with hierarchical cubic splines. The concept of the osculating circle is employed to enhance the geometric approximation, where it is done by a single template and linear transformations (scaling, translations, and rotations) without the need for solving an optimization problem. Moreover, we use the Laplacian smoothing and refinement techniques to avoid irregular meshes and to improve mesh quality. We show with several examples that the method is capable of handling complex 2D and 3D configurations. In particular, we parametrize the 3D Stanford bunny which contains irregular shapes and voids.
Finally, we propose the B´ezier ordinates approach and splines approach for C1 coupling. In the first approach, the new basis functions are defined in terms of the B´ezier Bernstein polynomials. For the second approach, the new basis is defined as a linear combination of C0 basis functions. The methods are not limited to planar or bilinear mappings. They allow the modeling of solutions to fourth order partial differential equations (PDEs) on complex geometric domains, provided that the given patches are G1
continuous. Both methods have their advantages. In particular, the B´ezier approach offer more degree of freedoms, while the spline approach is more computationally efficient. In addition, we proposed partial degree elevation to overcome the C1-locking issue caused by the over constraining of the solution space. We demonstrate the potential of the resulting C1 basis functions for application in IGA which involve fourth order PDEs such as those appearing in Kirchhoff-Love shell models, Cahn-Hilliard phase field application, and biharmonic problems.
This research represents an effort made towards contribute to the critical thinking from an analysis of the hegemonic neoliberal ideology, which supports the idea of the end of history and the technocratic universalism which in turn implies the imposition of a single model of life, denying, in the name of realism and the end of utopias, any other alternative possibility.
This makes it necessary to recover the critical thinking to analyze and understand the reality, thus overcoming the ideological barrier towards claiming that things can be otherwise.
It is clear from this research that the discourse of sustainable development has unquestionably transformed the context and content of political activity in Europe. This discourse has exercised and obvious influence in the Governance processes, mainly because it has contributed to the introduction of a new political field, which was then promoted, either explicitly or implicitly by policy-makers, researchers on the field and practitioners during the last three decades. Though it may be bold to affirm that the discourse of sustainable development is the sole driver of these whole set of changes, there is no doubt that it has played a key part in the way in which the governance priorities have been handled in the European continent.
The current thesis presents research about new methods of citizen participation based on digital technologies. The focus on the research lies on decentralized methods of participation where citizens take the role of co-creators. The research project first conducted a review of the literature on citizen participation, its origins and the different paradigms that have emerged over the years. The literature review also looked at the influence of technologies on participation processes and the theoretical frameworks that have emerged to understand the introduction of technologies in the context of urban development. The literature review generated the conceptual basis for the further development of the thesis.
The research begins with a survey of technology enabled participation applications that examined the roles and structures emerging due to the introduction of technology. The results showed that cities use technology mostly to control and monitor urban infrastructure and are rather reluctant to give citizens the role of co-creators. Based on these findings, three case studies were developed. Digital tools for citizen participation were conceived and introduced for each case study. The adoption and reaction of the citizens were observed using three data collection methods.
The results of the case studies showed consistently that previous participation and engagement with informal citizen participation are a determinining factor in the potential adoption of digital tools for decentralized engagement. Based on these results, the case studies proposed methods and frameworks that can be used for the conception and introduction of technologies for decentralized citizen participation.
This is a work concerned with the increasing processes of social exclusion in cities nowadays. In approaching this phenomenon, the research highlights how people interact with their institutional environments. This is also, perhaps centrally, an investigation into the possibility to engage an individual perspective to understand the transformation in urban experience, which is orienting society to new uses and forms of exclusion. Following the perspective deployed by the so-called “sociology of individuals” in French sociology or “reengagement of agency” in the Anglo-Saxon world; I claim that individuals as well as collectives are gaining increasing power to question and re-organize institutions. This re-organization, in the case of socio-urban institutions, is no guarantee for major levels in integration, cohesion, and equality. Unfortunately, social institutions are becoming hard in its exclusionary capabilities under people intervention during the last four decades.
I believe that urban sociology is a field of struggle between different perspectives competing to “make sense” of social phenomena in cities. The orientation supported in this research is just one on many and it follows the roots of people and their life experiences within cities and how they influence the processes that shape the city. The last formulation is possibly not the clearest, because as we all know, references to “inhabitants” are presented in every variant of urban sociology. Nevertheless, there are not many variants focusing on peoples’ capability to influence institutional environments and by this way affecting the urban condition in which they find themselves. The particular institution selected for this study is the “School”.
This thesis is organized around two parts: part one includes the conceptual framework, methodological approach, and historical contextualization; part two describes three case studies produced to analyse the forms of and the relations between individuals and school institution. Part one starts from a premise: within the context of declining welfare State in the case of industrialized countries, an important part of urban studies focuses on economic and spatial restructuration. Confronted with the same situation, a part of social sciences shifts to the individuals’ agency and social uncertainty. This research is embedded in the last theoretical description presented above, thus, because it tries to observe urban processes from the perspective of the individual and outside of developed economies. In this sense, Latin America represents a fundamental reference because urban conditions are historically marked by weak institutional arrangements to integrating people and large levels of marginality and exclusion among population. In this scenario individuals’ practices around inclusion-exclusion have an essential meaning in everyday life.
Part two offers three study cases in which the relation between individuals and school institutions has been analyzed for the Metropolitan area of Santiago de Chile (MAS). Using different methodological resources an exhaustive account on three levels is presented: i) geo-referencing State intervention in public policies connected with neighborhood and schools to understand the form and extent of socio-urban exclusion in MAS, ii) narrative biographies applied to parents with children attending primary school, in order to reconstruct the familiar process of school selection and describing its impacts on the stabilization of school as an exclusionary device, and iii) autoethnography to describe in detail the temporal dimension involved in stabilizing actions which reinforces social mechanisms of urban integration-exclusion during the last three decades in Chile.
A key argument advanced by this research proposes that: the way in which the idea of integration is enacted by people in their biographical careers imprints changes on the institutional orientation and by this way, contributes to the reorganization urban life. The high level of social exclusion in Santiago de Chile is not accountable without considering transformation in all socio-urban institutions, especially the school. No family considers social integration with people from a low social, economical or cultural background as relevant orientation for school selection. This particularity of the Chilean social reality is not derivable from any big capitalistic or modernization processes impacting our cities.
Within the light of the thesis findings, I conclude that socio-urban institutions logics must be reassessment under the influences of people actions and representations. I also propose a consideration to major complementarities between urban studies and urban-institutions analysis. The school institutions is not just a sectorial field reserved to the researcher in education, on the contrary, it represent a key entrance to address people’s experience in their institutional urban environments. The re-emergence of social and urban movements in 2010, under the “Arab Spring” or the “Chilean Student Movements”, is not only a demonstration in the public space as result of major global trends. These situations are in essence, for this research, individuals gathering together and calling for recognition and autonomy inside institutional environment that tends to reject them. Similar situation was the focus of the Latin American urban sociology research, within the focus on grassroots and urban social movements at the end of the 1960s and beginning of the 1970s.
In both cases, socio-urban institutions, unaware of recognition requirements claimed by inhabitants, are not beyond individual or collective reach. My main concern is to show that socio-urban institutions are constantly re-shaped as a result of individual action, what makes the difference, is the spirit that we all, socially, imprint on the logics of our socio-urban institutions, moving them to inclusion or exclusion.
The thesis concerns a work of urban history intended not to describe the city but rather to interpret it. By doing so, I have interpreted the city by means of the role played by the so-called ‘great property’ in the European city-making process during the last three decades of the 20th century, specifically focused on the concrete case of military properties in Italy. I have also considered the role played by other kinds of great properties, i.e. industries and railway, which previously acted in the production of the built environment in a different way respect to the military one. As all of them have as common denominator the fact of being ‘capital in land’, I analysed great industrial and railway properties in order to extrapolate a methodology which helped me to interpret the relationship between military properties and city-making process in Europe in the late 20th century.
I have analysed the relationship between the capital in land and the city-making process on the ground of the understanding the interrelation between the great property, the urban development, and the agents involved in the urban and territorial planning. Here I have showed that urban planning is not the decisive factor influencing the citymaking process, but instead the power held by the capital in land. I have found that is the great property the trigger of the creation of new ‘areas of centrality’ intended as large areas for consumerism. As far as the role played by great property is concerned, I have also discovered that it has evolved over time. Originally, industrial and railway properties have been regenerated into a wide range of new profit-driven spaces; successively, I have found out that most of the regeneration of military premises aimed to materialise areas of centrality. The way of interpreting this factor has been based on focusing my attention on the military premises in Italy: I have classified their typology when they have been built and, most importantly, when they have been regenerated into new areas of centrality.
Die Arbeit „Das Bild der Zwischenstadt“ sucht nach Möglichkeiten zur Qualifizierung der verstädterten Landschaft, für die Thomas Sieverts den Begriff „Zwischenstadt“ geprägt hat. Die Auseinandersetzung mit „räumlicher Identität“ steht dabei im Mittelpunkt: In deren Dekodierung und Inszenierung wird ein Potenzial erkannt, die Aufenthalts- und Erlebnisqualität der Zwischenstadt zu verbessern. Der Betrachtungsraum der Arbeit zwischen Frankfurt am Main und seinen prosperierenden Umlandgemeinden eignet sich in besonderer Weise, die „Anatomie der Zwischenstadt“ zu dekodieren. Schicht für Schicht wird der Versuch unternommen, die eigene Sprache dieses Raumes zu entziffern. Dabei werden Methoden der Beschreibung und Darstellung entwickelt, die den spezifischen räumlichen Eigenschaft der Zwischenstadt gerecht zu werden suchen. Die Ergebnisse dieser Auseinandersetzung lassen deutliche Transformationen in der Zwischenstadt erkennen und entheben sie aus ihrer vermeintlichen Eigenschaftslosigkeit. Orte mit Bedeutung, Zusammenhänge und Raumgeschichten werden lesbar, es zeigen sich Ansätze eigener Urbanität und Zentralität. Die Zwischenstadt hat sich von ihrer einseitigen Dependenz zur Kernstadt gelöst, tritt aber gleichzeitig in einen umfassenden Wandel, um sich geänderten Lebensformen und Bedürfnissen anzupassen. Ältere, den Raum prägende Einfamilienhausgebiete und Großsiedlungen, aber auch monofunktionale Gewerbegebiete und die typischen suburbanen Einkaufszentren erfüllen keineswegs mehr automatisch die Wohnwünsche und Anforderungen einer Dienstleistungs- und Freizeitgesellschaft. Die Arbeit greift die unverkennbare Transformation des Bildes der Zwischenstadt als Chance zur Qualifizierung dieses Raumes auf. Entwickelt werden Qualifizierungsmodelle, die der Tendenz zu Segregation und Abtrennung mit einer neuen Integrationskultur für die Zwischenstadt begegnen: Als prägender Lebensraum der Stadtregion muss die Zwischenstadt einen großen Teil der Bedürfnisse Ihrer Bewohner und Benutzer an den Raum befriedigen. Zunehmend sind diese Bedürfnisse nicht nur funktioneller Art, sondern werden überlagert von einem Bedürfnis nach Raumqualität, Verortung und Identifikationsmöglichkeiten. Für diese Bedürfnisse angemessene und auratische Raumbilder zu finden oder zu inszenieren, ist im Angesicht des Status Quo der Stadtlandschaft eine wichtige Herausforderung.
Die zu beobachtenden kürzeren Produktlebenszyklen und eine schnellere Marktdurchdringung von Produkttechnologien erfordern adaptive und leistungsfähige Produktionsanlagen. Die Adaptivität ermöglicht eine Anpassung der Produktionsanlage an neue Produkte, und die Leistungsfähigkeit der Anlage stellt sicher, dass ausreichend Produkte in kurzer Zeit und zu geringen Kosten hergestellt werden können. Durch eine Modularisierung der Produktionsanlage kann die Adaptivität erreicht werden. Jedoch erfordert heutzutage jede Adaption manuellen Aufwand, z.B. zur Anpassung von proprietären Signalen oder zur Anpassung übergeordneter Funktionen. Dadurch sinkt die Leistungsfähigkeit der Anlage.
Das Ziel dieser Arbeit ist es, die Interoperabilität in Bezug auf die Informationsverwendung in modularen Produktionsanlagen zu gewährleisten. Dazu werden Informationen durch semantische Modelle beschrieben. Damit wird ein einheitlicher Informationszugriff ermöglicht, und übergeordnete Funktionen erhalten Zugriff auf alle Informationen der Produktionsmodule, unabhängig von dem Typ, dem Hersteller und dem Alter des Moduls. Dadurch entfällt der manuelle Aufwand bei Anpassungen des modularen Produktionssystems, wodurch die Leistungsfähigkeit der Anlage gesteigert und Stillstandszeiten reduziert werden.
Nach dem Ermitteln der Anforderungen an einen Modellierungsformalismus wurden potentielle Formalismen mit den Anforderungen abgeglichen. OWL DL stellte sich als geeigneter Formalismus heraus und wurde für die Erstellung des semantischen Modells in dieser Arbeit verwendet. Es wurde exemplarisch ein semantisches Modell für die drei Anwendungsfälle Interaktion, Orchestrierung und Diagnose erstellt. Durch einen Vergleich der Modellierungselemente von unterschiedlichen Anwendungsfällen wurde die Allgemeingültigkeit des Modells bewertet. Dabei wurde gezeigt, dass die Erreichung eines allgemeinen Modells für technische Anwendungsfälle möglich ist und lediglich einige Hundert Begriffe benötigt.
Zur Evaluierung der erstellten Modelle wurde ein wandlungsfähiges Produktionssystem der SmartFactoryOWL verwendet, an dem die Anwendungsfälle umgesetzt wurden. Dazu wurde eine Laufzeitumgebung erstellt, die die semantischen Modelle der einzelnen Module zu einem Gesamtmodell vereint, Daten aus der Anlage in das Modell überträgt und eine Schnittstelle für die Services bereitstellt. Die Services realisieren übergeordnete Funktionen und verwenden die Informationen des semantischen Modells. In allen drei Anwendungsfällen wurden die semantischen Modelle korrekt zusammengefügt und mit den darin enthaltenen Informationen konnte die Aufgabe des jeweiligen Anwendungsfalles ohne zusätzlichen manuellen Aufwand gelöst werden.
One major research focus in the Material Science and Engineering Community in the past decade has been to obtain a more fundamental understanding on the phenomenon 'material failure'. Such an understanding is critical for engineers and scientists developing new materials with higher strength and toughness, developing robust designs against failure, or for those concerned with an accurate estimate of a component's design life. Defects like cracks and dislocations evolve at
nano scales and influence the macroscopic properties such as strength, toughness and ductility of a material. In engineering applications, the global response of the system is often governed by the behaviour at the smaller length scales. Hence, the sub-scale behaviour must be computed accurately for good predictions of the full scale behaviour.
Molecular Dynamics (MD) simulations promise to reveal the fundamental mechanics of material failure by modeling the atom to atom interactions. Since the atomistic dimensions are of the order of Angstroms ( A), approximately 85 billion atoms are required to model a 1 micro- m^3 volume of Copper. Therefore, pure atomistic models are prohibitively expensive with everyday engineering computations involving macroscopic cracks and shear bands, which are much larger than the atomistic length and time scales. To reduce the computational effort, multiscale methods are required, which are able to couple a continuum description of the structure with an atomistic description. In such paradigms, cracks and dislocations are explicitly modeled at the atomistic scale, whilst a self-consistent continuum model elsewhere.
Many multiscale methods for fracture are developed for "fictitious" materials based on "simple" potentials such as the Lennard-Jones potential. Moreover, multiscale methods for evolving cracks are rare. Efficient methods to coarse grain the fine scale defects are missing. However, the existing multiscale methods for fracture do not adaptively adjust the fine scale domain as the crack propagates. Most methods, therefore only "enlarge" the fine scale domain and therefore drastically increase computational cost. Adaptive adjustment requires the fine scale domain to be refined and coarsened. One of the major difficulties in multiscale methods for fracture is to up-scale fracture related material information from the fine scale to the coarse scale, in particular for complex crack problems. Most of the existing approaches therefore were applied to examples with comparatively few macroscopic cracks.
Key contributions
The bridging scale method is enhanced using the phantom node method so that cracks can be modeled at the coarse scale. To ensure self-consistency in the bulk, a virtual atom cluster is devised providing the response of the intact material at the coarse scale. A molecular statics model is employed in the fine scale where crack propagation is modeled by naturally breaking the bonds. The fine scale and coarse scale models are coupled by enforcing the displacement boundary conditions on the ghost atoms. An energy criterion is used to detect the crack tip location. Adaptive refinement and coarsening schemes are developed and implemented during the crack propagation. The results were observed to be in excellent agreement with the pure atomistic simulations. The developed multiscale method is one of the first adaptive multiscale method for fracture.
A robust and simple three dimensional coarse graining technique to convert a given atomistic region into an equivalent coarse region, in the context of multiscale fracture has been developed. The developed method is the first of its kind. The developed coarse graining technique can be applied to identify and upscale the defects like: cracks, dislocations and shear bands. The current method has been applied to estimate the equivalent coarse scale models of several complex fracture patterns arrived from the pure atomistic simulations. The upscaled fracture pattern agree well with the actual fracture pattern. The error in the potential energy of the pure atomistic and the coarse grained model was observed to be acceptable.
A first novel meshless adaptive multiscale method for fracture has been developed. The phantom node method is replaced by a meshless differential reproducing kernel particle method. The differential reproducing kernel particle method is comparatively more expensive but allows for a more "natural" coupling between the two scales due to the meshless interpolation functions. The higher order continuity is also beneficial. The centro symmetry parameter is used to detect the crack tip location. The developed multiscale method is employed to study the complex crack propagation. Results based on the meshless adaptive multiscale method were observed to be in excellent agreement with the pure atomistic simulations.
The developed multiscale methods are applied to study the fracture in practical materials like Graphene and Graphene on Silicon surface. The bond stretching and the bond reorientation were observed to be the net mechanisms of the crack growth in Graphene. The influence of time step on the crack propagation was studied using two different time steps. Pure atomistic simulations of fracture in Graphene on Silicon surface are presented. Details of the three dimensional multiscale method to study the fracture in Graphene on Silicon surface are discussed.
Datenmodelle zur Bearbeitung von Ingenieuraufgaben am Beispiel von Wohnhäusern in Stahlbauweise
(2006)
Modelle bilden die Grundlage der Planung. Sie repräsentieren die zur Bearbeitung erforderlichen Eigenschaften eines Bauwerks in einer an die spezifische Aufgabe angepassten Form. Zwischen den verschiedenen zur Abbildung des Bauwerks eingesetzten Modellen bestehen fachliche Zusammenhänge bezüglich der darin abgebildeten Aspekte. Diese Abhängigkeiten werden in der praktischen Planungsbearbeitung gegenwärtig auf Grundlage von Erfahrungswerten, normativen Vorgaben und vereinfachenden Annahmen berücksichtigt. Die detailliertere Modellierung von Bauwerkseigenschaften führt zu einer engeren Verzahnung der verschiedenen Modelle. Um eine fachliche Inselbildung zu vermeiden, ist eine entsprechend angepasste Abbildung der zwischen den einzelnen Modellen bestehenden Beziehungen erforderlich. Mit den steigenden Ansprüchen an eine Bearbeitung von Ingenieuraufgaben gewinnt eine über den Zweck der Bereitstellung ausgewählter Informationen zum Bauwerk und der Unterstützung eines Datenaustauschs zwischen verschiedenen Fachplanern hinausgehende datentechnische Abbildung an Bedeutung. Dies setzt eine Diskussion der Anforderungen an eine solche Beschreibung aus fachlicher Sicht voraus. Die Untersuchung der fachlichen Anforderungen wird am Beispiel von Wohnhäusern in Stahlbauweise geführt.
The advent of high-performance mobile phones has opened up the opportunity to develop new context-aware applications for everyday life. In particular, applications for context-aware information retrieval in conjunction with image-based object recognition have become a focal area of recent research. In this thesis we introduce an adaptive mobile museum guidance system that allows visitors in a museum to identify exhibits by taking a picture with their mobile phone. Besides approaches to object recognition, we present different adaptation techniques that improve classification performance. After providing a comprehensive background of context-aware mobile information systems in general, we present an on-device object recognition algorithm and show how its classification performance can be improved by capturing multiple images of a single exhibit. To accomplish this, we combine the classification results of the individual pictures and consider the perspective relations among the retrieved database images. In order to identify multiple exhibits in pictures we present an approach that uses the spatial relationships among the objects in images. They make it possible to infer and validate the locations of undetected objects relative to the detected ones and additionally improve classification performance. To cope with environmental influences, we introduce an adaptation technique that establishes ad-hoc wireless networks among the visitors’ mobile devices to exchange classification data. This ensures constant classification rates under varying illumination levels and changing object placement. Finally, in addition to localization using RF-technology, we present an adaptation technique that uses user-generated spatio-temporal pathway data for person movement prediction. Based on the history of previously visited exhibits, the algorithm determines possible future locations and incorporates these predictions into the object classification process. This increases classification performance and offers benefits comparable to traditional localization approaches but without the need for additional hardware. Through multiple field studies and laboratory experiments we demonstrate the benefits of each approach and show how they influence the overall classification rate.
Numerical models and their combination with advanced solution strategies are standard tools for many engineering disciplines to design or redesign structures and to optimize designs with the purpose to improve specific requirements. As the successful application of numerical models depends on their suitability to represent the behavior related to the intended use, they should be validated by experimentally obtained results. If the discrepancy between numerically derived and experimentally obtained results is not acceptable, a model revision or a revision of the experiment need to be considered. Model revision is divided into two classes, the model updating and the basic revision of the numerical model. The presented thesis is related to a special branch of model updating, the vibration-based model updating. Vibration-based model updating is a tool to improve the correlation of the numerical model by adjusting uncertain model input parameters by means of results extracted from vibration tests. Evidently, uncertainties related to the experiment, the numerical model, or the applied numerical solving strategies can influence the correctness of the identified model input parameters. The reduction of uncertainties for two critical problems and the quantification of uncertainties related to the investigation of several nominally identical structures are the main emphases of this thesis. First, the reduction of uncertainties by optimizing reference sensor positions is considered. The presented approach relies on predicted power spectral amplitudes and an initial finite element model as a basis to define the assessment criterion for predefined sensor positions. In combination with geometry-based design variables, which represent the sensor positions, genetic and particle swarm optimization algorithms are applied. The applicability of the proposed approach is demonstrated on a numerical benchmark study of a simply supported beam and a case study of a real test specimen. Furthermore, the theory of determining the predicted power spectral amplitudes is validated with results from vibration tests. Second, the possibility to reduce uncertainties related to an inappropriate assignment for numerically derived and experimentally obtained modes is investigated. In the context of vibration-based model updating, the correct pairing is essential. The most common criterion for indicating corresponding mode shapes is the modal assurance criterion. Unfortunately, this criterion fails in certain cases and is not reliable for automatic approaches. Hence, an alternative criterion, the energy-based modal assurance criterion, is proposed. This criterion combines the mathematical characteristic of orthogonality with the physical properties of the structure by modal strain energies. A numerical example and a case study with experimental data are presented to show the advantages of the proposed energy-based modal assurance criterion in comparison to the traditional modal assurance criterion. Third, the application of optimization strategies combined with information theory based objective functions is analyzed for the purpose of stochastic model updating. This approach serves as an alternative to the common sensitivity-based stochastic model updating strategies. Their success depends strongly on the defined initial model input parameters. In contrast, approaches based on optimization strategies can be more flexible. It can be demonstrated, that the investigated nature inspired optimization strategies in combination with Bhattacharyya distance and Kullback-Leibler divergence are appropriate. The obtained accuracies and the respective computational effort are comparable with sensitivity-based stochastic model updating strategies. The application of model updating procedures to improve the quality and suitability of a numerical model is always related to additional costs. The presented innovative approaches will contribute to reduce and quantify uncertainties within a vibration-based model updating process. Therefore, the increased benefit can compensate the additional effort, which is necessary to apply model updating procedures.
Das zentrale Problem der Arbeit ist die Untersuchung der Rolle von Orten und Räumen für die Evolution bestimmter visueller Medien im 19. Jahrhundert. Die historische Schwelle wird mit der Erfindung des Panoramas, der Geburt der Passage und der Reform der Bibliothek um 1800 markiert. Ausgehend von der Systemtheorie Luhmanns und dem französischen Poststrukturalismus (Baudry, Lyotard, Foucault) entwickelt die Arbeit dazu einen Begriff des Dispositivs, der zur Untersuchung des Verhältnisses von Objekt, Betrachter und Apparat verwendet wird. Im Mittelpunkt steht dabei das Wechselverhältnis von Wahrnehmung und Kommunikation. Mit Bezug auf Kants »Kritik der Urteilskraft« wird dabei ein neuer Vorschlag für den Code des Kunstsystems – gestaltet/nicht gestaltet – entwickelt. Die zentralen Begriffe für die Definition des Dispositivs sind Abschirmung, Distanzierung und Inszenierung. Damit wird der Versuch unternommen, die Frage des Raumes in der Systemtheorie zu klären. Die historische Analyse beschreibt die Entwicklung vom Theater zum Kino im 19. und frühen 20. Jahrhundert und fokussiert dabei vor allem auf das Festspielhaus Wagners in Bayreuth. Abschließend wird der Beitrag der Warenhäuser und des Schaufensters zur Evolution des Wirtschaftsystems untersucht.
This practice-based research examines platforms and encounters that have a participatory character as a strategy to create lived and shared experiences where new forms of appropriation of the city can emerge. The selected case studies propose and initiate certain urban experiences that induce changes in perception, the exchange of perspectives, and that denaturalize habits and patterns of behavior. I suggest that when these sensitive experiences become imprinted in body memory, they can empower citizens to have more active, creative, and/or critical attitudes towards their environments. Searching for new repertoires of everyday practices that contest commodification of both the body and the city, this thesis is oriented towards open-ended processes of constructing mentalities rather than those of planning changes on the material conditions of public space. It uses forms of academic investigation that merge intellectual debate and experimental practice, joining art, urbanism and social engaged practices in an extradisciplinary (Howes 2007) attitude towards the city. Based on the materials generated by the case studies (combining theoretical knowledge with artistic sensibility), the affective and corporeal involvement of researchers in the situations they analyze and co-create, is sustained in opposition to the traditional academic critical distance.
Die Arbeit beschäftigt sich mit der Entstehung eines ökonomischen Kraftmaßes am Beispiel der Maschine von Marly im Zeitraum von ca. 1680 bis 1840. Die Leitthese der Dissertation besagt, dass vom 17. zum 19. Jahrhundert eine grundlegende Transformation des Maschinenbegriffs stattfand, die als Übergang vom Substanzbegriff zum Funktionsbegriff der Maschine bezeichnet werden kann. Im 17. Jahrhundert wurden mechanische Apparate als in sich geschlossene, selbstbezügliche Strukturen aufgefasst. Als anschaulich erfahrbare Objekte konnten sie als Bildgeber dienen, die mittels des Verfahrens der Strukturanalogie Erklärungsmuster für verschiedenste Phänomene (Körper, Staat, Welt) boten. Demzufolge galten sie als selbstevident: sie waren erklärend und mussten selbst nicht erklärt werden. Ihr etwaiger Zweck und ihre Einbettung in gesellschaftliche Zusammenhänge spielten dabei keine Rolle. Wie anhand der Beschreibungen und Darstellungen aus jener Zeit nachgewiesen werden kann, wurde die Maschine von Marly innerhalb dieser Episteme als architektonisches Objekt wahrgenommen, bei dem vor allem das Zusammenspiel der einzelnen Elemente Aufmerksamkeit erregte. Wie andere Maschinen auch stand sie unter dem Primat der Sichtbarkeit. Man war davon überzeugt, dass die Eigenschaften einer Maschine von der strukturellen Anordnung ihrer Bauteile abhingen und glaubte, ihre Qualität an ihrer Gestalt ablesen zu können. Ab der Mitte des 18. Jahrhunderts tauchte die Maschine von Marly in den Schriften physiokratischer Autoren auf. Zuerst diente sie dort als Beispiel für die Verschwendungssucht Louis’ XIV. und als Metapher für eine schlechte Einrichtung des Staates. Doch zunehmend begann man, sie auch in ihrer Faktizität als technisch-politisches Objekt zu begreifen. Man kritisierte ihre aktuelle Nutzung und schlug andere Möglichkeiten ihrer Verwendung vor, etwa die Bewässerung von Feldern oder die städtische Trinkwasserversorgung. Damit war die Maschine von Marly nicht länger ein Modell für die Einrichtung des Staates, das nur am Maßstab der immanenten Perfektion beurteilt werden konnte. Vielmehr war sie nun ein Instrument der Regierung, das sich als Teil eines staatlich verfassten Gemeinwesens verantworten musste. Als solches wurde sie auch zu einem bevorzugten Gegenstand aufklärerischer Reformprojekte. Das zeigt sich besonders deutlich am Wettbewerb, den die Pariser Akademie der Wissenschaften 1784-1786 organisiert hatte und der Vorschläge zur Verbesserung oder Ersetzung der Maschine von Marly zum Gegenstand hatte. Die Auswertung der mehr als 100 eingereichten Projekte und Memoranden ermöglicht einen einzigartigen Blick auf die Hoffnungen und Wünsche, die Ende des 18. Jahrhunderts an die Erfindung technischer Geräte gekoppelt waren. Um 1800 kann man die allmähliche Entstehung eines Funktionsbegriffs der Maschine bemerken. Lazare Carnots Essai sur les machines en général, der eine in der Sprache der Algebra artikulierte Definition der Maschine beinhaltete, trug maßgeblich dazu bei, die Anschaulichkeit zugunsten eines operativen Symbolismus zu delegitimieren. Erst dadurch war die Formulierung eines Effizienzkalküls möglich. Ergänzt wurde diese Formalisierung durch den Diskurs der Industrialisierung, in dem technische Apparate zunehmend als Produktionsmittel verstanden wurden. Die Maschine von Marly war ein wichtiger Schauplatz für die Entstehung eines ökonomischen Kraftmaßes. Nicht nur wurden dort Experimente mit verschiedenen Messinstrumenten (Dynamometern) durchgeführt, auch diente sie Joseph Montgolfier als Beispiel um zu beweisen, dass Kraft als Geldwert ausgedrückt werden könne. In den ersten Jahrzehnten des 19. Jahrhundert wurden Maschinen schließlich relational als Positionen innerhalb eines nationalen Produktionssystems definiert. Sie galten als Krafttransformatoren, bei denen ein bestimmter Input von ‚force motrice’ einen entsprechenden Output von ‚travail utile’ ergeben würde. Ihre vornehmlichste Aufgabe war die möglichst effiziente Ausnutzung der Kraftressourcen. Den vorläufigen Endpunkt erreichte die Entstehung des ökonomischen Kraftmaßes um 1830 mit der Formulierung des Begriffs der ‚mechanischen Arbeit’.
In der Arbeit werden Möglichkeiten aufgezeigt, die Tragfähigkeit von Queranschlüssen an Trägern aus Voll- und Brettschichtholz abzuschätzen. Die Tragfähigkeit dieser Anschlüsse wird nicht allein durch die Tragfähigkeit der mechanischen Verbindungsmittel selbst begrenzt. Die Tragfähigkeit der Verbindungsmittel wird in dieser Arbeit a priori als hinreichend betrachtet. Sie kann z. B. nach der Theorie von JOHANSEN bestimmt werden. Insbesondere bei solchen Anschlüssen, welche unterhalb der Schwerachse von Trägern angeordnet sind, erzeugen die durch die Verbindungsmittel eingeleiteten Lasten Beanspruchungen, welche die Tragfähigkeiten dieser Anschlüsse bestimmen. Die Abschätzung der Tragfähigkeit auf der Basis von Spannungen hat bei dieser Problemstellung methodische Schwächen. Bauteile aus Holz können unter Gebrauchsbedingungen rißbehaftet sein. Mit den Methoden der Linear-Elastischen Bruchmechanik kann die Tragfähigkeit von rißbehafteten Bauteilen beurteilt werden. Es werden wegen der Vielzahl möglicher Ausführungvarianten lediglich Anschlüsse betrachtet, welche mit stiftförmigen Verbindungsmitteln hergestellt werden. Zur Bestimmung bruchmechanischer Kennwerte werden numerische Methoden angewendet. Es werden wichtige Parameter dieser Anschlüsse untersucht und hinsichtlich ihrer Berücksichtigung im Rechenmodell bewertet. Zur Verifizierung des Rechenmodells werden Vergleiche mit experimentellen Untersuchungen anderer Wissenschaftler angestellt. Der Einsatz verschiedener Versagenskriterien wird diskutiert. Schließlich wird ein formaler Zusammenhang zur Abschätzung der Tragfähigkeit für einzelne Verbindungsmittel hergestellt. Weiterhin wird die Tragfähigkeit von praxisüblichen Anschlüssen anhand einfacher Zusammenhänge aufgezeigt.
Die Beurteilung des Beanspruchungsgrades während eines Versuchs zur experimentellen Tragsicherheitsbewertung erfolgt auf Grundlage der zeitgleich dargestellten Beanspruchungs-Verformungsbeziehung. Für ein frühzeitiges Erkennen von Strukturveränderungen (Rißbildung/Plastizierung) eignen sich jedoch insbesondere Energiebetrachtungen während der verschiedenen Versuchsphasen, da diese das Zusammenspiel von Einwirkung und Tragwerksreaktion vollständig widerspiegeln und auch geringe irreversible Strukturänderungen immer mit Energiedissipation verbunden sind. In der Arbeit wird der Versuchsgrenzlastindikator deltaS (normierte Strukturveränderungsenergie) vorgestellt. Dieser Parameter erfaßt nur die bei Belastungsversuchen interessanten Strukturveränderungen und ermöglicht damit eine objektive Beurteilung des eingereichten Beanspruchungsgrades und eine zuverlässige Identifikation der Versuchsgrenzlast. Anhand von Versuchen im Labor und am realen Bauwerk wird die Anwendung des Indikators erläutert und seine Eignung nachgewiesen.
Die Abkürzung PCC bezieht sie sich hier auf Polymer modified Cement Concrete, also mit Kunststoffen modifizierte Mörtel und Betone. Hierfür hat sich diese Abkürzung auch international durchgesetzt. Sie bezeichnet Baustoffe, die neben dem mineralischen Bindemittel Zement auch Kunststoffe enthalten. Zement und Kunststoff erzielen im späteren Mörtel bzw. Beton eine gemeinschaftliche Bindemittelwirkung. Wiederholter Gegenstand von Schadensfällen ist das Versagen des Haftverbundes zu anderer Bausubstanz. Da PCC häufig als dünne Schutzschicht auf vorhandenen Beton aufgetragen werden, führt ein Versagen der Adhäsion früher oder später auch zu einem Versagen dieser Schutzfunktion. Umgekehrt kann ein Versagen des Schutzes infolge von Rissen im PCC auch im Nachhinein zum Ablösen der Beschichtung führen. Ursächlich für dieses kohäsive Versagen sind dabei i. d. R. die Auswahl falscher bzw. nicht aufeinander abgestimmter Baustoffsysteme oder schlicht Verarbeitungsfehler. Das Ziel dieser Arbeit war es zu untersuchen, welchen Einfluss die kohäsiven und adhäsiven Eigenschaften von PCC auf deren Dauerhaftigkeit, insbesondere bei der Anwendung als Beschichtungsmaterial, haben. Dazu wurden vier maßgebliche Schwerpunkte bearbeitet. Eine zentrale Rolle für die Dauerhaftigkeit eines Beschichtungsmaterials spielt dessen Längenänderungsverhalten. Der Betrag der positiven und negativen Längenänderungen ist bestimmend für die Spannungen, die im Beschichtungsmaterial entstehen können. Sind die auftretenden Spannungen höher als die Zugfestigkeit des PCC erfolgt der Spannungsabbau durch Risse. Es kommt also zum Kohäsionsversagen im Mörtel. Wird der PCC als Beschichtungsmaterial genutzt, werden die Spannungen im Idealfall über die Verbundebene zum Beschichtungsuntergrund übertragen. Übersteigen dabei diese Spannungen die maximal aufnehmbaren Verbundspannungen, kommt es zum Adhäsionsversagen zwischen Beschichtung und Untergrund. In Modellversuchen werden die Effekte des Längenänderungsverhaltens kunststoffmodifizierter Zementsteine auf den Haftverbund zu einer Gesteinskörnung untersucht. Dadurch werden Rückschlüsse auf die Kohäsion innerhalb der PCC durch die Beschreibung des adhäsiven Verbundes zwischen Zementsteinmatrix und Gesteinskörnung gezogen. Neben der Längenänderung sind auch die Festigkeitseigenschaften der PCC bedeutsam für deren Dauerhaftigkeit. Es werden die Festigkeitseigenschaften kunststoffmodifizierter Mörtel und Betone nicht nur von der mechanischen Seite betrachtet. Der Focus liegt vielmehr auf der Beschreibung der durch die Kunststoffe beeinflussten kohäsiven Eigenschaften bei mechanischer Belastung. Es wird das Verhalten der polymeren Matrix nach einer Kurzzeitbelastung untersucht. Damit werden die Vorgänge, die letztlich zu einer Beeinflussung der Festigkeitseigenschaften führen, dargestellt. In diesem Zusammenhang wird auch der Einfluss der Temperatur auf die Festigkeit der PCC betrachtet. Die Untersuchung des Frost-Taumittel-Widerstandes mittels CDF- bzw. CIF-Verfahrens ist eine gute Möglichkeit, neben der Beurteilung der Dauerhaftigkeit auch Rückschlüsse auf die kohäsiven als auch, im mikroskopischen Maßstab betrachtet, die adhäsiven Eigenschaften der PCC zu ziehen. Damit ist gemeint, dass die Kohäsion von PCC durch deren adhäsive Eigenschaften zwischen kunststoffmodifizierter Zementsteinmatrix und Gesteinskörnern maßgeblich bestimmt wird. Einerseits kann bei starkem Abfall des relativen dynamischen E-Moduls von einer geringeren Kohäsion des PCC ausgegangen werden. Dies würde dann bei einem Mörtel eher zu Rissen führen, über die wiederum betonaggressive Medien eindringen können. Im Gegensatz dazu deutet ein konstant bleibender relativer dynamischer E-Modul auf eine hohe Kohäsion und damit, bei Anwendung des PCC als Beschichtungsmaterial, auf ein höheres adhäsives Versagensrisiko der Beschichtung hin. Andererseits stellt eine höhere Abwitterung, also sozusagen das schichtenweise kohäsive Versagen, eine Gefahr bei dünnen Beschichtungen dar. Dies könnte noch durch die Anwendung anderer Taumittel (z. B. organischer) verstärkt werden. Unter diesen Gesichtspunkten wurden Untersuchungen auf der Basis des CDF-Testes sowie zur Lösungsaufnahmefähigkeit der PCC durchgeführt. Der adhäsive Verbund von PCC zu Beton ist von vielen Faktoren abhängig. Bisher kaum betrachtet wurde die Art des Aufbringens oder der Einfluss der Probengeometrie bei Laborversuchen. Diese sowie der Einfluss einer Salzbelastung des Untergrundes bzw. der Beschichtung wurden untersucht. Ein Teil der durchgeführten Untersuchungen wurde im Rahmen des Teilprojektes B3 „Dauerhaftigkeit polymermodifizierter Mörtel und Betone“ des von der DFG geförderten Sonderforschungsbereiches 524 „Werkstoffe und Konstruktionen für die Revitalisierung von Bau-werken“ realisiert.
Knapp 30.000 Windenergieanlagen zwischen Nordsee und Alpen lassen unübersehbar erkennen, dass sich unser Energiesystem in einer umfassenden Transformation befindet. Allenthalben erfährt diese Entwicklung eine breite und kontroverse Rezeption und auch in der Denkmalpflege werden Windenergieanlagen aufgrund ihrer mitunter erheblichen Auswirkungen auf die Landschaft noch überwiegend als Störung wahrgenommen. Diese Arbeit nimmt dagegen die historische Entwicklung in den Blick und plädiert dafür, Windenergieanlagen als bedeutendes Kulturerbe zu verstehen. Angesichts des Voranschreitens der Energiewende wird angenommen, dass gerade älteren Modellen als baulichen Zeugnissen umfangreicher energiepolitischer Veränderungen seit den 1970er Jahren eine hohe Bedeutung zugeschrieben werden kann. Daher besteht das Ziel darin, Windenergieanlagen herauszuarbeiten, welche als hervorragende Zeugnisse der Entwicklung der Windenergienutzung in Deutschland zu bewerten sind.
Zur Annäherung werden diese zunächst als Untersuchungsgegenstand typologisch abgegrenzt. Eine wesentliche Besonderheit von Windenergieanlagen besteht darin, dass sie im Verhältnis zur eigentlichen Flächenversiegelung durch ihre vertikale Struktur erhebliche visuelle Auswirkungen auf die Landschaft haben. Anschließend wird die Entwicklung der Windenergienutzung seit den 1970er Jahren genauer betrachtet, welche insgesamt nicht linear verlief und von vielen Konflikten gekennzeichnet ist. Diese muss im Kontext eines wachsenden Umweltbewusstseins verstanden werden, das umfangreiche energiepolitische Veränderungen zur Folge hatte. Auf dieser Grundlage werden schließlich in einer denkmalkundlichen Reihenuntersuchung Windenergieanlagen herausgearbeitet, welche in hervorragender Weise von der Entwicklung zeugen. Die Auswahl bleibt allerdings mit sechs Objekten im Verhältnis zum Gesamtbestand von knapp 30.000 Anlagen relativ beschränkt, weil das auf die Abgrenzung von Besonderheiten ausgelegte etablierte Denkmalverständnis bei einem zeitlich so dichten Bestand gleichartiger Bauwerke an eine Grenze kommt.
Abschließend werden mögliche Erhaltungsperspektiven sowie denkmaltheoretische und -praktische Schlussfolgerungen diskutiert. Dabei ist unbedingt ein Erhalt am Ursprungsstandort anzustreben, wobei im Einzelfall entschieden werden muss, ob Belange des Funktions- oder Substanzerhaltes höher zu gewichten sind. Die skizzierten Auswahlprobleme regen darüber hinaus zur Diskussion zusätzlicher denkbarer Bewertungskategorien an, wobei sich insbesondere die gesellschaftliche Wahrnehmung und ökologische Werte aufdrängen. Zudem kann für die stärkere Berücksichtigung von Funktionszusammenhängen bei der Betrachtung technischer Infrastruktur in der Denkmalpflege plädiert werden. Insgesamt führt die denkmalkundliche Auseinandersetzung mit Windenergieanlagen damit weit über die Herausarbeitung einzelner Objekte hinaus und macht eindrücklich auf aktuelle Herausforderungen der Denkmalpflege und darüber hinaus aufmerksam.
Die Behandlung von geometrischen Singularitäten bei der Lösung von Randwertaufgaben der Elastostatik stellt erhöhte Anforderungen an die mathematische Modellierung des Randwertproblems und erfordert für eine effiziente Auswertung speziell angepasste Berechnungsverfahren. Diese Arbeit beschäftigt sich mit der systematischen Verallgemeinerung der Methode der komplexen Spannungsfunktionen auf den Raum, wobei der Schwerpunkt in erster Linie auf der Begründung des mathematischen Verfahrens unter besonderer Berücksichtigung der praktischen Anwendbarkeit liegt. Den theoretischen Rahmen hierfür bildet die Theorie quaternionenwertiger Funktionen. Dementsprechend wird die Klasse der monogenen Funktionen als Grundlage verwendet, um im ersten Teil der Arbeit ein räumliches Analogon zum Darstellungssatz von Goursat zu beweisen und verallgemeinerte Kolosov-Muskhelishvili Formeln zu konstruieren. Im Hinblick auf die vielfältigen Anwendungsbereiche der Methode beschäftigt sich der zweite Teil der Arbeit mit der lokalen und globalen Approximation von monogenen Funktionen. Hierzu werden vollständige Orthogonalsysteme monogener Kugelfunktionen konstruiert, infolge dessen neuartige Darstellungen der kanonischen Reihenentwicklungen (Taylor, Fourier, Laurent) definiert werden. In Analogie zu den komplexen Potenz- und Laurentreihen auf der Grundlage der holomorphen z-Potenzen werden durch diese monogenen Orthogonalreihen alle wesentlichen Eigenschaften bezüglich der hyperkomplexen Ableitung und der monogenen Stammfunktion verallgemeinert. Anhand repräsentativer Beispiele werden die qualitativen und numerischen Eigenschaften der entwickelten funktionentheoretischen Verfahren abschließend evaluiert. In diesem Kontext werden ferner einige weiterführende Anwendungsbereiche im Rahmen der räumlichen Funktionentheorie betrachtet, welche die speziellen Struktureigenschaften der monogenen Potenz- und Laurentreihenentwicklungen benötigen.
Córdoba es la segunda ciudad más poblada de la Argentina, y posee el ejido municipal más extenso del país, siendo un importante centro industrial y de servicios del centro del país. Es además la cabecera de la segunda región metropolitana argentina, el Área Metropolitana de Córdoba (AMCBA). Si bien el desarrollo de sus áreas centrales y periurbanas es un tema bastante desarrollado académicamente, actualmente hay un vacío de conocimiento en la situación actual de las áreas pericentrales e intermedias de esta ciudad -aun cuando ocupan más del 30% del área urbanizada y donde habita la mayor parte de su población-. Es en estas áreas donde se ubica el objeto de estudio de esta tesis: los barrios pericentrales que forman un anillo alrededor del área central. Originados como extensiones suburbanas alrededor de 1940, y consolidados como barrios residenciales de clase media y media alta de baja densidad antes de 1970, ocupan lo que son hoy algunas de las áreas con mejor calidad ambiental y urbana de la ciudad.
Los barrios pericentrales son considerados generalmente consolidados y estables; sin embargo, analizados en detalle, muestran complejas transformaciones: un vaciamiento poblacional constante, a pesar del crecimiento demográfico en general de Córdoba y el AMCBA; aumento de inmuebles abandonados; y a diferencia de sectores en una similar posición, no son objeto de grandes inversiones inmobiliarias de renovación urbana.
Esta situación es invisibilizada, en parte por ser resultado de procesos con poco impacto relativo en la ciudad, y en parte porque estos procesos no están contemplados por los modelos urbanos locales vigentes –basados en la teoría racionalista y determinista de principios del siglo XX-, que conceptualizan a los barrios pericentrales como una “panacea urbana”. Esta tesis puso en disputa estos modelos, partiendo de la discusión sobre un fenómeno informal detectado indefectiblemente (aunque no exclusivamente) en estos barrios pericentrales: la microdensificación emergente.
La imposibilidad de colocar los inmuebles existentes en el mercado hace que los propietarios busquen nuevas formas de valorizar sus propiedades, de facilitar el acceso a la vivienda a sus hijos o de invertir sus ahorros de forma segura, obteniendo una fuente adicional de ingresos: en cada parcela edificada se aumenta la cantidad de unidades funcionales, aprovechando la superficie construible vacante o refuncionalizando las construcciones obsoletas, aunque manteniendo el grano y la escala de intervención respecto al tejido existente. La oferta de hábitat en estos barrios se diversifica, y no sólo evita la expulsión de población, sino que también atrae a nuevos habitantes. Además, en un tejido originalmente sólo residencial, incorpora actividades de comercio y servicios que enriquecen el tejido funcional.
El proceso se realiza sin planificación general (y por supuesto fuera del marco legal): es la suma de acciones individuales que se reconstruyen como una “tendencia” o “patrón emergente”, revitalizando el tejido urbano de forma sutil pero definitiva.
Se planteó como hipótesis que la microdensificación emergente es un proceso de revitalización que aprovecha el potencial del tejido de estos barrios de forma más sostenible y eficiente que el modelo impuesto formalmente.
10
La tesis se encuadró bajo el enfoque sistémico de la complejidad. Este enfoque entiende a la ciudad como un sistema complejo y dinámico, en desarrollo constante; determinado más por las interrelaciones entre sus componentes y entre esos componentes y el contexto, que por las condiciones de cada elemento individualmente. La calidad y cantidad de estas interacciones es primordial, al punto de definir la condición urbana de una aglomeración. Según estas premisas, un sistema urbano sostenible y eficiente será aquel que, maximizando recursos materiales y humanos (y de acuerdo a la capacidad de carga del sistema) desarrolle de redes de intercambio múltiples, diversas y descentralizadas, que generen procesos de sinergia y desarrollo inclusivos.
La investigación se estructuró entonces de forma tal de responder las siguientes preguntas:
•
En primer lugar, ¿cuáles son las condiciones específicas que catalizan la microdensificación en los barrios pericentrales de Córdoba?
•
Siendo la microdensificación una respuesta a una situación particular dentro del sistema urbano, ¿Cuál es el grado de sostenibilidad y eficiencia que aporta a los barrios pericentrales (en particular) y a Córdoba (en general)?
•
Y tras haber identificado su impacto en la estructura urbana, su potencial transformador y organizativo, ¿puede el estudio de los procesos emergentes hacer un aporte conceptual e instrumental a los modelos locales de planeamiento urbano?
Primeramente, un análisis documental reconstruyó la condición específica de los barrios pericentrales, y el escenario actual de Córdoba con respecto a la producción y acceso al hábitat urbano. Luego se infirió un escenario tendencial a corto y mediano plazo, que sirvió para definir distintos patrones de territorialización, incluyendo el patrón “formal” de los barrios pericentrales. Se continuó con el análisis específico de la microdensificación, proponiendo un escenario posible a mediano plazo donde el patrón de microdensificación ha sido plenamente desarrollado, transformando cuali y cuantitativamente el tejido espacio-funcional y socioeconómico.
A partir de estos resultados, se realizó un análisis comparativo de los distintos patrones de desarrollo urbano de Córdoba en cuanto a su sostenibilidad y eficiencia. Se demostró que el patrón de microdensificación en los barrios pericentrales es mucho más sostenible y eficiente que los patrones formales existentes, y se abrió la discusión que se desarrolla en la última parte de esta tesis:
El argumento desarrollado en esta investigación y los resultados que de él se desprenden tienen un carácter analítico y explicativo útil para el análisis de otros escenarios en el contexto urbano argentino y latinoamericano. En primer lugar, sobre preferir la revitalización progresiva frente a la renovación total o la creación de nuevo suelo urbano en la periferia; promover una ciudad compacta, diversa e inclusiva tanto social como funcionalmente; basada en la multiplicación y diversificación de los agentes productores de ciudad; que considera estos procesos, así como los mecanismos de empoderamiento, participación y gobernanza como instrumentos para lograr mayor sostenibilidad y eficiencia en el desarrollo urbano. Por otro lado, esta tesis puso en relevancia el rol de los procesos emergentes en un sistema urbano como mecanismo vital para generar esta revitalización. Finalmente, se discute el aporte del enfoque sistémico para comprender, explicar y proponer intervenciones a la disciplina.
Heutige Methoden zur Soll-Spezifikation von Bauleistungen (Kostenermittlung und zeitliche Ablaufplanung) gehen von einer abstrahierten und vereinfachten Betrachtung der Zusammenhänge bei Bauprojekten aus. Leistungsverzeichnisse, Kostenermittlungen und Bauzeitpläne orientieren sich nur indirekt an der Geometrie des Bauwerks und der Baustelle. Die dabei verwendeten Medien wie Papier, 2D-Dateien, digitale Leistungsbeschreibungen oder 3D-Darstellungen lassen die Suche nach Informationen auf der Baustelle zu einem zeitaufwändigen und in Anbetracht existierender Medientechnologien ineffizienten Prozess werden. Interaktive virtuelle Umgebungen erlauben die Auflösung starrer Zusammenhänge durch interaktive Eingriffe des Anwenders und visualisieren komplexe bauproduktionstechnische Vorgänge. Das Konzept der visuellen interaktiven Simulation der Bauproduktion sieht vor, die Soll-Spezifikation anhand eines interaktiven 3D-Modells zu entwickeln, um räumliche Veränderungen und parallele Prozesse auf der virtuellen Baustelle im Rahmen der Entscheidungsfindung zum Bauablauf besser berücksichtigen zu können. Verlangt man einen hohen Grad an Interaktivität mit dem 3D-Modell, dann bieten sich Computerspieltechnologien sehr gut zu Verifikationszwecken an. Die visuelle interaktive Simulation der Bauproduktion ist damit als eine 3D-modellbasierte Methode der Prozessmodellierung zu verstehen, die Entscheidungen als Input benötigt und die Kostenermittlung sowie die zeitliche Ablaufplanung als Output liefert.
Die elektronische Virtualisierung von Baudenkmalen ist neues, außergewöhnlich vielfältiges medientechnisches Phänomen; es beschreibt die ursprüngliche Form substanziell-realer Baudenkmale, transformiert sie von einer abstrakten Beschreibung in Wort und Bild in eine immaterielle Realität. Die Dissertation versucht Antworten zu geben auf folgende Fragen: Ist die elektronische Virtualisierung eine Methode der Stimulation der Öffentlichkeit im Umgang mit Baudenkmalen? Ist das elektronisch virtualisierte Baudenkmal ein immaterielles Zeugnis der Kulturgeschichte in der Zukunft? Ist das substanziell-reale und das virtualisierte Baudenkmal uneingeschränkt gegenseitig austauschbar, ist ersteres durch letzteres ersetzbar? Die Beantwortung der Fragen hängt ab von den Stufen der Perfektion der elektronischen Virtualsierung von Baudenkmalen.
Das im Jahre 2003 verabschiedete und 2006 in Kraft getretene UNESCO-Übereinkommen zur Bewahrung des immateriellen Kulturerbes erweitert das Kulturverständnis von gebautem Kulturerbe gemäß der Konvention aus dem Jahre 1972 durch gelebtes Kulturerbe. Die Dissertation zeigt beispielhaft, wie sich Bürger einer Stadt und einer Region mit ihrer historischen Vergangenheit befassen und dass es lohnenswert ist, sich mit ihrem ererbten immateriellen Kulturerbe auseinander zu setzen. Sie bezeugt, dass eine moderne populäre Kultur die Pflege des immateriellen Kulturerbes voranbringt, dass personalisierte und vergesellschaftete Individuen die Sorge um den drohenden Kulturverlust ernst nehmen und diesem aktiv, eigenständig und unpolitisch entgegen treten. Ausgehend von der wertphilosophischen und kulturtheoretischen Annäherung werden im zweiten und dritten Kapitel beispielhaft die Ur-Inszenierung im Jahre 1475 und die Re-Inszenierung im 21. Jahrhundert gegenübergestellt. Die Ergebnisse aus der Untersuchung werden im vierten Kapitel diskutiert. An Hand der Promotionsschrift wird versucht, Antworten auf folgende Fragen zu finden: - Hat die Re-Inszenierung der „Landshuter Fürstenhochzeit 1475“ des 21. Jahrhunderts das Potential eines immateriellen Kulturerbes? - Kann sie den negativen Begleiterscheinungen des Generations- wechsels und der Globalisierung entgegentreten? - Ist sie eine zeitgenössische Transformationsmethode von (Denkmal)Werten? - Was sind die Schutzkomponenten? - Trägt die Re-Inszenierung zu der kulturellen Identität einer Stadt an authentischem Ort bei und hat sie Einfluss auf die Gestaltung der baulich-räumlichen Umwelt?
Das Ziel der Arbeit besteht in der Entwicklung von Konzepten zur effizienten Implementierung von ingenieurgemäßer Tragwerksplanungs-Software. Der vorgeschlagene Lösungsansatz basiert auf einer optimalen Anpassung der Nutzeroberfläche an den spezifischen Arbeitsablauf, der Erhöhung des Wiederverwendungsgrades sowie der Möglichkeit der unabhängigen Erweiterbarkeit von Software-Systemen. Verbunddokumente werden als Nutzeroberfläche und Software-Architektur benutzt, um eine Zusammenführung von Standard-Software und fachspezifischen Software-Komponenten zu ingenieurgemäßer Tragwerksplanungs-Software zu ermöglichen. Die Umsetzbarkeit des Konzeptes wird durch eine Pilotimplementierung verifiziert.