Refine
Document Type
- Doctoral Thesis (494) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (14)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
Year of publication
The nonlinear behavior of concrete can be attributed to the propagation of microcracks within the heterogeneous internal material structure. In this thesis, a mesoscale model is developed which allows for the explicit simulation of these microcracks. Consequently, the actual physical phenomena causing the complex nonlinear macroscopic behavior of concrete can be represented using rather simple material formulations. On the mesoscale, the numerical model explicitly resolves the components of the internal material structure. For concrete, a three-phase model consisting of aggregates, mortar matrix and interfacial transition zone is proposed. Based on prescribed grading curves, an efficient algorithm for the generation of three-dimensional aggregate distributions using ellipsoids is presented. In the numerical model, tensile failure of the mortar matrix is described using a continuum damage approach. In order to reduce spurious mesh sensitivities, introduced by the softening behavior of the matrix material, nonlocal integral-type material formulations are applied. The propagation of cracks at the interface between aggregates and mortar matrix is represented in a discrete way using a cohesive crack approach. The iterative solution procedure is stabilized using a new path following constraint within the framework of load-displacement-constraint methods which allows for an efficient representation of snap-back phenomena. In several examples, the influence of the randomly generated heterogeneous material structure on the stochastic scatter of the results is analyzed. Furthermore, the ability of mesoscale models to represent size effects is investigated. Mesoscale simulations require the discretization of the internal material structure. Compared to simulations on the macroscale, the numerical effort and the memory demand increases dramatically. Due to the complexity of the numerical model, mesoscale simulations are, in general, limited to small specimens. In this thesis, an adaptive heterogeneous multiscale approach is presented which allows for the incorporation of mesoscale models within nonlinear simulations of concrete structures. In heterogeneous multiscale models, only critical regions, i.e. regions in which damage develops, are resolved on the mesoscale, whereas undamaged or sparsely damage regions are modeled on the macroscale. A crucial point in simulations with heterogeneous multiscale models is the coupling of sub-domains discretized on different length scales. The sub-domains differ not only in the size of the finite elements but also in the constitutive description. In this thesis, different methods for the coupling of non-matching discretizations - constraint equations, the mortar method and the arlequin method - are investigated and the application to heterogeneous multiscale models is presented. Another important point is the detection of critical regions. An adaptive solution procedure allowing the transfer of macroscale sub-domains to the mesoscale is proposed. In this context, several indicators which trigger the model adaptation are introduced. Finally, the application of the proposed adaptive heterogeneous multiscale approach in nonlinear simulations of concrete structures is presented.
The advent of high-performance mobile phones has opened up the opportunity to develop new context-aware applications for everyday life. In particular, applications for context-aware information retrieval in conjunction with image-based object recognition have become a focal area of recent research. In this thesis we introduce an adaptive mobile museum guidance system that allows visitors in a museum to identify exhibits by taking a picture with their mobile phone. Besides approaches to object recognition, we present different adaptation techniques that improve classification performance. After providing a comprehensive background of context-aware mobile information systems in general, we present an on-device object recognition algorithm and show how its classification performance can be improved by capturing multiple images of a single exhibit. To accomplish this, we combine the classification results of the individual pictures and consider the perspective relations among the retrieved database images. In order to identify multiple exhibits in pictures we present an approach that uses the spatial relationships among the objects in images. They make it possible to infer and validate the locations of undetected objects relative to the detected ones and additionally improve classification performance. To cope with environmental influences, we introduce an adaptation technique that establishes ad-hoc wireless networks among the visitors’ mobile devices to exchange classification data. This ensures constant classification rates under varying illumination levels and changing object placement. Finally, in addition to localization using RF-technology, we present an adaptation technique that uses user-generated spatio-temporal pathway data for person movement prediction. Based on the history of previously visited exhibits, the algorithm determines possible future locations and incorporates these predictions into the object classification process. This increases classification performance and offers benefits comparable to traditional localization approaches but without the need for additional hardware. Through multiple field studies and laboratory experiments we demonstrate the benefits of each approach and show how they influence the overall classification rate.
One major research focus in the Material Science and Engineering Community in the past decade has been to obtain a more fundamental understanding on the phenomenon 'material failure'. Such an understanding is critical for engineers and scientists developing new materials with higher strength and toughness, developing robust designs against failure, or for those concerned with an accurate estimate of a component's design life. Defects like cracks and dislocations evolve at
nano scales and influence the macroscopic properties such as strength, toughness and ductility of a material. In engineering applications, the global response of the system is often governed by the behaviour at the smaller length scales. Hence, the sub-scale behaviour must be computed accurately for good predictions of the full scale behaviour.
Molecular Dynamics (MD) simulations promise to reveal the fundamental mechanics of material failure by modeling the atom to atom interactions. Since the atomistic dimensions are of the order of Angstroms ( A), approximately 85 billion atoms are required to model a 1 micro- m^3 volume of Copper. Therefore, pure atomistic models are prohibitively expensive with everyday engineering computations involving macroscopic cracks and shear bands, which are much larger than the atomistic length and time scales. To reduce the computational effort, multiscale methods are required, which are able to couple a continuum description of the structure with an atomistic description. In such paradigms, cracks and dislocations are explicitly modeled at the atomistic scale, whilst a self-consistent continuum model elsewhere.
Many multiscale methods for fracture are developed for "fictitious" materials based on "simple" potentials such as the Lennard-Jones potential. Moreover, multiscale methods for evolving cracks are rare. Efficient methods to coarse grain the fine scale defects are missing. However, the existing multiscale methods for fracture do not adaptively adjust the fine scale domain as the crack propagates. Most methods, therefore only "enlarge" the fine scale domain and therefore drastically increase computational cost. Adaptive adjustment requires the fine scale domain to be refined and coarsened. One of the major difficulties in multiscale methods for fracture is to up-scale fracture related material information from the fine scale to the coarse scale, in particular for complex crack problems. Most of the existing approaches therefore were applied to examples with comparatively few macroscopic cracks.
Key contributions
The bridging scale method is enhanced using the phantom node method so that cracks can be modeled at the coarse scale. To ensure self-consistency in the bulk, a virtual atom cluster is devised providing the response of the intact material at the coarse scale. A molecular statics model is employed in the fine scale where crack propagation is modeled by naturally breaking the bonds. The fine scale and coarse scale models are coupled by enforcing the displacement boundary conditions on the ghost atoms. An energy criterion is used to detect the crack tip location. Adaptive refinement and coarsening schemes are developed and implemented during the crack propagation. The results were observed to be in excellent agreement with the pure atomistic simulations. The developed multiscale method is one of the first adaptive multiscale method for fracture.
A robust and simple three dimensional coarse graining technique to convert a given atomistic region into an equivalent coarse region, in the context of multiscale fracture has been developed. The developed method is the first of its kind. The developed coarse graining technique can be applied to identify and upscale the defects like: cracks, dislocations and shear bands. The current method has been applied to estimate the equivalent coarse scale models of several complex fracture patterns arrived from the pure atomistic simulations. The upscaled fracture pattern agree well with the actual fracture pattern. The error in the potential energy of the pure atomistic and the coarse grained model was observed to be acceptable.
A first novel meshless adaptive multiscale method for fracture has been developed. The phantom node method is replaced by a meshless differential reproducing kernel particle method. The differential reproducing kernel particle method is comparatively more expensive but allows for a more "natural" coupling between the two scales due to the meshless interpolation functions. The higher order continuity is also beneficial. The centro symmetry parameter is used to detect the crack tip location. The developed multiscale method is employed to study the complex crack propagation. Results based on the meshless adaptive multiscale method were observed to be in excellent agreement with the pure atomistic simulations.
The developed multiscale methods are applied to study the fracture in practical materials like Graphene and Graphene on Silicon surface. The bond stretching and the bond reorientation were observed to be the net mechanisms of the crack growth in Graphene. The influence of time step on the crack propagation was studied using two different time steps. Pure atomistic simulations of fracture in Graphene on Silicon surface are presented. Details of the three dimensional multiscale method to study the fracture in Graphene on Silicon surface are discussed.
Die vorliegende Arbeit fokussiert die Optimierung freigeformter adaptiver Faserverbundflächentragwerke auf Basis einer entwickelten und auf einem parametrischen Gesamtmodell basierenden Entwurfsmethode. Die Übertragung adaptiver, natürlich inspirierter Vorgänge stellt eine weitreichende Inspirationsquelle dar. Adaptive Tragwerke können unter Anwendung von Smart Materials als materialsparende, filigrane Tragwerke ausgeführt werden. Die Erfüllung der Grenzzustände der Tragfähigkeit und der Gebrauchstauglichkeit wird nicht allein über die Querschnittsabmessungen sichergestellt. Die notwendige Bauteilsteifigkeit kann vielmehr durch Eintragung von Aktivierungsenergie (Operational Energy) realisiert werden. Auf diese Weise kann die aufgrund der Bauteilabmessungen gebundene Energie (Embodied Energy) minimiert werden. Die entwickelte Entwurfsmethode ermöglicht die Auslegung und Optimierung materialminimierter Schalentragwerke in einem mehrstufigen Prozess. Hierbei wird aus tragwerksplanerischer Sicht die numerische Formfindung, die statische Berechnung und die Aktor- und Sensorpositionierung berechnet. Zudem werden Analysen hinsichtlich der Nachhaltigkeit auf Basis einer Lebenszyklusanalyse durchgeführt. Aufgrund der unterschiedlichen, sich aber gegenseitig beeinflussenden Kriterien, ist eine Optimierung durchzuführen. In der vorliegenden Arbeit wird ein Ansatz zur Definition zulässiger Ökobilanzkennwerte von Smart Materials auf Basis der Energiedifferenz zwischen einer passiven und einer adaptiven Struktur vorgestellt. Anhand dieser Kennwerte kann die Entwicklung zukünftiger Smart Materials unter dem Aspekt der ganzheitlichen Nachhaltigkeit erfolgen. Die Allgemeingültigkeit und Übertragbarkeit der Entwurfsmethode auf weitere Tragsysteme im Bauwesen und speziell anderer Materialkonstellationen wird anhand verschiedener Beispiele aufgezeigt.
Search engines are very good at answering queries that look for facts. Still, information needs that concern forming opinions on a controversial topic or making a decision remain a challenge for search engines. Since they are optimized to retrieve satisfying answers, search engines might emphasize a specific stance on a controversial topic in their ranking, amplifying bias in society in an undesired way. Argument retrieval systems support users in forming opinions about controversial topics by retrieving arguments for a given query. In this thesis, we address challenges in argument retrieval systems that concern integrating them in search engines, developing generalizable argument mining approaches, and enabling frame-guided delivery of arguments.
Adapting argument retrieval systems to search engines should start by identifying and analyzing information needs that look for arguments. To identify questions that look for arguments we develop a two-step annotation scheme that first identifies whether the context of a question is controversial, and if so, assigns it one of several question types: factual, method, and argumentative. Using this annotation scheme, we create a question dataset from the logs of a major search engine and use it to analyze the characteristics of argumentative questions. The analysis shows that the proportion of argumentative questions on controversial topics is substantial and that they mainly ask for reasons and predictions. The dataset is further used to develop a classifier to uniquely map questions to the question types, reaching a convincing F1-score of 0.78.
While the web offers an invaluable source of argumentative content to respond to argumentative questions, it is characterized by multiple genres (e.g., news articles and social fora). Exploiting the web as a source of arguments relies on developing argument mining approaches that generalize over genre. To this end, we approach the problem of how to extract argument units in a genre-robust way. Our experiments on argument unit segmentation show that transfer across genres is rather hard to achieve using existing sequence-to-sequence models.
Another property of text which argument mining approaches should generalize over is topic. Since new topics appear daily on which argument mining approaches are not trained, argument mining approaches should be developed in a topic-generalizable way. Towards this goal, we analyze the coverage of 31 argument corpora across topics using three topic ontologies. The analysis shows that the topics covered by existing argument corpora are biased toward a small subset of easily accessible controversial topics, hinting at the inability of existing approaches to generalize across topics. In addition to corpus construction standards, fostering topic generalizability requires a careful formulation of argument mining tasks. Same side stance classification is a reformulation of stance classification that makes it less dependent on the topic. First experiments on this task show promising results in generalizing across topics.
To be effective at persuading their audience, users of an argument retrieval system should select arguments from the retrieved results based on what frame they emphasize of a controversial topic. An open challenge is to develop an approach to identify the frames of an argument. To this end, we define a frame as a subset of arguments that share an aspect. We operationalize this model via an approach that identifies and removes the topic of arguments before clustering them into frames. We evaluate the approach on a dataset that covers 12,326 frames and show that identifying the topic of an argument and removing it helps to identify its frames.
This thesis presents new interactive visualization techniques and systems intended to support users with real-world decisions such as selecting a product from a large variety of similar offerings, finding appropriate wording as a non-native speaker, and assessing an alleged case of plagiarism.
The Product Explorer is a significantly improved interactive Parallel Coordinates display for facilitating the product selection process in cases where many attributes and numerous alternatives have to be considered. A novel visual representation for categorical and ordered data with only few occurring values, the so-called extended areas, in combination with cubic curves for connecting the parallel axes, are crucial for providing an effective overview of the entire dataset and to facilitate the tracing of individual products. The visual query interface supports users in quickly narrowing down the product search to a small subset or even a single product. The scalability of the approach towards a large number of attributes and products is enhanced by the possibility of setting some constraints on final attributes and, therefore, reducing the number of considered attributes and data items. Furthermore, an attribute repository allows users to focus on the most important attributes at first and to bring in additional criteria for product selection later in the decision process. A user study confirmed that the Product Explorer is indeed an excellent tool for its intended purpose for casual users.
The Wordgraph is a layered graph visualization for the interactive exploration of search results for complex keywords-in-context queries. The system relies on the Netspeak web service and is designed to support non-native speakers in finding customary phrases. Uncertainties about the commonness of phrases are expressed with the help of wildcard-based queries. The visualization presents the alternatives for the wildcards in a multi-column layout: one column per wildcard with the other query fragments in between. The Wordgraph visualization displays the sorted results for all wildcards at once by appropriately arranging the words of each column. A user study confirmed that this is a significant advantage over simple textual result lists. Furthermore, visual interfaces to filter, navigate, and expand the graph allow interactive refinement and expansion of wildcard-containing queries.
Furthermore, this thesis presents an advanced visual analysis tool for assessing and presenting alleged cases of plagiarism and provides a three-level approach for exploring the so-called finding spots in their context. The overview shows the relationship of the entire suspicious document to the set of source documents. An intermediate glyph-based view reveals the structural and textual differences and similarities of a set of finding spots and their corresponding source text fragments. Eventually, the actual fragments of the finding spot can be shown in a side-by-side view with a novel structured wrapping of both the source, as well as the suspicious text. The three different levels of detail are tied together by versatile navigation and selection operations. Reviews with plagiarism experts confirm that this tool can effectively support their workflow and provides a significant improvement over existing static visualizations for assessing and presenting plagiarism cases.
The three main contributions of this research have a lot in common aside from being carefully designed and scientifically grounded solutions to real-world decision problems. The first two visualizations facilitate the decision for a single possibility out of many alternatives, whereas the latter ones deal with text at varying levels of detail. All visual representations are clearly structured based on horizontal and vertical layers contained in a single view and they all employ edges for depicting the most important relationships between attributes, words, or different levels of detail. A detailed analysis considering the context of the established decision-making literature reveals that important steps of common decision models are well-supported by the three visualization systems presented in this thesis.
In this work, practice-based research is conducted to rethink the understanding of aesthetics, especially in relation to current media art. Granted, we live in times when technologies merge with living organisms, but we also live in times that provide unlimited resources of knowledge and maker tools. I raise the question: In what way does the hybridization of living organisms and non-living technologies affect art audiences in the culture that may be defined as Maker culture? My hypothesis is that active participation of an audience in an artwork is inevitable for experiencing the artwork itself, while also suggesting that the impact of the umwelt changes the perception of an artwork. I emphasize artistic projects that unfold through mutual interaction among diverse peers, including humans, non-human organisms, and machines. In my thesis, I pursue collaborative scenarios that lead to the realization of artistic ideas: (1) the development of ideas by others influenced by me and (2) the materialization of my own ideas influenced by others. By developing the scenarios of collaborative work as an artistic experience, I conclude that the role of an artist in Maker culture is to mediate different types of knowledge and different positions, whereas the role of the audience is to actively engage in the artwork itself. At the same time, aesthetics as experience is triggered by the other, including living and non-living actors. It is intended that the developed methodologies could be further adapted in artistic practices, philosophy, anthropology, and environmental studies.
Einleitung:
Die Kunst und der Kunstbetrieb haben sich in den letzten Jahrzehnten stark verändert und werden sich aller Voraussicht nach in Zukunft noch weit rascher und durchgreifender ändern. In meiner Dissertation geht es um eine Analyse des Jetzt-Zustandes des Kunstbetriebs und um die Konsequenzen die daraus für die zu erwartende Entwicklung zu ziehen sind, insbesondere bezüglich der Ausbildung von Künstlern an Kunsthochschulen. Dort sollten meines Erachtens die beruflichen Aspekte des künstlerischen Feldes (in und außerhalb der Akademie) verstärkt erläutert und vermittelt werden.
Der Fokus der Arbeit liegt auf den folgenden 4 Aspekten: Der Künstler, die Arbeitswelt, die Ausbildung und das Netz und die Vernetzung und ihren Zusammenhängen.
Diese Feststellungen basieren auf meinen Recherchen zu den vier Hauptthemen im Rahmen meiner Arbeit in der Lehre und der eigenen künstlerischen Praxis der letzten Jahre und spiegeln diese wider und sollen gleichzeitig als Beispiel für ihre Anwendung dienen und bieten einen Überblick in deren Ausführung in der Praxis.
Hinweis
Die hier vorliegende Dateien (in 5 Teilen) sind die digitale Veröffentlichung meiner Dissertation im Rahmen der Promotion im Studiengang "Kunst und Design" an der Bauhaus-Universität Weimar.
Diese Publikation ist open source und wird in einem offenen und kollaborativen Prozess weiterentwickelt werden. Die jeweils aktuelle Version wird hier zu finden sein: http://phd.nts.is Dort befinden sich auch weitere Formate zum Download, ebenso wie der vollständige (markdown-formatierte) Quelltext.
(Aus urheber- und lizenzrechtlichen Gründen sind in dieser Version der Bildtafeln einige Bilder ausgelassen. Die gedruckte Ausgabe enthält alle Bildtafeln, diese liegt in der Bibliothek der Bauhaus-Universität aus.)
Teile:
- Thesenpapier
- PhD Dissertation
- Bildtafeln
- Der 5-Jahres-Plan
- KIOSK09-Katalog
Die Arbeit zeigt die wesentlichen Gründe auf, warum betahalbhydratreiche Niederbranntgipsbinder (industriell als Stuckgips bezeichnet) oft sehr unterschiedliche Eigenschaften aufweisen.
Der Anteil an Halbhydrat, welches aus dem stark hygroskopischen Anhydrit III (A III) durch die Reaktion mit Luftfeuchtigkeit entsteht, stellt einen erheblichen, bislang vollkommen unbeachteten Einfluss dar. Dieses Halbhydrat aus A III zeigt andere Oberflächeneigenschaften und ein Reaktionsverhalten, das von frisch gebranntem Betahalbhydrat abweicht.
Es zeigt sich, wie weitreichend der Einfluss physiko-chemischer Oberflächenprozesse wie Adsorption und Kondensation ist. Hierdurch wird nicht nur die Oberflächenenergie der Partikel abgebaut, sondern auch eine Verminderung der Hydratationswärme verursacht. Somit wirken sich physikalische Vorgänge thermodynamisch aus. Einwirkende und resultierende Parameter einer Alterung wirken wie folgt äußerst komplex zusammen:
Die dominierenden Bindemitteleigenschaften Abbindeverhalten und Wasseranspruch verändern sich durch eine Alterung sowohl aufgrund der Phasenumwandlungen als auch infolge der Veränderungen der Kristallite. Ebenso einflussreich ist die Veränderung der Oberflächencharakteristik. Die Auswirkung der Alterung auf die Reaktivität geht deutlich über den Abbau von Anhydrit III, die Dezimierung von abbindefähigem Material und die beschleunigende Wirkung von Alterungsdihydrat hinaus. Das Wachstum der Kristallite von Halbhydrat und die Verringerung der inneren Energie sowie die energetisch günstige spontane Beladung der Kristallgitterkanäle kleinster Anhydrit III-Kristallite mit dampfförmigem Wasser müssen als maßgebliche Ursachen für die Abnahme der Reaktivität infolge der Alterung herausgestellt werden. Die Abnahme der spezifischen Oberfläche und der Oberflächenenergie wirken sich außerdem auf den Lösungs- und den Hydratationsprozess aus. Der auf der Oberfläche von Anhydrit III kristallisierte Anhydrit II wirkt sich auch nach der Umwandlung von A III in Halbhydrat lösungshemmend aus. Infolge der alterungsbedingten Dihydratbildung, die bei anhaltender Feuchteeinwirkung einsetzt, wird diese Wirkung aufgehoben bzw. vermindert. Obgleich Dihydrat für seinen Beschleunigungseffekt bekannt ist, entfaltet Alterungsdihydrat infolge seiner besonderen Ausbildung innerhalb der wenige Moleküllagen umfassenden Kondenswasserschicht nur eine geringe keimbildende Wirkung.
Eine wesentliche Erkenntnis betrifft den Bindungscharakter des Überstöchiometrischen Wassers. Diesbezüglich ist eine rein physikalische Bindung nachweisbar. Das in der Arbeit als stärker adsorptiv gebunden bezeichnete Wasser kommt neben der Freien Feuchte ausschließlich bei Anwesenheit von Halbhydrat vor. Dieser Zusammenhang wird erstmalig hergestellt und mit Hilfe der kristallchemisch bedingten höheren Oberflächenenergie von Halbhydrat erklärt.
Die Dissertation über „Ambiguität im zeitgenössischen Film – Flugversuche“ folgt der Spur einer populären narrativen Tendenz im Kino – nämlich der Mehrdeutigkeit – und zeichnet ihr dramaturgisches Potential, wie ihre ethischen (bzw. mikropolitischen) Implikationen nach. Um typische Muster in der Wahrnehmung mehrdeutiger Filmerzählungen zu beschreiben, die bereits auf der vorbewussten Ebene der Affekte wirksam sind, greife ich auf Begriffe der Prozessphilosophie Alfred North Whitehead’s zurück und auf ihre neueren Reformulierungen bei Gilles Deleuze und Brian Massumi. Ausgehend von Alejandro González Iñárritu’s "Babel" (2006) begibt sich der Leser im ersten Teil auf einen virtuellen Rundflug durch ausgewählte Filmbeispiele mit einem kulturellen Ankerpunkt im heutigen Japan. Im zweiten Teil beschreibe und reflektiere ich mein methodisches Vorgehen in den ersten Phasen der Stoffentwicklung zu einem suggestiven Spielfilmprojekt, und kontextualisiere es mit Interviews zeitgenössischer Autorenfilmer, die ähnliche Erzählweisen entwickeln.
This cumulative dissertation discusses - by the example of four subsequent publications - the various layers of a tangible interaction framework, which has been developed in conjunction with an electronic musical instrument with a tabletop tangible user interface. Based on the experiences that have been collected during the design and implementation of that particular musical application, this research mainly concentrates on the definition of a general-purpose abstraction model for the encapsulation of physical interface components that are commonly employed in the context of an interactive surface environment. Along with a detailed description of the underlying abstraction model, this dissertation also describes an actual implementation in the form of a detailed protocol syntax, which constitutes the common element of a distributed architecture for the construction of surface-based tangible user interfaces. The initial implementation of the presented abstraction model within an actual application toolkit is comprised of the TUIO protocol and the related computer-vision based object and multi-touch tracking software reacTIVision, along with its principal application within the Reactable synthesizer. The dissertation concludes with an evaluation and extension of the initial TUIO model, by presenting TUIO2 - a next generation abstraction model designed for a more comprehensive range of tangible interaction platforms and related application scenarios.
Numerical simulation of physical phenomena, like electro-magnetics, structural and fluid mechanics is essential for the cost- and time-efficient development of mechanical products at high quality. It allows to investigate the behavior of a product or a system far before the first prototype of a product is manufactured.
This thesis addresses the simulation of contact mechanics. Mechanical contacts appear in nearly every product of mechanical engineering. Gearboxes, roller bearings, valves and pumps are only some examples. Simulating these systems not only for the maximal/minimal stresses and strains but for the stress-distribution in case of tribo-contacts is a challenging task from a numerical point of view.
Classical procedures like the Finite Element Method suffer from the nonsmooth representation of contact surfaces with discrete Lagrange elements. On the one hand, an error due to the approximate description of the surface is introduced. On the other hand it is difficult to attain a robust contact search because surface normals can not be described in a unique form at element edges.
This thesis introduces therefore a novel approach, the adaptive isogeometric contact formulation based on polynomial Splines over hierarchical T-meshes (PHT-Splines), for the approximate solution of the non-linear contact problem. It provides a more accurate, robust and efficient solution compared to conventional methods. During the development of this method the focus was laid on the solution of static contact problems without friction in 2D and 3D in which the structures undergo small deformations.
The mathematical description of the problem entails a system of partial differential equations and boundary conditions which model the linear elastic behaviour of continua. Additionally, it comprises side conditions, the Karush-Kuhn-Tuckerconditions, to prevent the contacting structures from non-physical penetration. The mathematical model must be transformed into its integral form for approximation of the solution. Employing a penalty method, contact constraints are incorporated by adding the resulting equations in weak form to the overall set of equations. For an efficient space discretization of the bulk and especially the contact boundary of the structures, the principle of Isogeometric Analysis (IGA) is applied. Isogeometric Finite Element Methods provide several advantages over conventional Finite Element discretization. Surface approximation with Non-Uniform Rational B-Splines (NURBS) allow a robust numerical solution of the contact problem with high accuracy in terms of an exact geometry description including the surface smoothness.
The numerical evaluation of the contact integral is challenging due to generally non-conforming meshes of the contacting structures. In this work the highly accurate Mortar Method is applied in the isogeometric setting for the evaluation of contact contributions. This leads to an algebraic system of equations that is linearized and solved in sequential steps. This procedure is known as the Newton Raphson Method. Based on numerical examples, the advantages of the isogeometric approach
with classical refinement strategies, like the p- and h-refinement, are shown and the influence of relevant algorithmic parameters on the approximate solution of the contact problem is verified. One drawback of the Spline approximations of stresses though is that they lack accuracy at the contact edge where the structures change their boundary from contact to no contact and where the solution features a kink. The approximation with smooth Spline functions yields numerical artefacts in the form of non-physical oscillations.
This property of the numerical solution is not only a drawback for the
simulation of e.g. tribological contacts, it also influences the convergence properties of iterative solution procedures negatively. Hence, the NURBS discretized geometries are transformed to Polynomial Splines over Hierarchical T-meshes (PHT-Splines), for the local refinement along contact edges to reduce the artefact of pressure oscillations. NURBS have a tensor product structure which does not allow to refine only certain parts of the geometrical domain while leaving other parts unchanged. Due to the Bézier Extraction, lying behind the transformation from NURBS to PHT-Splines, the connected mesh structure is broken up into separate elements. This allows an efficient local refinement along the contact edge.
Before single elements are refined in a hierarchical form with cross-insertion, existing basis functions must be modified or eliminated. This process of truncation assures local and global linear independence of the refined basis which is needed for a unique approximate solution. The contact boundary is a priori unknown. Local refinement along the contact edge, especially for 3D problems, is for this reason not straight forward. In this work the use of an a posteriori error estimation procedure, the Super Convergent Recovery Solution Based Error Estimation Scheme, together with the Dörfler Marking Method is suggested for the spatial search of the contact edge.
Numerical examples show that the developed method improves the quality of solutions along the contact edge significantly compared to NURBS based approximate solutions. Also, the error in maximum contact pressures, which correlates with the pressure artefacts, is minimized by the adaptive local refinement.
In a final step the practicability of the developed solution algorithm is verified by an industrial application: The highly loaded mechanical contact between roller and cam in the drive train of a high-pressure fuel pump is considered.
In a historical perspective, the relationship between digital media and the museum environment is marked by the role of museums as example use cases for the appli- cation of digital media. Today, this exceptional use as an often technology oriented application has changed and instead digital media have turned into an integral part of mediation strategies in the museum environment. Alongside with this shift not only an increasing professionalization of application development but also a grow- ing demand for new content can be observed. Comparable to its role as the main cost factor in the media industry, the production of content rises to a challenge for museums. In particular small and medium scale european museums with limited funding and an often low level of staff coverage face this new demand and strive therefore for alternative production resources. While productive user contributions can be seen as such an alternative resource, user contributions are at the same time a manifestation for a different mode of in- teracting with content. In contrast to the dominantly passive role of audiences as re- ceivers of information, productive contributions emerge as a mode of content ex- ploration and become in this regard influential for museum mediation strategies. As applications of user contributions in museums and cultural heritage are currently rather seldom, a broader perspective towards user contributions becomes necessary to understand its specific challenges, opportunities and limitations. Productive user contributions can be found in a growing number of applications on the Internet where they either complement or fully substitute corporate content production processes. While the Wikipedia1, an online encyclopedia written entirely by a group of users and open to contributions by all its users, is one of the most prominent examples for this practice, several more applications emerged or are be- ing developed. In consequence user contributions are about to become a powerful source for the production of content in digital media environments.
The computational costs of newly developed numerical simulation play a critical role in their acceptance within both academic use and industrial employment. Normally, the refinement of a method in the area of interest reduces the computational cost. This is unfortunately not true for most nonlocal simulation, since refinement typically increases the size of the material point neighborhood. Reducing the discretization size while keep- ing the neighborhood size will often require extra consideration. Peridy- namic (PD) is a newly developed numerical method with nonlocal nature. Its straightforward integral form equation of motion allows simulating dy- namic problems without any extra consideration required. The formation of crack and its propagation is known as natural to peridynamic. This means that discontinuity is a result of the simulation and does not demand any post-processing. As with other nonlocal methods, PD is considered an expensive method. The refinement of the nodal spacing while keeping the neighborhood size (i.e., horizon radius) constant, emerges to several nonphysical phenomena.
This research aims to reduce the peridynamic computational and imple- mentation costs. A novel refinement approach is introduced. The pro- posed approach takes advantage of the PD flexibility in choosing the shape of the horizon by introducing multiple domains (with no intersections) to the nodes of the refinement zone. It will be shown that no ghost forces will be created when changing the horizon sizes in both subdomains. The approach is applied to both bond-based and state-based peridynamic and verified for a simple wave propagation refinement problem illustrating the efficiency of the method. Further development of the method for higher dimensions proves to have a direct relationship with the mesh sensitivity of the PD. A method for solving the mesh sensitivity of the PD is intro- duced. The application of the method will be examined by solving a crack propagation problem similar to those reported in the literature.
New software architecture is proposed considering both academic and in- dustrial use. The available simulation tools for employing PD will be collected, and their advantages and drawbacks will be addressed. The challenges of implementing any node base nonlocal methods while max- imizing the software flexibility to further development and modification
will be discussed and addressed. A software named Relation-Based Sim- ulator (RBS) is developed for examining the proposed architecture. The exceptional capabilities of RBS will be explored by simulating three dis- tinguished models. RBS is available publicly and open to further develop- ment. The industrial acceptance of the RBS will be tested by targeting its performance on one Mac and two Linux distributions.
The computational costs of newly developed numerical simulation play a critical role in their acceptance within both academic use and industrial employment. Normally, the refinement of a method in the area of interest reduces the computational cost. This is unfortunately not true for most nonlocal simulation, since refinement typically increases the size of the material point neighborhood. Reducing the discretization size while keep- ing the neighborhood size will often require extra consideration. Peridynamic (PD) is a newly developed numerical method with nonlocal nature. Its straightforward integral form equation of motion allows simulating dynamic problems without any extra consideration required. The formation of crack and its propagation is known as natural to peridynamic. This means that discontinuity is a result of the simulation and does not demand any post-processing. As with other nonlocal methods, PD is considered an expensive method. The refinement of the nodal spacing while keeping the neighborhood size (i.e., horizon radius) constant, emerges to several nonphysical phenomena.
This research aims to reduce the peridynamic computational and imple- mentation costs. A novel refinement approach is introduced. The pro- posed approach takes advantage of the PD flexibility in choosing the shape of the horizon by introducing multiple domains (with no intersections) to the nodes of the refinement zone. It will be shown that no ghost forces will be created when changing the horizon sizes in both subdomains. The approach is applied to both bond-based and state-based peridynamic and verified for a simple wave propagation refinement problem illustrating the efficiency of the method. Further development of the method for higher dimensions proves to have a direct relationship with the mesh sensitivity of the PD. A method for solving the mesh sensitivity of the PD is intro- duced. The application of the method will be examined by solving a crack propagation problem similar to those reported in the literature.
New software architecture is proposed considering both academic and in- dustrial use. The available simulation tools for employing PD will be collected, and their advantages and drawbacks will be addressed. The challenges of implementing any node base nonlocal methods while max- imizing the software flexibility to further development and modification will be discussed and addressed. A software named Relation-Based Sim- ulator (RBS) is developed for examining the proposed architecture. The exceptional capabilities of RBS will be explored by simulating three distinguished models. RBS is available publicly and open to further develop- ment. The industrial acceptance of the RBS will be tested by targeting its performance on one Mac and two Linux distributions.
Since the Industrial Revolution in the 1700s, the high emission of gaseous wastes into the atmosphere from the usage of fossil fuels has caused a general increase in temperatures globally. To combat the environmental imbalance, there is an increase in the demand for renewable energy sources. Dams play a major role in the generation of “green" energy. However, these structures require frequent and strict monitoring to ensure safe and efficient operation. To tackle the challenges faced in the application of convention dam monitoring techniques, this work proposes the inverse analysis of numerical models to identify damaged regions in the dam. Using a dynamic coupled hydro-mechanical Extended Finite Element Method (XFEM) model and a global optimization strategy, damage (crack) in the dam is identified. By employing seismic waves to probe the dam structure, a more detailed information on the distribution of heterogeneous materials and damaged regions are obtained by the application of the Full Waveform Inversion (FWI) method. The FWI is based on a local optimization strategy and thus it is highly dependent on the starting model. A variety of data acquisition setups are investigated, and an optimal setup is proposed. The effect of different starting models and noise in the measured data on the damage identification is considered. Combining the non-dependence of a starting model of the global optimization strategy based dynamic coupled hydro-mechanical XFEM method and the detailed output of the local optimization strategy based FWI method, an enhanced Full Waveform Inversion is proposed for the structural analysis of dams.
An Experimental Study on Hydro-Mechanical Characteristics of Compacted Bentonite-Sand Mixtures
(2005)
Nuclear and hazardous waste disposal issues have become universal issues and problems related to the final disposal of these waste including finding a suitable site, natural and engineered barriers used, construction of the repository, long-term performance assessment have gained increasing attention all over the world. High-level radioactive and hazardous waste are required to be buried in deep geological repositories. In Germany, the ongoing researches have assessed the suitability of salt-stone formation in the country as a host rock candidate for its nuclear waste repository. Bentonite-based materials have been proposed to be used as sealing and buffer elements for the nuclear waste repository. Several hydro-mechanical processes will take place in the field and influence behaviour of the sealing and buffer elements of the repository. In this dissertation, a study on the hydro-mechanical characterisation of bentonite-sand mixtures is presented. Mixtures of a calcium-type bentonite, named Calcigel, and quartz sand were used in the investigation. Series of experiments including basic and physico-chemical characterisation, microstructure and fabric studies, suction and swelling pressure measurements, wetting and drying test, one-dimensional compression-rebound test, one-dimensional cyclic wetting-drying test under constant vertical stress, and saturated permeability test were conducted. The experimental data obtained are analysed and several characteristics of the material are brought out in this dissertation. Conclusions regarding basic behaviour of the materials are drawn based on the results of microstructure and fabric studies. Factors influencing the magnitude of suction and swelling pressure of the materials are outlined and discussed. The suction-induced compression and rebound characteristics of the material are described. The wetting and drying behaviour as influenced by the material boundary conditions are discussed. Permeability characteristics of the materials are examined based on several available permeability models. Several mechanical and hydraulic parameters that can be used in modelling using some available constitutive modelling approaches are derived based on the experimental data. At the end, conclusions regarding the hydro-mechanical characteristics of the materials are drawn and suggestions for future studies are made.
Die Arbeit »Anachronismen: Historiografie und Kino« geht von einer zunächst einfachen Beobachtung aus: beinahe immer, wenn Historiker_innen sich mit Geschichtsfilmen auseinander setzen, findet sich die lautstark geführte Beschwerde über die zahlreichen und vermeidbaren Anachronismen der Filme, die sie als ernst zu nehmende historiografische Beiträge desavouieren.
Von hier ausgehend verfolgt die Arbeit ein dreifaches Projekt: zunächst in einer kritischen Analyse geschichtstheoretischer Texte einige Hinweise für den Status von Anachronismen für die moderne westliche Historiografie zu gewinnen. Zweitens zu untersuchen, welche Rolle Anachronismen für den Geschichtsfilm spielen. Und drittens von dort aus das epistemische Potential anachronistischen Geschichtskinos zu untersuchen.
Eine der Hauptthesen, welche den Blick sowohl auf die Filme wie auf die theoretischen Texte leitet, besagt, dass Anachronismen genau jene Punkte sind, an denen die Medien einer jeden Geschichtsschreibung beobachtbar werden. Die Beobachtung und Beschreibung dieser Medien der kinematografischen Geschichtsschreibung unternimmt die Arbeit unter Zuhilfenahme einiger theoretischer Überlegungen der Actor Network Theory (ANT).
Die Arbeit ist in vier Kapitel gegliedert, in deren Zentrum jeweils die Diskussion eines ANT-Begriffs sowie die Analyse eines Geschichtsfilmes steht. Zu den untersuchten Filmen gehören Shutter Island (Martin Scorsese, 2010), Chronik der Anna Magdalena Bach (Jean-Marie Straub/Danièle Huillet, 1968), Cleopatra (Joseph L. Mankiewicz, 1963) und Caravaggio (Derek Jarman, 1986). Die Arbeit kommentiert außerdem theoretische Texte zur Historiografie und zu Anachronismen von Walter Benjamin, Leo Bersani, Georges Didi-Huberman, Siegfried Kracauer, Friedrich Meinecke, Friedrich Nietzsche, Jacques Rancière, Leopold Ranke, Paul Ricœur, Georg Simmel, Hayden White u. a.
Im Rahmen der Arbeit wird das Querkrafttragverhalten bewehrter Bauteile aus Porenbeton untersucht. Die vorherrschende Beschreibung des inneren Kräftezustandes basiert auf der Modellvorstellung eines Fachwerks oder Sprengwerks mit Stahlzugstreben und Betondruckstreben. Ziel ist die Entwicklung eines alternativen Verfahrens zur Ermittlung des inneren Kräftezustandes.
Ausgehend vom Prinzip des Minimums des elastischen Gesamtpotentials wird eine Extremalaufgabe für das mechanische Problem formuliert. Die numerische Umsetzung basiert auf der Überführung der Extremalaufgabe in eine nichtlineare Optimierungsaufgabe. Diese lässt sich mit Standardsoftware lösen. Der Vorteil dieser Vorgehensweise besteht darin, dass das grundlegende Verfahren unabhängig vom verwendeten Materialmodell ist. Nichtlineare Spannungs-Dehnungs-Beziehungen oder die Berücksichtigung der Rissbildung erfordern keine Anpassung des Berechnungsalgorithmus.
Bewehrte Porenbetonbauteile besitzen im Hinblick auf das Trag- und Verformungsverhalten einige Besonderheiten. Berechnungsansätze für Stahlbetonelemente lassen sich nicht ohne entsprechende Modifikationen übertragen lassen. Die Bewehrung wird aus glatten Stäben hergestellt, so dass nach der Herstellung nur ein Haftverbund wirksam ist. Dieser kann über die Lebensdauer teilweise oder vollständig versagen. Die Kraftübertragung zwischen den Verbundelementen muss durch entsprechende Kopplungselemente (z.B. Querstäbe, Bügel, Endwinkel) sichergestellt werden.
Der Bewehrungskorb ist im Porenbeton gebettet. Aufgrund der relativ niedrigen Festigkeit bzw. Steifigkeit des Porenbetons und des teilweise unwirksamen Verbundes treten Relativverschiebungen zwischen beiden Verbundmaterialien auf. Hier sind die Ursachen dafür zu finden, dass die Beanspruchung der Querkraftbewehrung viel geringer ist als bei vergleichbaren Stahlbetonbalken. Der Querkraftbewehrungsgrad erlaubt keine Rückschlüsse auf den Querkraftwiderstand.
Das zentrale Anliegen der Arbeit ist die Implementierung nichtlinearer Materialansätze, der Rissbildung des Porenbetons sowie der porenbetonspezifischen Besonderheiten verschieblicher Verbund, diskrete Verankerung der Bewehrung und Relativverschiebungen zwischen Porenbeton und Bewehrung) in das Berechnungsmodell.
Die Leistungsfähigkeit des entwickelten Berechnungsmodells wird anhand von Beispielen demonstriert. Die Kräfte in der Bewehrung sowie das Tragwerksverhalten werden realitätsnah bestimmt.
Die wachsende Notwendigkeit zur Energieeinsparung hat in verschiedenen Ländern zur Entwicklung von Prognosemodellen zur Bestimmung des Energiebedarfs im Wohnungssektor geführt. Obwohl Prognosemodelle prinzipiell eine Lösung zur Bestimmung des Energiebedarfs und zur Beurteilung der Auswirkungen von zukünftigen Energieeinsparmaßnahmen darstellen, sind die bestehenden Modelle jedoch mit Unwägbarkeiten in der Modellierung und Mängeln bezüglich der verwendeten Daten und Methodik behaftet.
In dieser Arbeit werden die Übertragbarkeit, Genauigkeit und stochastische Unsicherheit von zwölf Prognosemodellen (MAED-2, FfE-Gebäudemodell, CDEM, REM, CREEM, ECCABS, REEPS, BREHOMES, LEAP, DECM, CHM, BSM) analysiert, wobei Deutschland als Fallbeispiel verwendet wird. Zur Verbesserung der Übertragbarkeit der bestehenden Modelle werden Anpassungen vorgeschlagen. Außerdem wird für jedes Modell eine Bestimmung der einflussreichsten Parameter auf den simulierten Endenergiebedarf mit Hilfe einer Sensitivitätsanalyse vorgenommen. Es konnte gezeigt werden, dass Modelle mit einem hohen Detaillierungsgrad nicht zwangsläufig genauere Ergebnisse für den Endenergiebedarf garantieren. Dennoch wurde festgestellt, dass Modelle mit einem niedrigen Detaillierungsgrad Ergebnisse mit größeren Unsicherheiten liefern als Modelle mit einem höheren Detaillierungsgrad. Es wurde weiterhin festgestellt, dass die einflussreichsten Parameter zur Bestimmung des Endenergiebedarfs im Wohnungssektor Innenraumtemperatur, Außentemperatur (Gradtagzahl), Bevölkerungsentwicklung und Anzahl der Gebäude/Wohnungen sind.
Auf der Grundlage der Erkenntnisse zur Bewertung bestehender Modelle und der Bestimmung der einflussreichsten Parameter wurde ein optimiertes Prognosemodell (Transferable Residential Energy Model, TREM) entwickelt. Mit dessen Hilfe wurde die Entwicklung des Endenergiebedarfs im deutschen Wohnungssektor sowie in anderen Ländern (Vereinigtes Königsreich und Chile) prognostiziert. Diese Ergebnisse wurden anschließend mit statistischen Daten verglichen. Das TREM-Modell bestimmt den Endenergiebedarf auf der Grundlage der wahrscheinlichsten Variationen der einflussreichsten Eingangsparameter mit Hilfe einer Monte-Carlo-Simulation. Im Gegensatz zu bestehenden Modellierungsansätzen liefert das Modell damit auch einen Bereich mit Wahrscheinlichkeitsbändern für den zukünftigen Endenergiebedarf. Die Ergebnisse des TREM-Modells zeigen, dass das Modell genauere Ergebnisse liefern kann als derzeitige Modelle mit einem Mittelwert der prozentualen Differenz niedriger als 5% und einem Korrelationskoeffizienten r höher als 0,35 und darüber hinaus dazu geeignet ist, ohne Anpassungen eine Prognose der Entwicklung des zukünftigen Endenergiebedarfs im Wohnungssektor für unterschiedliche Länder zu erstellen.
Bisherige Untersuchungen zum hydraulischen Grundbruch im bindigen Baugrund haben gezeigt, dass der Versagensmechanismus durch hydraulisch induzierte Risse ausgelöst wird. Um umströmte Bauwerke im Grundwasser sicher zu dimensionieren, ist daher ein Nachweis gegen hydraulisch induzierte Rissentstehung unerlässlich. Ein solcher existiert bisher jedoch nicht, da die Rissentstehung in bindigen Böden äußerst komplex ist und die zahlreichen Einflussgrößen nicht ausreichend untersucht sind. Aus diesem Grund wurde im Rahmen dieser Dissertation eine Laborstudie zu hydraulisch induzierter Rissbildung in verschiedenen feinkörnigen Böden in einem neuartigen Triaxialversuch durchgeführt. Aus den zahlreichen Versuchsvarianten lassen sich die wichtigsten Einflussgrößen auf den Widerstand des Bodens gegen Rissentstehung ermitteln. Die experimentelle Arbeit wird durch eine numerische Analyse der Versuchsvariationen ergänzt. Daraus lässt sich eine Hypothese zur Rissentstehung in bindigen Böden ableiten, die in Einklang mit der klassischen Bruchmechanik steht.
Ziel der Arbeit ist es, einen Beitrag zur Weiterentwicklung und Adaption der Holz-Beton-Verbundbauweise auf den Straßenbrückenbau zu leisten. Dabei stehen differenzierte Untersuchungen zum Trag- und Verformungsverhalten hybrider Holzbrückentragwerke sowie die Entwicklung geeigneter Verbundelemente im Vordergrund. Um die Einführung dieser innovativen Bauweise in der Praxis zu unterstützen, werden Bemessungs- und Konstruktionshinweise erarbeitet. Aufbauend auf eine Analyse des derzeitigen Forschungs- und Entwicklungsstandes auf dem Gebiet des Holz-Beton-Verbundbaus erfolgt die Untersuchung des Trag- und Verformungsverhaltens von Holz-Beton-Verbundbrücken anhand einer umfangreichen Parameterstudie. Dabei wird der Einfluss verschiedener Geometrie- und Steifigkeitsparameter auf die Tragfähigkeit und Gebrauchstauglichkeit von Holz-Beton-Verbundbrücken quantifiziert. Spezielle Untersuchungen dienen der Evaluation der Ermüdungssicherheit und der Ermittlung der Steifigkeitsdegradation unter Langzeitbeanspruchung auf der Basis einer realitätsnahen Abbildung des differenten zeit- und klimaabhängigen Tragverhaltens der Verbundbaustoffe. Praxisgerechte Empfehlungen für die optimierte konstruktive Durchbildung hybrider Holzbrückentragwerke fassen die Ergebnisse der Parameterstudie zusammen. Aus den Parameteranalysen leitet sich ein Anforderungsprofil bezüglich der Steifigkeit und Tragfähigkeit geeigneter Verbundelemente für den Straßenbrückenbau ab. Das Tragverhalten von drei ausgewählten Verbundelementtypen, welche diesem Profil entsprechen, wird anhand systematischer Scherversuche unter Kurzzeit-, Langzeit- und dynamischer Belastung analysiert. Aufbauend auf diese Testreihen werden weiterführende umfangreiche Versuchsserien mit dem Verbundelement Dübelleiste zur Bestimmung der mechanischen Kennwerte und zur Analyse des Gesamttragverhaltens vorgestellt. In Auswertung der umfangreichen Bauteilversuche und rechnerischer Simulationen auf der Basis Finiter-Elemente-Modelle wird ein Bemessungskonzept erarbeitet und die Eignung des Verbundelementes Dübelleiste für den Einsatz im Hybridbrückenbau nachgewiesen.
This thesis focuses on the analysis and design of hash functions and authenticated encryption schemes that are blockcipher based. We give an introduction into these fields of research – taking in a blockcipher
based point of view – with special emphasis on the topics of double length, double call blockcipher based compression functions. The first main topic (thesis parts I - III) is on analysis and design of
hash functions. We start with a collision security analysis of some well known double length blockcipher based compression functions and hash functions: Abreast-DM, Tandem-DM and MDC-4. We also propose new double length compression functions that have elevated collision security guarantees. We complement the collision analysis with a preimage analysis by stating (near) optimal security results for Abreast-DM, Tandem-DM, and Hirose-DM. Also, some generalizations are discussed. These are the first preimage security results for blockcipher based double length hash functions that go beyond the birthday barrier.
We then raise the abstraction level and analyze the notion of ’hash function indifferentiability from a random oracle’. So we not anymore focus on how to obtain a good compression function but, instead, on how to obtain a good hash function using (other) cryptographic primitives. In particular we give some examples when this strong notion of hash function security might give questionable advice for building a practical hash function. In the second main topic (thesis part IV), which is on authenticated encryption schemes, we present an on-line authenticated encryption scheme, McOEx, that simultaneously achieves privacy and confidentiality and is secure against nonce-misuse. It is the first dedicated scheme that achieves high standards of security and – at the same time – is on-line computable.
This thesis deals with the basic design and rigorous analysis of cryptographic schemes and primitives, especially of authenticated encryption schemes, hash functions, and password-hashing schemes.
In the last decade, security issues such as the PS3 jailbreak demonstrate that common security notions are rather restrictive, and it seems that they do not model the real world adequately. As a result, in the first part of this work, we introduce a less restrictive security model that is closer to reality. In this model it turned out that existing (on-line) authenticated encryption schemes cannot longer beconsidered secure, i.e. they can guarantee neither data privacy nor data integrity. Therefore, we present two novel authenticated encryption scheme, namely COFFE and McOE, which are not only secure in the standard model but also reasonably secure in our generalized security model, i.e. both preserve full data inegrity. In addition, McOE preserves a resonable level of data privacy.
The second part of this thesis starts with proposing the hash function Twister-Pi, a revised version of the accepted SHA-3 candidate Twister. We not only fixed all known security issues
of Twister, but also increased the overall soundness of our hash-function design.
Furthermore, we present some fundamental groundwork in the area of password-hashing schemes. This research was mainly inspired by the medial omnipresence of password-leakage incidences. We show that the password-hashing scheme scrypt is vulnerable against cache-timing attacks due to the existence of a password-dependent memory-access pattern. Finally, we introduce Catena the first password-hashing scheme that is both memory-consuming and resistant against cache-timing attacks.
Analysis of Functionally Graded Porous Materials Using Deep Energy Method and Analytical Solution
(2022)
Porous materials are an emerging branch of engineering materials that are composed of two elements: One element is a solid (matrix), and the other element is either liquid or gas. Pores can be distributed within the solid matrix of porous materials with different shapes and sizes. In addition, porous materials are lightweight, and flexible, and have higher resistance to crack propagation and specific thermal, mechanical, and magnetic properties. These properties are necessary for manufacturing engineering structures such as beams and other engineering structures. These materials are widely used in solid mechanics and are considered a good replacement for classical materials by many researchers recently. Producing lightweight materials has been developed because of the possibility of exploiting the properties of these materials. Various types of porous material are generated naturally or artificially for a specific application such as bones and foams. Like functionally graded materials, pore distribution patterns can be uniform or non-uniform. Biot’s theory is a well-developed theory to study the behavior of poroelastic materials which investigates the interaction between fluid and solid phases of a fluid-saturated porous medium.
Functionally graded porous materials (FGPM) are widely used in modern industries, such as aerospace, automotive, and biomechanics. These advanced materials have some specific properties compared to materials with a classic structure. They are extremely light, while they have specific strength in mechanical and high-temperature environments. FGPMs are characterized by a gradual variation of material parameters over the volume. Although these materials can be made naturally, it is possible to design and manufacture them for a specific application. Therefore, many studies have been done to analyze the mechanical and thermal properties of FGPM structures, especially beams.
Biot was the pioneer in formulating the linear elasticity and thermoelasticity equations of porous material. Since then, Biot's formulation has been developed in continuum mechanics which is named poroelasticity. There are obstacles to analyzing the behavior of these materials accurately like the shape of the pores, the distribution of pores in the material, and the behavior of the fluid (or gas) that saturated pores. Indeed, most of the engineering structures made of FGPM have nonlinear governing equations. Therefore, it is difficult to study engineering structures by solving these complicated equations.
The main purpose of this dissertation is to analyze porous materials in engineering structures. For this purpose, the complex equations of porous materials have been simplified and applied to engineering problems so that the effect of all parameters of porous materials on the behavior of engineering structure has been investigated.
The effect of important parameters of porous materials on beam behavior including pores compressibility, porosity distribution, thermal expansion of fluid within pores, the interaction of stresses between pores and material matrix due to temperature increase, effects of pore size, material thickness, and saturated pores with fluid and unsaturated conditions are investigated.
Two methods, the deep energy method, and the exact solution have been used to reduce the problem hypotheses, increase accuracy, increase processing speed, and apply these in engineering structures. In both methods, they are analyzed nonlinear and complex equations of porous materials.
To increase the accuracy of analysis and study of the effect of shear forces, Timoshenko and Reddy's beam theories have been used. Also, neural networks such as residual and fully connected networks are designed to have high accuracy and less processing time than other computational methods.
Self-healing materials have recently become more popular due to their capability to autonomously and autogenously repair the damage in cementitious materials. The concept of self-healing gives the damaged material the ability to recover its stiffness. This gives a difference in comparing with a material that is not subjected to healing. Once this material is damaged, it cannot sustain loading due to the stiffness degradation. Numerical modeling of self-healing materials is still in its infancy. Multiple experimental researches were conducted in literature to describe the behavior of self-healing of cementitious materials. However, few numerical investigations were undertaken.
The thesis presents an analytical framework of self-healing and super healing materials based on continuum damage-healing mechanics. Through this framework, we aim to describe the recovery and strengthening of material stiffness and strength. A simple damage healing law is proposed and applied on concrete material. The proposed damage-healing law is based on a new time-dependent healing variable. The damage-healing model is applied on isotropic concrete material at the macroscale under tensile load. Both autonomous and autogenous self-healing mechanisms are simulated under different loading conditions. These two mechanisms are denoted in the present work by coupled and uncoupled self-healing mechanisms, respectively. We assume in the coupled self-healing that the healing occurs at the same time with damage evolution, while we assume in the uncoupled self-healing that the healing occurs when the material is deformed and subjected to a rest period (damage is constant). In order to describe both coupled and uncoupled healing mechanisms, a one-dimensional element is subjected to different types of loading history.
In the same context, derivation of nonlinear self-healing theory is given, and comparison of linear and nonlinear damage-healing models is carried out using both coupled and uncoupled self-healing mechanisms. The nonlinear healing theory includes generalized nonlinear and quadratic healing models. The healing efficiency is studied by varying the values of the healing rest period and the parameter describing the material characteristics. In addition, theoretical formulation of different self-healing variables is presented for both isotropic and anisotropic maerials. The healing variables are defined based on the recovery in elastic modulus, shear modulus, Poisson's ratio, and bulk modulus. The evolution of the healing variable calculated based on cross-section as function of the healing variable calculated based on elastic stiffness is presented in both hypotheses of elastic strain equivalence and elastic energy equivalence. The components of the fourth-rank healing tensor are also obtained in the case of isotropic elasticity, plane stress and plane strain.
Recent research revealed that self-healing presents a crucial solution also for the strengthening of the materials. This new concept has been termed ``Super Healing``. Once the stiffness of the material is recovered, further healing can result as a strengthening material. In the present thesis, new theory of super healing materials is defined in isotropic and anisotropic cases using sound mathematical and mechanical principles which are applied in linear and nonlinear super healing theories. Additionally, the link of the proposed theory with the theory of undamageable materials is outlined. In order to describe the super healing efficiency in linear and nonlinear theories, the ratio of effective stress to nominal stress is calculated as function of the super healing variable. In addition, the hypotheses of elastic strain and elastic energy equivalence are applied. In the same context, new super healing matrix in plane strain is proposed based on continuum damage-healing mechanics.
In the present work, we also focus on numerical modeling of impact behavior of reinforced concrete slabs using the commercial finite element package Abaqus/Explicit. Plain and reinforced concrete slabs of unconfined compressive strength 41 MPa are simulated under impact of ogive-nosed hard projectile. The constitutive material modeling of the concrete and steel reinforcement bars is performed using the Johnson-Holmquist-2 damage and the Johnson-Cook plasticity material models, respectively. Damage diameters and residual velocities obtained by the numerical model are compared with the experimental results and effect of steel reinforcement and projectile diameter is studied.
Web applications that are based on user-generated content are often criticized for containing low-quality information; a popular example is the online encyclopedia Wikipedia. The major points of criticism pertain to the accuracy, neutrality, and reliability of information. The identification of low-quality information is an important task since for a huge number of people around the world it has become a habit to first visit Wikipedia in case of an information need. Existing research on quality assessment in Wikipedia either investigates only small samples of articles, or else deals with the classification of content into high-quality or low-quality. This thesis goes further, it targets the investigation of quality flaws, thus providing specific indications of the respects in which low-quality content needs improvement. The original contributions of this thesis, which relate to the fields of user-generated content analysis, data mining, and machine learning, can be summarized as follows:
(1) We propose the investigation of quality flaws in Wikipedia based on user-defined cleanup tags. Cleanup tags are commonly used in the Wikipedia community to tag content that has some shortcomings. Our approach is based on the hypothesis that each cleanup tag defines a particular quality flaw.
(2) We provide the first comprehensive breakdown of Wikipedia's quality flaw structure. We present a flaw organization schema, and we conduct an extensive exploratory data analysis which reveals (a) the flaws that actually exist, (b) the distribution of flaws in Wikipedia, and, (c) the extent of flawed content.
(3) We present the first breakdown of Wikipedia's quality flaw evolution. We consider the entire history of the English Wikipedia from 2001 to 2012, which comprises more than 508 million page revisions, summing up to 7.9 TB. Our analysis reveals (a) how the incidence and the extent of flaws have evolved, and, (b) how the handling and the perception of flaws have changed over time.
(4) We are the first who operationalize an algorithmic prediction of quality flaws in Wikipedia. We cast quality flaw prediction as a one-class classification problem, develop a tailored quality flaw model, and employ a dedicated one-class machine learning approach. A comprehensive evaluation based on human-labeled Wikipedia articles underlines the practical applicability of our approach.
The most fundamental understating of hybridization methodology takes the form of stable but dynamic notions, accumulated over time in the memory of individuals. Schematized and abstracted, the hybrids representation needs to be reproduced and reused in order to reconstruct and bring back other memories. Reinvented, or reused hybrids can support getting access to social, traditional, religious understanding of nations. In this manner, they take the form of the messenger / the mediator an innate, equivalent to the use of mental places in the art of memory. We remember mythology in order to remember other things.
From individual memory perspective, or group collective memory, the act of recollection is assumed to be an individual act, biologically based in the brain, but by definition conditioned by social collectives. Following Halbwachs, this thesis does not recognize a dichotomy between individual and collective memory as two different types of remembering. Conversely, the collective is thought of as inherent to individual thought, questioning perspectives that regard individual recollection as isolated from social settings. The individual places himself in relation to the group and makes use of the collective frameworks of thought when he localizes and reconstructs the past, whether in private or in social settings. The frameworks of social relations, of time, and of space are constructs originating in social interaction and distributed in the memory of the group members. The individual has his own perspective on the collective frameworks of the group, and the group’s collective frameworks can be regarded as a common denominator of the individual outlooks on the framework.
In acts of remembering, the individual may actualize the depicted symbols in memory, but he could also employ precepts from the environment. The latter have been referred to as material or external frameworks of memory, suggesting their similar role as catalysts for processes of remembrance such as that of the hybrids in my paintings. It is only with reference to the hybrids, who work as messengers / mediators with a dual nature, that communicate between the past and the present, the internal and external space, that individual memory and group memory is in focus.
The exhibition at the Egyptian museum in Leipzig is my practical method to create a communicative memory, using hybrids as mediators in cultural transimission, as when the act refers to informal and everyday situations in which group members informally search for the past, it takes place in the communicative
162
memory. As explained in chapter one, the exhibition at the Egyptian museum in Leipzig is an act of remembering in search for the past with support of my paintings, which then can considered as part of the cultural memory.
In addition to the theoretical framework summarized above, I have applied my hypothesis practically in the form of the public exhibition, and shared the methodology with public audience from Cairo / Egypt and Leipzig / German in the form of visual art workshops and open discussions. I have also suggested an analyzed description of the meaning of hybrids in my artwork as mediators and messengers for the purpose of cultural transmission, as well as in relation to other artists’ work and use of a similar concept.
By using my hybrid creatures in my visual artwork, I am creating a bridge, mediators to represent both the past and the present, what we remember of the past, and how we understand the past. It is as explained in chapter two; that the hybridization methodology in terms of double membership represented in different cultures –Cairo / Egypt and Leipzig / Germany- can provide a framework which allows artistic discussions and could be individually interpreted, so individual cultures / individual memory can become transparent without losing their identities and turn into communicative memory. This transmission through the hybridization theoretical approech was explicitly clarified with the support of Krämer’s hypothesis. The practical attempt was examined by creating a relationship between the witness –me as an artist– and the audience –the exhibition visitors–, to cross space and time, not to bridge differences, rather to represent the contrasts transparently.
The Kin-making proposition is adopted by many academics and scholars in modern society and theoretical research; the topic was represented in the roots of the ancient Egyptian mindset and supported theoretically by similar understandings such as Haraway’s definition of kin-making. The practical implementation of kin- making can be observed in many of my artwork and was analyzed visually and artistically in chapter three.
My practical project outcome tested success by using hybrids in my paintings as mediators, it opened a communicative artistic discussion. This methodology gave a possible path of communication through paintings / visual analyses, and offered relativity through image self-interpretation.
Ausgehend von den klassischen Variationsprinzipien der Mechanik werden kinematische und gemischte Extremalprinzipe abgeleitet, die zur Beschreibung geometrisch und physikalisch nichtlinearen Tragverhaltens geeignet sind. Ein Schwerpunkt der Arbeit besteht in der Anwendung der Prinzipe zur Analyse und Bemessung von Stahlbeton-, Spannbeton- und Verbundquerschnitten. Aus einem einheitlichen Berechnungsmodell wird eine Vielzahl praxisrelevanter Problemstellungen abgeleitet. Ein weiterer Schwerpunkt ist die Anwendung der kinematischen Extremalformulierung für die geometrisch und physikalisch nichtlineare Berechnung von Stabtragwerken.
Die vorliegende Arbeit beschäftigt sich mit der geometrischen Suffosionsbeständigkeit von Erdstoffen. Mit dem wahrscheinlichkeitstheoretischen Ansatz der Perkolationstheorie wurde ein analytisches Verfahren gewählt, mit dem suffosive Materialtransportprozesse modelliert und quantifiziert werden können. Mit dem verwendeten Perkolationsmodell wurde eine beliebige Porenstruktur eines realen Erdstoffes im 3-Dimensionalen modelliert. Mögliche Materialtransportprozesse innerhalb der modellierten Porenstruktur wurden anschließend simuliert. Allgemein gültige Gesetzmäßigkeiten wurden hergeleitet und Grenzbedingungen formuliert. Diese sind vom Erdstoff unabhängig und beschreiben Zusammenhänge zwischen Materialtransport und Porenstruktur. Anwendbar sind diese Ergebnisse auf homogene, isotrope und selbstähnliche Erdstoffgefüge. Aussagen über konkrete Erdstoffe können über die Transformationsmethode erfolgen. Für die Verwendung der Transformationsmethode ist vorab die relevante Porenstruktur, d. h. die Porenengstellenverteilung, zu ermitteln.
Die meisten traditionellen Methoden der Systemidentifikation beruhen auf der Abbildung der Meßwerte entweder im Zeit- oder im Frequenzbereich. In jüngerer Zeit wurden im Zusammenhang mit der Systemidentifikation Verfahren entwicklet, die auf der Anwendung der Wavelet-Transformation beruhen. Das Ziel dieser Arbeit war, einen Algorithmus zu entwickeln, der die Identifikation von Parametern eines Finite-Elemente-Modells, das ein experimentell untersuchtes mechanisches System beschreibt, ermöglicht. Es wurde eine Methode erarbeitet, mit deren Hilfe die gesuchten Parameter durch Lösen eines Systems von Bewegungsgleichungen im Zeit-Skalen-Bereich ermittelt werden. Durch die Anwendung dieser Darstellung können Probleme, die durch Rauschanteile in den Meßdaten entstehen, reduziert werden. Die Ergebnisse numerischer Simulation und einer experimentellen Studie bestätigen die Vorteile einer Anwendung der Wavelet-Transformation in der vorgeschlagenen Weise. ...
Diese Dissertation beschäftigt sich mit Kunstwerken, die das alltägliche Ding in den Blick nehmen. Nährboden dieser Kunstform sind die soziokulturellen Entwicklungen des 20. Jahrhunderts, mit denen wesentliche Veränderungen hinsichtlich des Verhältnisses von Mensch und Ding einhergingen.
Daraus resultierte eine allgemeine künstlerische Zuwendung zu den Dingen und eine einzigartige Kulmination aus verschiedenartigen Auseinandersetzungen mit ihnen als kunstfähige Gegenstände, über die sich die neue Dingwelt erschlossen wurde und deren Kunstwerke einen Spiegel dieser Entwicklungen darstellen.
Die Dissertation stellt ebenfalls die Dinge selbst in den Fokus. Vier Aspekte von Dingen (Materialität, Funktionalität, Repräsentationalität und Relationalität) werden gesondert ins Auge gefasst und in den theoretischen Diskurs des 20. Jahrhunderts eingeordnet, um sie als Teil der gelebten Realität besser zu verstehen, von der sich der ästhetische Blick nicht trennen lässt. Anhand der künstlerischen Positionen von Robert Rauschenberg, Christo und Jeanne-Claude, Daniel Spoerri und Arman sowie Claes Oldenburg werden die verschiedenen Aspekte der Dinge näher betrachtet und analysiert, wie diese speziell in den Kunstwerken thematisiert werden und welche Relevanz sie für deren Rezeptionserfahrung haben.
Die Korrelation dieser beiden Ebenen - die Dinge als konstitutiver Bestandteil im sozialen Raum und die Dinge als Elemente in Kunstwerken -, die im Fokus der vorliegenden Untersuchung steht, ermöglicht es, die künstlerische Zuwendung zu den Dingen in den 1960er-Jahren neu einzuordnen. Darüber hinaus wird dadurch ein differenziertes Bild von der Kunst dieser Zeit sowie den Dingen in der Kunst im Allgemeinen gezeichnet.
Die vorliegende Arbeit beschäftigt sich mit der Berechnung der Sicherheit von Strukturen mit sowohl geometrisch als auch physikalisch nichtlinearem Verhalten. Die Berechnung der Versagenswahrscheinlichkeit einer Struktur mit Hilfe von Monte-Carlo-Simulationsmethoden erfordert, dass die Funktion der Strukturantwort implizit berechnet wird, zum Beispiel durch nichtlineare Strukturanalysen für jede Realisation der Zufallsvariablen. Die Strukturanalysen bilden jedoch den Hauptanteil am Berechnungsaufwand der Zuverlässigkeitsanalyse, so dass die Analyse von realistischen Strukturen mit nichtlinearem Verhalten durch die begrenzten Computer-Ressourcen stark eingeschränkt ist. Die klassischen Antwortflächenverfahren approximieren die Funktion der Strukturantwort oder aber die Grenzzustandsfunktion durch Polynome niedriger Ordnung. Dadurch ist für die Auswertung des Versagens-Kriteriums nur noch von Interesse, ob eine Realisation der Basisvariablen innerhalb oder außerhalb des von der Antwortflächenfunktion gebildeten Raumes liegt - die Strukturanalyse kann dann entfallen. Bei stark nichtlinearen Grenzzustandsfunktionen versagt die polynomiale Approximation. Das directional sampling neigt bei Problemen mit vielen Zufallsvariablen zu einem systematischen Fehler. Das adaptive importance directional sampling dagegen beseitigt diesen Fehler, verschenkt jedoch Informationen über den Verlauf der Grenzzustandsfunktion, da die aufgefundenen Stützstellen aus den vorangegangenen Simulationsläufen nicht berücksichtigt werden können. Aus diesem Grund erscheint eine Kombination beider Simulationsverfahren und eine Interpolation mittels einer Antwortfläche geeignet, diese Probleme zu lösen. Dies war die Motivation für die Entwicklung eines Verfahren der adaptiven Simulation der Einheitsvektoren und anschließender Interpolation der Grenzzustandsfunktion durch eine Antwortflächenfunktion. Dieses Vorgehen stellt besondere Anforderungen an die Antwortflächenfunktion. Diese muss flexibel genug sein, um stark nichtlineare Grenzzustandsfunktionen beliebig genau annähern zu können. Außerdem sollte die Anzahl der verarbeitbaren Stützstellen nicht begrenzt sein. Auch ist zu berücksichtigen, dass die Ermittlung der Stützstellen auf der Grenzzustandsfunktion nicht regelmäßig erfolgt. Die in dieser Arbeit entwickelten Methoden der lokalen Interpolation der Grenzzustandsfunktion durch Normalen-Hyperebenen bzw. sekantialen Hyperebenen und der sowohl lokalen als auch globalen Interpolation durch gewichtete Radien erfüllen diese Anforderungen. ungen. dieser Arbeit entwickelten Methoden der lokalen Interpolation der Grenzzustandsfunktion durch Normalen-Hyperebenen bzw. sekantialen Hyperebenen und der sowohl lokalen als auch globalen Interpolation durch gewichtete Radien erfüllen diese Anforderungen.
Im Gegensatz zu Industrieländern wird das barrierefreie und behindertengerechte Planen und Bauen von öffentlichen Gebäuden in Entwicklungsländern aus wirtschaftlichen und sozialen Gründen nur ungenügend berücksichtigt und realisiert. Die Analyse von international vorhandenen Normen und Richtlinien zeigte, dass in Vietnam die Integration behindertengerechter Konzepte in Bauplanungen erst seit dem Jahr 2002 stattfindet, wohingegen diese in China bereits seit den 80er Jahren und in den Industrienationen wie Deutschland und Amerika sogar schon seit drei Jahrzehnten Anwendung findet. Die ungenügende Berücksichtigung behindertengerechter Baukonzepte in öffentlichen Einrichtungen, so auch vor allem in Berufsschulen bewirkt eine drastische Reduzierung des Ausbildungsplatzangebotes und eine resultierende Perspektivlosigkeit für behinderte Menschen. Durch die schnelle Errichtung barrierefreier, behindertengerechter Ausbildungseinrichtungen sollen sich die Chancen auf einen Ausbildungsplatz für behinderte Vietnamesen deutlich verbessern. Mit dem Erhalt eines Ausbildungsplatzes wird diesen Menschen nicht nur eine Integration in die Gesellschaft sondern langfristig gesehen auch finanzielle Selbständigkeit und somit Unabhängigkeit von der Familie ermöglicht. Als Grundlage des angestrebten Umwandlungsprozesses von der herkömmlichen barrierebelasteten Bauplanung zur Berücksichtigung von behinderten Menschen durch behindertengerechte Planungskonzepte wurden Bauzeit, Bauumfang und Baukosten eingehend analysiert. Dieser vergleichenden Betrachtung der Bauplanungen entwuchsen zwei neue barrierefreie Berufschultypen. Der neue Berufsschultyp 1 – Der Dezentralisierungstyp zeichnet sich durch einen geringfügigen Bauumfang und durch seine einfache Baukonstruktion aus und ermöglicht somit eine schnelle Reaktion auf den gravierenden Ausbildungsplatzmangel für behinderte Menschen. Dieser kostengünstige Berufsschultyp wurde entwickelt, um sehr kurzfristig eine schnelle Erhöhung des Ausbildungsplatzangebotes für behinderte Menschen zu schaffen. Siedlungs- und Wohngebiete bzw. Dörfer eignen sich am besten als Standort für den Berufsschultyp 1. Das ursprüngliche Wohnumfeld bliebe den behinderten Schülern erhalten und damit einhergehend auch die seelische Unterstützung durch deren Familien. Der familiennahe Standort der Berufsschule würde somit sowohl den Lehrern als auch den Schülern eine große seelische Last abnehmen. Des Weiteren ließe sich eine Berufsschule vom Typ 1 schnellstens errichten, so dass die Ausbildung der behinderten und nicht behinderten Schüler sofort aufgenommen werden könnte. Im Zuge der Entwicklung des neuen Berufsschultyps 2 – Dem Zentralisierungstyp - wurden internationale Standards angestrebt. Dieser Berufsschultyp bietet eine umfangreichere Flexibilität in seiner Nutzungsart, ein umfassenderes Angebot an Ausbildungsgängen und ein weitaus größeres Feld der Integration. Der Berufsschultyp 2 ist ein komplexer Bau, mit einem größeren Bauumfang als Berufsschultyp 1. Bei der Errichtung dieser Berufsschultypen ist mit einer langfristigen Planungs- und Bauzeit zu rechnen. Der Stadtrand wird als der optimale Standort zur Errichtung der Berufsschule vom Typ 2 angesehen. Von dort aus ließen sich die öffentlichen Service der Stadt effizient nutzen. Als Bewertungsgrundlage für eine optimale Entwicklung der beiden neuen Berufsschultypen dienen Basisdaten aus umfassenden Analysen über verschiedenste Betrachtungsebenen. Unter Nutzung der in Deutschland und USA bestehenden gesetzlichen Grundlagen sollen barrierefreie Planungsempfehlungen, gezielt für die Errichtung behindertengerechter berufsausbildender Schulen in Vietnam, abgleitet werden, um ein gemeinsames Lernen von seh- und mobilitätsbehinderten sowie von nicht behinderten Menschen zu ermöglichen. Bei den Planungsempfehlungen finden nicht nur die unterschiedlichen menschlichen Körpergrößen der verschiedenen Bevölkerungsgruppen sondern auch die unterschiedliche Lebensweise der Vietnamesen sowie die Klimabedingungen in Vietnam Berücksichtigung. Bei der Planung von behindertengerechten Ausbildungs- und Schuleinrichtungen ist es wichtig, die Körpergröße der Menschen des jeweiligen Landes zu berücksichtigen. Als Orientierungsmaß für die Körpergröße vietnamesischer Menschen wurde ein Richtfaktor definiert und eingesetzt. Anhand der o.g. Richtfaktorgrößen wurden detaillierte Planungsempfehlungen für barrierefreies Lernen und Wohnen herausgearbeitet.
Komplexität ist ein genuin architektonisches Problem. Der Begriff von Architektur als einer universellen Praxis bzw. ganzheitlichen Erkenntnisweise enthält bereits im Kern den Begriff 'Komplexität'. Beide Konzepte fallen weithin zusammen – Architektur kann damit als spezifische Denkform des Komplexen betrachtet werden. Das in der Arbeit aufgezeigte Dilemma besteht darin, dass der modernen Architektur ihr ursprünglicher Gestaltungsgegenstand – Komplexität – abhanden gekommen ist: 'Nönnig dekonstruiert zu Recht die hoch aggregierten Begriffe des Raumes und des Entwurfs. Die gesamte Arbeit zeigt, dass die modernen Beschreibungsformen von Komplexität gerade nicht in der Architektur entwickelt sind.' (Prof. Gerd Zimmermann, Weimar). Um dieses Defizit zu beheben und Architektur als eigenständige Wissenstechnik ('Technoepisteme') zu etablieren, wird ausgehend von spezifischen 'Praxis- und Diskursdefiziten' ein Theorieszenario entwickelt, mit dem und in dem Architektur sich als komplexe Wissensform verwirklicht (u.a. Komplexe Systeme, Design Sciences, Operationale Heuristik). 'Vorliegende Arbeit ist der Versuch […] die Architektur gewissermaßen wieder in den Stand zu setzen, der ihr im System des Denkens eigentlich zukommt […] Der Komplexitätsdiskurs in der Architektur ist zurück.' (Prof. Gerd Zimmermann, Weimar)
The specific socio-political frame and context in Federal Republic of Yugoslavia (SRJ) was in many ways unique in Europe. The way social space was produced, starting from mid eighties in the former Socialist Federal Republic of Yugoslavia (SFRJ) in the period of severe economic and political crises, and later in the new independent republics formed after it’s disintegration, was extremely harsh. The new SRJ had an especially peculiar context due to the sanctions of UN that were introduced in 1992 after the clashes in Bosnia and cases of ethnic cleansing. One of the causes for the production of such a drastic social space could be seen in the strongest wave of ethnonationalism recorded in recent European history, accompanied with the equally strong wave of populism, that were interestingly enough conceived as a program of Serbian national and cultural renaissance in the highest cultural institutions in Serbia like the Serbian Academy of Sciences and Arts and Association of Writers of Serbia, and supported by the Serbian Orthodox Church. After being recognized as a powerful homogenizing force by the communist elite that came to power, Slobodan Miloševi's being its strongest representative, these ideological matrixes thus induced their reproduction in all spheres of the society. On the other side the sanctions by UN and isolation of the country caused the "economy of destruction", economic collapse with the highest rate of inflation ever recorded. The effects of these phenomena were devastating for the new SRJ, where thus produced social milieu was dominated by patriarchalism, authoritarianism, a warlike spirit, xenophobia, and national-chauvinism. In Miloševi's Serbia of the 90’s after introduction of the multi party parliamentary democracy, two public spheres have functioned in autonomous way: one official having all the monopolistic instruments from the former communist ideological structures, and the other alternative and oppositional having just support from a few alternative media houses and mainly the streets for public address and speech. When the wave of ethnonationalism and populism came back from the political realm to the sphere of culture and contaminated it, the highest national institutions of culture started to reproduce this ideological matrix. The task of the artworks was to glorify the history of Serbian people and they could be read as symptoms of the social pathology of the milieu where they originated. Their performative role was to contribute to the production of such a social space and reproduce the hate speech so present in all the media. For the artists who didn't want to conform to the dominant ideological matrix the trauma experienced had different effect and caused strong reaction. One aspect was the withdrawal from the social sphere into the closed, hermetic artistic circles and the strategy defined as active escapism; another was gathering into groups and associations with the aim to criticize, oppose, and face the social reality with engaged artworks. Finally, I focus on different artistic strategies towards the produced social space and analyze both the art practices that reproduced the dominant ideological matrix in the use of the regime, as well as the ones that tried to enter the publics sphere in the critical way and offer the alternative model of the (cultural) public sphere. The paradigm for the analysis of the Serbian art scene or community in the period of sanctions and isolation, mostly in the first half of the nineties, but also encompassing the whole decade, was the one of the “art in the closed society”. As much as this formulation was explanatory for the situation in Serbia under the sanctions, my perspective on the problem is that self-isolation by the artists was more important that the outer wall of barriers, and what mattered was the decision of the majority of the artists to stay out of the public and social spheres. In the global age of informational society where Internet was providing all necessary information on the actual happenings in art, the paradigm of the closed society could be more used as a psychological feature of self-isolation and withdrawal from the reality as it was too hard to bare it. I am therefore focusing mainly on art practices that were trying to deconstruct the dominant ideological matrix, create platforms and arenas where artists could engage in cultural activity and raise different critical issues, and eventually construct the alternative cultural public sphere where many >marginal< voices could be heard, many micro-social spaces could be visible.
Abstract In the first part of this research, the utilization of tuned mass dampers in the vibration control of tall buildings during earthquake excitations is studied. The main issues such as optimizing the parameters of the dampers and studying the effects of frequency content of the target earthquakes are addressed.
Abstract The non-dominated sorting genetic algorithm method is improved by upgrading generic operators, and is utilized to develop a framework for determining the optimum placement and parameters of dampers in tall buildings. A case study is presented in which the optimal placement and properties of dampers are determined for a model of a tall building under different earthquake excitations through computer simulations.
Abstract In the second part, a novel framework for the brain learning-based intelligent seismic control of smart structures is developed. In this approach, a deep neural network learns how to improve structural responses during earthquake excitations using feedback control.
Abstract Reinforcement learning method is improved and utilized to develop a framework for training the deep neural network as an intelligent controller. The efficiency of the developed framework is examined through two case studies including a single-degree-of-freedom system and a high-rise building under different earthquake excitation records.
Abstract The results show that the controller gradually develops an optimum control policy to reduce the vibrations of a structure under an earthquake excitation through a cyclical process of actions and observations.
Abstract It is shown that the controller efficiently improves the structural responses under new earthquake excitations for which it was not trained. Moreover, it is shown that the controller has a stable performance under uncertainties.
Die Abkürzung PCC bezieht sie sich hier auf Polymer modified Cement Concrete, also mit Kunststoffen modifizierte Mörtel und Betone. Hierfür hat sich diese Abkürzung auch international durchgesetzt. Sie bezeichnet Baustoffe, die neben dem mineralischen Bindemittel Zement auch Kunststoffe enthalten. Zement und Kunststoff erzielen im späteren Mörtel bzw. Beton eine gemeinschaftliche Bindemittelwirkung. Wiederholter Gegenstand von Schadensfällen ist das Versagen des Haftverbundes zu anderer Bausubstanz. Da PCC häufig als dünne Schutzschicht auf vorhandenen Beton aufgetragen werden, führt ein Versagen der Adhäsion früher oder später auch zu einem Versagen dieser Schutzfunktion. Umgekehrt kann ein Versagen des Schutzes infolge von Rissen im PCC auch im Nachhinein zum Ablösen der Beschichtung führen. Ursächlich für dieses kohäsive Versagen sind dabei i. d. R. die Auswahl falscher bzw. nicht aufeinander abgestimmter Baustoffsysteme oder schlicht Verarbeitungsfehler. Das Ziel dieser Arbeit war es zu untersuchen, welchen Einfluss die kohäsiven und adhäsiven Eigenschaften von PCC auf deren Dauerhaftigkeit, insbesondere bei der Anwendung als Beschichtungsmaterial, haben. Dazu wurden vier maßgebliche Schwerpunkte bearbeitet. Eine zentrale Rolle für die Dauerhaftigkeit eines Beschichtungsmaterials spielt dessen Längenänderungsverhalten. Der Betrag der positiven und negativen Längenänderungen ist bestimmend für die Spannungen, die im Beschichtungsmaterial entstehen können. Sind die auftretenden Spannungen höher als die Zugfestigkeit des PCC erfolgt der Spannungsabbau durch Risse. Es kommt also zum Kohäsionsversagen im Mörtel. Wird der PCC als Beschichtungsmaterial genutzt, werden die Spannungen im Idealfall über die Verbundebene zum Beschichtungsuntergrund übertragen. Übersteigen dabei diese Spannungen die maximal aufnehmbaren Verbundspannungen, kommt es zum Adhäsionsversagen zwischen Beschichtung und Untergrund. In Modellversuchen werden die Effekte des Längenänderungsverhaltens kunststoffmodifizierter Zementsteine auf den Haftverbund zu einer Gesteinskörnung untersucht. Dadurch werden Rückschlüsse auf die Kohäsion innerhalb der PCC durch die Beschreibung des adhäsiven Verbundes zwischen Zementsteinmatrix und Gesteinskörnung gezogen. Neben der Längenänderung sind auch die Festigkeitseigenschaften der PCC bedeutsam für deren Dauerhaftigkeit. Es werden die Festigkeitseigenschaften kunststoffmodifizierter Mörtel und Betone nicht nur von der mechanischen Seite betrachtet. Der Focus liegt vielmehr auf der Beschreibung der durch die Kunststoffe beeinflussten kohäsiven Eigenschaften bei mechanischer Belastung. Es wird das Verhalten der polymeren Matrix nach einer Kurzzeitbelastung untersucht. Damit werden die Vorgänge, die letztlich zu einer Beeinflussung der Festigkeitseigenschaften führen, dargestellt. In diesem Zusammenhang wird auch der Einfluss der Temperatur auf die Festigkeit der PCC betrachtet. Die Untersuchung des Frost-Taumittel-Widerstandes mittels CDF- bzw. CIF-Verfahrens ist eine gute Möglichkeit, neben der Beurteilung der Dauerhaftigkeit auch Rückschlüsse auf die kohäsiven als auch, im mikroskopischen Maßstab betrachtet, die adhäsiven Eigenschaften der PCC zu ziehen. Damit ist gemeint, dass die Kohäsion von PCC durch deren adhäsive Eigenschaften zwischen kunststoffmodifizierter Zementsteinmatrix und Gesteinskörnern maßgeblich bestimmt wird. Einerseits kann bei starkem Abfall des relativen dynamischen E-Moduls von einer geringeren Kohäsion des PCC ausgegangen werden. Dies würde dann bei einem Mörtel eher zu Rissen führen, über die wiederum betonaggressive Medien eindringen können. Im Gegensatz dazu deutet ein konstant bleibender relativer dynamischer E-Modul auf eine hohe Kohäsion und damit, bei Anwendung des PCC als Beschichtungsmaterial, auf ein höheres adhäsives Versagensrisiko der Beschichtung hin. Andererseits stellt eine höhere Abwitterung, also sozusagen das schichtenweise kohäsive Versagen, eine Gefahr bei dünnen Beschichtungen dar. Dies könnte noch durch die Anwendung anderer Taumittel (z. B. organischer) verstärkt werden. Unter diesen Gesichtspunkten wurden Untersuchungen auf der Basis des CDF-Testes sowie zur Lösungsaufnahmefähigkeit der PCC durchgeführt. Der adhäsive Verbund von PCC zu Beton ist von vielen Faktoren abhängig. Bisher kaum betrachtet wurde die Art des Aufbringens oder der Einfluss der Probengeometrie bei Laborversuchen. Diese sowie der Einfluss einer Salzbelastung des Untergrundes bzw. der Beschichtung wurden untersucht. Ein Teil der durchgeführten Untersuchungen wurde im Rahmen des Teilprojektes B3 „Dauerhaftigkeit polymermodifizierter Mörtel und Betone“ des von der DFG geförderten Sonderforschungsbereiches 524 „Werkstoffe und Konstruktionen für die Revitalisierung von Bau-werken“ realisiert.
Bridge vibration due to traffic loading has been a subject of extensive research in the last decades. The focus of such research has been to develop solution algorithms and investigate responses or behaviors of interest. However, proving the quality and reliability of the model output in structural engineering has become a topic of increasing importance. Therefore, this study is an attempt to extend concepts of uncertainty and sensitivity analyses to assess the dynamic response of a coupled model in bridge engineering considering time-dependent vehicular loading. A setting for the sensitivity analysis is proposed, which enables performing the sensitivity analysis considering random stochastic processes. The classical and proposed sensitivity settings are used to identify the relevant input parameters and models that have the most influence on the variance of the dynamic response. The sensitivity analysis exercises the model itself and extracts results without the need for measurements or reference solutions; however, it does not offer a means of ranking the coupled models studied. Therefore, concepts of total uncertainty are employed to rank the coupled models studied according to their fitness in describing the dynamic problem.
The proposed procedures are applied in two examples to assess the output of coupled subsystems and coupled partial models in bridge engineering considering the passage of a heavy vehicle at various speeds.
The phenomenon of aerodynamic instability caused by the wind is usually a major design criterion for long-span cable-supported bridges. If the wind speed exceeds the critical flutter speed of the bridge, this constitutes an Ultimate Limit State. The prediction of the flutter boundary, therefore, requires accurate and robust models. The complexity and uncertainty of models for such engineering problems demand strategies for model assessment. This study is an attempt to use the concepts of sensitivity and uncertainty analyses to assess the aeroelastic instability prediction models for long-span bridges. The state-of-the-art theory concerning the determination of the flutter stability limit is presented. Since flutter is a coupling of aerodynamic forcing with a structural dynamics problem, different types and classes of structural and aerodynamic models can be combined to study the interaction. Here, both numerical approaches and analytical models are utilised and coupled in different ways to assess the prediction quality of the coupled model.
In dieser Untersuchung wird eine Geschichte von Problemen der Gleichzeitigkeit zwischen Sehen und Hören, beziehungsweise der Synchronität von Bild und Ton, bis zur Entstehung des Tonfilms rekonstruiert. Dabei werden Linien gezogen zwischen diskursiven Konfigurationen und medialen Anordnungen, in denen das Verhältnis von Sehen und Hören oder Bild und Ton als zeitliches erscheint – in denen Sehen und Hören, Bild und Ton zwischen Mannigfaltigkeit und Einheit verschmelzen, auseinanderfallen, interagieren, redundant oder spezifisch werden, einander ergänzen, dominieren, verfehlen verdrängen, aufspalten…
Tonfilm ist in der Kinogeschichte eben nicht nur eine Ergänzung. Vielmehr ähnelt er dem Auftritt eines Gespensts, das das Wissen und die Techniken der Trennung der Sinne schon länger, vielleicht schon immer begleitet hatte. Das Auftreten des Tonfilms ist auch überhaupt früher Anlass eines weitreichenden Diskurses darüber, was Audiovision eigentlich sein könnte und sollte. Noch allgemeiner könnte auch davon gesprochen werden, dass Tonfilm eins der ersten großen Projekte der Konvergenz technischer Medien ist, die heute – besonders angesichts des Computers – als entscheidender Aspekt von Mediengeschichte erscheint.
Die Linien der Probleme von Gleichzeitigkeit/Ungleichzeitigkeit an den Schnittstellen von Wissen, Technik und Ästhetik werden insbesondere durch drei Felder hindurch nachgezeichnet:
1) Die Geschichte von Intermodalität in Bezug auf die Frage nach Gleichzeitigkeit und Ungleichzeitigkeit als Problem und Gegenstand von Wissenschaft seit dem 19. Jahrhundert, vornehmlich in zwei Gebieten: Als Fehlerquelle im astronomischen Observatorium bei der Messung, Feststellung und Vereinheitlichung von Raum und Zeit, die auf individuelle Abweichungen Intermodaler Wahrnehmung verweist und als Problem der „persönlichen Gleichung“ weit über die Astronomie hinaus Karriere macht. Als heiße Zone wahrnehmungspsychologischer Experimente und ihrer Apparate seit der Mitte des 19. Jahrhunderts, die mit dem Konzept der „Komplikation“ Fragen nach einer Synthese der Sinneswahrnehmungen und damit letztlich nach der Selbstgegenwart des Menschen stellt.
2) Eine Technikgeschichte des Problems auditive und visuelle Zeitmedien – wie Phonograph und Film – zu koppeln, zu synchronisieren. Darin eskalieren zwei zeitkritische Relationen: Einerseits zwischen diskreter, intermittierender Bewegung des Films und stetiger, kontinuierlicher Bewegung des Phonographen, andererseits in Bezug darauf, an welcher Stelle – wo und wann – audiovisuelle Gegenwart des Kinos ensteht; oder auch verfehlt wird.
3) Eine Geschichte von Filmtheorie und -ästhetik, in der sich mit der Durchsetzung des Tonfilms um 1930 die Frage stellt, was dieses neue Medium sei und was damit zu tun. Diese Verhandlungen spannen sich zwischen dem formulierten Ziel einer spezifischen Illusion oder Präsenz von Tonfilm durch Synchronität auf der einen Seite und der sich aus dem Verdacht des Betrugs durch Synchronität ergebenden Forderung nach „Asynchronismus“ als kritischer Methode auf der anderen Seite auf.
Ausgehend von der These, dass im 19. Jahrhundert die Sinne aufgeteilt werden, dann wird in diesen Anordnungen an irgendeiner Stelle Heterogenes gleichzeitig passieren. An welcher Stelle? Und was bedeuten diese (Un-)Gleichzeitigkeiten? Was dabei - sehr allgemein gesprochen - auf dem Spiel steht, sind Möglichkeiten einer audiovisuell geteilten – getrennten oder gemeinsamen - Welt und Gegenwart.
Audiovisuelles Cut-Up
(2023)
Diese Forschungsarbeit bezeichnet und analysiert ein ästhetisches Phänomen audiovisueller Arbeiten mit sehr schnellen Schnitten. Der Begriff „Audiovisuelles Cut-Up“ wird vorgeschlagen um dieses Phänomen zu bezeichnen. Verschiedenste audiovisuelle Arbeiten aus unterschiedlichen Kontexten werden analysiert, welche das formale Kriterium von extrem kurzen Einstellungen erfüllen – einschließlich der eigenen Forschungsbeiträge des Autors. Die Werkzeuge und Technologien, welche die neuartige Ästhetik ermöglichten werden vorgestellt. Oftmals wurden diese von den Künstlern selbst geschaffen, da fertige Lösungen nicht verfügbar waren. Audiovisuelle Cut-Ups werden nach Kontext und Medium systematisiert und verortet. Es schließen sich Beobachtungen an, in wie fern Audio und Video sich in ihrem Charakter unterscheiden, was die kleinste wahrnehmbare Einheit ist und welche Rolle Latenzen und Antizipation bei der Wahrnehmung von audiovisuellen Medien spielen.
Drei Hauptthesen werden Aufgestellt: 1. Audiovisuelles Cut-Up hat die Kraft winzige, vormals überdeckte Details deutlich zu machen. Damit kann es das Quellmaterial verdichten aber auch den Inhalt manipulieren. 2. Technische Entwicklungen haben das audiovisuelle Cut-Up hervorgerufen. 3. Heute ist die Ästhetik als ein Stilmittel im Werkzeugkasten audiovisueller Gestaltung etabliert.
Auf dem Gebiete der neuen Bundesländer wurden bis 1990 ca. 2,18 Millionen Wohnungen in Fertigteilbauweise gebaut. In verschiedenen Gebäudetypen wurden asbesthaltige Materialien sowohl im Wohnungsinneren als auch im Außenwandbereich eingesetzt. Vor dem Rückbau bzw. Abriss oder der Sanierung der betroffenen Gebäude muss hier generell eine Asbestentsorgung durchgeführt werden. Im Falle schwach gebundener Asbestprodukte im Innenbereich ist die Erfassung von Gefährdungspotential und Sanierungsdringlichkeit rechtlich und technisch geregelt. Hier liegen bereits zuverlässige Sanierungslösungen unter besonderer Berücksichtigung des Arbeitsschutzes sowie des Schutzes angrenzender Bereiche auch für den bewohnten Zustand vor. Für den Außenwandbereich gibt es diesbezüglich ein Defizit. Von den heute ein Gefährdungspotential in der Bausubstanz darstellenden Asbestprodukten kommt dem asbesthaltigen, polymergebundenen Fugendichtstoff Morinol eine besondere Bedeutung zu. Der Fugendichtstoff Morinol wurde sowohl im Außenbereich als auch im Innenbereich der Wohngebäude verwendet. Definitionsgemäß ist nach der Gefahrstoffverordnung und den Technischen Regeln für Gefahrstoffe der in Plattenbauten eingebaute Morinol-Fugendichtstoff ein Gefahrstoff, so dass beim bautechnischen Umgang mit diesem Material vom Ausbau bis zur Entsorgung hohe Anforderungen an den Arbeits- und Gesundheitsschutz sowie den Umweltschutz zu erfüllen sind. Derzeit erfolgt der Gefahrstoffausbau durch verschiedene, in höchstem Maß kostenintensive und ergonomisch unbefriedigende sowie technisch unzureichende Verfahren. Ein besonderes Defizit besteht beim Ausbau des Fugendichtstoffes bei Fugen mit einer geringen Breite, Fugen mit konischem Fugenverlauf, Fugen mit tief in den Fugenraum reichenden Dichtstoffmassen, in Kreuzungsbereichen von Horizontal- und Vertikalfugen und in Eckbereichen. Bei diesen Fugentypen muss bisher zum Ausbau des Fugendichtstoffes der Beton beidseitig der Fugenflanke abgestemmt werden. Der Beton wird zusammen mit dem anhaftenden Fugendichtstoff als Gefahrstoff beseitig. Die Zielstellung der Arbeit besteht in der systematischen Entwicklung technischer Lösungen zum Ausbau von Fugendichtstoffen am Beispiel der asbesthaltigen Fugendichtstoffe in Plattenbauten. An die Verfahrenslösung werden die Anforderungen verbesserter Arbeits-, Gesundheits- und Umweltschutz, optimierte Technologie und höhere Wirtschaftlichkeit gestellt. Bestandteile dieser Entwicklung sind die Untersuchung der Schwerpunkte Fugenarten, Merkmale asbesthaltiger Fugendichtungen, betroffene Bausubstanz und die Analyse der rechtlichen und arbeitsschutzrechtlichen Rahmenbedingungen für den Umgang mit asbesthaltigen Fugendichtstoffen. Die Untersuchung der gegenwärtig verfügbaren Arbeitsverfahren und die Darstellung der Defizite dieser Lösungen ist eine grundlegende Vorraussetzung für weitere Entwicklungsarbeiten. Basierend auf den gewonnenen Ergebnissen wird ein Konzept für die Entwicklung neuer Verfahrenslösungen aufgestellt. Thermische und mechanische Verfahren werden erstmalig systematisch untersucht. Durch die Bewertung der verschiedenen Verfahren wird eine Lösung ermittelt und abschließend hinsichtlich Wirtschaftlichkeit, Ergonomie, Faser- und Staubemission, Lärmemission und Vibration bewertet.
Schwerpunkt dieser Arbeit ist die Untersuchung des Ausbruchverhaltens von unbewehrten Porenbetonplatten bei konzentrierter Lasteintragung in Randnähe. In der Praxis tritt diese Problematik bei Befestigungen oder Verankerungen auf, die eine punktuelle Beanspruchung bewirken. Hauptziel der durchgeführten experimentellen und numerischen Untersuchungen war das Erkennen von Gesetzmäßigkeiten für Versagenserscheinungen und für Bruchlasten in Abhängigkeit von variierenden Geometrie- und Materialparametern. Dabei waren Größe und Lage der Lasteinleitungsstelle sowie die Materialfestigkeit die wichtigsten Einflussfaktoren. Von besonderem Interesse war auch das spröde Verhalten des Porenbetonmaterials auf das Ausbruchverhalten. Die Arbeit gliedert sich in drei Hauptteile: die Experimente mit anschließend weiterführenden numerischen Untersuchungen, sowie Bemessungskonzepten mit Ausbruchgleichungen. Ein weiteres Kapitel behandelt die Zugfestigkeit von Porenbeton. Die Experimente wurde an für Wand- oder Deckenplatten originaldicken Versuchskörpern durchgeführt. Dabei waren die Lagerbedingungen so festgelegt, dass sich möglichst ein ungestörter Ausbruchkörper ausbilden konnte. Numerische Spannungsuntersuchungen über eine räumliche Idealisierung der Versuchskörper mit dem Finite- Element- Programmsystem ANSYS gaben Aufschlüsse über Ort und Größe von bruchverursachenden Spannungen. Des weiteren wurden über die Versuchsergebnisse hinaus Berechnungen über den Einfluss von Variationen bei der Plattengeometrie durchgeführt. Es wurden Betrachtungen über die Zugfestigkeit als einen maßgebenden Faktor für das Ausbruchverhalten geführt. Numerische Risssimulationen gaben Aufschluss über den Spannungszustand und den Ablauf der Rissentwicklung.
Es werden die Auswirkungen der mit Hilfe eines Blasenschleiers durchgeführten partiellen Destratifikation zur Begrenzung der Algenentwicklung durch Lichtlimitierung auf die thermischen und hydrodynamischen Bedingungen in der Bleilochtalsperre (Thüringen) vorgestellt. Ausgangspunkt bilden die theoretischen Betrachtungen zur Dynamik eines Blasenschleiers, aus denen ein Blasenschleiermodell in einer geschichteten Umgebung hervorgeht. Weiterhin werden die dimensionslosen Kennzahlen der Quell- und der Umgebungsschichtungsstärke, sowie der entdimensionalisierten Einblastiefe eingeführt, mit denen die Dynamik der voll ausgebildeten Schleierströmung beschreibbar ist. Durch Kopplung des Blasenschleiermodells mit einem Umgebungsschichtungsmodell wird die mechanische Effizienz eines Blasenschleiers auf die Destratifikation einer linearen Umgebungsschichtung für einen großen Bereich der Kennzahlen ermittelt und die Leistungsfähigkeit des in der Bleilochtalsperre installierten Schleiers theoretisch nachgewiesen. Die Auswirkungen des Betriebs des Blasenschleiers in der Bleilochtalsperre selbst werden anhand von gemessenen Temperaturprofilen diskutiert und über Stabilitätsberechnungen quantifiziert. Dabei kam es in den Sommermonaten in der Talsperre zur Ausbildung eines 3-Schichtensystems, über dessen Entstehung im Weiteren eine Ursachenanalyse durchgeführt wird. Es werden Untersuchungen zum Einschichtungsverhalten des Zulaufs, zum zeitlichen Verlauf der Temperaturentwicklung in der Talsperre, Isothermenabsenkungsberechnungen für den Bereich unterhalb des Schleiers, Wärmehaushaltsberechnungen und in der Talsperre durchgeführte Driftkörpermessungen vorgestellt, die das Auftreten des 3-Schichtensystems erklären. Angaben über die wesentlichen Auswirkungen der künstlichen Destratifikation auf die limnologischen Verhältnisse in der Talsperre runden die Ergebnisse der hydrodynamischen Untersuchungen schließlich ab.
The increasing success of BIM (Building Information Model) and the emergence of its implementation in 3D construction models have paved a way for improving scheduling process. The recent research on application of BIM in scheduling has focused on quantity take-off, duration estimation for individual trades, schedule visualization, and clash detection.
Several experiments indicated that the lack of detailed planning causes about 30% non-productive time and stacking of trades. However, detailed planning still has not been implemented in practice despite receiving a lot of interest from researchers. The reason is associated with the huge amount and complexity of input data. In order to create a detailed planning, it is time consuming to manually decompose activities, collect and calculate the detailed information in relevant. Moreover, the coordination of detailed activities requires much effort for dealing with their complex constraints.
This dissertation aims to support the generation of detailed schedules from a rough schedule. It proposes a model for automated detailing of 4D schedules by integrating BIM, simulation and Pareto-based optimization.
Viele Baudenkmale sind dem Konflikt aus baulichem Instandsetzungsbedarf für eine zeitgemäße Nutzung und einer sich möglicherweise daraus ergebenden Gefährdung der Denkmalsubstanz ausgesetzt. Gründe sind steigende Energiekosten für den Gebäudebetrieb, zeitgemäße Anforderungen an Behaglichkeit und Arbeitsschutz, sowie die Vermeidung von Schäden an der Substanz aufgrund baulicher Mängel des konstruktiven Wärme- und Feuchteschutzes. Gleichzeitig gilt für viele Bauten aber auch die Notwendigkeit regelmäßiger Nutzung und Bewirtschaftung, um den Erhalt überhaupt zu sichern. Die energetische Ertüchtigung von Baudenkmalen scheitert in diesem Spannungsfeld oft am unlösbaren Konflikt zwischen dem Erhalt der bauzeitlichen Substanz auf der einen und der notwendigen energetischen Optimierung der Gebäudehülle auf der anderen Seite. Zielsetzung dieser Fallstudie ist die beispielhafte Entwicklung einer bauklimatischen und denkmalgerechten Ertüchtigungsstrategie am Beispiel eines Verwaltungsgebäudes der Nachkriegsmoderne als Beitrag zur Lösung dieses Konfliktes.
Auf der Suche nach Möglichkeiten zur Kostendämpfung im Bauen bieten sich zahlreiche Felder an (neue Bauorganisationsstrukturen, veränderte städtebauliche Ansätze, Baurechtsreform, etc.), zum wesentlichen Aufgabenbereich des Architekten gehören aber speziell konstruktive Detaillösungen. Mit ca. 40% ist der Anteil der Lohn- und Lohnnebenkosten immer noch der Größte in der Summe der Bauwerkskosten (z.B. Material ca. 30%). Die einzig seriöse Möglichkeit diesen Posten zu reduzieren, basiert auf dem Prinzip der Vorfertigung. Der moderate (vier bis fünf Stockwerke) Geschoßwohnungsbau stellt bei verantwortungsvoller Betrachtung (Flächenverbrauch/Erschließungsfläche/Gebäudeoberfläche) die einzig vernünftige Gebäudetypologie für den Wohnungsbau dar und bietet gleichzeitig Möglichkeiten zur Fertigung kleiner Serien. Die Untersuchung von einigen Neuentwicklungen von verschiedenen Bausystemen basiert auf der erarbeiteten Definition nachhaltiger Beurteilungskriterien für das Bauen. Die Arbeit geht weiterhin den Fragen nach, welche Tendenzen sich in der Entwicklung der Baukonstruktionen im Geschoßwohnungsbau durch geänderte Anforderungen abzeichnen, welchen Kriterien diese Entwicklungen zugrunde liegen und sie versucht aufzuzeigen, in welchen Bereichen Innovationspotentiale verborgen sind und unterbreitet Optimierungsvorschläge.
Grundlage der Arbeit bilden eigene aktuelle Bauschadensuntersuchungen in Deutschland. Die jährlichen Mängel- und Schadensbeseitigungskosten betragen auf der Basis ausgewerteter Gutachten 4,1 % der Bauinvestitionen und liegen höher als die bisherigen Angaben der Bauschadensberichte der Bundesregierung. Eine Verbesserung der Bauqualität ist trotz Einführung von Qualitätsmanagementsystemen in den letzten Jahren nicht feststellbar. Diagnose-Werkzeuge aus der stationären Industrie zur Feststellung einer mangelnden Übereinstimmung der geforderten Qualität mit der erreichten Qualität während der Bauausführung sind nicht unmittelbar anwendbar. Aufbauend auf neuen Ansätzen zur interaktiven und interdisziplinären Verdichtung aller Prüfungen wird in dieser Arbeit ein System zur Qualitätssicherung in der Bauausführung aufgezeigt. Dieses wird als System der „Helfenden Prüfungen“ bezeichnet. Grundbausteine sind die Anwendung der „Fehler-Möglichkeits- und -Einfluss-Analyse“ unter Berücksichtigung prozessspezifischer Erfahrungen sowie Prophylaxekriterien, hergeleitet aus Fehlern, Baumängeln und Bauschäden. Das System der „Helfenden Prüfungen“ ist ein dynamisches System zur baubegleitenden Qualitätssicherung in der Bauausführung. Es ermöglicht die Verkettung der Prüfungen verschiedener am Bau Beteiligter aufbauend auf einer Eigenüberwachung durch die Ausführenden. Automatische Vergleiche der Prüfergebnisse und die Transparenz des Systems schaffen mehr Vertrauen zwischen den am Bau Beteiligten. Bei konsequenter Durchführung der abgestimmten Prüfverfahren kann nur ein aktueller Informations- und Wissensstand die Fortführung der Bauleistungen in den Teilprozessen ermöglichen. Die Verifizierung des Systems der „Helfenden Prüfungen“ erfolgte im Rahmen der Forschungsarbeit als baubetriebliches Kommunikationsmodell.
Im rechnergestützten Bauplanungsprozess arbeiten verschiedene Fachplaner an der gemeinsamen Aufgabe, ein Bauwerk zu planen, zusammen. Verfügbare Kooperationsansätze beschäftigen sich mit versionierten und verteilten Bauwerksmodellen, die auf Basis der Objektorientierung virtuelle Bauwerkszustände beschreiben. Die in diesen zustandsorientierten Modellen unberücksichtigten Zustandsänderungen führen zu derzeitigen Problemen beim Austausch, beim Vergleich und bei der Zusammenführung von versionierten Bauwerksinformationen. Gegenstand der vorliegenden Arbeit ist die Entwicklung eines verarbeitungsorientierten Ansatzes zur ganzheitlichen Betrachtung der Bauwerksmodellierung. Neben der zustandsorientierten Beschreibung eines virtuellen Bauwerks werden zusätzlich änderungsorientierte Informationen in Form von Modellieroperationen in der Modellbildung berücksichtigt. Es wird eine Modellierungssprache definiert, um Operationen formal zu beschreiben. Modellieroperationen bilden eine Verarbeitungsschnittstelle für Objektmodelle, repräsentieren Entwurfsabsichten, reichern bestehende Bauwerksmodelle mit Änderungssemantik an und tragen zur Konsistenzsicherung in diesen Modellen bei. Neuartige Kooperationskonzepte für den Austausch, den Vergleich und das Zusammenführen von versionierten Bauwerksinformationen werden auf Grundlage des vorgeschlagenen Ansatzes entwickelt. Sowohl das Modell als auch die Sprache werden unabhängig von aktuellen Technologien formal beschrieben. Die prinzipielle Anwendbarkeit des vorgeschlagenen Ansatzes wird im Rahmen einer Pilotimplementierung auf Basis eines Open-Source-Systems im Bauwesen nachgewiesen.
The main objective of this thesis is to investigate the characteristics of rice husk ash RHA) and then its behaviour in self-compacting high performance concrete (SCHPC) with respects to rheological properties, hydration and microstructure development and alkali silica reaction, in comparison with silica fume (SF). The main results show that the RHA is a macro-mesoporous amorphous siliceous material with a very high silica content comparable with SF. The pore size distribution is the most important parameter of RHA besides amorphous silica content. This parameter affects pore volume, specific surface area, and thus the water demand and the pozzolanic reactivity of RHA and its behaviour in SCHPC. The incorporation of RHA decreases filling and passing abilities, but significantly increases plastic viscosity and segregation resistance of SCHPC. Therefore, RHA can be used as a viscosity modifying admixture for SCHPC. The incorporation of RHA increases the superplasticizer adsorption, the superplasticizer saturation dosage, yield stress and plastic viscosity of mortar. Fresh mortar formulated from SCHPC is a shear-thickening material. The incorporation of RHA/SF ecreases the shearthickening degree. The incorporation of RHA/SF increases the degree of cement hydration. SF appears more effective at 3 days possibly due to the better nucleation site effect, whereas RHA dominates at the later ages possibly due to the internal water curing effect. The incorporation of RHA/SF increases the degree of C3S hydration, particularly the C3S hydration rate from 3 to 14 days. The pozzolanic reaction takes place outside and inside RHA particles.
The internal pozzolanic eaction products consolidate the pores inside RHA particles rather than contribute to the pore refinement in the cement matrix. In the presence of the high alkali concentration, RHA particles act as microreactive aggregates and react with alkali hydroxide to generate the expansive alkali silica reaction products. Increasing the particle size and temperature increases the alkali silica reactivity of RHA. The mechanism for the successive pozzolanic and alkali silica reactions of RHA is theorized. Additionally, a new simple
mix design method is proposed for SCHPC containing various supplementary cementitious materials, i.e. RHA, SF, fly ash and limestone powder.
Die in der Praxis häufig vorkommenden Rahmenecken werden zur Ermittlung ihrer Wölb- und Drehsteifigkeiten untersucht. Die Kontinui- tätsbedingungen dafür werden formuliert. Mit Finite- Schalenelementen werden Gesamthallenrahmen mit unterschiedlichen Abmessungen, Profilen, Dachneigungen, Stabilisierungen und Rahmeneck- formen modelliert. Dadurch werden die Auswirkungen und Einflüsse der Rahmeneckkonstruktion auf die Stabilität des Tragwerkes untersucht. Durch vergleichende Untersuchungen mit dem Ersatzstabverfahren nach der DIN 18800 werden für jede Rahmenecke realitätsnahe ßo- und ßz Werte vorgeschlagen.
Beitrag zur Berechnung von nachgiebig gelagerten Behältertragwerken unter seismischen Einwirkungen
(2001)
In der Baupraxis werden zur Erfassung der bei seismischen Einwirkungen auftretenden Interaktionseffekte zwischen Behältertragwerk, Flüssigkeit und Untergrund oftmals sogenannte Ingenieurverfahren eingesetzt. Diese sind durch die ihnen zugrundeliegenden einfachen mechanischen Modelle und die Anwendung der Strukturmethode zur Berücksichtigung der Behälter-Boden-Interaktion gekennzeichnet. Die modale Analyse der Interaktionsschwingung von Flüssigkeit und Behälterschale wird in der Arbeit durch die Integralgleichungsmethode behandelt. Diese wird sowohl auf die ideale Flüssigkeit als auch zur Untersuchung des Einflusses der Flüssigkeitskompressibilität angewendet. Es wird ein Modell zur Berücksichtigung der Flüssigkeitsviskosität entwickelt und daraus Dämpfungsfaktoren für die Schwingung der Flüssigkeitsoberfläche abgeleitet. Für die Behältergründung werden in Abhängigkeit von der Gründungsflexibilität Impedanzfunktionen bestimmt. Aus dem Gesamtsystem von Behälter, Flüssigkeit und Untergrund werden Dämpfungsmaße und Frequenzänderungen ermittelt, die für die Anwendung in einem normentauglichen Berechnungskonzept bestimmt sind.
Beitrag zur Lösung ingenieurtechnischer Entwurfsaufgaben unter Verwendung Evolutionärer Algorithmen
(2003)
In der vorliegenden Arbeit erfolgt die Anwendung Evolutionärer Algorithmen an baupraktischen Problemen. Der Einfluss unterschiedlicher Selektionsmethoden, Rekombinationsmethoden sowie der Einfluss von Mutation und Populationsgröße auf Sucheffizienz und Ergebnis werden erörtert. Die erzielten Erkenntnisse fliessen in die Definition Evolutionärer Strategiewerte ein, die als Grundlage für die Formulierung eines robusten Evolutionären Algorithmus dienen. Evolutionäre Algorithmen werden mit einem wachstumsorientierten Algorithmus erweitert (hybride Evolutionäre Algorithmen), um eine Steigerung der Effizienz bei der Lösungssuche zu erzielen. An ausgewählten Stahlkonstruktionen - Hallen, Wassertank, Dachkonstruktion - wird die Leistungsfähigkeit von robusten Evolutonären Algorithmen und den entwickelten hybriden Evolutionären Algorithmus überprüft.
Das Ziel der vorliegenden Arbeit besteht in der Entwicklung einer Strategie zur physikalisch nichtlinearen Analyse von Aussteifungssystemen. Der Anwendungsschwerpunkt umfasst neben dem traditionellen Aufgabenumfang zur Analyse neu zu errichtender Tragwerke gleichzeitig auch Planungsaufgaben, die mit Umbau- und Sanierungsmaßnahmen verbunden sind. Veränderungen, die sich während der Nutzungsgeschichte oder im Revitalisierungsprozess ergeben, werden in den Berechnungsmodellen berücksichtigt. In vielen Fällen ist es aus planerischer Sicht zweckmäßig, die Nichtlinearität des Materialverhaltens zur Erschließung von Tragreserven in den normativen Nachweiskonzepten mit einzubeziehen. Der damit verbundene numerische Aufwand wird durch die Verwendung separater Modelle zur Erfassung des Querschnitts- und des Systemtragverhaltens begrenzt, ohne die Komplexität der Aufgabenstellung zu reduzieren. Aus detaillierten Querschnittsuntersuchungen der Tragwände werden integrale Materialbeziehungen abgeleitet, welche die Grundlage für die nichtlineare Tragwerksanalyse darstellen. Die Modellbildung gegliederter Aussteifungswände basiert auf deren Zerlegung in ebene finite Stabsegmente, die sich durch die Diskretisierung in Längs- und in Querrichtung ergeben. Zusätzlich zu den an den Stabenden angreifenden Normalkräften, Querkräften und Biegemomenten werden an den Elementlängsrändern Schubbeanspruchungen erfasst. Die physikalische Nichtlinearität wird durch die Einbeziehung integraler Materialbeziehungen an den Segmenträndern berücksichtigt. Die numerische Umsetzung erfolgt mit Methoden der mathematischen Optimierung. Die Leistungsfähigkeit der Berechnungsstrategie wird exemplarisch anhand von Untersuchungen an Aussteifungssystemen in Großtafelbauweise nachgewiesen.
Der Schwerpunkt der Arbeit ist die Entwicklung eines Berechnungskonzeptes, mit dem die Auswirkungen des zeitabhängigen Materialverhaltens des Betons und der Spannbewehrung auf das Tragverhalten von Stahlbeton und Spannbetonbauteilen wirklichkeitsnah abgeschätzt werden können. Dabei wird auf die Berücksichtigung des nichtlinearen Kriechens und der Rißbildung besonderer Wert gelegt. Das Konzept basiert auf der sukzessiven Ermittlung der Schnittgrößenanteile und der Deformationen zu festgelegten Zeitpunkten, wobei die Ergebnisse der vorausgehenden Zeitschritte berücksichtigt werden können. Ausgehend von der Formulierung des mechanischen Problems als Extremalaufgabe wird die Berechnung innerhalb eines Zeitschritts auf die Lösung einer quadratischen Optimierungsaufgabe zurückgeführt, wobei die Rißbildung des Betons und geometrisch nichtlineare Einflüsse berücksichtigt werden können. Die Einbeziehung des nichtlinearen Kriechens erfolgt durch Beschleunigung der linearen Kriechgeschwindigkeit mit einem, von der aktuellen Betonspannung abhängigen Kriechzahlerhöhungsfaktor. Das Berechnungsmodell wird anhand von Langzeitversuchen an hochbelasteten Betonprismen und Stahlbetonstützen verifiziert. In umfangreichen numerischen Untersuchungen wird der Einfluß des nichtlinearen Kriechens auf das Tragverhalten von vorgespannten Querschnitten und Stahlbetonstützen analysiert.
Für geometrisch imperfekte Strukturen wird die Versagenswahrscheinlichkeit bezüglich Stabilitätskriterien bestimmt. Eine probabilistische Beschreibung der geometrischen Imperfektionen erfolgt mit skalaren ortsdiskretisierten Zufallsfeldern. Die Stabilitätsberechnungen werden mit der Finite Elemente Methode durchgeführt. Ausgangspunkt der Berechnung ist eine systematische Formulierung probabilistisch gewichteter Imperfektionsformen durch eine Eigenwertzerlegung der Kovarianzmatrix. Wenn mit einer strukturmechanisch orientierten Sensitivitätsanalyse ein Unterraum zur näherungsweisen Beschreibung des probabilistischen Strukturverhaltens gefunden wird, kann die Versagenswahrscheinlichkeit numerisch sehr effizient durch ein Interaktionsmodell bestimmt werden. Es zeigte sich, daß dies genau dann möglich ist, wenn die Beulform merklich im Imperfektionsfeld enthalten ist. Die Imperfektionsform am Bemessungspunkt entspricht dann, unabhängig vom Lastniveau, gerade der Beulform. Wenn die Beulform im Imperfektionsfeld einen untergeordneten Beitrag liefert, erscheint eine Reduktion des stochastischen Problems auf wenige Zufallsvariablen dagegen nicht möglich.
In der Dissertation wurden unterschiedliche Methoden zur Standortidentifizierung mit Oberflächenwellen analysiert. Es wurden neue Methoden zur Parameteridentifikation unter Nutzung von Oberflächenwellen vorgeschlagen. Die Ziele der Arbeit können wie folgt definiert werden: a) Die Entwicklung eines geeigneten theoretischen Modells als Grundlage zur Untersuchung des Standortes hinsichtlich vorhandener Bodensteifigkeiten. b) Die Entwicklung einer neuen Inversionsmethodik unter Berücksichtigung aller auftretenden Moden im Oberflächenwellenfeld. Die Erstellung eines Modells des vertikal heterogenen Untergrundes erfolgte im Frequenz-bereichs für beliebig geschichtete Böden, aufbereitet durch weitestgehend analytische Formulierungen. Durch Nutzung beliebiger horizontaler, elastisch-isotroper Schichten konnte die vertikale Heterogenität approximiert werden. Die Definition der Green'schen Funktionen wurde in Form der Reflexions- und Transmissionskoeffizienten durchgeführt. Die Lösung des formulierten Halbraumproblems erfolgte unter Verwendung der Konturintegration. Dazu wurde die Vorgehensweise der bestehenden Lösung des homogenen Halbraums auf das Problem des geschichteten Mediums übertragen. Die daraus sich ergebende Lösung ist in ein Körperwellen- und ein Oberflächenwellenfeld separiert. Der Vorteil dieser analytischen Betrachtungsweise liegt in der eindeutigen Zuordnungsmöglichkeit der erhaltenen Lösungen zu Wellentypen und in der klaren Dispersionscharakteristik der berechneten Modelle. Im Gegensatz dazu liefern numerische Lösungen, wie FEM, immer ein Wellenfeld, in dem die Wellentypen zugeordnet bzw. interpretiert werden müssen. Mit Hilfe der synthetischen Bodenmodellierung wird das Verhalten von geschichteten Böden bei durchlaufenden Oberflächenwellenfeldern simuliert und untersucht. Für die Untersuchung der Profile wurde hauptsächlich die Modale Superposition von Oberflächenwellen und die Wellenzahl-Integration verwendet. Bei der Analyse von Oberflächenwellenfeldern in vorhandenen Medien sind abweichend von den üblichen seismischen Methoden spezielle Untersuchungsmethoden zur Ermittlung der vorhandenen Dispersion notwendig. Zur Durchführung der Dispersionsanalyse wird in geotechnischen Untersuchungen in der Regel das Phasen-Differenzen-Verfahren (SASW) genutzt. Aufgrund der beschränkten Aussagefähigkeit dieses Verfahrens zu auftretenden höheren Moden werden verbesserte Analysemethoden zur experimentellen Auswertung hinzugezogen. Diese Methoden nutzen zur Informationsgewinnung das räumlich ausgedehnte Wellenfeld. Ausgehend von dem Dispersionsverhalten kann die Bodenstruktur mittels inverser Methoden bestimmt werden. Für die gemeinsame Inversion der in den Messungen vorhandenen Moden wurde ein entsprechendes Inversionsverfahren abgeleitet. Als Grundlage der Inversion wurde ein Verfahren des kleinsten Fehlerquadrates gewählt. Der Vorteil hinsichtlich einer effizienten und stabilen Inversion unter Nutzung dieser Methodik überwiegt den Nachteil der lokalen Suche nach dem Fehlerminimum. Zum Erreichen der stabilen und zielgerichteten Inversion wird der Levenberg-Marquardt Algorithmus, zusammen mit der Wichtung der Dispersionsäste entsprechend ihres Anregungsverhaltens in den Dispersionsspektren, eingesetzt. Von Vorteil hat sich innerhalb der Arbeit die gleichzeitige Behandlung von theoretischen und experimentellen Parameterstudien erwiesen, da sich Ergebnisse und Erkenntnisse beider Seiten ergänzten. Eine Interpretation von Felddaten kann damit weitaus sicherer durchgeführt werden. Zusätzlich konnten die erarbeiteten experimentellen und theoretischen Verfahren gegenseitig überprüft werden.
Das Ziel der Arbeit besteht in der Entwicklung eines Bemessungskonzeptes auf der Basis nichtlinearer Schnittgrößen für statisch und dynamisch beanspruchte Stahlbetontragwer-ke. Das Konzept geht dabei von einheitlichen Kriterien zur Analyse der Tragfähigkeit und Gebrauchstauglichkeit auf der Grundlage deformationsbasierter Grenzzustandsbetrach-tungen aus. Der deformationsbasierte Grenzzustand ist dadurch charakterisiert, daß ne-ben der statischen und kinematischen Zulässigkeit eines Tragwerkszustandes auch die Einhaltung von definierten Verzerrungs- bzw. Verformungsgrenzwerten gewährleistet ist. Aus Betrachtungen im Kontinuum werden diskrete Modelle zur Lösung von physikalisch und geometrisch nichtlinearen Grenzwiderstandsaufgaben mit und ohne Berücksichtigung von Lastfolgeeffekten abgeleitet. Die numerische Untersetzung basiert auf Methoden der nichtlinearen Optimierung. Auf der Grundlage dieser Berechnungsmodelle wird eine Be-messungskonzeption entwickelt.
Seit 1969 werden für die Bundesrepublik kontinuierlich Berechnungen zu den Gesamtkosten des Straßenverkehrs der Bundesfernstraßen und deren Verteilung auf die Verkehrsteilnehmer durchgeführt. Die Ergebnisse der Wegekostenrechnungen der Jahre 2002 und 2007 sind die Grundlage für die mittlerweile für das deutsche Autobahnnetz eingeführte fahrleistungsbezogene Benutzungsgebühr für Lkw mit einem zulässigen Gesamtgewicht von mindestens zwölf Tonnen. Damit wird die Forderung der EU-Richtlinie 1999/62/EG umgesetzt, nach der sich die durchschnittlichen Straßenbenutzungsgebühren an den Kosten für den Bau, den Betrieb und den Ausbau des betreffenden Verkehrswegenetzes orientieren sollen. Mit der EU-Richtlinie 2006/38/EG kündigt sich die weitere Entwicklung bei der Berechnung von Straßenbenutzungsgebühren an. Zukünftig sollen auch externe Kosten in die Berechnung einfließen. Ein erster Schritt zur Berücksichtigung dieser externen Kosten erfolgte mit Erstellung eines Handbuchs im Rahmen eines EU-Forschungsprojektes. Das Handbuch enthält aufgrund der unterschiedlichen Rahmenbedingungen in den Mitgliedsstaaten der EU keine exakten Berechnungsvorschriften, sondern stellt verschiedene methodische Ansätze bisher durchgeführter Studien zu externen Kosten vor, gibt Empfehlungen hinsichtlich der Methodenwahl und beinhaltet Schätzungen über die Höhe der externen Kosten. Die im europäischen Raum in den vergangenen Jahren durchgeführten Studien zur Ermittlung externer Kosten des Verkehrs zeichnen sich durch einander ähnelnde Vorgehensweisen aus, die aber vor allem hinsichtlich der Kostenrechnungsart und der verwendeten Kostensätze aus Sicht des Verfassers der vorliegenden Arbeit kritische Aspekte aufweisen. In der vorliegenden Dissertationsschrift wird daher eine alternative Berechnungsmethodik zur Ermittlung abschnitts-, fahrzeugklassen- und fahrleistungsbezogener externer Kosten für Autobahnen entwickelt und an einem ausgewählten Beispielnetz zur Anwendung gebracht. Dabei wird in einigen wesentlichen Punkten von der in aktuellen Studien überwiegend gewählten Vorgehensweise abgewichen, um eine andere Sichtweise darzustellen. Damit trägt die vorliegende Arbeit substanziell zur Erweiterung des Erkenntnisstands zu Berechnungsmethoden externer Kosten des Straßenverkehrs bei. Die hier entwickelte Berechnungsmethodik ist außerdem als Grundlage für ein in der Praxis anwendbares Verfahren zu verstehen und zeichnet sich auch daher durch eine einfach zu handhabende Übertragbarkeit auf das gesamte Autobahnnetz Deutschlands aus. Die Abschnitte entsprechen den Teilstrecken zwischen zwei Autobahnanschlussstellen. Es wird zwischen den beiden Fahrzeugklassen "Lkw ab 12 t zulässigem Gesamtgewicht" und "Sonstigen Fahrzeugen" unterschieden. Obwohl momentan nur eine Benutzungsgebühr für Lkw ab 12 t zulässigem Gesamtgewicht erhoben wird, ist es mit der entwickelten Methodik möglich, fahrleistungsbezogene externe Kosten für alle Kfz angeben zu können. Die Einbeziehung externer Nutzen wird in diesem Zusammenhang andiskutiert; der Schwerpunkt liegt allerdings auf den externen Kosten. Im Rahmen der Arbeit werden zunächst Definitionen wesentlicher Terminologien dargestellt, soweit diese für das Verständnis der sich anschließenden Diskussion und Festlegung der Grundlagen der entwickelten Berechnungsmethodik notwendig erscheinen. Diese Diskussion und Festlegung umfasst die Bereiche Kostenrechnungsart, Bewertungsverfahren zur Ermittlung des Wertegerüsts, Diskontrate, zu betrachtende Kostenbereiche, Mengengerüst und Allokationsrechnung. Darauf folgend werden die betrachteten Kostenbereiche anhand vorliegender Studien und eigener Überlegungen detailliert dargestellt und das Wertegerüst bestimmt. Außerdem wird die Allokationsrechnung und das für die Berechnung heranzuziehende Mengengerüst für jeden Bereich separat vorgestellt. Anschließend wird die entwickelte Berechnungsmethodik auf ein Beispielnetz (Autobahnnetz Thüringen) angewendet. Neben der Vorstellung des Untersuchungsgebiets, der Berechnung der externen Kosten und der disaggregierten Ergebnisdarstellung wird die Einteilung des Beispielnetzes in unterschiedliche Preiskategorien auf der Grundlage der abschnittsbezogen vorliegenden Ergebnisse diskutiert, auf deren Basis die externen Kosten über Straßenbenutzungsgebühren internalisiert werden könnten. Im Rahmen einer Sensitivitätsanalyse werden einzelne Annahmen der Berechnungsmethodik bzw. Kostensätze des Wertegerüsts variiert. Die Auswirkungen dieser Variationen werden wiederum am Beispielnetz, für das erneute Kostenberechnungen vorgenommen werden, dargelegt. Abschließend werden offen gebliebene Fragestellungen und Empfehlungen für weitere Untersuchungen benannt.
Die ein- und zweidimensionale numerische Berechnung der Fließvorgänge in offenen Gerinnen findet zunehmend auch Anwendung in der Modellierung immer komplexerer Prozesse im unter Anderem im Bereich der Ökosystemmodellierung in Gebirgs- und Mittelgebirgsbächen. In diesem Bereich existieren zurzeit noch Probleme hinsichtlich der hydraulischen Prognoserechnungen. Neben den numerischen Grundlagen werden die Abhängigkeiten des Strömungsfeldes von der Rauheitsstruktur der Sohle und der Überdeckungshöhe behandelt. Zur Untersuchung der Fließwiderstandsgleichungen wurden Laborversuche in einer Versuchsrinne durchgeführt. Es wird gezeigt, dass der üblicherweise verwendete Ansatz des mittleren Sohlgefälles bei der Berechnung der Sohlschubspannungsgeschwindigkeit u* in Stufen-Becken-Sequenzen nicht zulässig ist. Stattdessen ist es erforderlich, die lokalen Energieliniengefälle zu bestimmen und einzusetzen. Die Anwendung der aus der Literatur bekannten Ansätze zur Beschreibung des Fließwiderstandes führt zu keinen befriedigenden Ergebnissen und wird ausführlich diskutiert. In der Untersuchung der verschiedenen Fließwiderstandsbeziehungen zeigte sich, dass insbesondere die ungenügende Beschreibung der Rauheitstruktur der Sohloberfläche durch einen charakteristischen Korndurchmesser des Sohlmaterials als unzureichend anzusehen ist. Hinsichtlich der Beschreibung rauer Oberflächenstrukturen wurde ein einfacher Segmentierungsalgorithmus entwickelt, der es erlaubt, komplizierte Oberflächenstrukturen zu vereinfachen und über die Standardabweichung abschnittsweise Rauheiten zuzuweisen. Dieses Verfahren wird in einem zweidimensionalen hydraulischen Modell eingesetzt. Hierdurch wird für die Wassertiefenbestimmung als auch für die Fließgeschwindigkeitsbestimmung eine Berücksichtigung der speziellen topographischen Verhältnisse ermöglicht.
Abstract
This doctoral thesis defines the relationship between the urban and rural in the 21st century, and focuses on food as a key component. The fact that food is, for the most part, produced in the countryside and then transported to the city has a significant influence on this very unbalanced relationship today. The main goal was to show that it is necessary to bring agriculture, urban gardening, the breeding of domestic farm animals, and beekeeping back to the city, which would have a positive affect on both the city and the countryside. All of this is already taking place at the local level, within the neighbourhoods of our cities and through the work of self-organised activities and initiatives, which have been taken up by city residents themselves. One example of this is the community garden, a new model of gardening which offers fertile ground for growing vegetables and to test various forms of co-existence, different ways of designing spaces, the creation of alternative values, and a positive vision for the future of city residents.
In 2010, I co-created the community urban garden Beyond a Construction Site, which is the central part of this artistic research. Throughout the entire four-year process of creating this community garden, theory and artistic practice were intertwined, and informed one another. This community garden is an example of a self-organised and self-managed community space located in a residential neighbourhood in the centre of the city of Ljubljana, and as such is a typical example of urbanism from the bottom up. I placed the creation and development of our community garden in a dialogue with the formal way of arranging urban gardening in Ljubljana, a top-down approach, which the city has been carrying out intensively since 2007. I compared the solutions being proposed by the city of Ljubljana for organising urban gardening with the way it is organised in other European cities, the UK, and the USA. I also researched the recent rapid growth of self-organised initiatives which are focused on the local production of food and seek to find more economic and ecologically friendly models to visibly influence the future of cities and the countryside. Here, community gardens play an important role, as in addition to the production of food they are also spaces for the criticism of existing urban policies, a self-organised revitalisation of neglected spaces, and places of resilience, because they differ from that which real estate agencies, large financial companies, and city authorities desire them to be.
The community garden Beyond a Construction Site has become living proof that, through a group action, the residents of a neighbourhood can influence existing city policies and the future of both their own neighbourhood and that of the entire city. The initiators of this garden are artists and architects, and we began this community garden in the context of an art festival, which also shows that art can influence the processes of everyday life and help to create much needed spaces within cities to serve various purposes. Our community garden has also shown itself to be an important platform for the exchange of knowledge on organic gardening, ecology in everyday life, and critical architecture, as well as serving to connect related initiatives. Together with these other initiatives we are stronger, and are influencing structural changes within city politics, thereby also co-creating the future of Ljubljana. This community garden is helping us to redefine our relationship with the city and re-awaken the desires and actions of residents connected with realising their fundamental right, the right to the city.
My other artworks, which I am presenting in the context of this doctoral thesis, show an optimistic vision for the future of cities. The video animations Back to the City (2011) and The Right Balance (2013), as well as the accompanying collages, visualise a city of the future where urban and rural practices live together side-by-side. This vision is being realised by city residents themselves, with their active participation in the creation of community gardens, growing their own vegetables, urban beekeeping, and by having egg-laying hens in their gardens. My desire was also to present the theoretical concept and scientific research to a non-academic public, and to people without specialised training. Using the method of storytelling I included knowledge from the research into the video animations and collages. In this way my artistic work, with an intentional playfulness, challenges today’s faith in science and theoretical concepts, as well as directing attention to working with common sense, with one’s own hands, and with the earth. This can contribute to a change in the still dominant anthropocentric view of nature, which is an urgently needed change for our future.
Keywords: rural, urban agriculture, community gardens, urban beekeeping, the bottom-up approach to urban planning, alternative spaces
Im Rahmen der Arbeit wird das Tragverhalten von dampfgehärtetem Porenbeton unter einachsiger Druckbeanspruchung untersucht. Ziel ist es, einen Zusammenhang zwischen makroskopischen Spannungs-Dehnungs-Beziehungen, beanspruchungsbedingten Strukturänderungen und der Dauerstandfestigkeit herzustellen. Die Dauerstandfestigkeit stellt im Sinne der Arbeit eine elementare Gefügeschwelle dar, durch sie wird das stabile vom instabilen Tragverhalten abgegrenzt. Der Zusammenhang zwischen Strukturänderungen und Spannungs-Dehnungs-Verhalten wird anhand mechanischer Modelle analysiert. Diese Untersuchungen liefern die konzeptionelle Orientierung für die durchzuführenden Laborversuche. Die experimentelle Basis der Arbeit bilden Kurzzeit- und Langzeitversuche an Porenbetonzylindern unter einachsiger Druckbeanspruchung. Es werden Probekörper von drei Porenbetonwerken untersucht. Um den Einfluss der Lastgeschichte aufzuzeigen, wird die Versuchsdauer zwischen einer Sekunde und mehreren Wochen variiert. Die Versuche werden mit unterschiedlichen Lastregimen durchgeführt: sowohl mit monoton gesteigerter Beanspruchung bis zum Versagen bzw. bis zum vorgesehenen Beanspruchungsniveau als auch mit niederzyklischer Beanspruchung. Die Messdaten werden unter Einbeziehung der dreidimensionalen Ansätze der Spannungs- und Deformationstheorie hinsichtlich des sphärischen und des deviatorischen Anteils des Spannungs- und Verformungszustandes ausgewertet. Diese auf die separate Betrachtung der Volumen- und Gestaltänderung gestützte Auswertung liefert zusätzliche Erkenntnisse hinsichtlich der Zuordnung von reversiblen und irreversiblen Verformungen zu den Teiltensoräquivalenten. Entsprechend den Versuchsergebnissen ändert sich die Kompressibilität des Porenbetons belastungsabhängig. Bereits kurzzeitige Überlastungen oberhalb der experimentell ermittelten Dauerstandgrenze sind von signifikanten Änderungen der Kompressionssteifigkeit begleitet. Das qualitative Tragverhalten des Porenbetons, das bei Beanspruchungen oberhalb der Dauerstandfestigkeit grundsätzliche Änderungen erfährt, lässt sich so bereits im Kurzzeitversuch abgrenzen. Zusätzliche Auswertungen für Normalbeton und selbstverdichtenden hochfesten Beton weisen auf analoges Verhalten hin. Auf der Basis der durchgeführten Untersuchungen werden Konzepte vorgestellt, mit denen die Dauerstandfestigkeit im Kurzzeitversuch, das heißt mit einer Versuchsdauer von wenigen Stunden, prognostiziert werden kann. Damit können Untersuchungen zur Dauerstandfestigkeit, die eine grundlegende Größe zur Beurteilung der Tragfähigkeit darstellt, routinemäßig durchgeführt werden.
Ziel dieser Arbeit ist die Entwicklung von Methoden, mit denen die Prognosequalität von Kriechmodellen des Betons bestimmt werden kann. Die Methoden werden in zwei Ausgangsszenarien unterschieden: die Bewertung ohne und die Bewertung mit Verwendung von spezifischen Versuchsdaten zum Kriechverhalten des Betons. Die Modellqualität wird anhand der Gesamtunsicherheit der prognostizierten Kriechnachgiebigkeit quantifiziert. Die Unsicherheit wird für die Kriechprognose ohne Versuchsdaten über eine Unsicherheitsanalyse unter Berücksichtigung korrelierter Eingangsparameter ermittelt. Bei der Verwendung experimenteller Daten werden die stochastischen Eigenschaften der Modellparameter mittels Bayesian Updating bestimmt. Die Bewertung erfolgt erneut basierend auf einer Unsicherheitsanalyse sowie alternativ mittels Modellselektion nach Bayes.
Weiterhin wird eine auf Graphentheorie und Sensitivitätsanalysen basierende Methode zur Bewertung von gekoppelten Partialmodellen entwickelt. Damit wird der Einfluss eines Partialmodells auf das Verhalten einer globalen Tragstruktur quantifiziert, Interaktionen von Partialmodellen festgestellt und ein Maß für die Qualität eines Gesamtmodells ermittelt.
As one of its primary objectives, Computer Graphics aims at the simulation of fabrics’ complex reflection behaviour. Characteristic surface reflectance of fabrics, such as highlights, anisotropy or retro-reflection arise the difficulty of synthesizing. This problem can be solved by using Bidirectional Texture Functions (BTFs), a 2D-texture under various light and view direction. But the acquisition of Bidirectional Texture Functions requires an expensive setup and the measurement process is very time-consuming. Moreover, the size of BTF data can range from hundreds of megabytes to several gigabytes, as a large number of high resolution pictures have to be used in any ideal cases. Furthermore, the three-dimensional textured models rendered through BTF rendering method are subject to various types of distortion during acquisition, synthesis, compression, and processing. An appropriate image quality assessment scheme is a useful tool for evaluating image processing algorithms, especially algorithms designed to leave the image visually unchanged. In this contribution, we present and conduct an investigation aimed at locating a robust threshold for downsampling BTF images without loosing perceptual quality. To this end, an experimental study on how decreasing the texture resolution influences perceived quality of the rendered images has been presented and discussed.
Next, two basic improvements to the use of BTFs for rendering are presented: firstly, the study addresses the cost of BTF acquisition by introducing a flexible low-cost step motor setup for BTF acquisition allowing to generate a high quality BTF database taken at user-defined arbitrary angles. Secondly, the number of acquired textures to the perceptual quality of renderings is adapted so that the database size is not overloaded and can fit better in memory when rendered.
Although visual attention is one of the essential attributes of HVS, it is neglected in most existing quality metrics. In this thesis an appropriate objective quality metric based on extracting visual attention regions from images and adequate investigation of the influence of visual attention on perceived image quality assessment, called Visual Attention Based Image Quality Metric (VABIQM), has been proposed. The novel metric indicates that considering visual saliency can offer significant benefits with regard to constructing objective quality metrics to predict the visible quality differences in images rendered by compressed and non-compressed BTFs and also outperforms straightforward existing image quality metrics at detecting perceivable differences.
This project proposes and applies a research strategy to understand types of cities using the case study of Bogotá. This strategy combines a conceptual framework developed around the notion of ‘centrality’ and ‘urban semiotics’ as a method of qualitative enquiry in order to comprehend complex spatial arrangements as significant constituents of cultural geographies. In this sense, this study problematizes current tendencies such as spatial fragmentation and challenges the argument that contemporary urban ensembles in Latin America are either homogenized within globalization trends or illegible entities with no structural coherence.
Bogotá is addressed as an instrumental case study to redraw generalizations developed from different methodological frameworks about the configuration process of spatial structures and their significance within the Latin American geography. Thus the study questions how urban centrality has evolved as an essential socio-cultural phenomenon and in this manner decodes the messages transmitted by main spatial arrangements. As a first step, the study discusses the construction of spatial meaning and its structural interpretation. In addition, the concept of centrality is examined in depth and an urban centrality typology is introduced to enable the analysis of spatial structures in socio-cultural terms. These contents are followed by the discussion of the existing approaches to the topic and their limitations. Subsequently, this research reconstructs the configuration of Bogotá’s spatial structure which is decoded in the last chapter.
The study concludes that the highly fragmented and uneven condition of urban space in Latin America can be read. The case study of Bogotá substantiates that there is a code that paradoxically provides spatial cohesiveness within unstable socio-spatial hierarchies. Such a spatial code is deciphered through the reading of Bogotá’s spatial structure whose super-centre denotes ‘the sacralisation of authoritarianism’. This is a ‘structural meaning’ related to a specific or intrinsic logic of spatial concentration that is useful for the further discussion of socio-spatial patterns and the meanings of Latin American cities. The concluding remarks integrate the main arguments and outline lines of action in spatial planning processes.
Brazilian battlers’ housing discusses the self-production of dwellings in the circumstances of the socioeconomic rise of the so-called Brazilian new middle class, occurred on the first decade of the years 2000. Battlers are a precarious working class of about 100 million people, who have used their recently increased purchase power to informally solve their private housing demands, planning, building and renovating their homes themselves, with limited technical knowledge and almost no access to formal technicians as for example architects. The result is a mode of housing production, which spreads over the territory in micro-local self-initiatives and informal social practices of construction and management. With the support of a controversial manpower, this practice presents all sorts of technical complications, but at the same time expedient ways of affordability and creative spatial solutions for ordinary constructive problems. Such initiatives have consolidated Brazilian informal settlements and peripheral subdivisions, attending a demand poorly responded by the government. This research recognises the benefits of the self-production, but questions the conditions under which it happens and asks if it really collaborates for a true social rise of those who are engaged in it. With an empirical and qualitative approach and taking dwelling construction processes leaded by battlers as main information sources, the academic work responds if and how the socioeconomic rise of the Brazilian battlers has exactly affected the self-production of dwellings. For that, battlers’ self-production of dwellings is analysed and discussed in five main aspects: 1) acquisition of land and real state, 2) building overtime, 3) space and creative power, 4) technical complications and building materials and 5) manpower and know-how.
The construction and operation of a sanitary landfill (SLF) in the Philippines presents concerns on the regulation of the activities of the informal sector in the area. In anticipation of these directives, an association of informal waste reclaimers group called Uswag Calajunan Livelihood Association, Inc. (UCLA) was formed in May 2009. One option identified was the waste-to-energy activity through the production of fuel briquettes. With the availability of raw materials in the area, what was lacking then was an appropriate technology that would cater to their needs. This study, therefore, presented the case of UCLA on how socio-economic and technical aspects was integrated for the development and improvement of a briquetting technology needed in the production of quality briquettes as part of their income generating activities. A non-experimental posttest only design was utilized for the collection of descriptive information. Descriptions and discussions were also made on the enhancement of the briquetting machine from the first hand-press molder developed until the finalized design was attained.
Results revealed that the improved briquetting technology withstood the wear and tear of operation showing a significant (P<0.01) increase on the production rate (220 pcs/hr; 4 kg/hr) and bulk density (444.83 kg/m3) of briquettes produced. The quality of cylindrical briquettes produced in terms of bulk density, heating value (15.13 MJ/kg), moisture (6.2%), N and S closely met or has met the requirements of DIN 51731. Based on the operating expenses, the briquettes may be marked-up to Php0.25/pc (USD0.006) or Php15.00/kg (USD0.34) for profit generation. The potential daily earnings of Php130.00 (USD2.95) to Php288.56 (USD6.56) generated in producing briquettes are higher when compared to the majority of waste reclaimers’ daily income of Php124.00 (USD2.82). The high positive response (93%) on the usability of briquettes and the willingness of the respondents (81%) to buy them when sold in the market indicates its promising potential as fuel in the nearby communities. Results of briquette production citing the case of UCLA could be considered as potential source of income given the social, technical, economic and environmental feasibility of the experiment. This method of utilizing wastes in an urban setting of a developing country with similar socio-economic and physical set-ups may also be recommended for testing or replication.
Bücher werden nicht erst seit ihrer industriellen Produktion aus gefalzten Papierbogen zusammengesetzt – schon mittelalterliche Codices wurden aus gefalteten Pergamenthäuten konstruiert. Fokus dieser Studie über das Medium Buch ist daher die Kulturtechnik der Faltung. Anders als in der philosophischen Auseinandersetzung mit dem Begriff der Falte, ist die Buchfalte keine anti-lineare Figur, sondern ein operationales Falzscharnier, welches Anordnungen im Buchraum bestimmt und Ornamente hervorbringt. Mediengeschichtliche Fragestellungen sind auf Analysen von Buchmaterial und Künstlerbüchern vom 19. Jahrhundert bis zur Gegenwart basiert. Mit den Büchern u.a. von Christian Boltanski, Hanne Darboven und Hans-Peter Feldmann werden Erkenntnisse über buchgeschichtliche Zusammenhänge gewonnen und das Künstlerbuch in eine Geschichte des Mediums Buch eingestellt.
Bücher werden nicht erst seit ihrer industriellen Produktion aus gefalzten Papierbogen zusammengesetzt – schon mittelalterliche Codices wurden aus gefalteten Pergamenthäuten konstruiert. Fokus dieser Studie über das Medium Buch ist daher die Kulturtechnik der Faltung. Anders als in der philosophischen Auseinandersetzung mit dem Begriff der Falte, ist die Buchfalte keine anti-lineare Figur, sondern ein operationales Falzscharnier, welches Anordnungen im Buchraum bestimmt und Ornamente hervorbringt. Mediengeschichtliche Fragestellungen sind auf Analysen von Buchmaterial und Künstlerbüchern vom 19. Jahrhundert bis zur Gegenwart basiert. Mit den Büchern u.a. von Christian Boltanski, Hanne Darboven und Hans-Peter Feldmann werden Erkenntnisse über buchgeschichtliche Zusammenhänge gewonnen und das Künstlerbuch in eine Geschichte des Mediums Buch eingestellt.
Bunker—TV, TV—Bunker: Heterotope Mechanismen am Beispiel von Schutzbauwerken und (Fernseh-)Serien
(2017)
Die vorliegende Dissertation widmet sich anhand eines kurios anmutenden, aber auf einer Metaebene fruchtbaren Vergleichs von Schutzbauwerken und Fernsehserien historischen und aktuellen Mechanismen menschlichen Denkens und Handelns.
Als theoretische Basis dieser Abhandlung fungiert die Heterotopie – ein Konzept des französischen Philosophen Michel Foucault. Die Heterotopie ist ein inflationär gebrauchtes, oft nur oberflächlich betrachtetes Theorem. Das Konzept wird hier nun mit Blick auf das Gesamtwerk Foucaults en détail untersucht sowie um korrelierende Ansätze (Augé, Lefebvre, Soja ...) ergänzt. Aus dieser Betrachtung lässt sich ein über Foucault hinausgehender, analytisch nutzbarer Katalog ableiten.
Verkürzt wird die Heterotopie folgendermaßen bestimmt: Neben der Definition der Heterotopie als Raum des Anderen, als (gesellschaftskritischer) Gegenraum kann sie dem wie auch immer bestimmten Normalraum unterstellt sein. Die Heterotopie ist möglicherweise eine bauliche Manifestation schwarz-weißen Denkens, von Ausgrenzung und sichtbarer Unsichtbarkeit, sie wird zur Realisation wie auch immer definierter Ideale oder Stereotypen. Die Heterotopie ist allerdings auch als ein (hybrides) Dazwischen denkbar, welches sich als katalytischer Raum, im dialektischen Sinne als Ort der Synthese äußert. Es könnte als Niemandsland oder als Phase (im Leben) charakterisiert werden.
Analog zum letzten Beispiel lässt sich die Heterotopie als progressiv-seriell beschreiben. Ihre stagnierend bis variierende Serialität kann sich im Betreten identischer Räume äußern – mal als verlässlich oder ermüdend empfunden.
Nicht nur die einem entsprechenden Raum entgegengebrachten Konnotationen sind vielfältig bis ambivalent, die Heterotopie ist neben real-räumlicher auch virtueller Fasson: Betonmauer finden bisweilen eine Entsprechung im einfachen Harmoniefernsehen. Einander heterotop gegenüberstehenden Räumen wird etwa mit der Figur Walter White in der komplexen Fernsehserie "Breaking Bad" entsprochen – ist er doch hin und her gerissen zwischen seiner biederen, aber geliebten Familie einerseits und der abstoßend gewalttätigen, aber extrovertierende Potentiale bergenden Drogenproduktion andererseits.
Die sogenannte Leihkörperschaft bzw. die Immersion lassen sich zur Beschreibung verschiedener Heterotopie-Erfahrungen nutzen. Dieses Eintauchen/Betreten wird hier als Rezeptionsphänomen zwischen sensomotorischer Illusion und inhaltlich-narrativem Sog, zw. Fixierung des Körpers und Einbezug desselbigen definiert.
Die beiden Untersuchungsfelder werden jeweils für sich historisch und theoretisch umrissen. Zum noch jungen Feld serieller Theorie/der Definition narrativer Typen (im TV bzw. dem Qualitätsfernsehen) wird ein einführender Überblick geboten.
Die praktischen Arbeiten setzen sich ästhetisch, narrativ und inhaltlich mit der Heterotopie auseinander: In "Habitat" und "Habitat 2" werden serielle Konzepte audiovisuell (u. a. als Fulldome-Version) erprobt. Dabei wird insbesondere das Heterotope im Konzept "Autor" untersucht – der Autor als distinkte und gleichsam konfliktbehaftete, in zahlreiche Subjekte zerlegte Figur. "Habitat 3" ist ein Publikationskonzept, welches mit etablierten (heterotopen) Strukturen des Sammelbands bricht und zugleich die heterotopen Facetten des fiktionalen Fernsehens simuliert.
Band I beinhaltet sowohl den theoretischen Teil der Promotion als auch die Erläuterung der praktischen Arbeiten. Band II ermöglicht einen Einblick in die konzeptionellen Prozesse hinter den drei künstlerischen Projekten.
Business development and brand management are core functions of a business that fuel corporate growth and drive value for consumers, for companies, and for society. Integrating the two business areas promises synergistic added value that goes beyond their individual impact spectrums. While academic research has collectively advanced our understanding of brand management, research in business development is relatively underrepresented. As a management concept that is of great importance in the corporate world today, the relevance of business development cannot be denied in academia. Moreover, the interrelationship between business development and brand management has been widely neglected. Both business fields benefit from each other, suggesting an exigency for a deeper integration between the two. Towards that goal, this dissertation presents a comprehensive overview of the reciprocal relationship of business development and brand management that further stretches the academic knowledge space.
Throughout the doctoral thesis, the author structures this interrelationship, enhances theory for both business areas and their integration, suggests managerial implications and identifies future research directions that require scholarly attention. The doctoral thesis aims to align business development and brand management theory and practice with the realities of the business world.
In three research papers, this thesis develops an analysis of the reciprocal relationship of business development and brand management. For this purpose, a variety of methods ranging from a systematic literature review and qualitative work to empirical research employing structural equation modeling and experimental studies are applied. Theoretically, business development, innovation management, brand management and sustainability inform the frame of this work. Finally, this research project aims at contributing to (sustainable) business and brand growth.
Vor dem Hintergrund einer stetig wachsenden Nachfrage an Beton wie auch ambitionierter Reduktionsziele beim in der Zementproduktion anfallenden CO2 gelten calcinierte Tone als derzeit aussichtsreichste technische Neuerung im Bereich nachhaltiger Bindemittelkonzepte. Unter Ausnutzung ihrer Puzzolanität soll ein erheblicher Teil der Klinkerkomponente im Zement ersetzt werden, wobei der zu ihrer Aktivierung notwendige Energiebedarf vergleichsweise niedrig ist. Wesentliche Vorteile der Tone sind ihre weltweit nahezu unbegrenzte Verfügbarkeit sowie der äußerst geringe rohstoffbedingte CO2-Ausstoß während der Calcinierung. Schwierigkeiten auf dem Weg der Umsetzung bestehen allerdings in der Vielseitigkeit des Systems, welches durch eine hohe Varietät der Rohtone und des daraus folgenden thermischen Verhaltens gekennzeichnet ist. Entsprechend schwierig ist die Übertragbarkeit von Erfahrungen mit bereits etablierten calcinierten Tonen wie dem Metakaolin, der sich durch hohe Reinheit, einen aufwendigen Aufbereitungsprozess und eine entsprechend hohe Reaktivität auszeichnet. Ziel der Arbeit ist es daher, den bereits erlangten Kenntnisstand auf andere, wirtschaftlich relevante Tone zu erweitern und deren Eignung für die Anwendung im Beton herauszuarbeiten.
In einem mehrstufigen Arbeitsprogramm wurde untersucht, inwieweit großtechnisch nutzbare Tone aktivierbar sind und welche Eigenschaften sich daraus für Zement und Beton ergeben. Die dabei festgestellte Reihenfolge Kaolinit > Montmorillonit > Illit beschreibt sowohl die Reaktivität der Brennprodukte als auch umgekehrt die Höhe der optimalen Calciniertemperatur. Auch wandelt sich der Charakter der entstandenen Metaphasen in dieser Abfolge von röntgenamorph und hochreaktiv zu glasig und reaktionsträge. Trotz dieser Einordnung konnte selbst mit dem Illit eine mit Steinkohlenflugasche vergleichbare Puzzolanität festgestellt werden. Dies bestätigte sich anschließend in Parameterversuchen, bei denen die Einflüsse von Rohstoffqualität, Calcinierung, Aufbereitung und Zement hinsichtlich der Reaktivitätsausbeute bewertet wurden. Die Bandbreite der erzielbaren Qualitäten ist dabei immens und gipfelt nicht zuletzt in stark unterschiedlichen Wirkungen auf die Festbetoneigenschaften. Hier machte sich vor allem die für Puzzolane typische Porenverfeinerung bemerkbar, sodass viele von Transportvorgängen abhängige Schadmechanismen unterdrückt wurden. Andere Schadex-positionen wie der Frostangriff ließen sich durch Zusatzmaßnahmen wie dem Eintrag von Luftporen beherrschen. Zu bemängeln sind vor allem die schlechte Verarbeitbarkeit kaolinitischer Metatone wie auch die für Puzzolane stark ausgeprägte Carbonatisierungsneigung.
Wesentliches Ergebnis der Arbeit ist, dass auch Tone, die bisher als geringwertig bezüglich des Aktivierungspotentials galten, nutzbare puzzolanische Eigenschaften entwickeln können. So kann selbst ein stark verunreinigter Illit-Ton die Qualität von Flugasche erreichen. Mit stei-gendem Tonmineralgehalt sowie bei Präsens thermisch instabilerer Tonminerale wie Mont-morillonit und Kaolinit erweitert sich das Spektrum nutzbarer Puzzolanitäten bis hin zur hochreaktiven Metakaolin-Qualität. Damit lassen sich gute bis sehr gute Betoneigenschaften erzielen, sodass die Leistungsfähigkeit etablierter Kompositmaterialien erreicht wird. Somit sind die Voraussetzungen für eine umfangreiche Nutzung der erheblichen Tonmengen im Zement und Beton gegeben. Entsprechend können Tone einen effektiven Beitrag zu einer gesteigerten Nachhaltigkeit in der Baustoffproduktion weltweit leisten.
Carl Heinrich Ferdinand Streichhan prägte zwischen 1848 und 1884 als Oberbaudirektor maßgeblich das Baugeschehen im Großherzogtum Sachsen-Weimar-Eisenach. Beauftragt mit für die zweite Hälfte des 19. Jahrhunderts typischen staatlichen Bauaufgaben, hinterließ er als Architekt ein zwar nicht sehr umfängliches, jedoch facettenreiches und zumindest regional bedeutendes Werk. Geprägt wurde seine Baugesinnung durch die dem Schinkel´schen Vorbild und einem spezifischen, selektiven Historismus verpflichtete, sogenannte Berliner Schule, der Streichhan zeit seines Berufslebens eng verbunden blieb. Neben einer Würdigung des Oeuvres fokussiert die Arbeit auf das weitgefächerte Aufgabenspektrum eines leitend im Staatsdienst tätigen „Bautechnikers“, das – wie zeitgenössisch üblich – sowohl konstruktiv planende als auch vielfältige administrative Tätigkeiten, ingenieurtechnische Leistungen ebenso wie baukünstlerische umfasste. Streichhans Bildungsweg, Laufbahn und berufliches Selbstverständnis sind für den Baubeamten des (mittleren) 19. Jahrhunderts ebenso typisch wie schließlich, infolge beschleunigter Wandlungsprozesse ab 1871, nicht mehr zeitgemäß: Im Kontext tiefgreifender Umwälzungen veränderten sich auch die Handlungsfelder der Architekten und die Bedingungen architektonischen Schaffens, wie Streichhans Wirken paradigmatisch belegt.
The present thesis studies the effects of rice husk ash (RHA) as a pozzolanic admixture and the combination of RHA and ground granulated blast-furnace slag (GGBS) on properties of ultra-high performance concrete (UHPC). The ultimate purpose of this study is to replace completely silica fume (SF) and partially Portland cement by RHA and GGBS to achieve sustainable UHPC. To reach this aim, characteristics of RHA in dependence of grinding period, especially its pozzolanic reactivity in saturated Ca(OH)2 solution and in a cementitious system at a very low water binder ration (w/b) were assessed. The influences of RHA on compatibility between superplasticizer and binder, workability, compressive strength, shrinkage, internal relative humidity, microstructure and durability of UHPC were also evaluated. Furthermore, synergic effects of RHA and GGBS on the properties of UHPC were investigated to produce more sustainable UHPC. Finally, various heat treatments were applied to study the properties of UHPC under these conditions. All the characteristics of these UHPCs containing RHA were compared to those of mixtures containing SF.
Im Rahmen dieser Arbeit wird das Charakterisieren struktureller Veränderungen zementgebundener Baustoffe durch zwei auf dem Ultraschall-Transmissionsverfahren beruhenden Methoden der zerstörungsfreien Prüfung (ZfP) mit mechanischen Wellen vorgenommen.
Zur kontinuierlichen Charakterisierung der Erstarrung und Erhärtung frischer zementgebundener Systeme wird ein auf Ultraschallsensoren für Longitudinal- und Scherwellen basierendes Messsystem in Kombination mit zugehörigen Verfahrensweisen zur Datenauswertung konzipiert, charakterisiert und angewandt. Gegenüber der bislang üblichen alleinigen Bewertung der Verfestigung anhand indirekter Ultraschallparameter wie Ausbreitungsgeschwindigkeit, Signalenergie oder Frequenzgehalt der Longitudinalwelle lässt sich damit eine direkte, sensible Erfassung der sich während der Strukturbildung entwickelnden dynamischen elastischen Eigenschaften auf der Basis primärer physikalischer Werkstoffparameter erreichen. Insbesondere Scherwellen und der dynamische Schubmodul sind geeignet, den graduellen Übergang zum Festkörper mit Überschreiten der Perkolationsschwelle sensibel und unabhängig vom Luftgehalt zu erfassen. Die zeitliche Entwicklung der dynamischen elastischen Eigenschaften, die Strukturbildungsraten sowie die daraus extrahierten diskreten Ergebnisparameter ermöglichen eine vergleichende quantitative Charakterisierung der Strukturbildung zementgebundener Baustoffe aus mechanischer Sicht. Dabei lassen sich typische, oft unvermeidbare Unterschiede in der Zusammensetzung der Versuchsmischungen berücksichtigen.
Der Einsatz laserbasierter Methoden zur Anregung und Erfassung von mechanischen Wellen und deren Kombination zu Laser-Ultraschall zielt darauf ab, die mit der Anwendung des konventionellen Ultraschall-Transmissionsverfahrens verbundenen Nachteile zu eliminieren. Diese resultieren aus der Sensorgeometrie, der mechanischen Ankopplung und bei einer Vielzahl von Oberflächenpunkten aus einem hohen prüftechnischen Aufwand. Die laserbasierte, interferometrische Erfassung mechanischer Wellen ist gegenüber Ultraschallsensoren rauschbehaftet und vergleichsweise unsensibel. Als wesentliche Voraussetzung der scannenden Anwendung von Laser-Ultraschall auf zementgebundene Baustoffe erfolgen systematische experimentelle Untersuchungen zur laserinduzierten ablativen Anregung. Diese sollen zum Verständnis des Anregungsmechanismus unmittelbar auf den Oberflächen von zementgebundenen Baustoffen, Gesteinskörnungen und metallischen Werkstoffen beitragen, relevante Einflussfaktoren aus den charakteristischen Materialeigenschaften identifizieren, geeignete Prozessparameter gewinnen und die Verfahrensgrenzen aufzeigen. Unter Einsatz von Longitudinalwellen erfolgt die Anwendung von Laser-Ultraschall zur zeit- und ortsaufgelösten Charakterisierung der Strukturbildung und Homogenität frischer sowie erhärteter Proben zementgebundener Baustoffe. Während der Strukturbildung wird erstmals eine simultane berührungslose Erfassung von Longitudinal- und Scherwellen vorgenommen. Unter Anwendung von tomographischen Methoden (2D-Laufzeit¬tomo¬graphie) werden überlagerungsfreie Informationen zur räumlichen Verteilung struktureller Gefügeveränderungen anhand der longitudinalen Ausbreitungsgeschwindigkeit bzw. des relativen dynamischen Elastizitätsmoduls innerhalb von virtuellen Schnittebenen geschädigter Probekörper gewonnen. Als beton-schädigende Mechanismen werden exemplarisch der kombinierte Frost-Tausalz-Angriff sowie die Alkali-Kieselsäure-Reaktion (AKR) herangezogen.
Die im Rahmen dieser Arbeit entwickelten Verfahren der zerstörungsfreien Prüfung bieten erweiterte Möglichkeiten zur Charakterisierung zementgebundener Baustoffe und deren strukturellen Veränderungen und lassen sich zielgerichtet in der Werkstoffentwicklung, bei der Qualitätssicherung sowie zur Analyse von Schadensprozessen und -ursachen einsetzen.
Virtual reality systems offer substantial potential in supporting decision processes based purely on computer-based representations and simulations. The automotive industry is a prime application domain for such technology, since almost all product parts are available as three-dimensional models. The consideration of ergonomic aspects during assembly tasks, the evaluation of humanmachine interfaces in the car interior, design decision meetings as well as customer presentations serve as but a few examples, wherein the benefit of virtual reality technology is obvious. All these tasks require the involvement of a group of people with different expertises. However, current stereoscopic display systems only provide correct 3D-images for a single user, while other users see a more or less distorted virtual model. This is a major reason why these systems still face limited acceptance in the automotive industry. They need to be operated by experts, who have an advanced understanding of the particular interaction techniques and are aware of the limitations and shortcomings of virtual reality technology. The central idea of this thesis is to investigate the utility of stereoscopic multi-user systems for various stages of the car development process. Such systems provide multiple users with individual and perspectively correct stereoscopic images, which are key features and serve as the premise for the appropriate support of collaborative group processes. The focus of the research is on questions related to various aspects of collaboration in multi-viewer systems such as verbal communication, deictic reference, embodiments and collaborative interaction techniques. The results of this endeavor provide scientific evidence that multi-viewer systems improve the usability of VR-applications for various automotive scenarios, wherein co-located group discussions are necessary. The thesis identifies and discusses the requirements for these scenarios as well as the limitations of applying multi-viewer technology in this context. A particularly important gesture in real-world group discussions is referencing an object by pointing with the hand and the accuracy which can be expected in VR is made evident. A novel two-user seating buck is introduced for the evaluation of ergonomics in a car interior and the requirements on avatar representations for users sitting in a car are identified. Collaborative assembly tasks require high precision. The novel concept of a two-user prop significantly increases the quality of such a simulation in a virtual environment and allows ergonomists to study the strain on workers during an assembly sequence. These findings contribute toward an increased acceptance of VR-technology for collaborative development meetings in the automotive industry and other domains.
Communities in discourse and space. Towards a spatial dialectic in gated residential developments
(2015)
This research projects deals with the discoursivity of spatial production.
By looking at contemporary residential development in the city of Istanbul, I will examine the reciprocity of the material production of space on one hand, and social discourses on the other, in order to make a contribution to how physical space can be used as a source of research in urban studies. In real estate marketing social discourses are used as a source of reference for place branding or identity design. Branding concepts therefore relate to how social groups imagine their position or future position in society, imaginaries that are continuously influenced and changed by social dynamics within the city but also from the outside. How such urban identities are formed and it what way they relate to the urban environment is crucial to a wide spectrum of social and cultural science. The constitutive role urban space attains has been described and analysed in much detail. Such scrutiny however has yet to be applied to the visual and communicative forms of engagement, the build environment partakes in the formation and change of social discourses.
The computational analysis of argumentation strategies is substantial for many downstream applications. It is required for nearly all kinds of text synthesis, writing assistance, and dialogue-management tools. While various tasks have been tackled in the area of computational argumentation, such as argumentation mining and quality assessment, the task of the computational analysis of argumentation strategies in texts has so far been overlooked.
This thesis principally approaches the analysis of the strategies manifested in the persuasive argumentative discourses that aim for persuasion as well as in the deliberative argumentative discourses that aim for consensus. To this end, the thesis presents a novel view of argumentation strategies for the above two goals. Based on this view, new models for pragmatic and stylistic argument attributes are proposed, new methods for the identification of the modelled attributes have been developed, and a new set of strategy principles in texts according to the identified attributes is presented and explored.
Overall, the thesis contributes to the theory, data, method, and evaluation aspects of the analysis of argumentation strategies. The models, methods, and principles developed and explored in this thesis can be regarded as essential for promoting the applications mentioned above, among others.
This study permits a reliability analysis to solve the mechanical behaviour issues existing in the current structural design of fabric structures. Purely predictive material models are highly desirable to facilitate an optimized design scheme and to significantly reduce time and cost at the design stage, such as experimental characterization.
The present study examined the role of three major tasks; a) single-objective optimization, b) sensitivity analyses and c) multi-objective optimization on proposed weave structures for woven fabric composites. For single-objective optimization task, the first goal is to optimize the elastic properties of proposed complex weave structure under unit cells basis based on periodic boundary conditions.
We predict the geometric characteristics towards skewness of woven fabric composites via Evolutionary Algorithm (EA) and a parametric study. We also demonstrate the effect of complex weave structures on the fray tendency in woven fabric composites via tightness evaluation. We utilize a procedure which does not require a numerical averaging process for evaluating the elastic properties of woven fabric composites. The fray tendency and skewness of woven fabrics depends upon the behaviour of the floats which is related to the factor of weave. Results of this study may suggest a broader view for further research into the effects of complex weave structures or may provide an alternative to the fray and skewness problems of current weave structure in woven fabric composites.
A comprehensive study is developed on the complex weave structure model which adopts the dry woven fabric of the most potential pattern in singleobjective optimization incorporating the uncertainties parameters of woven fabric composites. The comprehensive study covers the regression-based and variance-based sensitivity analyses. The second task goal is to introduce the fabric uncertainties parameters and elaborate how they can be incorporated into finite element models on macroscopic material parameters such as elastic modulus and shear modulus of dry woven fabric subjected to uni-axial and biaxial deformations. Significant correlations in the study, would indicate the need for a thorough investigation of woven fabric composites under uncertainties parameters. The study describes here could serve as an alternative to identify effective material properties without prolonged time consumption and expensive experimental tests.
The last part focuses on a hierarchical stochastic multi-scale optimization approach (fine-scale and coarse-scale optimizations) under geometrical uncertainties parameters for hybrid composites considering complex weave structure. The fine-scale optimization is to determine the best lamina pattern that maximizes its macroscopic elastic properties, conducted by EA under the following uncertain mesoscopic parameters: yarn spacing, yarn height, yarn width and misalignment of yarn angle. The coarse-scale optimization has been carried out to optimize the stacking sequences of symmetric hybrid laminated composite plate with uncertain mesoscopic parameters by employing the Ant Colony Algorithm (ACO). The objective functions of the coarse-scale optimization are to minimize the cost (C) and weight (W) of the hybrid laminated composite plate considering the fundamental frequency and the buckling load factor as the design constraints.
Based on the uncertainty criteria of the design parameters, the appropriate variation required for the structural design standards can be evaluated using the reliability tool, and then an optimized design decision in consideration of cost can be subsequently determined.
Encapsulation-based self-healing concrete (SHC) is the most promising technique for providing a self-healing mechanism to concrete. This is due to its capacity to heal fractures effectively without human interventions, extending the operational life and lowering maintenance costs. The healing mechanism is created by embedding capsules containing the healing agent inside the concrete. The healing agent will be released once the capsules are fractured and the healing occurs in the vicinity of the damaged part. The healing efficiency of the SHC is still not clear and depends on several factors; in the case of microcapsules SHC the fracture of microcapsules is the most important aspect to release the healing agents and hence heal the cracks. This study contributes to verifying the healing efficiency of SHC and the fracture mechanism of the microcapsules. Extended finite element method (XFEM) is a flexible, and powerful discrete crack method that allows crack propagation without the requirement for re-meshing and has been shown high accuracy for modeling fracture in concrete. In this thesis, a computational fracture modeling approach of Encapsulation-based SHC is proposed based on the XFEM and cohesive surface technique (CS) to study the healing efficiency and the potential of fracture and debonding of the microcapsules or the solidified healing agents from the concrete matrix as well. The concrete matrix and a microcapsule shell both are modeled by the XFEM and combined together by CS. The effects of the healed-crack length, the interfacial fracture properties, and microcapsule size on the load carrying capability and fracture pattern of the SHC have been studied. The obtained results are compared to those obtained from the zero thickness cohesive element approach to demonstrate the significant accuracy and the validity of the proposed simulation. The present fracture simulation is developed to study the influence of the capsular clustering on the fracture mechanism by varying the contact surface area of the CS between the microcapsule shell and the concrete matrix. The proposed fracture simulation is expanded to 3D simulations to validate the 2D computational simulations and to estimate the accuracy difference ratio between 2D and 3D simulations. In addition, a proposed design method is developed to design the size of the microcapsules consideration of a sufficient volume of healing agent to heal the expected crack width. This method is based on the configuration of the unit cell (UC), Representative Volume Element (RVE), Periodic Boundary Conditions (PBC), and associated them to the volume fraction (Vf) and the crack width as variables. The proposed microcapsule design is verified through computational fracture simulations.
Encapsulation-based self-healing concrete has received a lot of attention nowadays in civil engineering field. These capsules are embedded in the cementitious matrix during concrete mixing. When the cracks appear, the embedded capsules which are placed along the path of incoming crack are fractured and then release of healing agents in the vicinity of damage. The materials of capsules need to be designed in a way that they should be able to break with small deformation, so the internal fluid can be released to seal the crack. This study focuses on computational modeling of fracture in encapsulation-based selfhealing concrete. The numerical model of 2D and 3D with randomly packed aggreates and capsules have been developed to analyze fracture mechanism that plays a significant role in the fracture probability of capsules and consequently the self-healing process. The capsules are assumed to be made of Poly Methyl Methacrylate (PMMA) and the potential cracks are represented by pre-inserted cohesive elements with tension and shear softening laws along the element boundaries of the mortar matrix, aggregates, capsules, and at the interfaces between these phases. The effects of volume fraction, core-wall thickness ratio, and mismatch fracture properties of capsules on the load carrying capacity of self-healing concrete and fracture probability of the capsules are investigated. The output of this study will become valuable tool to assist not only the experimentalists but also the manufacturers in designing an appropriate capsule material for self-healing concrete.
The key objective of this research is to study fracture with a meshfree method, local maximum entropy approximations, and model fracture in thin shell structures with complex geometry and topology. This topic is of high relevance for real-world applications, for example in the automotive industry and in aerospace engineering. The shell structure can be described efficiently by meshless methods which are capable of describing complex shapes as a collection of points instead of a structured mesh. In order to find the appropriate numerical method to achieve this goal, the first part of the work was development of a method based on local maximum entropy (LME)
shape functions together with enrichment functions used in partition of unity methods to discretize problems in linear elastic fracture mechanics. We obtain improved accuracy relative to the standard extended finite element method (XFEM) at a comparable computational cost. In addition, we keep the advantages of the LME shape functions,such as smoothness and non-negativity. We show numerically that optimal convergence (same as in FEM) for energy norm and stress intensity factors can be obtained through the use of geometric (fixed area) enrichment with no special treatment of the nodes
near the crack such as blending or shifting.
As extension of this method to three dimensional problems and complex thin shell structures with arbitrary crack growth is cumbersome, we developed a phase field model for fracture using LME. Phase field models provide a powerful tool to tackle moving interface problems, and have been extensively used in physics and materials science. Phase methods are gaining popularity in a wide set of applications in applied science and engineering, recently a second order phase field approximation for brittle fracture has gathered significant interest in computational fracture such that sharp cracks discontinuities are modeled by a diffusive crack. By minimizing the system energy with respect to the mechanical displacements and the phase-field, subject to an irreversibility condition to avoid crack healing, this model can describe crack nucleation, propagation, branching and merging. One of the main advantages of the phase field modeling of fractures is the unified treatment of the interfacial tracking and mechanics, which potentially leads to simple, robust, scalable computer codes applicable to complex systems. In other words, this approximation reduces considerably the implementation complexity because the numerical tracking of the fracture is not needed, at the expense of a high computational cost. We present a fourth-order phase field model for fracture based on local maximum entropy (LME) approximations. The higher order continuity of the meshfree LME approximation allows to directly solve the fourth-order phase field equations without splitting the fourth-order differential equation into two second order differential equations. Notably, in contrast to previous discretizations that use at least a quadratic basis, only linear completeness is needed in the LME approximation. We show that the crack surface can be captured more accurately in the fourth-order model than the second-order model. Furthermore, less nodes are needed for the fourth-order model to resolve the crack path. Finally, we demonstrate the performance of the proposed meshfree fourth order phase-field formulation for 5 representative numerical examples. Computational results will be compared to analytical solutions within linear elastic fracture mechanics and experimental data for three-dimensional crack propagation.
In the last part of this research, we present a phase-field model for fracture in Kirchoff-Love thin shells using the local maximum-entropy (LME) meshfree method. Since the crack is a natural outcome of the analysis it does not require an explicit representation and tracking, which is advantageous over techniques as the extended finite element method that requires tracking of the crack paths. The geometric description of the shell is based on statistical learning techniques that allow dealing with general point set surfaces avoiding a global parametrization, which can be applied to tackle surfaces of complex geometry and topology. We show the flexibility and robustness of the present methodology for two examples: plate in tension and a set of open connected
pipes.
Computer Spiel Welten
(2000)
Eine diskursarchäologische Studie zur Entstehung von Computerspielen entlang der Begriffe von Reaktion, Entscheidung und Regulation in Mensch-Maschine-Systemen. Sie rekonstruiert die Emergenz des Computerspiels aus heterogenen Wissensbereichen wie Experimentalpsychologie, Arbeitswissenschaft, Kriegstechnologie, Hard- und Softwaregeschichte, Graphentheorie, Meteorologie, Speläologie, Philosophie, Behaviorismus, Kognitionswissenschaft, Spieltheorie und Kybernetik.
Gegenstand der vorliegenden Arbeit ist die Konzeption und prototypische Umsetzung von Techniken des Computer Supported Cooperative Work (CSCW) im Rahmen einer integrierten objektorientierten und dynamischen Bauwerksmodellverwaltung zur Unterstützung der Bauwerksplanung. Die Planung von Bauwerken ist durch einen hohen Grad an Arbeitsteiligkeit, aber auch durch eine schwache Strukturierung der ablaufenden Prozesse gekennzeichnet. Besonders durch den Unikatcharakter des Planungsgegenstands \'Bauwerk\' ergeben sich signifikante Unterschiede zum Entwurf anderer, durch Serienfertigung produzierter Industriegüter. Zunehmend wird die Planung von Bauwerken in Virtual Enterprises ausgeführt, die sich durch eine dynamische Organisationsstruktur, geographische Verteilung der Partner, schwer normierbare Informationsflüsse und eine häufig stark heterogene informationstechnische Infrastruktur auszeichnen. Zur rechnerinternen Repräsent! ation des Planungsgegenstands haben sich objektorientierte Bauwerksmodelle bewährt. Aufgrund der Veränderlichkeit der Bauwerke und deren rechnerinterner Repräsentation im Laufe des Bauwerkslebenszyklus ist eine dynamische Anpassung der Modelle unumgänglich. Derartige in Form von Taxonomien dargestellte dynamische Bauwerksmodellstrukturen können gemeinsam mit den in Instanzform vorliegenden konkreten Projektinformationen in entsprechenden Modellverwaltungssystemen (MVS) gehandhabt werden. Dabei wird aufgrund der Spezialisierung und Arbeitsteilung im Planungsprozess von einer inhaltlich verknüpften Partialmodellstruktur, die räumlich verteilt sein kann, ausgegangen. Die vorgeschlagenen Methoden zur Koordinierung der Teamarbeit in der Bauwerksplanung beruhen auf der Nutzung von CSCW–Techniken für \'Gemeinsame Informationsräume\' und \'Workgroup Computing\', die im Kontext der als Integrationsbasis fungierenden Modellverwaltungssysteme umgesetzt werden. Dazu werden die zur d! ynamischen Bauwerksmodellierung erforderlichen Metaebenenfunk! tionalitäten sowie Ansätze zur Implementierung von Modellverwaltungskernen systematisiert. Ebenso werden notwendige Basistechniken für die Realisierung von MVS untersucht und eine Architektur zur rollenspezifischen Präsentation dynamischer Modellinhalte vorgestellt. Da klassische Schichtenmodelle nicht auf die Verhältnisse in Virtual Enterprises angewendet werden können, wird eine physische Systemarchitektur mit einem zentralen Projektserver, Domänenservern und Domänenclients vorgestellt. Ebenso werden Techniken zur Sicherung des autorisierten Zugriffs sowie des Dokumentencharakters beschrieben. Zur Unterstützung der asynchronen Phasen der Kooperation wird der gemeinsame Informationsraum durch Mappingtechniken zur Propagation und Notifikation von Änderungsdaten bezüglich relevanter Modellinformationen ergänzt. Zur Unterstützung synchroner Phasen werden Techniken zur Schaffung eines gemeinsamen Kontexts durch relaxierte WYSIWIS–Präsentationen auf Basis der Modellinformationen! verbunden mit Telepresence–Techniken vorgestellt. Weiterhin werden Methoden zur Sicherung der Group–Awareness für alle Kooperationsphasen betrachtet.
Die Dissertation setzt sich mit der Aufarbeitung der Aufnahme vorhandener Bauwerke hinsichtlich der IT-Unterstützung des Aufnahmeprozesses, auswertbarer Gebäudemodelle und der Bereitstellung von Informationen für die Planung auseinander. In der Arbeit ist der Bauaufnahmeprozeß gegliedert worden sowie die entstehenden Informationsmengen analysiert. Untersuchungen des aufzunehmenden Gegenstandes, der Strukturierung, der Aufnahme – hinsichtlich der Aufnahmegeräte und –methoden- und der Präsentation dienten als Grundlage für eine IT-Unterstützung. Die Aufnahme erfolgt immer als ein Prozeß der Modellbildung. Als IT-Paradigma bietet sich die „Objektorientierte Modellierungstechnologie“ an. Diese wurde einer Bewertung unterzogen. Mit Hinblick auf den konkreten Sachverhalt der Bauaufnahme, wie imperfekte und schwer formalisierbare Informationen, sind Erweiterungen berücksichtigt worden. Aus den diskutierten Ansätzen wurde ein Systemkonzept abgeleitet und Teilaspekte exemplarisch realisiert.
El presente trabajo se inscribe en el campo de los estudios urbanos y plantea como ejes estructurantes la intersección entre las políticas públicas, el barrio y las prácticas del habitar (de Certeau, 1996, 1999; Gravano, 2003) en el marco de las transformaciones del espacio urbano en los barrios pericentrales, también denominados tradicionales de la ciudad de Córdoba, particularmente lo acontecido en Barrio Güemes, durante el periodo 2010-2016.
El propósito del abordaje se inscribe en conocer y realizar aportes generalizables a la comprensión de las prácticas del habitar como unidad de análisis. En ese marco, el problema de investigación se formula en el siguiente interrogante: ¿cómo se modifican las prácticas del habitar en el marco de las transformaciones urbanas, en un modo de producción capitalista? Se entiende a las prácticas como acciones elementales de las “artes de hacer” que las personas ordinarias ponen en marcha en su vida cotidiana: para circular, cocinar, trabajar, vincularse. También, a través de las mismas resignifican los espacios, les otorgan una valoración (positiva o negativa), se identifican como parte de la identidad y a su vez se reconocen lugares de (des)encuentro y vías de circulación.
Para su abordaje se toma como unidad de estudio el caso de barrio Güemes. El recorte espacial (o físico) del trabajo empírico está localizado en la ciudad de Córdoba, y se sitúa en la periferia del área central. Esta localización permite comprender el surgimiento de las primeras expansiones urbanas como consecuencia del crecimiento demográfico y cómo estas, se transformaron en los primeros barrios. El recorte temporal se encuentra delimitado entre los años 2000 y 2016, respaldado intencionalmente por dos acontecimientos significativos: el censo de población (2001) y la celebración del Bicentenario de la Independencia en Argentina.
Los cambios materializados en ciertos espacios urbanos, tanto en ciudades latinoamericanas (Buenos Aires, Salvador de Bahía en Brasil, México Distrito Federal, etc.) como en otras partes del mundo (New Orleans en los Estados Unidos, el distrito de Kreuzberg- Friedrichshain en Berlín, el puerto de Hamburgo en Alemania, etc.) demuestran cómo estos espacios se van transformado acorde al modo de reproducción capitalista. Pues, se trataba de espacios que en algún momento cumplieron funciones económicas-sociales jerarquizadas y luego por la dinámica misma del capitalismo, la sobreacumulación, dejan de ser rentables y pasan a ser espacios “obsoletos”. En ese sentido, la omisión de acciones públicas y/o privadas, la desatención y el crecimiento de situaciones sociales conflictivas (delitos, inseguridad, degradación) en estos espacios, funciona como argumento para que los gobiernos locales comiencen a planear el futuro y modernizarlos.
De esta manera, se plantean políticas urbanas con el objetivo de impulsar acciones de renovación o rehabilitación para dinamizar económicamente determinados sectores. Dos elementos discursivos aparecen como posibilitadores del proceso de renovación urbana: el turismo y el patrimonio. En ese sentido, bajo la recuperación patrimonial de ciertos lugares se dinamizan los territorios, por lo que el turismo se vuelve una herramienta económica que produce un excedente de plusvalía. La puesta en valor de bienes tangibles e intangibles atrae la afluencia de visitantes y, a la vez, es rentable económicamente. Ahora bien, muchas veces los proyectos tienen en cuenta las variables morfológicas y físicas, dejando en un segundo plano el impacto en el espacio próximo y las relaciones entre los habitantes con su territorio. Actualmente los espacios elegidos por los municipios para la intervención pública y/o privada son los barrios, puesto que son espacios cercanos al centro y considerados estratégicos. Por lo general, el argumento es la necesidad de rehabilitar/renovar zonas poco aprovechadas o degradadas con el objetivo de mejorar la calidad de vida de la población y dinamizar el sector (Brites, 2017; Guevara, 2012). Desde los 2000 el barrio Güemes asiste a un proceso de crecimiento inusitado. La cantidad de artesanos se disparó y variedad de productos ofrecidos, emergieron los comercios que forman parte de la oferta comercial, gastronómica y cultural del barrio. Hace varios años, presenta nuevos actores económicos que se pueden observar en la apertura de galerías comerciales; ubicadas sobre el eje de las calles Belgrano, Achával Rodríguez, Fructuoso Rivera y la creciente aparición de edificaciones alrededor de la feria artesanal histórica; con la venta y exposición de piezas del arte plástico, gastronomía, negocios de diseñadores cordobeses y hasta la inclusión de la idea del del “desarrollo sustentable” en los techos de las galerías.
La modificación del corpus normativo, la aparición de edificación en altura y el boom económico tuvieron como resultado, la valorización del suelo urbano, la retroalimentación en el espacio con el emplazamiento de nuevas actividades comerciales y servicios culturales. A la par, en el espacio barrial se presentan nuevos residentes con otros hábitos y prácticas que ponen en disputa los modos de habitar en el espacio.
A riesgo de simplificar, estas transformaciones fueron producto de los cambios políticoideológicos, de los modelos e instrumentos de gestión urbana puestos en juego en los diversos momentos históricos y de las propias prácticas sociales y culturales de los habitantes. De esta manera, se centrará la mirada analítica en las transformaciones de las prácticas del habitar de los pobladores de los Barrios Güemes, en el marco de la metamorfosis del espacio urbano (atravesado por tendencias de mediatización y mercantilización de la experiencia) que conjugó un proceso de intersección y asociatividad entre políticas públicas y expansión inmobiliaria.
In recent years increasingly consideration has been given to the lifetime extension of existing structures. This is based on the fact that a growing percentage of civil infrastructure as well as buildings is threatened by obsolescence and that due to simple monetary reasons this can no longer be countered by simply re-building everything anew. Hence maintenance interventions are required which allow partial or complete structural rehabilitation. However, maintenance interventions have to be economically reasonable, that is, maintenance expenditures have to be outweighed by expected future benefits. Is this not the case, then indeed the structure is obsolete - at least in its current functional, economic, technical, or social configuration - and innovative alternatives have to be evaluated. An optimization formulation for planning maintenance interventions based on cost-benefit criteria is proposed herein. The underlying formulation is as follows: (a) between maintenance interventions structural deterioration is described as a random process; (b) maintenance interventions can take place anytime throughout lifetime and comprise the rehabilitation of all deterioration states above a certain minimum level; and (c) maintenance interventions are optimized by taking into account all expected life-cycle costs (construction, failure, inspection and state-dependent repair costs) as well as state- or time-dependent benefit rates. The optimization is performed by an evolutionary algorithm. The proposed approach also allows to determine optimal lifetimes and acceptable failure rates. Numerical examples demonstrate the importance of defining benefit rates explicitly. It is shown, that the optimal solution to maintenance interventions requires to take action before reaching the acceptable failure rate or the zero expected net benefit rate level. Deferring decisions with respect to maintenance not only results, in general, in higher losses, but also results in overly hazardous structures.
In the last decades, Finite Element Method has become the main method in statics and dynamics analysis in engineering practice. For current problems, this method provides a faster, more flexible solution than the analytic approach. Prognoses of complex engineer problems that used to be almost impossible to solve are now feasible.
Although the finite element method is a robust tool, it leads to new questions about engineering solutions. Among these new problems, it is possible to divide into two major groups: the first group is regarding computer performance; the second one is related to understanding the digital solution.
Simultaneously with the development of the finite element method for numerical solutions, a theory between beam theory and shell theory was developed: Generalized Beam Theory, GBT. This theory has not only a systematic and analytical clear presentation of complicated structural problems, but also a compact and elegant calculation approach that can improve computer performance.
Regrettably, GBT was not internationally known since the most publications of this theory were written in German, especially in the first years. Only in recent years, GBT has gradually become a fertile research topic, with developments from linear to non-linear analysis.
Another reason for the misuse of GBT is the isolated application of the theory. Although recently researches apply finite element method to solve the GBT's problems numerically, the coupling between finite elements of GBT and other theories (shell, solid, etc) is not the subject of previous research. Thus, the main goal of this dissertation is the coupling between GBT and shell/membrane elements. Consequently, one achieves the benefits of both sides: the versatility of shell elements with the high performance of GBT elements.
Based on the assumptions of GBT, this dissertation presents how the separation of variables leads to two calculation's domains of a beam structure: a cross-section modal analysis and the longitudinal amplification axis. Therefore, there is the possibility of applying the finite element method not only in the cross-section analysis, but also the development for an exact GBT's finite element in the longitudinal direction.
For the cross-section analysis, this dissertation presents the solution of the quadratic eigenvalue problem with an original separation between plate and membrane mechanism. Subsequently, one obtains a clearer representation of the deformation mode, as well as a reduced quadratic eigenvalue problem.
Concerning the longitudinal direction, this dissertation develops the novel exact elements, based on hyperbolic and trigonometric shape functions. Although these functions do not have trivial expressions, they provide a recursive procedure that allows periodic derivatives to systematise the development of stiffness matrices. Also, these shape functions enable a single-element discretisation of the beam structure and ensure a smooth stress field.
From these developments, this dissertation achieves the formulation of its primary objective: the connection of GBT and shell elements in a mixed model. Based on the displacement field, it is possible to define the coupling equations applied in the master-slave method. Therefore, one can model the structural connections and joints with finite shell elements and the structural beams and columns with GBT finite element.
As a side effect, the coupling equations limit the displacement field of the shell elements under the assumptions of GBT, in particular in the neighbourhood of the coupling cross-section.
Although these side effects are almost unnoticeable in linear analysis, they lead to cumulative errors in non-linear analysis. Therefore, this thesis finishes with the evaluation of the mixed GBT-shell models in non-linear analysis.
Identification of flaws in structures is a critical element in the management of maintenance and quality assurance processes in engineering. Nondestructive testing (NDT) techniques based on a wide range of physical principles have been developed and are used in common practice for structural health monitoring. However, basic NDT techniques are usually limited in their ability to provide the accurate information on locations, dimensions and shapes of flaws. One alternative to extract additional information from the results of NDT is to append it with a computational model that provides detailed analysis of the physical process involved and enables the accurate identification of the flaw parameters. The aim here is to develop the strategies to uniquely identify cracks in two-dimensional 2D) structures under dynamic loadings.
A local NDT technique combined eXtended Finite Element Method (XFEM) with dynamic loading in order to identify the cracks in the structures quickly and accurately is developed in this dissertation. The Newmark-b time integration method with Rayleigh damping is used for the time integration. We apply Nelder-Mead (NM)and Quasi-Newton (QN) methods for identifying the crack tip in plate. The inverse problem is solved iteratively, in which XFEM is used for solving the forward problem in each iteration. For a timeharmonic excitation with a single frequency and a short-duration signal measured along part of the external boundary, the crack is detected through the solution of an inverse time-dependent problem. Compared to the static load, we show that the dynamic loads are more effective for crack detection problems. Moreover, we tested different dynamic loads and find that NM method works more efficient under the harmonic load than the pounding load while the QN method achieves almost the same results for both load types.
A global strategy, Multilevel Coordinate Search (MCS) with XFEM (XFEM-MCS) methodology under the dynamic electric load, to detect multiple cracks in 2D piezoelectric plates is proposed in this dissertation. The Newmark-b method is employed for the time integration and in each iteration the forward problem is solved by XFEM for various cracks. The objective functional is minimized by using a global search algorithm MCS. The test problems show that the XFEM-MCS algorithm under the dynamic electric load can be effectively employed for multiple cracks detection in piezoelectric materials, and it proves to be robust in identifying defects in piezoelectric structures. Fiber-reinforced composites (FRCs) are extensively applied in practical engineering since they have high stiffness and strength. Experiments reveal a so-called interphase zone, i.e. the space between the outside interface of the fiber and the inside interface of the matrix. The interphase strength between the fiber and the matrix strongly affects the mechanical properties as a result of the large ratio of interface/volume. For the purpose of understanding the mechanical properties of FRCs with functionally graded interphase (FGI), a closed-form expression of the interface strength between a fiber and a matrix is obtained in this dissertation using a continuum modeling approach according to the ver derWaals (vdW) forces. Based on the interatomic potential, we develop a new modified nonlinear cohesive law, which is applied to study the interface delamination of FRCs with FGI under different loadings. The analytical solutions show that the delamination behavior strongly depends on the interphase thickness, the fiber radius, the Young’s moduli and Poisson’s ratios of the fiber and the matrix. Thermal conductivity is the property of a material to conduct heat. With the development and deep research of 2D materials, especially graphene and molybdenum disulfide (MoS2), the thermal conductivity of 2D materials attracts wide attentions. The thermal conductivity of graphene nanoribbons (GNRs) is found to appear a tendency of decreasing under tensile strain by classical molecular dynamics (MD) simulations. Hence, the strain effects of graphene can play a key role in the continuous tunability and applicability of its thermal conductivity property at nanoscale, and the dissipation of thermal conductivity is an obstacle for the applications of thermal management. Up to now, the thermal conductivity of graphene under shear deformation has not been investigated yet. From a practical point of view, good thermal managements of GNRs have significantly potential applications of future GNR-based thermal nanodevices, which can greatly improve performances of the nanosized devices due to heat dissipations. Meanwhile, graphene is a thin membrane structure, it is also important to understand the wrinkling behavior under shear deformation. MoS2 exists in the stable semiconducting 1H phase (1H-MoS2) while the metallic 1T phase (1T-MoS2) is unstable at ambient conditions. As it’s well known that much attention has been focused on studying the nonlinear optical properties of the 1H-MoS2. In a very recent research, the 1T-type monolayer crystals of TMDCs, MX2 (MoS2, WS2 ...) was reported having an intrinsic in-plane negative Poisson’s ratio. Luckily, nearly at the same time, unprecedented long-term (>3months) air stability of the 1T-MoS2 can be achieved by using the donor lithium hydride (LiH). Therefore, it’s very important to study the thermal conductivity of 1T-MoS2.
The thermal conductivity of graphene under shear strain is systematically studied in this dissertation by MD simulations. The results show that, in contrast to the dramatic decrease of thermal conductivity of graphene under uniaxial tensile, the thermal conductivity of graphene is not sensitive to the shear strain, and the thermal conductivity decreases only 12-16%. The wrinkle evolves when the shear strain is around 5%-10%, but the thermal conductivity barely changes.
The thermal conductivities of single-layer 1H-MoS2(1H-SLMoS2) and single-layer 1T-MoS2 (1T-SLMoS2) with different sample sizes, temperatures and strain rates have been studied systematically in this dissertation. We find that the thermal conductivities of 1H-SLMoS2 and 1T-SLMoS2 in both the armchair and the zigzag directions increase with the increasing of the sample length, while the increase of the width of the sample has minor effect on the thermal conductions of these two structures. The thermal conductivity of 1HSLMoS2 is smaller than that of 1T-SLMoS2 under size effect. Furthermore, the temperature effect results show that the thermal conductivities of both 1H-SLMoS2 and 1T-SLMoS2 decrease with the increasing of the temperature. The thermal conductivities of 1HSLMoS2 and 1T-SLMoS2 are nearly the same (difference <6%) in both of the chiral orientations under corresponding temperatures, especially in the armchair direction (difference <2.8%). Moreover, we find that the strain effects on the thermal conductivity of 1HSLMoS2 and 1T-SLMoS2 are different. More specifically, the thermal conductivity decreases with the increasing tensile strain rate for
1T-SLMoS2, while fluctuates with the growth of the strain for 1HSLMoS2. Finally, we find that the thermal conductivity of same sized 1H-SLMoS2 is similar with that of the strained 1H-SLMoS2 structure.
This thesis focuses on the cryptanalysis and the design of block ciphers and hash func- tions. The thesis starts with an overview of methods for cryptanalysis of block ciphers which are based on differential cryptanalysis. We explain these concepts and also sev- eral combinations of these attacks. We propose new attacks on reduced versions of ARIA and AES. Furthermore, we analyze the strength of the internal block ciphers of hash functions. We propose the first attacks that break the internal block ciphers of Tiger, HAS-160, and a reduced round version of SHACAL-2. The last part of the thesis is concerned with the analysis and the design of cryptographic hash functions. We adopt a block cipher attack called slide attack into the scenario of hash function cryptanalysis. We then use this new method to attack different variants of GRINDAHL and RADIOGATUN. Finally, we propose a new hash function called TWISTER which was designed and pro- posed for the SHA-3 competition. TWISTER was accepted for round one of this com- petition. Our approach follows a new strategy to design a cryptographic hash function. We also describe several attacks on TWISTER and discuss the security issues concern- ing these attack on TWISTER.
Cultural Heritage on Mobile Devices: Building Guidelines for UNESCO World Heritage Sites' Apps
(2021)
Technological improvements and access provide a fertile scenario for creating and developing mobile applications (apps). This scenario results in a myriad of Apps providing information regarding touristic destinations, including those with a cultural profile, such as those dedicated to UNESCO World Heritage Sites (WHS). However, not all of the Apps have the same efficiency. In order to have a successful app, its development must consider usability aspects and features aligned with reliable content. Despite the guidelines for mobile usability being broadly available, they are generic, and none of them concentrates specifically into cultural heritage places, especially on those placed in an open-air scenario. This research aims to fulfil this literature gap and discusses how to adequate and develop specific guidelines for a better outdoor WHS experience. It uses an empirical approach applied to an open-air WHS city: Weimar and its Bauhaus and Classical Weimar sites. In order to build a new set of guidelines applied for open-air WHS, this research used a systematic approach to compare literature-based guidelines to industry-based ones (based on affordances), extracted from the available Apps dedicated to WHS set in Germany. The instructions compiled from both sources have been comparatively tested by using two built prototypes from the distinctive guidelines, creating a set of recommendations collecting the best approach from both sources, plus suggesting new ones the evaluation.
This thesis explores how cultural heritage plays a role in the development of urban identity by engaging both actively and passively with memory, i.e. remembering and forgetting. I argue that architectural heritage is a medium where specific cultural and social decisions form its way of presentation, and it reflects the values and interests of the period. By the process of remembering and forgetting, the meanings between inhabitant and object in urban environment are practiced, and the meanings are created.
To enable the research in narrative observation, cultural tourism management is chosen as the main research object, which reflects the alteration of interaction between the architectural heritage and urban identity. Identifying the role of heritage management, the definition of social resilience and the prospects of cultural heritage as a means of social resilience are addressed. Case region of the research is East Ger- many, thereby, the study examines the distinct approaches and objectives regarding heritage management under the different political systems along the German reunification process.
The framework is based on various theoretical paradigms to investigate the broad research questions: 1) What is the role of historic urban quarters in the revitalisation of East German towns? 2) How was the transition processed by cultural heritage management? 3) How did policy affect residents’ lives?
The case study is applied to macro level (city level: Gotha and Eisenach) and micro level study (object level: specific heritage sites), to analyse the performance of selective remembering and making tourist destination through giving significance to specific heritage. By means of site observations, archival research, qualitative inter- views, photographs, and discourse analysis on printed tourism materials, the study demonstrates that certain sites and characteristics of the city enable creating and focusing messages, which aids the social resilience.
Combining theory and empirical studies this thesis attempts to widen the academic discussion regarding the practice of remembering and forgetting driven by cultural heritage. The thesis argues for cultural heritage tourism as an element of social resilience and one that embraces the historic and cultural identity of the inhabitants.
This dissertation is devoted to the theoretical development and experimental laboratory verification of a new damage localization method: The state projection estimation error (SP2E). This method is based on the subspace identification of mechanical structures, Krein space based H-infinity estimation and oblique projections. To explain method SP2E, several theories are discussed and laboratory experiments have been conducted and analysed.
A fundamental approach of structural dynamics is outlined first by explaining mechanical systems based on first principles. Following that, a fundamentally different approach, subspace identification, is comprehensively explained. While both theories, first principle and subspace identification based mechanical systems, may be seen as widespread methods, barely known and new techniques follow up. Therefore, the indefinite quadratic estimation theory is explained. Based on a Popov function approach, this leads to the Krein space based H-infinity theory. Subsequently, a new method for damage identification, namely SP2E, is proposed. Here, the introduction of a difference process, the analysis by its average process power and the application of oblique projections is discussed in depth.
Finally, the new method is verified in laboratory experiments. Therefore, the identification of a laboratory structure at Leipzig University of Applied Sciences is elaborated. Then structural alterations are experimentally applied, which were localized by SP2E afterwards. In the end four experimental sensitivity studies are shown and discussed. For each measurement series the structural alteration was increased, which was successfully tracked by SP2E. The experimental results are plausible and in accordance with the developed theories. By repeating these experiments, the applicability of SP2E for damage localization is experimentally proven.
The main objective of the present work is to establish a link between the scientific fields of engineering seismology and structural engineering. Substantially it deals with the application and enhancements of methods coming from engineering seismology as well as their junctions to the fields of structural engineering respectively earthquake engineering. Based on real occurred earthquake damage inflicted to multistoried reinforced-concrete frame buildings, the influence of local site effects on the grade of structural damage is worked out. This relying on comprehensive investigations conducted during numerous field missions of German TaskForce after damaging earthquakes in Venezuela and Türkiye. Instrumental investigations on both the structure and its local subsoil in order to identify the damage potential of seismic ground motion take center stage of the thesis. Thereby it is examined whether or not an estimated seismic demand representative in amplitude level and frequency characteristics is able to cause structural damage considering the vulnerability of the structure itself as well as the local site and subsoil conditions. Investigations are concentrated on selected RC frame structures with or without masonry infill walls.
Das im Jahre 2003 verabschiedete und 2006 in Kraft getretene UNESCO-Übereinkommen zur Bewahrung des immateriellen Kulturerbes erweitert das Kulturverständnis von gebautem Kulturerbe gemäß der Konvention aus dem Jahre 1972 durch gelebtes Kulturerbe. Die Dissertation zeigt beispielhaft, wie sich Bürger einer Stadt und einer Region mit ihrer historischen Vergangenheit befassen und dass es lohnenswert ist, sich mit ihrem ererbten immateriellen Kulturerbe auseinander zu setzen. Sie bezeugt, dass eine moderne populäre Kultur die Pflege des immateriellen Kulturerbes voranbringt, dass personalisierte und vergesellschaftete Individuen die Sorge um den drohenden Kulturverlust ernst nehmen und diesem aktiv, eigenständig und unpolitisch entgegen treten. Ausgehend von der wertphilosophischen und kulturtheoretischen Annäherung werden im zweiten und dritten Kapitel beispielhaft die Ur-Inszenierung im Jahre 1475 und die Re-Inszenierung im 21. Jahrhundert gegenübergestellt. Die Ergebnisse aus der Untersuchung werden im vierten Kapitel diskutiert. An Hand der Promotionsschrift wird versucht, Antworten auf folgende Fragen zu finden: - Hat die Re-Inszenierung der „Landshuter Fürstenhochzeit 1475“ des 21. Jahrhunderts das Potential eines immateriellen Kulturerbes? - Kann sie den negativen Begleiterscheinungen des Generations- wechsels und der Globalisierung entgegentreten? - Ist sie eine zeitgenössische Transformationsmethode von (Denkmal)Werten? - Was sind die Schutzkomponenten? - Trägt die Re-Inszenierung zu der kulturellen Identität einer Stadt an authentischem Ort bei und hat sie Einfluss auf die Gestaltung der baulich-räumlichen Umwelt?
Die Arbeit „Das Bild der Zwischenstadt“ sucht nach Möglichkeiten zur Qualifizierung der verstädterten Landschaft, für die Thomas Sieverts den Begriff „Zwischenstadt“ geprägt hat. Die Auseinandersetzung mit „räumlicher Identität“ steht dabei im Mittelpunkt: In deren Dekodierung und Inszenierung wird ein Potenzial erkannt, die Aufenthalts- und Erlebnisqualität der Zwischenstadt zu verbessern. Der Betrachtungsraum der Arbeit zwischen Frankfurt am Main und seinen prosperierenden Umlandgemeinden eignet sich in besonderer Weise, die „Anatomie der Zwischenstadt“ zu dekodieren. Schicht für Schicht wird der Versuch unternommen, die eigene Sprache dieses Raumes zu entziffern. Dabei werden Methoden der Beschreibung und Darstellung entwickelt, die den spezifischen räumlichen Eigenschaft der Zwischenstadt gerecht zu werden suchen. Die Ergebnisse dieser Auseinandersetzung lassen deutliche Transformationen in der Zwischenstadt erkennen und entheben sie aus ihrer vermeintlichen Eigenschaftslosigkeit. Orte mit Bedeutung, Zusammenhänge und Raumgeschichten werden lesbar, es zeigen sich Ansätze eigener Urbanität und Zentralität. Die Zwischenstadt hat sich von ihrer einseitigen Dependenz zur Kernstadt gelöst, tritt aber gleichzeitig in einen umfassenden Wandel, um sich geänderten Lebensformen und Bedürfnissen anzupassen. Ältere, den Raum prägende Einfamilienhausgebiete und Großsiedlungen, aber auch monofunktionale Gewerbegebiete und die typischen suburbanen Einkaufszentren erfüllen keineswegs mehr automatisch die Wohnwünsche und Anforderungen einer Dienstleistungs- und Freizeitgesellschaft. Die Arbeit greift die unverkennbare Transformation des Bildes der Zwischenstadt als Chance zur Qualifizierung dieses Raumes auf. Entwickelt werden Qualifizierungsmodelle, die der Tendenz zu Segregation und Abtrennung mit einer neuen Integrationskultur für die Zwischenstadt begegnen: Als prägender Lebensraum der Stadtregion muss die Zwischenstadt einen großen Teil der Bedürfnisse Ihrer Bewohner und Benutzer an den Raum befriedigen. Zunehmend sind diese Bedürfnisse nicht nur funktioneller Art, sondern werden überlagert von einem Bedürfnis nach Raumqualität, Verortung und Identifikationsmöglichkeiten. Für diese Bedürfnisse angemessene und auratische Raumbilder zu finden oder zu inszenieren, ist im Angesicht des Status Quo der Stadtlandschaft eine wichtige Herausforderung.