TY - THES A1 - Wendler, André T1 - Anachronismen: Historiografie und Kino N2 - Die Arbeit »Anachronismen: Historiografie und Kino« geht von einer zunächst einfachen Beobachtung aus: beinahe immer, wenn Historiker_innen sich mit Geschichtsfilmen auseinander setzen, findet sich die lautstark geführte Beschwerde über die zahlreichen und vermeidbaren Anachronismen der Filme, die sie als ernst zu nehmende historiografische Beiträge desavouieren. Von hier ausgehend verfolgt die Arbeit ein dreifaches Projekt: zunächst in einer kritischen Analyse geschichtstheoretischer Texte einige Hinweise für den Status von Anachronismen für die moderne westliche Historiografie zu gewinnen. Zweitens zu untersuchen, welche Rolle Anachronismen für den Geschichtsfilm spielen. Und drittens von dort aus das epistemische Potential anachronistischen Geschichtskinos zu untersuchen. Eine der Hauptthesen, welche den Blick sowohl auf die Filme wie auf die theoretischen Texte leitet, besagt, dass Anachronismen genau jene Punkte sind, an denen die Medien einer jeden Geschichtsschreibung beobachtbar werden. Die Beobachtung und Beschreibung dieser Medien der kinematografischen Geschichtsschreibung unternimmt die Arbeit unter Zuhilfenahme einiger theoretischer Überlegungen der Actor Network Theory (ANT). Die Arbeit ist in vier Kapitel gegliedert, in deren Zentrum jeweils die Diskussion eines ANT-Begriffs sowie die Analyse eines Geschichtsfilmes steht. Zu den untersuchten Filmen gehören Shutter Island (Martin Scorsese, 2010), Chronik der Anna Magdalena Bach (Jean-Marie Straub/Danièle Huillet, 1968), Cleopatra (Joseph L. Mankiewicz, 1963) und Caravaggio (Derek Jarman, 1986). Die Arbeit kommentiert außerdem theoretische Texte zur Historiografie und zu Anachronismen von Walter Benjamin, Leo Bersani, Georges Didi-Huberman, Siegfried Kracauer, Friedrich Meinecke, Friedrich Nietzsche, Jacques Rancière, Leopold Ranke, Paul Ricœur, Georg Simmel, Hayden White u. a. N2 - The study “Anachronisms: Historiography and Cinema” uses a rather simple observation as its starting point: almost always when historians are dealing with history films they keep complaining about their numerous and avoidable anachronisms which render them worthless for any serious discussion of history. The study pursues a threefold project from here on: it first tries to develop some hints concerning the status of anachronisms for modern western historiography by a close reading of texts on the theory of history. Second it asks about the role of anachronisms in history films. And it thirdly investigates the epistemic potential of anachronistic history films. One of the study’s main theses is that anachronisms are the crucial points of historiographies at which their media can be observed. This observation is here done with the help of some key concepts of Actor Network Theory (ANT). The study is structured into four chapters that each discuss one of the ANT concepts and analyse one film in depth. The following films are discussed here: Shutter Island (Martin Scorsese, 2010), Chronik der Anna Magdalena Bach (Jean-Marie Straub/Danièle Huillet, 1968), Cleopatra (Joseph L. Mankiewicz, 1963) und Caravaggio (Derek Jarman, 1986). Theoretical positions on historiography and anachronisms by the following scholars are assesed: Walter Benjamin, Leo Bersani, Georges Didi-Huberman, Siegfried Kracauer, Friedrich Meinecke, Friedrich Nietzsche, Jacques Rancière, Leopold Ranke, Paul Ricœur, Georg Simmel, Hayden White etc. KW - Geschichtsschreibung KW - Anachronismus KW - Actor-Network-Theory KW - Historischer Film Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20121219-17991 ER - TY - THES A1 - Karaki, Ghada T1 - Assessment of coupled models of bridges considering time-dependent vehicular loading N2 - Bridge vibration due to traffic loading has been a subject of extensive research in the last decades. The focus of such research has been to develop solution algorithms and investigate responses or behaviors of interest. However, proving the quality and reliability of the model output in structural engineering has become a topic of increasing importance. Therefore, this study is an attempt to extend concepts of uncertainty and sensitivity analyses to assess the dynamic response of a coupled model in bridge engineering considering time-dependent vehicular loading. A setting for the sensitivity analysis is proposed, which enables performing the sensitivity analysis considering random stochastic processes. The classical and proposed sensitivity settings are used to identify the relevant input parameters and models that have the most influence on the variance of the dynamic response. The sensitivity analysis exercises the model itself and extracts results without the need for measurements or reference solutions; however, it does not offer a means of ranking the coupled models studied. Therefore, concepts of total uncertainty are employed to rank the coupled models studied according to their fitness in describing the dynamic problem. The proposed procedures are applied in two examples to assess the output of coupled subsystems and coupled partial models in bridge engineering considering the passage of a heavy vehicle at various speeds. N2 - Brückenschwingungen infolge von Verkehrslasten sind seit mehreren Jahrzehnten Gegenstand intensiver Forschung. Im Fokus stand hierbei im Besonderen die Entwicklung von Lösungsalgorithmen zur Ermittlung des dynamischen Bauwerkverhaltens. Begleitet ist diese Entwicklung von der Frage nach der Qualität und Zuverlässigkeit dieser Modelle für den Gebrauch im konstruktiven Ingenieurbau. In diesem Zusammenhang werden in der vorliegenden Arbeit Konzepte der Unsicherheits- und Sensitivitätsanalyse erweitert, um das dynamische Bauwerkverhalten unter Berücksichtigung transienter Fahrzeuglasten bei gekoppelten Modellen des Brückenbaus zu bewerten. Bestehende Sensitivitätsanalysen werden ergänzt, um diese auch unter Berücksichtigung von stochastischen Prozessen durchführen zu können. Die klassische und die erweiterte Methode werden angewandt, um relevante Eingangsparameter sowie Partialmodelle mit wesentlichem Einfluss auf die Varianz der dynamischen Strukturantwort zu identifizieren. Die mit Hilfe der Sensitivitätsanalyse ermittelbaren Kennzahlen können ohne Bezug zu einer Referenzlösung in die Modellbewertung einfließen, allerdings ist es nicht möglich, die Modelle hinsichtlich der realitätsnahen Abbildung des dynamischen Problems zu bewerten. Um dies zu ermöglichen, wurden Konzepte der Gesamtunsicherheit verwendet. Die vorgestellten Methoden wurden auf zwei Beispiele angewandt, um die Ergebnisse von gekoppelten Subsystemen und gekoppelten Partialmodellen des Brückenbaus zu evaluieren. Hierbei handelt es sich um die Überfahrt von schweren Fahrzeugen mit verschiedenen Geschwindigkeiten. T3 - Schriftenreihe des DFG Graduiertenkollegs 1462 Modellqualitäten // Graduiertenkolleg Modellqualitäten - 5 KW - Ingenieurbau KW - bridge-vehicle interaction KW - random vibrations KW - sensitivity and uncertainty analysis Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20120402-15894 ER - TY - THES A1 - Keitel, Holger T1 - Bewertungsmethoden für die Prognosequalität von Kriechmodellen des Betons T1 - Evaluation Methods for Prediction Quality of Concrete Creep Models N2 - Ziel dieser Arbeit ist die Entwicklung von Methoden, mit denen die Prognosequalität von Kriechmodellen des Betons bestimmt werden kann. Die Methoden werden in zwei Ausgangsszenarien unterschieden: die Bewertung ohne und die Bewertung mit Verwendung von spezifischen Versuchsdaten zum Kriechverhalten des Betons. Die Modellqualität wird anhand der Gesamtunsicherheit der prognostizierten Kriechnachgiebigkeit quantifiziert. Die Unsicherheit wird für die Kriechprognose ohne Versuchsdaten über eine Unsicherheitsanalyse unter Berücksichtigung korrelierter Eingangsparameter ermittelt. Bei der Verwendung experimenteller Daten werden die stochastischen Eigenschaften der Modellparameter mittels Bayesian Updating bestimmt. Die Bewertung erfolgt erneut basierend auf einer Unsicherheitsanalyse sowie alternativ mittels Modellselektion nach Bayes. Weiterhin wird eine auf Graphentheorie und Sensitivitätsanalysen basierende Methode zur Bewertung von gekoppelten Partialmodellen entwickelt. Damit wird der Einfluss eines Partialmodells auf das Verhalten einer globalen Tragstruktur quantifiziert, Interaktionen von Partialmodellen festgestellt und ein Maß für die Qualität eines Gesamtmodells ermittelt. N2 - The goal of this doctoral thesis is the development of methods for the evaluation of the prediction quality of concrete creep models. The methods are distinguished into two scenarios: the evaluation with and without experimental data about the creep behavior of concrete. The model quality is quantified by the total uncertainty of the predicted creep compliance. The uncertainty of the creep prognosis without using measurement data is quantified by an uncertainty analysis taking into account the parameter correlation. When experimental data is considered the stochastic properties of the creep model parameters are found by means of Bayesian Updating. The evaluation is once more based on an uncertainty analysis or, alternatively, applying Bayesian model selection. Further, an assessment method of coupled partial models based on graph theory and sensitivity analysis is developed. Therewith, the influence of classes of partial models on the global model response is quantified, interactions of partial models are detected, and a measure for the quality of the global model is derived. T3 - Schriftenreihe des DFG Graduiertenkollegs 1462 Modellqualitäten // Graduiertenkolleg Modellqualitäten - 2 KW - Kriechen KW - Bewertung KW - Prognosequalität KW - Bayes-Inferenz KW - Unsicherheitsanalyse KW - Gekoppelte Modelle KW - Coupled models KW - Bewertungsmethode KW - Evaluation methods Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20120207-15569 SN - 978-3-86068-466-5 PB - Verlag der Bauhaus-Universität Weimar CY - Weimar ER - TY - THES A1 - Urbina Cazenave, Mario Humberto T1 - Gaze Controlled Applications and Optical-See-Through Displays - General Conditions for Gaze Driven Companion Technologies N2 - Gaze based human-computer-interaction has been a research topic for over a quarter century. Since then, the main scenario for gaze interaction has been helping handicapped people to communicate an interact with their environment. With the rapid development of mobile and wearable display technologies, a new application field for gaze interaction has appeared, opening new research questions. This thesis investigates the feasibility of mobile gaze based interaction, studying deeply the use of pie menus as a generic and robust widget for gaze interaction as well as visual and perceptual issues on head mounted (wearable) optical see-through displays. It reviews conventional gaze-based selection methods and investigates in detail the use of pie menus for gaze control. It studies and discusses layout issues, selection methods and applications. Results show that pie menus can allocate up to six items in width and multiple depth layers, allowing a fast and accurate navigation through hierarchical levels by using or combining multiple selection methods. Based on these results, several text entry methods based on pie menus are proposed. Character-by-character text entry, text entry with bigrams and with text entry with bigrams derived by word prediction, as well as possible selection methods, are examined in a longitudinal study. Data showed large advantages of the bigram entry methods over single character text entry in speed and accuracy. Participants preferred the novel selection method based on saccades (selecting by borders) over the conventional and well established dwell time method. On the one hand, pie menus showed to be a feasible and robust widget, which may enable the efficient use of mobile eye tracking systems that may not be accurate enough for controlling elements on conventional interface. On the other hand, visual perception on mobile displays technologies need to be examined in order to deduce if the mentioned results can be transported to mobile devices. Optical see-through devices enable observers to see additional information embedded in real environments. There is already some evidence of increasing visual load on the respective systems. We investigated visual performance on participants with a visual search tasks and dual tasks presenting visual stimuli on the optical see-through device, only on a computer screen, and simultaneously on both devices. Results showed that switching between the presentation devices (i.e. perceiving information simultaneously from both devices) produced costs in visual performance. The implications of these costs and of further perceptual and technical factors for mobile gaze-based interaction are discussed and solutions are proposed. N2 - Blickbasierte Mensch-Computer-Interaktion ist seit einem viertel Jahrhundert ein relevantes Forschungsthema. Der überwiegende Einsatz von Blicksteuerung beschränkte sich darauf, das Menschen mit Behinderungen kommunizieren können. In dieser Form, können z.B. ALS Patienten allein durch ihren Blickbewegungen Texte schreiben, Rollstühle bewegen und Bedürfnisse mitteilen. Durch die rasante Entwicklung von mobilen Endgeräten und tragbaren Displaytechnologien, öffnete sich ein neues Anwendungsfeld und damit neue Forschungsfragen. Im Rahmen dieser Dissertation wurden grundlegende Interaktionsmöglichkeiten mittels Blicksteuerung entwickelt und erforscht, die das gesamte Potential von Blickbewegungen als Eingabemöglchkeit ausnutzen. Blicksteuerung charakterisiert sich dadurch, dass sie die schnellste motorische Bewegung ist und unwillkürlich gesteuert wird. Sie bildet damit Aufmerksamkeitsprozesse ab. So kann der Blick nicht nur als Mittel zur Eingabe dienlich sein, sondern er verrät auch etwas über die Intentionen und Motive des Nutzers. Dies für die Rechnersteuerung zu nutzen, kann die Eingabe mittels Blicken überaus einfach und effizient machen und zwar nicht nur für motorisch beeinträchtigte, sondern auch für gesunde Nutzer. Diese These erforscht die Machbarkeit von mobiler Blicksteuerung. Sie untersucht im Detail den Einsatz von Pie Menüs als generisches und robustes Widget für Blicksteuerung, sowie visuelle und wahrnehmungspsychologische Aspekte bei der Nutzung von mobilen optischen Datenbrillen. Diese Arbeit fasst konventionelle blickbasierte Interaktionsmethoden zusammen und untersucht im Detail die Verwendung von Pie Menüs für Blicksteuerung. Es erforscht und diskutiert Layout-Probleme, Auswahl, Methoden und Anwendungen von Pie Menüs. Die Ergebnisse zeigen, dass Pie Menüs bis zu sechs Elemente in Breite und Tiefe, in mehreren Schichten zuordnen können, so dass eine schnelle und präzise Navigation durch die hierarchischen Ebenen gewährleistet ist. Durch die Nutzung oder die Kombination mehrerer Selektionsmethoden, kann eine effiziente und effektive Interaktion gewährleistet werden. Gestützt von diesen Ergebnissen, wurden diverse auf Pie Menüs basierte Texteingabesysteme entwickelt. Diese Texteingabesysteme bauen auf der Eingabe von Einzelbuchstaben, Bigrammen, und vorhersgesagten Wörter. Die genannten Systeme sowie zwei Selektionsmethoden der blickbasierten Interaktion wurden untersucht. Die Ergebnisse zeigen signifikante Unterschiede bei der Geschwindigkeit und Genauigkeit der Texteingabe zugunsten des auf Bigrammen basierten Texteingabesystems, im direkten Vergleich zur Methode der einzelnen Buchstabeneingabe. Die Probanden präferierten, die neue aus Sakkaden basierte Selektionsmethode, über die konventionelle und gut etablierte Schwellzeit (dwell time) Methode. Pie Menüs erwiesen sich als ein praktikabel und robustes Widget, dass die effiziente Nutzung von mobilen Eye-Tracking-Systemen und Displays, auch bei geringer Genauigkeit, ermöglichen kann. Nichts desto trotz, muss die visuelle Wahrnehmung in mobilen op tischen Datenbrillen untersucht werden, um die Übertragbarkeit der bereits benannten Befunde für Datenbrillen sicher zu stellen. Ziel der AR-Ausgabegeräte ist es, die reale Umgebung mit virtueller Information anzureichern. Die Vorstellung dabei ist, dass die virtuelle Information sich in die reale Umgebung einfügt, d.h., dass Betrachter die virtuelle und reale Information zu einem Bild integrieren. Aus psychologischer Perspektive ist es einerseits plausibel, dass Informationen in raum-zeitlicher Nachbarschaft zusammenzufügen sind. Andererseits kann eine vollständige Integration nur dann erfolgen, wenn die Darbietung als einheitlich wahrgenommen werden kann. Dagegen sprechen allerdings zwei grundlegende Punkte; zum einen das Selbstleuchten der virtuellen Information, zum anderen deren Größenund Entfernungshinweise. Das Selbstleuchten der per AR-Gerät eingeblendeten Information ist deshalb problematisch, weil dieses Merkmal bei realen Objekten kaum vorhanden ist. Insofern sollte eine vollständige Integration der Information von dem AR-Gerät und anderer Information höchstens dann erfolgen können, wenn es sich bei der realen Information um Reize auf einem Computermonitor handelt, die ebenfalls selbstleuchtend sind. Für andere reale Objekte sollte die Leuchtstärke der eingeblendeten Information allein ein wesentliches Unterscheidungsmerkmal darstellen. Ein weiteres wichtiges Unterscheidungsmerkmal ist die Größeninformation, die einen bedeutenden Anteil an der Entfernungsschätzung hat: In unserer realen Welt werden Objekte, die sich vom Betrachter entfernen, auf zunehmend kleinere retinale Areale projiziert. Gleich große Objekte müssen also mit zunehmender Betrachtungsdistanz kleiner abgebildet sein. Bei der AR- Technologie werden nun Objekte, wie bei einem Nachbild, in konstanter retinaler Größe projiziert, unabhängig davon, wo in der Tiefe sie gerade lokalisiert werden. Da die Objekte üblicherweise auf bzw. vor dem nächsten Hintergrund wahrgenommen werden, sind Größeninformationen der virtuellen Objekte nicht zur Entfernungswahrnehmung zu verwenden. Sie führen sogar teilweise zu widersprüchlichen Tiefenhinweisen, wenn die Distanz zu einem Hintergrund vergrößert wird, die Reize aber die gleichen retinalen Areale beanspruchen und somit bei größer werdender Entfernung als größer wahrgenommen werden. Für diese These wurden drei Versuchsanordnungen entwickelt, mit denen jeweils bestimmte Aspekte der gleichzeitigen Wahrnehmung von Information auf einem AR-Gerät und realen Umwelt detailliert untersucht wurden. Die Ergebnisse zeigten, dass die gleichzeitige Wahrnehmung von Information aus realen und virtuellen Medien mit kosten in der Sehleistung verbunden ist. Weitere Untersuchungen zeigten, dass das visuelle System bei der gleichzeitigen Darbietung von virtuellen und realen Reizen ständig die Einstellung von Vergenz und Akkomodation ändern muss. Dies könnte die visuelle Beanspruchung erklären, die in zahlreichen Studien beobachtet wurde. Die Auswirkungen der genannten Wechselkosten, Wahrnehmungs- und technischen Faktoren für mobile blickbasierte Interaktion werden hier diskutiert und Lösungen werden vorgeschlagen. KW - Eye tracking movement KW - Gaze Control KW - Visual Perception KW - Eye Typing KW - Gaze Interaction KW - Augmented Reality Displays Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20121107-17492 ER - TY - THES A1 - Schrader, Kai T1 - Hybrid 3D simulation methods for the damage analysis of multiphase composites T1 - Hybride 3D Simulationsmethoden zur Abbildung der Schädigungsvorgänge in Mehrphasen-Verbundwerkstoffen N2 - Modern digital material approaches for the visualization and simulation of heterogeneous materials allow to investigate the behavior of complex multiphase materials with their physical nonlinear material response at various scales. However, these computational techniques require extensive hardware resources with respect to computing power and main memory to solve numerically large-scale discretized models in 3D. Due to a very high number of degrees of freedom, which may rapidly be increased to the two-digit million range, the limited hardware ressources are to be utilized in a most efficient way to enable an execution of the numerical algorithms in minimal computation time. Hence, in the field of computational mechanics, various methods and algorithms can lead to an optimized runtime behavior of nonlinear simulation models, where several approaches are proposed and investigated in this thesis. Today, the numerical simulation of damage effects in heterogeneous materials is performed by the adaption of multiscale methods. A consistent modeling in the three-dimensional space with an appropriate discretization resolution on each scale (based on a hierarchical or concurrent multiscale model), however, still contains computational challenges in respect to the convergence behavior, the scale transition or the solver performance of the weak coupled problems. The computational efficiency and the distribution among available hardware resources (often based on a parallel hardware architecture) can significantly be improved. In the past years, high-performance computing (HPC) and graphics processing unit (GPU) based computation techniques were established for the investigationof scientific objectives. Their application results in the modification of existing and the development of new computational methods for the numerical implementation, which enables to take advantage of massively clustered computer hardware resources. In the field of numerical simulation in material science, e.g. within the investigation of damage effects in multiphase composites, the suitability of such models is often restricted by the number of degrees of freedom (d.o.f.s) in the three-dimensional spatial discretization. This proves to be difficult for the type of implementation method used for the nonlinear simulation procedure and, simultaneously has a great influence on memory demand and computational time. In this thesis, a hybrid discretization technique has been developed for the three-dimensional discretization of a three-phase material, which is respecting the numerical efficiency of nonlinear (damage) simulations of these materials. The increase of the computational efficiency is enabled by the improved scalability of the numerical algorithms. Consequently, substructuring methods for partitioning the hybrid mesh were implemented, tested and adapted to the HPC computing framework using several hundred CPU (central processing units) nodes for building the finite element assembly. A memory-efficient iterative and parallelized equation solver combined with a special preconditioning technique for solving the underlying equation system was modified and adapted to enable combined CPU and GPU based computations. Hence, it is recommended by the author to apply the substructuring method for hybrid meshes, which respects different material phases and their mechanical behavior and which enables to split the structure in elastic and inelastic parts. However, the consideration of the nonlinear material behavior, specified for the corresponding phase, is limited to the inelastic domains only, and by that causes a decreased computing time for the nonlinear procedure. Due to the high numerical effort for such simulations, an alternative approach for the nonlinear finite element analysis, based on the sequential linear analysis, was implemented in respect to scalable HPC. The incremental-iterative procedure in finite element analysis (FEA) during the nonlinear step was then replaced by a sequence of linear FE analysis when damage in critical regions occured, known in literature as saw-tooth approach. As a result, qualitative (smeared) crack initiation in 3D multiphase specimens has efficiently been simulated. T3 - ISM-Bericht // Institut für Strukturmechanik, Bauhaus-Universität Weimar - 2013,2 KW - high-performance computing KW - finite element method KW - heterogeneous material KW - domain decomposition KW - scalable smeared crack analysis KW - FEM KW - multiphase KW - damage KW - HPC KW - solver Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20131021-20595 ER - TY - THES A1 - Krause, Haie-Jann T1 - Kallmeyer und Facilides. Eine Architektengemeinschaft im Kontext ihrer Entwicklung von konservativen Gestaltungstendenzen zur Baukunst der Moderne. N2 - Die Vorstellung des Gesamtwerkes der halleschen Architekten Julius Kallmeyer und Wilhelm Facilides, die sich Anfang der 1920er Jahre zu einer Zusammenarbeit entschlossen und eine Vielzahl interessanter Gebäude für die Saalestadt schufen, ist in der Fokussierung der Gesamtthematik der Lebens- und Werksdarstellung das Grundanliegen dieser Ausarbeitung. Dieses bisher nicht in Angriff genommene architekturgeschichtliche Anliegen beschäftigt sich mit den Ergebnissen der Bürogeschichte einer- und der Lebensgeschichte der Persönlichkeiten andererseits. Bis heute gelten die klassisch modernen Architekturen Kallmeyers & Facilides ́, gerade für den gehobenen Wohnhausbau in Halle an der Saale, als herausragende Leistungen. KW - Kallmeyer KW - Facilides KW - Moderne KW - Halle KW - Architektur KW - BDA KW - 56.62 Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20120114-15140 ER - TY - THES A1 - Nerlich, Luise T1 - KLANG tektonik _ Entwurfsgrammatik in Architektur und Musik im Werk des Architekten und Komponisten Iannis Xenakis N2 - klang_tektonik Design by grammar in architecture and music Architectural design is a creative process. Its emergence requires a creative component and it cannot be systematized. But while teaching architecture, work with a method to design is an essential aspect. In addition to the intuitive methods of design, however, also exist grammars, which explicit rules postulated for form finding and can be taught as such. In consideration of formative architectural and musical design, parameters will be presented, to design a transformation of music into architecture. Two revolutionary works are created in the 1950s, the composition Metastaseis and the Philips Pavilion for the World Exhibition in Brussels by the architect and composer Iannis Xenakis. Based on these works, there will be presented the method, how to replace musical parameters in to architectural parameters. This process provides the basis for an accurate spatial transformation model, which is designed on the basis of mathematical functions and has a strong similarity in language between the shape of the composition Metastaseis and architecture of the pavilion. N2 - Architektonisches Entwerfen ist ein kreativer Prozess, der eine Lösung hervorbringt, die in ihrer Form und ihrer Funktionalität so noch nicht bestand. Resultat eines architektonischen Entwurfes ist ein Original, dessen Entstehen eine schöpferische Komponente erfordert. Dieser kreative Prozess ist nicht systematisierbar und kann auch nicht als Methode wiederholbar gemacht werden. Im Rahmen der architektonischen Lehre ist die Vermittlung von Methoden zur Entwurfsfindung jedoch ein wesentlicher Aspekt. Der hier vorgestellte Entwurf möchte zeigen, dass der Auffassung, allein intuitive Methoden als Entwurfsgrundlage zu nutzen, die Auffassung entgegen steht, eine reglementierte Methode zur Entwurfs- und Formfindung anzuwenden. Eine solche reglementierte Methode wird hierbei als Entwurfsgrammatik bezeichnet. In den 1950er Jahren entstehen zwei revolutionäre Werke des Komponisten und Architekten Iannis Xenakis: die Komposition Metastaseis und der Philips-Pavillon für die Weltausstellung in Brüssel. Basierend auf diesen Arbeiten wird eine Methode vorgestellt, welche musikalische Parameter in architektonischen Parameter transformiert. Diese Methode bildet die Grundlage für ein exaktes räumliches Transformation-Modell, welches aus mathematischen Funktionen abgeleitet ist. Dabei weißt das Transformations-Modell eine starke Ähnlichkeit mit der Architektur des Pavillons auf. KW - Architektur KW - Musik KW - architektonischer Entwurf KW - Systementwurf KW - architektonischer Entwurf KW - Musik und Architektur KW - Philips Pavillon KW - Iannis Xenakis KW - Metastaseis Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20120607-16689 ER - TY - THES A1 - Phung Thi, Thu Ha T1 - Metakaolin as an Additive in Composite Cement N2 - Metakaolin made from kaolin is used around the world but rarely in Vietnam where abundant deposits of kaolin is found. The first studies of producing metakaolin were conducted with high quality Vietnamese kaolins. The results showed the potential to produce metakaolin, and its effect has on strength development of mortars and concretes. However, utilisation of a low quality kaolin for producing Vietnamese metakaolin has not been studied so far. The objectives of this study were to produce a good quality metakaolin made from low quality Vietnamese kaolin and to facilitate the utilisation of Vietnamese metakaolin in composite cements. In order to reach such goals, the optimal thermal conversion of Vietnamese kaolin into metakaolin was carried out by many investigations, and as such the optimal conversion is found using the analysis results of DSC/TGA, XRD and CSI. During the calcination in a range of 500 – 800 oC lasting for 1 – 5 hours, the characterisation of calcinated kaolin was also monitored for mass loss, BET surface, PSD, density as well as the presence of the residual water. It is found to have a well correlation between residual water and BET surface. The pozzolanic activity of metakaolin was tested by various methods regarding to the saturated lime method, mCh and TGA-CaO method. The results of the study showed which method is the most suitable one to characterise the real activity of metakaolin and can reach the greatest agreement with concrete performance. Furthermore, the pozzolanic activity results tested using methods were also analysed and compared to each other with respect to the BET surface. The properties of Vietnam metakaolin was established using investigations on water demand, setting time, spread-flowability, and strength. It is concluded that depending on the intended use of composite cement and weather conditions of cure, each Vietnamese metakaolin can be used appropriately to produce (1) a composite cement with a low water demand (2) a high strength of composite cement (3) a composite cement that aims to reduce CO2 emissions and to improve economics of cement products (4) a high performance mortar. The durability of metakaolin mortar was tested to find the needed metakaolin content against ASR, sulfat and sulfuric acid attacks successfully. KW - metakaolin KW - composite cement KW - durability KW - cement Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20130705-19764 SN - 978-3-00-042655-1 PB - F. A. Finger-Institut für Baustoffkunde CY - Weimar ER - TY - THES A1 - Stein, Peter T1 - Procedurally generated models for Isogeometric Analysis N2 - Increasingly powerful hard- and software allows for the numerical simulation of complex physical phenomena with high levels of detail. In light of this development the definition of numerical models for the Finite Element Method (FEM) has become the bottleneck in the simulation process. Characteristic features of the model generation are large manual efforts and a de-coupling of geometric and numerical model. In the highly probable case of design revisions all steps of model preprocessing and mesh generation have to be repeated. This includes the idealization and approximation of a geometric model as well as the definition of boundary conditions and model parameters. Design variants leading to more resource-efficient structures might hence be disregarded due to limited budgets and constrained time frames. A potential solution to above problem is given with the concept of Isogeometric Analysis (IGA). Core idea of this method is to directly employ a geometric model for numerical simulations, which allows to circumvent model transformations and the accompanying data losses. Basis for this method are geometric models described in terms of Non-uniform rational B-Splines (NURBS). This class of piecewise continuous rational polynomial functions is ubiquitous in computer graphics and Computer-Aided Design (CAD). It allows the description of a wide range of geometries using a compact mathematical representation. The shape of an object thereby results from the interpolation of a set of control points by means of the NURBS functions, allowing efficient representations for curves, surfaces and solid bodies alike. Existing software applications, however, only support the modeling and manipulation of the former two. The description of three-dimensional solid bodies consequently requires significant manual effort, thus essentially forbidding the setup of complex models. This thesis proposes a procedural approach for the generation of volumetric NURBS models. That is, a model is not described in terms of its data structures but as a sequence of modeling operations applied to a simple initial shape. In a sense this describes the "evolution" of the geometric model under the sequence of operations. In order to adapt this concept to NURBS geometries, only a compact set of commands is necessary which, in turn, can be adapted from existing algorithms. A model then can be treated in terms of interpretable model parameters. This leads to an abstraction from its data structures and model variants can be set up by variation of the governing parameters. The proposed concept complements existing template modeling approaches: templates can not only be defined in terms of modeling commands but can also serve as input geometry for said operations. Such templates, arranged in a nested hierarchy, provide an elegant model representation. They offer adaptivity on each tier of the model hierarchy and allow to create complex models from only few model parameters. This is demonstrated for volumetric fluid domains used in the simulation of vertical-axis wind turbines. Starting from a template representation of airfoil cross-sections, the complete "negative space" around the rotor blades can be described by a small set of model parameters, and model variants can be set up in a fraction of a second. NURBS models offer a high geometric flexibility, allowing to represent a given shape in different ways. Different model instances can exhibit varying suitability for numerical analyses. For their assessment, Finite Element mesh quality metrics are regarded. The considered metrics are based on purely geometric criteria and allow to identify model degenerations commonly used to achieve certain geometric features. They can be used to decide upon model adaptions and provide a measure for their efficacy. Unfortunately, they do not reveal a relation between mesh distortion and ill-conditioning of the equation systems resulting from the numerical model. T3 - Schriftenreihe des DFG Graduiertenkollegs 1462 Modellqualitäten // Graduiertenkolleg Modellqualitäten - 7 KW - NURBS KW - Isogeometric Analysis KW - Procedural modeling KW - Templates KW - Mesh quality Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20130212-18483 SN - 978-3-86068-488-7 PB - Universitätsverlag CY - Weimar ER - TY - THES A1 - Nikulla, Susanne T1 - Quality assessment of kinematical models by means of global and goal-oriented error estimation techniques T1 - Anwendung globaler und zielorientierter Fehlerschätzer zur Beurteilung der Notwendigkeit einer geometrisch nicht-linearen Berechnung N2 - Methods for model quality assessment are aiming to find the most appropriate model with respect to accuracy and computational effort for a structural system under investigation. Model error estimation techniques can be applied for this purpose when kinematical models are investigated. They are counted among the class of white box models, which means that the model hierarchy and therewith the best model is known. This thesis gives an overview of discretisation error estimators. Deduced from these, methods for model error estimation are presented. Their general goal is to make a prediction of the inaccuracies that are introduced using the simpler model without knowing the solution of a more complex model. This information can be used to steer an adaptive process. Techniques for linear and non-linear problems as well as global and goal-oriented errors are introduced. The estimation of the error in local quantities is realised by solving a dual problem, which serves as a weight for the primal error. So far, such techniques have mainly been applied in material modelling and for dimensional adaptivity. Within the scope of this thesis, available model error estimators are adapted for an application to kinematical models. Their applicability is tested regarding the question of whether a geometrical non-linear calculation is necessary or not. The analysis is limited to non-linear estimators due to the structure of the underlying differential equations. These methods often involve simplification, e.g linearisations. It is investigated to which extent such assumptions lead to meaningful results, when applied to kinematical models. N2 - Die verschiedenen Methoden zur Bewertung der Modellqualität haben ein Ziel: Das passende Modell in Bezug auf Genauigkeit und Berechnungsaufwand für eine konkrete Struktur zu finden. Steht dabei die Untersuchung eines Kinematik-Modells im Vordergrund, können Modellfehlerschätzer zur Modellbewertung verwendet werden. Dieser Zusammenhang gilt, solange es sich um mechanisch motivierte Modelle handelt, bei denen die Modellhierarchie und damit das beste Modell bekannt sind. Die vorliegende Arbeit beschreibt den Weg von den einfachen Fehlerschätzern für Diskretisierungsfehler bis zu den daraus abgeleiteten Modellfehlerschätzern. Das Ziel der letztgenannten besteht in der Vorhersage von Ungenauigkeit, die durch die Verwendung eines vereinfachten anstatt des komplexen Modells entstehen. Aus den gewonnenen Informationen wird eine adaptive Modellanpassung entwickelt. Die Methoden lassen sich dabei nach verschiedenen Kriterien unterscheiden. Diese diffenzieren zwischen den verschiedenen Anwendungsbereichen, zwischen linearen und nicht-linearen Modellen sowie zwischen globalen und ziel-orientierten Fehlern. Die bislang in der Literatur hauptsächlich zu findenden Anwendungsgebiete sind die Materialmodellierung und die Dimensionsadaptivität. Im Rahmen dieser Arbeit werden nun die bekannten Methoden zur Abschätzung des Modellfehlers auf kinematische Modelle erweitert. Zudem wird die Frage, ob eine geometrisch nicht-lineare Berechnung notwendig ist oder nicht, untersucht. Aufgrund der Struktur der zugrunde liegenden Differentialgleichungen beschränken sich die Analysen auf nicht-lineare Fehlerschätzer. Da diese Methoden oft auf Vereinfachungen wie z.B. die Linearisierung der Grundgleichungen zurückgreifen, wird in der vorliegenden Arbeit untersucht, inwieweit diese Annahmen zu verwertbaren Ergebnissen führen. T3 - Schriftenreihe des DFG Graduiertenkollegs 1462 Modellqualitäten // Graduiertenkolleg Modellqualitäten - 4 KW - Model quality, Model error estimation, Kinematical model, Geometric non-linearity, Finite Element method KW - Modellqualität, Modellfehlerschätzer, Geometrisch nicht-lineare Berechnung, Kinematik Modell, Finite Elemente Methode Y1 - 2012 U6 - http://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:gbv:wim2-20120419-16161 PB - Verlag der Bauhaus-Universität Weimar CY - Weimar ER -