Refine
Has Fulltext
- yes (493) (remove)
Document Type
- Doctoral Thesis (493) (remove)
Institute
- Institut für Strukturmechanik (ISM) (56)
- Institut für Europäische Urbanistik (29)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (25)
- F. A. Finger-Institut für Baustoffkunde (FIB) (20)
- Professur Sozialwissenschaftliche Stadtforschung (16)
- Professur Baubetrieb und Bauverfahren (15)
- Professur Denkmalpflege und Baugeschichte (13)
- Professur Informatik im Bauwesen (12)
- Professur Informatik in der Architektur (12)
- Professur Bauchemie und Polymere Werkstoffe (11)
Keywords
- Architektur (25)
- Beton (21)
- Stadtplanung (18)
- Finite-Elemente-Methode (17)
- Optimierung (14)
- Stadtentwicklung (13)
- Denkmalpflege (12)
- Isogeometric Analysis (10)
- Kunst (10)
- Modellierung (10)
Metaphosphat – modifizierte Silikatbinder als Basis säurebeständiger Beschichtungsmaterialien
(2008)
Mörtel basierend auf erhärtetem Wasserglas als Binder weisen eine ausgesprochen gute Beständigkeit im Kontakt mit stark sauren Medien auf; unzureichend hingegen ist die che-mische Beständigkeit im Kontakt mit alkalischen bis schwachsauren Medien. Ziel der Un-tersuchungen ist eine Verbesserung der Wasserbeständigkeit von Natriumsilikatbindern durch gezielte chemische Modifikation mit verschiedenen Metaphosphaten. Durch eine systematische Charakterisierung der Zusammensetzung und des strukturellen Aufbaus der Binder werden dabei die Ursachen der bindertypischen Eigenschaften aufgeklärt. Eine Modifikation der Natriumsilikatlösung mit Natriumtrimetaphosphat hat eine Erhöhung des Kondensationsgrades und eine verbesserte mechanische Beständigkeit des verfestig-ten Natriumsilikatbinders zur Folge. Durch die reaktive Bindung der Basizität der Natriumsi-likatlösung beim Abbau der Metaphosphatstruktur wird die Wasserbeständigkeit mit Natri-umtrimetaphosphat modifizierter Natriumsilikatmörtel erhöht. Die gute Beständigkeit im Kontakt mit hochkonzentrierter Schwefelsäure bleibt nahezu unverändert erhalten. Eine Modifikation der Natriumsilikatlösung mit Aluminiumtetrametaphosphat führt durch Reaktion beider Komponenten miteinander zur Bildung eines alumosilikatischen Netzwer-kes. Das alumosilikatische Netzwerk des mit Aluminiumtetrametaphosphat modifizierten Natriumsilikatbinders ist auch in einer stark alkalischen Natriumhydroxidlösung beständig. Die gute Beständigkeit des Binders im Kontakt mit hochkonzentrierter Schwefelsäure bleibt trotz des Aluminates im Bindernetzwerk erhalten.
Oberflächenabdichtungen von Deponien sind in ihrer langfristigen Funktion häufig durch eine austrocknungsbedingter Rissbildung der mineralischen Dichtungskomponente gefährdet. Als Ursachen gelten insbesondere das standortspezifische Klima mit den stark schwankenden Randbedingungen (Niederschlag, Temperatur), Pflanzen und Tiere sowie auch ein ungeeigneter Systemaufbau. Durch einen Wasserentzug treten Schrumpfungsprozesse in der mineralischen Dichtung auf welche über negative Dehnungen zu Dehnungsbrüchen und damit zu einer Rissbildung führen. Für die Beanspruchbarkeit eines Dichtungsmaterials bei Wasserentzug sind insbesondere dessen Schrumpfverhalten und dessen Zugfestigkeit von Bedeutung. Beide Eigenschaften wurden durch eigens konzipierte Laborversuche beispielhaft an zwei typischen Dichtungsböden untersucht. Die Ergebnisse zeigen eine große Abhängigkeit von der Wasserspannung sowie von der Bodenstruktur. Für die Zugfestigkeit und dem daraus abgeleiteten Dehnungsmodul gilt z. B. jeweils eine eindeutige Zunahme mit Zunahme der Wasserspannungen. Mit Hilfe der Ergebnisse aus den Laborversuchen sowie numerischen Berechnungen des Was-serhaushaltes und der vorherrschenden Spannungen kann eine erste Rissgefährdungsabschätzung für mineralische Dichtungen in Oberflächenabdichtungen abgeleitet und angewandt werden. Weitere Erläuterungen z. B. zu den Eigenschaften und der Teilsättigung bindiger Böden, analytische Zugfestigkeitsberechnungen oder Empfehlungen zum Entwurf und der Herstellung von Oberflächenabdichtungen ergänzen die Arbeit.
Finite Element Simulations of dynamically excited structures are mainly influenced by the mass, stiffness, and damping properties of the system, as well as external loads. The prediction quality of dynamic simulations of vibration-sensitive components depends significantly on the use of appropriate damping models. Damping phenomena have a decisive influence on the vibration amplitude and the frequencies of the vibrating structure. However, developing realistic damping models is challenging due to the multiple sources that cause energy dissipation, such as material damping, different types of friction, or various interactions with the environment.
This thesis focuses on thermoelastic damping, which is the main cause of material damping in homogeneous materials. The effect is caused by temperature changes due to mechanical strains. In vibrating structures, temperature gradients arise in adjacent tension and compression areas. Depending on the vibration frequency, they result in heat flows, leading to increased entropy and the irreversible transformation of mechanical energy into thermal energy.
The central objective of this thesis is the development of efficient simulation methods to incorporate thermoelastic damping in finite element analyses based on modal superposition. The thermoelastic loss factor is derived from the structure's mechanical mode shapes and eigenfrequencies. In subsequent analyses that are performed in the time and frequency domain, it is applied as modal damping.
Two approaches are developed to determine the thermoelastic loss in thin-walled plate structures, as well as three-dimensional solid structures. The realistic representation of the dissipation effects is verified by comparing the simulation results with experimentally determined data. Therefore, an experimental setup is developed to measure material damping, excluding other sources of energy dissipation.
The three-dimensional solid approach is based on the determination of the generated entropy and therefore the generated heat per vibration cycle, which is a measure for thermoelastic loss in relation to the total strain energy. For thin plate structures, the amount of bending energy in a modal deformation is calculated and summarized in the so-called Modal Bending Factor (MBF). The highest amount of thermoelastic loss occurs in the state of pure bending. Therefore, the MBF enables a quantitative classification of the mode shapes concerning the thermoelastic damping potential.
The results of the developed simulations are in good agreement with the experimental results and are appropriate to predict thermoelastic loss factors. Both approaches are based on modal superposition with the advantage of a high computational efficiency. Overall, the modeling of thermoelastic damping represents an important component in a comprehensive damping model, which is necessary to perform realistic simulations of vibration processes.
Die meisten traditionellen Methoden der Systemidentifikation beruhen auf der Abbildung der Meßwerte entweder im Zeit- oder im Frequenzbereich. In jüngerer Zeit wurden im Zusammenhang mit der Systemidentifikation Verfahren entwicklet, die auf der Anwendung der Wavelet-Transformation beruhen. Das Ziel dieser Arbeit war, einen Algorithmus zu entwickeln, der die Identifikation von Parametern eines Finite-Elemente-Modells, das ein experimentell untersuchtes mechanisches System beschreibt, ermöglicht. Es wurde eine Methode erarbeitet, mit deren Hilfe die gesuchten Parameter durch Lösen eines Systems von Bewegungsgleichungen im Zeit-Skalen-Bereich ermittelt werden. Durch die Anwendung dieser Darstellung können Probleme, die durch Rauschanteile in den Meßdaten entstehen, reduziert werden. Die Ergebnisse numerischer Simulation und einer experimentellen Studie bestätigen die Vorteile einer Anwendung der Wavelet-Transformation in der vorgeschlagenen Weise. ...
Settlement is human place to live and do various activities (Finch, 1980). Concept of settlement layout is closely associated with human and a set of thoughts and behaviors. In this case, idea of pattern of activities in a society that is core of a culture becomes main factor in process of formation of houses and environment in a settlement. Factors which affecting form (physical) of architecture in a settlement environment are socio-cultural, economic, and religious determinant factor that manifested architectural realization (Rapoport, 1969).
Yogyakarta as the continuation of kingdom city in the Java Island finally exists as an Islamic kingdom that still remain to survive up to now. Impacts of this issue is appearance of various Moslem settlements to support typical character of an Islamic Kingdom.
Mlangi is an area of oldest Moslem settlements in Yogyakarta has not been explored in details for progress especially in physical glasses recently. Everything basic group and individual who arrange houses and residences, starts from how it has spatial concept alone. Although concept is a very abstract thing to explain in details, but its existence can be detected by how they created their physical environment.
This research conducted by these research questions: (1) What are spatial concepts owned by people in Mlangi and (2) How do spatial concepts owned by the people affect the settlements pattern?
Process to search spatial concept owned by the people in Moslem residence, making Mlangi as study area, was approached by using phenomenological research method. The researcher have to self-involved directly in unstructured interviews, but remained in guideline framework of in interviews to make research process effective. Fistly, the researcher interviewed the key person, they are the head of Mlangi administration (pak Dukuh) in Mlangi and Sawahan. They were then give advices to who was capable person that could draw the spatial concept and had many story and knew the history of the settlements. Step by step of interview guided from one informant to next informant when the information had been told repeatedly. The next informant based on the last informant advice or who had close relationship with the last theme appeared. To complete the narration and draw the result of interview, researcher have to add additional information with photograph and descriptive picture that can be draw the settlement empirically.
In process, 17 information units which found in field were consistent with sequence of interview events and flowing of theme to theme associated with Moslem residence of residence. Finally the interviews succeeded in abstracting 16 themes that may be classified into historic, socio-cultural, and spatial-concept dimensions in Mlangi. Process of analysis to find spatial concept owned by the people in Moslem settlements was carried out by dialogue of themes to find available substantive relationship.
Four concepts successfully analyzed consist of concepts of personage, concept of religious implementation, concept of Jero-Jaba and concept of Interest. The four concepts are really associated with one and others in understanding how spatial concept owned by the people affects residence they occupy. Yet, concept of Jero-Jaba bases all concepts of people in Mlangi . This concept can be used to draw red yarn on how they utilize communal spaces in residence and layout rooms of their individual houses. This concept also eternalize residence patterns existing in Mlangi now where residence does not experience many changes from starting of this residence existence (from detection of generation currently still living), namely residence patterns concentrate on orientation to Masjid Pathok Negoro of Mlangi.
This research was opening the potential research area, at least for the sociology, anthropology and demography research interest. So many unique character in Mlangi if looked at from how they maintain their spatial concept and manifested in their daily activities. How the people will concern only for the religious activities and the economic concern only for survival aspect in live.
Keywords: spatial concept, moslem settlements, phenomenology method, Indonesia,
The aim of this study is controlling of spurious oscillations developing around discontinuous solutions of both linear and non-linear wave equations or hyperbolic partial differential equations (PDEs). The equations include both first-order and second-order (wave) hyperbolic systems. In these systems even smooth initial conditions, or smoothly varying source (load) terms could lead to discontinuous propagating solutions (fronts). For the first order hyperbolic PDEs, the concept of central high resolution schemes is integrated with the multiresolution-based adaptation to capture properly both discontinuous propagating fronts and effects of fine-scale responses on those of larger scales in the multiscale manner. This integration leads to using central high resolution schemes on non-uniform grids; however, such simulation is unstable, as the central schemes are originally developed to work properly on uniform cells/grids. Hence, the main concern is stable collaboration of central schemes and multiresoltion-based cell adapters. Regarding central schemes, the considered approaches are: 1) Second order central and central-upwind schemes; 2) Third order central schemes; 3) Third and fourth order central weighted non-oscillatory schemes (central-WENO or CWENO); 4) Piece-wise parabolic methods (PPMs) obtained with two different local stencils. For these methods, corresponding (nonlinear) stability conditions are studied and modified, as well. Based on these stability conditions several limiters are modified/developed as follows: 1) Several second-order limiters with total variation diminishing (TVD) feature, 2) Second-order uniformly high order accurate non-oscillatory (UNO) limiters, 3) Two third-order nonlinear scaling limiters, 4) Two new limiters for PPMs. Numerical results show that adaptive solvers lead to cost-effective computations (e.g., in some 1-D problems, number of adapted grid points are less than 200 points during simulations, while in the uniform-grid case, to have the same accuracy, using of 2049 points is essential). Also, in some cases, it is confirmed that fine scale responses have considerable effects on higher scales.
In numerical simulation of nonlinear first order hyperbolic systems, the two main concerns are: convergence and uniqueness. The former is important due to developing of the spurious oscillations, the numerical dispersion and the numerical dissipation. Convergence in a numerical solution does not guarantee that it is the physical/real one (the uniqueness feature). Indeed, a nonlinear systems can converge to several numerical results (which mathematically all of them are true). In this work, the convergence and uniqueness are directly studied on non-uniform grids/cells by the concepts of local numerical truncation error and numerical entropy production, respectively. Also, both of these concepts have been used for cell/grid adaptations. So, the performance of these concepts is also compared by the multiresolution-based method. Several 1-D and 2-D numerical examples are examined to confirm the efficiency of the adaptive solver. Examples involve problems with convex and non-convex fluxes. In the latter case, due to developing of complex waves, proper capturing of real answers needs more attention. For this purpose, using of method-adaptation seems to be essential (in parallel to the cell/grid adaptation). This new type of adaptation is also performed in the framework of the multiresolution analysis.
Regarding second order hyperbolic PDEs (mechanical waves), the regularization concept is used to cure artificial (numerical) oscillation effects, especially for high-gradient or discontinuous solutions. There, oscillations are removed by the regularization concept acting as a post-processor. Simulations will be performed directly on the second-order form of wave equations. It should be mentioned that it is possible to rewrite second order wave equations as a system of first-order waves, and then simulated the new system by high resolution schemes. However, this approach ends to increasing of variable numbers (especially for 3D problems).
The numerical discretization is performed by the compact finite difference (FD) formulation with desire feature; e.g., methods with spectral-like or optimized-error properties. These FD methods are developed to handle high frequency waves (such as waves near earthquake sources). The performance of several regularization approaches is studied (both theoretically and numerically); at last, a proper regularization approach controlling the Gibbs phenomenon is recommended.
At the end, some numerical results are provided to confirm efficiency of numerical solvers enhanced by the regularization concept. In this part, shock-like responses due to local and abrupt changing of physical properties, and also stress wave propagation in stochastic-like domains are studied.
Gründungsunternehmen stehen vor der Herausforderung, eine unternehmerische Leistung zu entwickeln und gleichzeitig eine Markenidentität aufzubauen. Dabei sind sie mit finanziellen, personellen und strukturellen Besonderheiten konfrontiert, aber auch mit Unbekanntheit und Kundenunsicherheit. Die Dissertation zielt darauf ab, durch die Analyse markenbildender Strategiepraktiken einen Beitrag zur wissenschaftlichen Auseinandersetzung mit der Markenbildung bei Gründungsunternehmen zu leisten und praktische Implikationen für angehende Gründer:innen sowie akademische Startup-Inkubatoren abzuleiten.
Der Fokus liegt dabei auf Gründungsvorhaben und Startups in der Vorgründungs- oder frühen Gründungsphase aus dem Hochschulumfeld. Zur Analyse markenbildender Strategiepraktiken wird der Strategy-as-Practice Ansatz (SAP) angewendet. Die qualitative Forschungsmethodik wird genutzt, um Handlungsmuster bestimmter Akteursgruppen in diesem spezifischen Kontext zu rekonstruieren. Beobachtungen, Interviews und Dokumente im Feld dienen als Grundlage für die Forschung.
Die Ergebnisse dieser Arbeit liefern umfassende Einblicke in die markenbildende Praxis bei Gründungsunternehmen. Auf Basis dieser Erkenntnisse wurde ein Modell entwickelt, das Komponenten beschreibt, die zusammen einen Handlungsrahmen für die Markenbildung in emergenten Strategiekontexten wie der Unternehmensgründung bilden. Dieses Modell bietet die Möglichkeit, sich vor dem Hintergrund der gründungsspezifischen Rahmenbedingungen mit der Markenentwicklung in der frühen Gründungsphase auseinanderzusetzen und sie systematisch in das Gründungsvorhaben zu implementieren.
In der Dissertation wurden unterschiedliche Methoden zur Standortidentifizierung mit Oberflächenwellen analysiert. Es wurden neue Methoden zur Parameteridentifikation unter Nutzung von Oberflächenwellen vorgeschlagen. Die Ziele der Arbeit können wie folgt definiert werden: a) Die Entwicklung eines geeigneten theoretischen Modells als Grundlage zur Untersuchung des Standortes hinsichtlich vorhandener Bodensteifigkeiten. b) Die Entwicklung einer neuen Inversionsmethodik unter Berücksichtigung aller auftretenden Moden im Oberflächenwellenfeld. Die Erstellung eines Modells des vertikal heterogenen Untergrundes erfolgte im Frequenz-bereichs für beliebig geschichtete Böden, aufbereitet durch weitestgehend analytische Formulierungen. Durch Nutzung beliebiger horizontaler, elastisch-isotroper Schichten konnte die vertikale Heterogenität approximiert werden. Die Definition der Green'schen Funktionen wurde in Form der Reflexions- und Transmissionskoeffizienten durchgeführt. Die Lösung des formulierten Halbraumproblems erfolgte unter Verwendung der Konturintegration. Dazu wurde die Vorgehensweise der bestehenden Lösung des homogenen Halbraums auf das Problem des geschichteten Mediums übertragen. Die daraus sich ergebende Lösung ist in ein Körperwellen- und ein Oberflächenwellenfeld separiert. Der Vorteil dieser analytischen Betrachtungsweise liegt in der eindeutigen Zuordnungsmöglichkeit der erhaltenen Lösungen zu Wellentypen und in der klaren Dispersionscharakteristik der berechneten Modelle. Im Gegensatz dazu liefern numerische Lösungen, wie FEM, immer ein Wellenfeld, in dem die Wellentypen zugeordnet bzw. interpretiert werden müssen. Mit Hilfe der synthetischen Bodenmodellierung wird das Verhalten von geschichteten Böden bei durchlaufenden Oberflächenwellenfeldern simuliert und untersucht. Für die Untersuchung der Profile wurde hauptsächlich die Modale Superposition von Oberflächenwellen und die Wellenzahl-Integration verwendet. Bei der Analyse von Oberflächenwellenfeldern in vorhandenen Medien sind abweichend von den üblichen seismischen Methoden spezielle Untersuchungsmethoden zur Ermittlung der vorhandenen Dispersion notwendig. Zur Durchführung der Dispersionsanalyse wird in geotechnischen Untersuchungen in der Regel das Phasen-Differenzen-Verfahren (SASW) genutzt. Aufgrund der beschränkten Aussagefähigkeit dieses Verfahrens zu auftretenden höheren Moden werden verbesserte Analysemethoden zur experimentellen Auswertung hinzugezogen. Diese Methoden nutzen zur Informationsgewinnung das räumlich ausgedehnte Wellenfeld. Ausgehend von dem Dispersionsverhalten kann die Bodenstruktur mittels inverser Methoden bestimmt werden. Für die gemeinsame Inversion der in den Messungen vorhandenen Moden wurde ein entsprechendes Inversionsverfahren abgeleitet. Als Grundlage der Inversion wurde ein Verfahren des kleinsten Fehlerquadrates gewählt. Der Vorteil hinsichtlich einer effizienten und stabilen Inversion unter Nutzung dieser Methodik überwiegt den Nachteil der lokalen Suche nach dem Fehlerminimum. Zum Erreichen der stabilen und zielgerichteten Inversion wird der Levenberg-Marquardt Algorithmus, zusammen mit der Wichtung der Dispersionsäste entsprechend ihres Anregungsverhaltens in den Dispersionsspektren, eingesetzt. Von Vorteil hat sich innerhalb der Arbeit die gleichzeitige Behandlung von theoretischen und experimentellen Parameterstudien erwiesen, da sich Ergebnisse und Erkenntnisse beider Seiten ergänzten. Eine Interpretation von Felddaten kann damit weitaus sicherer durchgeführt werden. Zusätzlich konnten die erarbeiteten experimentellen und theoretischen Verfahren gegenseitig überprüft werden.
In der vorliegenden Arbeit werden auf Basis des Tensegrity-Konzeptes Strukturen entwickelt und vorgestellt, welche durch einen signifikanten Steifigkeitszuwachs in der Lage sind, die Anforderungen an die Gebrauchstauglichkeit von Tragwerken zu erfüllen.
Selbstverankerte Strukturen mit aufgelösten Druckstäben werden als Seil-Stab-Systeme bezeichnet und sind alleiniger Gegenstand aller angestellten Betrachtungen.
Tensegrity-Strukturen sollen eine Untergruppe der Seil-Stab-Systeme darstellen, deren symptomatische Eigenschaft eine sich im Tensegrity-Zustand befindliche Geometrie ist.
Einer Definition des Tensegrity-Zustandes folgt ein Überblick über die zur Untersuchung von Seil-Stab-Systemen notwendigen Berechnungsalgorithmen.
Der Kern der Arbeit beschäftigt sich zunächst mit dem Einfluss der Geometrie auf die Empfindlichkeit von Seil-Stab-Systemen gegenüber unvermeidlichen Herstellungstoleranzen sowie dem Einfluss von Topologie, Vorspannung, lokaler Steifigkeit der Elemente und Geometrie auf die Steifigkeit dieser Systeme.
Darauf aufbauend wird eine Möglichkeit gezeigt, die Steifigkeit von beweglichen Seil-
Stab-Systemen merklich zu erhöhen, ohne die Strukturen durch zusätzliche Elemente oder Verbindungen optisch zu verändern.
Der zu erzielende Steifigkeitszuwachs wird mittels Vergleichrechnungen und durchgeführten Belastungsversuchen verifiziert.
In der vorliegenden Arbeit wird das Tragverhalten und das Sicherheitsniveau axial belasteter Großbohrpfähle in den pleistozänen Kalkarenit der Küstenregion von Dubai untersucht. Zunächst wird auf der Grundlage von Ergebnissen umfangreicher Baugrundanalysen und Probebelastungen das Tragverhalten detailliert beschrieben. Anschließend wird ein auf der Finiten-Elemente-Methode basierendes Strukturmodell zur Simulation des Last-Setzungsverhaltens von Großbohrpfählen im Sinne eines numerischen Versuchsstandes entwickelt. Um herstellungsbedingte Veränderungen der Baugrundeigenschaften in der Kontaktzone Pfahl-Baugrund zu berücksichtigen, die mit boden- und felsmechanischen Elementversuchen gewöhnlich nicht erfassbar sind, werden die Größen der relevanten konstitutiven Parameterwerte iterativ mittels inverser Optimierungsstrategien bestimmt. Abschließend wird eine methodische Vorgehensweise aufgezeigt, wie das Sicherheitsniveau axial belasteter Großbohrpfählen unter Berücksichtigung der räumlichen Variabilität der Baugrundeigenschaften zuverlässig abgeschätzt werden kann.
Es werden die Auswirkungen der mit Hilfe eines Blasenschleiers durchgeführten partiellen Destratifikation zur Begrenzung der Algenentwicklung durch Lichtlimitierung auf die thermischen und hydrodynamischen Bedingungen in der Bleilochtalsperre (Thüringen) vorgestellt. Ausgangspunkt bilden die theoretischen Betrachtungen zur Dynamik eines Blasenschleiers, aus denen ein Blasenschleiermodell in einer geschichteten Umgebung hervorgeht. Weiterhin werden die dimensionslosen Kennzahlen der Quell- und der Umgebungsschichtungsstärke, sowie der entdimensionalisierten Einblastiefe eingeführt, mit denen die Dynamik der voll ausgebildeten Schleierströmung beschreibbar ist. Durch Kopplung des Blasenschleiermodells mit einem Umgebungsschichtungsmodell wird die mechanische Effizienz eines Blasenschleiers auf die Destratifikation einer linearen Umgebungsschichtung für einen großen Bereich der Kennzahlen ermittelt und die Leistungsfähigkeit des in der Bleilochtalsperre installierten Schleiers theoretisch nachgewiesen. Die Auswirkungen des Betriebs des Blasenschleiers in der Bleilochtalsperre selbst werden anhand von gemessenen Temperaturprofilen diskutiert und über Stabilitätsberechnungen quantifiziert. Dabei kam es in den Sommermonaten in der Talsperre zur Ausbildung eines 3-Schichtensystems, über dessen Entstehung im Weiteren eine Ursachenanalyse durchgeführt wird. Es werden Untersuchungen zum Einschichtungsverhalten des Zulaufs, zum zeitlichen Verlauf der Temperaturentwicklung in der Talsperre, Isothermenabsenkungsberechnungen für den Bereich unterhalb des Schleiers, Wärmehaushaltsberechnungen und in der Talsperre durchgeführte Driftkörpermessungen vorgestellt, die das Auftreten des 3-Schichtensystems erklären. Angaben über die wesentlichen Auswirkungen der künstlichen Destratifikation auf die limnologischen Verhältnisse in der Talsperre runden die Ergebnisse der hydrodynamischen Untersuchungen schließlich ab.
Das Pionierlager Artek. Realität und Utopie in der sowjetischen Architektur der sechziger Jahre
(2004)
Das in den 1960er Jahren gebaute, internationale Pionierlager Artek an der Schwarzmeerküste der Krim war das größte Kinderferienlager der Sowjetunion. Als Prestigeobjekt und Vorzeigeinstitution steht Artek für die Architektur der Ära Chruschtschows, des sogenannten „Tauwetters“. Anhand des dialektischen Prinzips von Präsentation und Repräsentation werden vier Aspekte des Lagers untersucht: Architektur, städtebauliche Struktur, Erziehung und Gesamtkunstwerk. Durch dieses Prinzip, das sich aus der Widerspiegelungstheorie ableiten läßt, kann jedem dieser Aspekte die Kongruenz zur ideologischen Zielsetzung und damit die gestalterische Kohärenz der Ferienanlage nachgewiesen werden. In Abgrenzung zur modernen Architektur der westlichen Industrienationen wurde in Artek eine spezifisch „sozialistische Moderne“ für die Sowjetunion und die übrigen Staaten des Ostblocks definiert. Diese war eng verbunden mit dem Städtebau auf der Grundlage von Mikrorayons und der Ausgestaltung von Stadt- und Subzentren. Artek ist mit seiner idealtypischen, architektonischen und städtebaulichen Gestaltung ein Denkmal für die frühere Sowjetunion.
In recent decades, a multitude of concepts and models were developed to understand, assess and predict muscular mechanics in the context of physiological and pathological events.
Most of these models are highly specialized and designed to selectively address fields in, e.g., medicine, sports science, forensics, product design or CGI; their data are often not transferable to other ranges of application. A single universal model, which covers the details of biochemical and neural processes, as well as the development of internal and external force and motion patterns and appearance could not be practical with regard to the diversity of the questions to be investigated and the task to find answers efficiently. With reasonable limitations though, a generalized approach is feasible.
The objective of the work at hand was to develop a model for muscle simulation which covers the phenomenological aspects, and thus is universally applicable in domains where up until now specialized models were utilized. This includes investigations on active and passive motion, structural interaction of muscles within the body and with external elements, for example in crash scenarios, but also research topics like the verification of in vivo experiments and parameter identification. For this purpose, elements for the simulation of incompressible deformations were studied, adapted and implemented into the finite element code SLang. Various anisotropic, visco-elastic muscle models were developed or enhanced. The applicability was demonstrated on the base of several examples, and a general base for the implementation of further material models was developed and elaborated.
Modell bedarfsorientierter Leistungserbringung im FM auf Grundlage von Sensortechnologien und BIM
(2023)
Während der Digitalisierung im Bauwesen insbesondere im Bereich der Planungs- und Errichtungsphase von Bauwerken immer größere Aufmerksamkeit zuteilwird, ist das digitale Potenzial im Facility Management weit weniger ausgeschöpft, als dies möglich wäre. Vor dem Hintergrund, dass die Bewirtschaftung von Gebäuden jedoch einen wesentlichen Kostenanteil im Lebenszyklus darstellt, ist eine Fokussierung auf digitale Prozesse im Gebäudebetrieb erforderlich. Im Facility Management werden Dienstleistungen häufig verrichtungsorientiert, d. h. nach statischen Intervallen, oder bedarfsorientiert erbracht. Beide Arten der Leistungserbringung weisen Defizite auf, beispielweise weil Tätigkeiten auf Basis definierter Intervalle erbracht werden, ohne dass eine Notwendigkeit besteht oder weil bestehende Bedarfe mangels Möglichkeiten der Bedarfsermittlung nicht identifiziert werden. Speziell die Definition und Ermittlung eines Bedarfs zur Leistungserbringung ist häufig subjektiv geprägt. Auch sind Dienstleister oft nicht in frühen Phasen der Gebäudeplanung involviert und erhalten für ihre Dienstleistungen notwendige Daten und Informationen erst kurz vor Inbetriebnahme des zu betreibenden Gebäudes.
Aktuelle Ansätze des Building Information Modeling (BIM) und die zunehmende Verfügbarkeit von Sensortechnologien in Gebäuden bieten Chancen, die o. g. Defizite zu beheben.
In der vorliegenden Arbeit werden deshalb Datenmodelle und Methoden entwickelt, die mithilfe von BIM-basierten Datenbankstrukturen sowie Auswertungs- und Entscheidungsmethodiken Dienstleistungen der Gebäudebewirtschaftung objektiviert und automatisiert auslösen können. Der Fokus der Arbeit liegt dabei auf dem Facility Service der Reinigungs- und Pflegedienste des infrastrukturellen Facility Managements.
Eine umfangreiche Recherche etablierter Normen und Standards sowie öffentlich zugänglicher Leistungsausschreibungen bilden die Grundlage der Definition erforderlicher Informationen zur Leistungserbringung. Die identifizierten statischen Gebäude- und Prozessinformationen werden in einem relationalen Datenbankmodell strukturiert, das nach einer Darstellung von Messgrößen und der Beschreibung des Vorgehens zur Auswahl geeigneter Sensoren für die Erfassung von Bedarfen, um Sensorinformationen erweitert wird. Um Messwerte verschiedener und bereits in Gebäuden existenten Sensoren für die Leistungsauslösung verwenden zu können, erfolgt die Implementierung einer Normierungsmethodik in das Datenbankmodell. Auf diese Weise kann der Bedarf zur Leistungserbringung ausgehend von Grenzwerten ermitteln werden. Auch sind Verknüpfungsmethoden zur Kombination verschiedener Anwendungen in dem Datenbankmodell integriert. Zusätzlich zur direkten Auslösung erforderlicher Aktivitäten ermöglicht das entwickelte Modell eine opportune Auslösung von Leistungen, d. h. eine Leistungserbringung vor dem eigentlich bestehenden Bedarf. Auf diese Weise können tätigkeitsähnliche oder räumlich nah beieinander liegende Tätigkeiten sinnvoll vorzeitig erbracht werden, um für den Dienstleister eine Wegstreckeneinsparung zu ermöglichen. Die Arbeit beschreibt zudem die für die Auswertung, Entscheidungsfindung und Auftragsüberwachung benötigen Algorithmen.
Die Validierung des entwickelten Modells bedarfsorientierter Leistungserbringung erfolgt in einer relationalen Datenbank und zeigt simulativ für unterschiedliche Szenarien des Gebäudebetriebs, dass Bedarfsermittlungen auf Grundlage von Sensortechnologien erfolgen und Leistungen opportun ausgelöst, beauftragt und dokumentiert werden können.
Wayfinding Situations
(2009)
Wayfinding, which is the task of getting from some origin to a destination, is one of the primary spatial problems humans encounter in everyday life. When we wayfind, we act in the environment based on the structure and features of the environment, set against a background of knowledge which is generally understood as having visual characteristics. As mobile and wireless technologies proliferate in urban space it can be considered as having an existence in terms of several spaces, those of places that make up our direct perceptual experience and those of the digital devices and networks that facilitate communication, which are primarily non-visual in nature. This thesis will extend existing work on perception and action in urban space to investigate the role of mobile and ubiquitous technologies in wayfinding and environmental legibility, or more literally how we orientate and find our way in space when we experience it both with and through technology. In order to do this, the research takes the approach of considering wayfinding as a situated activity that takes place against a rich and articulated background of experiences and social connections. Through a series of empirical studies the concept of wayfinding situations is explored from two different perspectives. The first study investigates the relationship between an individual and technology as they act in environmental settings, by comparing learning for a spatial task depending on whether the individual accesses a map or a mobile map to make judgements. The second study seeks to understand the relationship between individual and environment as they act in technological settings, and focuses on the perception and action in space as affected by wireless technologies. The combined outcome of these two empirical studies provides the basis for the definition of a richer and more differentiated concept of wayfinding situations. This informs the final stage of the research in which an applied response is proposed to supporting wayfinding in a specific urban scenario, where the aim is to embed the technology into the spatial setting.
Schwerpunkt der Arbeit ist die Auseinandersetzung mit den Möglichkeiten und Grenzen der Desktop-VR als neue Generation der Benutzerschnittstellen. Besondere Bedeutung bei dieser Art des Interface-Designs kommt den Metaphern zu. Ein großer Teil der Arbeit beschäftigt sich mit der Klassifikation, der Auswahl und dem Einsatz passender Metaphern unter Berücksichtigung der in der Applikation darzustellenden Informationsinhalte. Aus der Kombination dieser beiden Merkmale (Art der Metapher, Informationsinhalt) ergeben sich vier verschiedene virtuelle Umgebungen, deren Eigenschaften und Besonderheiten konkretisiert und an Beispielen aus dem Anwendungsgebiet der Stadtinformationssysteme vorgestellt werden. Als praktischer Untersuchungsgegenstand dient das Anwendungsgebiet der Stadtinformationssysteme. Die theoretisch basierten Erkenntnisse und Schlußfolgerungen werden durch statistische Untersuchungen, in Form von Fragebögen zu Stadtinformationssystemen, überprüft und konkretisiert.
Den Gegenstand der Dissertation bilden die Konzeption und die exemplarische Realisierung eines verknüpfungsbasierten Bauwerksmodellierungsansatzes zur Schaffung einer integrierenden Arbeits- und Planungsumgebung für den Lebenszyklus von Bauwerken. Die Basis der Integration bildet ein deklarativ ausgerichteter Bauwerksmodellverbund bestehend aus abstrahierten, domänenspezifischen Partialmodellen. Auf Grund der de facto existierenden Dynamik im Bauwerkslebenszyklus werden sowohl der Bauwerksmodellverbund als auch die einzelnen Partialmodelle dynamisch modifizierbar konzipiert und auf Basis spezieller Modellverwaltungssysteme technisch realisiert. Die Verständigung innerhalb der vorgeschlagenen Gesamtbauwerksmodellarchitektur basiert auf anwenderspezifisch zu erstellenden Verknüpfungen zwischen den Partialmodellen und wird im Sinne einer hybriden Modellarchitektur durch eine zentrale, die Verknüpfungen verwaltende Komponente koordiniert. Zur Verwaltung und Abarbeitung der Verknüpfungen wird der Einsatz von Softwareagenten im Rahmen eines Multiagentensystems vorgeschlagen und diskutiert.
Die Qualität von Beplankungselementen wirkt sich deutlich auf den Feuerwiderstand von Metallständer-Wandkonstruktionen aus. Daher wurde im Rahmen dieser Arbeit der Einfluss von Zusätzen in Gipsplatten bezüglich einer möglichen Verbesserung dieser Eigenschaft untersucht.
Zu diesem Zweck wurden spezielle, den jeweiligen Untersuchungsbedingungen angepasste Probekörper unter Verwendung verschiedenster Zusätze gefertigt. Die Beurteilung deren Auswirkungen erfolgte insbesondere mittels nachfolgender fünf Kriterien:
1) dem Zeitpunkt der Temperaturerhöhung nach der Probekörperentwässerung,
2) dem Maximalwert der Plattenrückseitentemperatur,
3) der Größe und der Anzahl der Risse,
4) der Plattenstabilität nach der Wärmebeanspruchung,
5) der Verkürzung von prismatischen Probekörpern.
Besonders wichtig war hierbei die Charakterisierung der Auswirkungen einer simulierten Brandbeanspruchung von 970 °C über 90 Minuten auf Labor-Gipsplatten. Dabei wurde die Temperaturänderung auf der Plattenrückseite über den gesamten Prüfzeitraum kontinuierlich erfasst. Die Bewertung des Zusammenhalts der Platten nach der thermischen Beanspruchung erfolgte erstmals quantitativ über Anzahl und Größe der an den Proben entstandenen Risse. Ursächlich für die Rissbildung ist die Verringerung des Probekörpervolumens infolge des ausgetriebenen Kristallwassers. Da dieser Parameter im Plattenversuch nicht bestimmt werden kann, wurde ergänzend das Längenänderungsverhalten von Prismen im Ergebnis einer 90minütigen Temperung bei 1000 °C im Muffelofen ermittelt.
Besonders vorteilhaft hat sich die Zugabe von 80 g/m2 Glasfasern und 7,75 % Kalksteinmehl auf das Verhalten von Gipsplatten bei Brandbeanspruchung ausgewirkt. Diese Verbesserung ist insbesondere auf höhere Stabilität und geringere Schrumpfung der Gipsplatte zurückzuführen.
Basierend auf den im Labormaßstab erhaltenen Ergebnissen wurden Rezepturvorschläge zur Verbesserung des Feuerwiderstandsverhaltens von Gipsplatten unter Praxisbedingungen entwickelt. Die Herstellung der erforderlichen großformatigen Platten erfolgte auf der Bandstraße der Knauf Gips KG. Diese Platten wurden als Wandkonstruktion mit zweilagiger Beplankung einer großtechnischen Prüfung erfolgreich unterzogen. Eine geringere Durchbiegung der Wandkonstruktion, eine verminderte Volumenreduzierung der Platten sowie eine erhöhte Plattenstabilität belegen die verbesserten Eigenschaften dieser modifizierten Feuerschutzplatte.
Weitere durchgeführte Untersuchungen ergaben, dass es unerheblich ist, ob die Platten auf Basis von Natur- oder REA-Gips bzw. mit hohem oder niedrigem Flächengewicht gefertigt wurden. Das eindeutig beste Ergebnis mit einer Feuerwiderstandsdauer von 118 Minuten hat eine Wandkonstruktion aus Feuerschutzplatten auf Basis eines Stuckgipses aus 100 % REA-Gips mit einem Anteil von 83,9 g/m2 Glasfasern und 1 % Vermiculit und einem Flächengewicht von 10,77 kg/m2, bei einer Plattenstärke von 12,5 mm.
Die als Ziel vorgebende Feuerwiderstandsdauer von 120 Minuten bei zweilagiger Beplankung ohne Dämmstoff könnte künftig erreicht werden, wenn es gelingt, die Volumenreduzierung noch besser zu kompensieren und die Plattenstabilität zu steigern. Eine Möglichkeit hierzu ist die Substitution der beidseitigen Kartonlagen durch eine Glasfaser-Vliesummantelung. Die Wandkonstruktion W112 ohne Dämmstoff erreicht dabei eine Feuerwiderstandsdauer von weit über 120 Minuten, wobei der Gipskern mit Glasfasern armiert ist.
In a historical perspective, the relationship between digital media and the museum environment is marked by the role of museums as example use cases for the appli- cation of digital media. Today, this exceptional use as an often technology oriented application has changed and instead digital media have turned into an integral part of mediation strategies in the museum environment. Alongside with this shift not only an increasing professionalization of application development but also a grow- ing demand for new content can be observed. Comparable to its role as the main cost factor in the media industry, the production of content rises to a challenge for museums. In particular small and medium scale european museums with limited funding and an often low level of staff coverage face this new demand and strive therefore for alternative production resources. While productive user contributions can be seen as such an alternative resource, user contributions are at the same time a manifestation for a different mode of in- teracting with content. In contrast to the dominantly passive role of audiences as re- ceivers of information, productive contributions emerge as a mode of content ex- ploration and become in this regard influential for museum mediation strategies. As applications of user contributions in museums and cultural heritage are currently rather seldom, a broader perspective towards user contributions becomes necessary to understand its specific challenges, opportunities and limitations. Productive user contributions can be found in a growing number of applications on the Internet where they either complement or fully substitute corporate content production processes. While the Wikipedia1, an online encyclopedia written entirely by a group of users and open to contributions by all its users, is one of the most prominent examples for this practice, several more applications emerged or are be- ing developed. In consequence user contributions are about to become a powerful source for the production of content in digital media environments.
Bücher werden nicht erst seit ihrer industriellen Produktion aus gefalzten Papierbogen zusammengesetzt – schon mittelalterliche Codices wurden aus gefalteten Pergamenthäuten konstruiert. Fokus dieser Studie über das Medium Buch ist daher die Kulturtechnik der Faltung. Anders als in der philosophischen Auseinandersetzung mit dem Begriff der Falte, ist die Buchfalte keine anti-lineare Figur, sondern ein operationales Falzscharnier, welches Anordnungen im Buchraum bestimmt und Ornamente hervorbringt. Mediengeschichtliche Fragestellungen sind auf Analysen von Buchmaterial und Künstlerbüchern vom 19. Jahrhundert bis zur Gegenwart basiert. Mit den Büchern u.a. von Christian Boltanski, Hanne Darboven und Hans-Peter Feldmann werden Erkenntnisse über buchgeschichtliche Zusammenhänge gewonnen und das Künstlerbuch in eine Geschichte des Mediums Buch eingestellt.
Bücher werden nicht erst seit ihrer industriellen Produktion aus gefalzten Papierbogen zusammengesetzt – schon mittelalterliche Codices wurden aus gefalteten Pergamenthäuten konstruiert. Fokus dieser Studie über das Medium Buch ist daher die Kulturtechnik der Faltung. Anders als in der philosophischen Auseinandersetzung mit dem Begriff der Falte, ist die Buchfalte keine anti-lineare Figur, sondern ein operationales Falzscharnier, welches Anordnungen im Buchraum bestimmt und Ornamente hervorbringt. Mediengeschichtliche Fragestellungen sind auf Analysen von Buchmaterial und Künstlerbüchern vom 19. Jahrhundert bis zur Gegenwart basiert. Mit den Büchern u.a. von Christian Boltanski, Hanne Darboven und Hans-Peter Feldmann werden Erkenntnisse über buchgeschichtliche Zusammenhänge gewonnen und das Künstlerbuch in eine Geschichte des Mediums Buch eingestellt.
Grundlage der Arbeit bilden eigene aktuelle Bauschadensuntersuchungen in Deutschland. Die jährlichen Mängel- und Schadensbeseitigungskosten betragen auf der Basis ausgewerteter Gutachten 4,1 % der Bauinvestitionen und liegen höher als die bisherigen Angaben der Bauschadensberichte der Bundesregierung. Eine Verbesserung der Bauqualität ist trotz Einführung von Qualitätsmanagementsystemen in den letzten Jahren nicht feststellbar. Diagnose-Werkzeuge aus der stationären Industrie zur Feststellung einer mangelnden Übereinstimmung der geforderten Qualität mit der erreichten Qualität während der Bauausführung sind nicht unmittelbar anwendbar. Aufbauend auf neuen Ansätzen zur interaktiven und interdisziplinären Verdichtung aller Prüfungen wird in dieser Arbeit ein System zur Qualitätssicherung in der Bauausführung aufgezeigt. Dieses wird als System der „Helfenden Prüfungen“ bezeichnet. Grundbausteine sind die Anwendung der „Fehler-Möglichkeits- und -Einfluss-Analyse“ unter Berücksichtigung prozessspezifischer Erfahrungen sowie Prophylaxekriterien, hergeleitet aus Fehlern, Baumängeln und Bauschäden. Das System der „Helfenden Prüfungen“ ist ein dynamisches System zur baubegleitenden Qualitätssicherung in der Bauausführung. Es ermöglicht die Verkettung der Prüfungen verschiedener am Bau Beteiligter aufbauend auf einer Eigenüberwachung durch die Ausführenden. Automatische Vergleiche der Prüfergebnisse und die Transparenz des Systems schaffen mehr Vertrauen zwischen den am Bau Beteiligten. Bei konsequenter Durchführung der abgestimmten Prüfverfahren kann nur ein aktueller Informations- und Wissensstand die Fortführung der Bauleistungen in den Teilprozessen ermöglichen. Die Verifizierung des Systems der „Helfenden Prüfungen“ erfolgte im Rahmen der Forschungsarbeit als baubetriebliches Kommunikationsmodell.
During the previous decades, the upcoming demand for security in the digital world, e.g., the Internet, lead to numerous groundbreaking research topics in the field of cryptography. This thesis focuses on the design and analysis of cryptographic primitives and schemes to be used for authentication of data and communication endpoints, i.e., users. It is structured into three parts, where we present the first freely scalable multi-block-length block-cipher-based compression function (Counter-bDM) in the first part. The presented design is accompanied by a thorough security analysis regarding its preimage and collision security. The second and major part is devoted to password hashing. It is motivated by the large amount of leaked password during the last years and our discovery of side-channel attacks on scrypt – the first modern password scrambler that allowed to parameterize the amount of memory required to compute a password hash. After summarizing which properties we expect from a modern password scrambler, we (1) describe a cache-timing attack on scrypt based on its password-dependent memory-access pattern and (2) outline an additional attack vector – garbage-collector attacks – that exploits optimization which may disregard to overwrite the internally used memory. Based on our observations, we introduce Catena – the first memory-demanding password-scrambling framework that allows a password-independent memory-access pattern for resistance to the aforementioned attacks. Catena was submitted to the Password Hashing Competition (PHC) and, after two years of rigorous analysis, ended up as a finalist gaining special recognition for its agile framework approach and side-channel resistance. We provide six instances of Catena suitable for a variety of applications. We close the second part of this thesis with an overview of modern password scramblers regarding their functional, security, and general properties; supported by a brief analysis of their resistance to garbage-collector attacks. The third part of this thesis is dedicated to the integrity (authenticity of data) of nonce-based authenticated encryption schemes (NAE). We introduce the so-called j-IV-Collision Attack, allowing to obtain an upper bound for an adversary that is provided with a first successful forgery and tries to efficiently compute j additional forgeries for a particular NAE scheme (in short: reforgeability). Additionally, we introduce the corresponding security notion j-INT-CTXT and provide a comparative analysis (regarding j-INT-CTXT security) of the third-round submission to the CAESAR competition and the four classical and widely used NAE schemes CWC, CCM, EAX, and GCM.
Für die Sanierung von Bauwerken werden meist Informationen über die innere Struktur und den Aufbau, Belastungszustände, Feuchte- und Salzgehalte benötigt. Die Untersuchung mit zerstörungsarmen und -freien Methoden minimieren die dazu nötigen Eingriffe. Ebenfalls bieten die ZfP-Verfahren die Möglichkeit, den Erfolg einer Maßnahme zu kontrollieren sowie Prozesse über einen langen Zeitraum zu beobachten (Monitoring). Die vorliegende Arbeit befasst sich mit der zerstörungsfreien Untersuchung von inneren Strukturen und des Aufbaus von Mauerwerk mittels Ultraschall und Radar. Der untersuchte Querschnitt wird tomografisch rekonstruiert. Diese Darstellungsart bietet den Vorteil der Tiefenbestimmung von Objekten und der besseren Visualisierung für Auftraggeber und/oder Laien. Es wurden die Laufzeiten der Longitudinalwellen rekonstruiert. Die Frequenzen der Ultraschalluntersuchungen lagen bei 25 kHz sowie 85 kHz und der Radaruntersuchungen bei 900 MHz sowie 1,5 GHz. Die Rekonstruktion erfolgte mit dem Tomografieprogramm “Geo-Tom“, welches auf der Grundlage des SIRT-Algorithmus arbeitet. Die untersuchten Querschnitte beinhalteten Anomalien bestehend aus Luft, Granit, Holz und Mörtel. Die Abmaße der Anomalien lagen zwischen 10-27 cm bezogen auf einen Querschnitt von 0,76 x 1,0 m. Eine Ortung der Anomalien war möglich, wenn diese eine Laufzeitveränderung von mindestens der Größe des Messfehlers bewirken. Die Größe dieser Laufzeitdifferenz ist abhängig von den Abmaßen der Anomalie und dem Kontrast der elektromagnetischen bzw. akustischen Eigenschaften zwischen Anomalie und umgebenden Material. Eine Aussage über die Größe der Anomalie ist möglich, jedoch kann auf die Form nur bedingt geschlussfolgert werden. Des Weiteren kann durch den Vergleich der beiden Verfahren ein Rückschluss auf die möglichen Materialien der Anomalie gezogen werden.
Die Arbeit »Anachronismen: Historiografie und Kino« geht von einer zunächst einfachen Beobachtung aus: beinahe immer, wenn Historiker_innen sich mit Geschichtsfilmen auseinander setzen, findet sich die lautstark geführte Beschwerde über die zahlreichen und vermeidbaren Anachronismen der Filme, die sie als ernst zu nehmende historiografische Beiträge desavouieren.
Von hier ausgehend verfolgt die Arbeit ein dreifaches Projekt: zunächst in einer kritischen Analyse geschichtstheoretischer Texte einige Hinweise für den Status von Anachronismen für die moderne westliche Historiografie zu gewinnen. Zweitens zu untersuchen, welche Rolle Anachronismen für den Geschichtsfilm spielen. Und drittens von dort aus das epistemische Potential anachronistischen Geschichtskinos zu untersuchen.
Eine der Hauptthesen, welche den Blick sowohl auf die Filme wie auf die theoretischen Texte leitet, besagt, dass Anachronismen genau jene Punkte sind, an denen die Medien einer jeden Geschichtsschreibung beobachtbar werden. Die Beobachtung und Beschreibung dieser Medien der kinematografischen Geschichtsschreibung unternimmt die Arbeit unter Zuhilfenahme einiger theoretischer Überlegungen der Actor Network Theory (ANT).
Die Arbeit ist in vier Kapitel gegliedert, in deren Zentrum jeweils die Diskussion eines ANT-Begriffs sowie die Analyse eines Geschichtsfilmes steht. Zu den untersuchten Filmen gehören Shutter Island (Martin Scorsese, 2010), Chronik der Anna Magdalena Bach (Jean-Marie Straub/Danièle Huillet, 1968), Cleopatra (Joseph L. Mankiewicz, 1963) und Caravaggio (Derek Jarman, 1986). Die Arbeit kommentiert außerdem theoretische Texte zur Historiografie und zu Anachronismen von Walter Benjamin, Leo Bersani, Georges Didi-Huberman, Siegfried Kracauer, Friedrich Meinecke, Friedrich Nietzsche, Jacques Rancière, Leopold Ranke, Paul Ricœur, Georg Simmel, Hayden White u. a.
Objektorientierte Bauwerksmodelle sind derzeit Gegenstand umfangreicher Foschungsaktivitäten zur rechnerinternen Verwaltung bauwerksbezogener Informationen. Ein in diesem Rahmen diskutierter Ansatz ist die Realisierung eines virtuellen rechnerinternen Bauwerks in Form eines variablen Verbundes fachspezifischer objektorientierter Modelle. Diese Organisationsform der rechnerinternen Repräsentation eignet sich einerseits aufgrund ihrer Flexibilität sehr gut für eine lebensphasenübergreifende Fortschreibung als digitale Bauwerksakte. Eine solche Bauwerksakte bildet eine wichtige Informationsgrundlage für die Planung von Instandhaltungs-, Modernisierungs-, \Umbau- oder Erweiterungsmaßnahmen in späteren Lebensphasen des Bauwerks. Andererseits erschwert die dezentrale Organisationsform des Modellverbundes jedoch die Informationssuche, was in erster Linie durch das Vorhandensein multipler Repräsentationen einzelner Realweltobjekte sowie die Komplexität der am Verbund beteiligten Modellschemata bedingt ist. Gegenstand der vorliegenden Arbeit ist die Entwicklung eines generischen Systemkerns als Basis für eine projektbezogen konfigurierbare Informationsumgebung, die insbesondere in frühen Projektphasen einen handhabbaren Zugang zu den im Modellverbund verwalteten Informationen bereitstellen kann. Der vorgeschlagene Lösungsansatz erweitert den Modellverbund um eine Erschließungsstruktur, in der die einzelnen Elemente der individuellen baulich-räumlichen Struktur durch eindeutige Identifikatoren vertreten werden. Mit den Identifikatoren werden jeweils die fachspezifischen Repräsentationen des Objektes verknüpft und sind somit von einem zentralen Einstiegspunkt aus erreichbar. Der generische Systemkern definiert eine objektorientierte Datenstruktur zur Verwaltung der jeweils projektbezogen auszuprägenden Erschließungsstruktur. Die Interaktion mit dem erschlossenen Informationsraum erfordert eine entsprechende Nutzerschnittstelle, die in der Lage ist, nicht vorhersehbaren, spontan entstehenden Informationsbedarf zu bedienen. Darüber hinaus soll sie konfigurierbar sein bezüglich der unterstützten Suchstrategien. Der Lösungsansatz sieht eine hierarchische Organisationstruktur der Nutzerschnittstelle vor, die eine modulare Erweiterung ermöglicht. Ein entsprechender Kern der Nutzerschnittstelle wird als objektorientiertes Framework spezifiziert. Die Erschließungsstruktur und die Nutzerschnittstelle werden unter Anwendung des objektorientierten Paradigmas entwickelt und mit Hilfe einer formalen Notation auf implementierungsunabhängiger Ebene beschrieben. Anhand exemplarischer Umsetzungen kritischer Systemteile wird die prinzipielle Realisierbarkeit des beschriebenen Systems nachgewiesen.
Viele Baudenkmale sind dem Konflikt aus baulichem Instandsetzungsbedarf für eine zeitgemäße Nutzung und einer sich möglicherweise daraus ergebenden Gefährdung der Denkmalsubstanz ausgesetzt. Gründe sind steigende Energiekosten für den Gebäudebetrieb, zeitgemäße Anforderungen an Behaglichkeit und Arbeitsschutz, sowie die Vermeidung von Schäden an der Substanz aufgrund baulicher Mängel des konstruktiven Wärme- und Feuchteschutzes. Gleichzeitig gilt für viele Bauten aber auch die Notwendigkeit regelmäßiger Nutzung und Bewirtschaftung, um den Erhalt überhaupt zu sichern. Die energetische Ertüchtigung von Baudenkmalen scheitert in diesem Spannungsfeld oft am unlösbaren Konflikt zwischen dem Erhalt der bauzeitlichen Substanz auf der einen und der notwendigen energetischen Optimierung der Gebäudehülle auf der anderen Seite. Zielsetzung dieser Fallstudie ist die beispielhafte Entwicklung einer bauklimatischen und denkmalgerechten Ertüchtigungsstrategie am Beispiel eines Verwaltungsgebäudes der Nachkriegsmoderne als Beitrag zur Lösung dieses Konfliktes.
Das Ziel der Arbeit war die systematische Untersuchung zum Rb/K-Ionenaustauschverhalten von K(TiO)PO4-Einkristallen. Es wurde der Rb-Austauschgrad in Abhängigkeit von der Salzschmelzenzusammensetzung untersucht. Hierbei lag das Augenmerk auf der Einstellung des Austauschgleichgewichtes. Desweiteren wurde die Abhängigkeit des Rb/K-Diffusionskoeffizienten von der Salzschmelzenzusammensetzung untersucht. Die Austauschzeit wurde im Bereich 8 min - 16 h variiert. Mit einer Nitratschmelze aus 75 mol-% RbNO3 - 25 mol-% KNO3 wurde ein Rb-Austauschgrad von 0,29 +- 0,06 gefunden. Mit mehrfach geladenen Kationen betrug die Austauschzeit 8 min. Der höchste Rb-Austauschgrad wurde mit BiONO3 in der Schmelze gefunden (0,66) Der Rb/K-Diffusionskoeffizient erreicht mit mehrfach geladenen Kationen in der Schmelze Werte von etwa 1,0 * 10E-9 cm²/s. Die gefundene Anisotropie der Austauschgeschwindigkeit beträgt bei RbNO3-KNO3-Schmelzen etwa 100/1 und bei zweifach geladenen Kationen in der Schmelze etwa 250/1. Mittels Ionenaustausch wurde eine vorgegebene Gitterstruktur etwa 20 µm in die Tiefe eingebracht. Durch rein thermischen Ionenaustausch können extrem schmale und zugleich tiefe Austauschareale erzeugt werden.
Multi-user virtual reality systems enable collocated as well as distributed users to perform collaborative activities in immersive virtual environments. A common activity in this context is to move from one location to the next as a group to explore the environment together. The simplest solution to realize these multi-user navigation processes is to provide each participant with a technique for individual navigation. However, this approach entails some potentially undesirable consequences such as the execution of a similar navigation sequence by each participant, a regular need for coordination within the group, and, related to this, the risk of losing each other during the navigation process.
To overcome these issues, this thesis performs research on group navigation techniques that move group members together through a virtual environment. The presented work was guided by four overarching research questions that address the quality requirements for group navigation techniques, the differences between collocated and distributed settings, the scalability of group navigation, and the suitability of individual and group navigation for various scenarios. This thesis approaches these questions by introducing a general conceptual framework as well as the specification of central requirements for the design of group navigation techniques. The design, implementation, and evaluation of corresponding group navigation techniques demonstrate the applicability of the proposed framework.
As a first step, this thesis presents ideas for the extension of the short-range teleportation metaphor, also termed jumping, for multiple users. It derives general quality requirements for the comprehensibility of the group jumping process and introduces a corresponding technique for two collocated users. The results of two user studies indicate that sickness symptoms are not affected by user roles during group jumping and confirm improved planning accuracy for the navigator, increased spatial awareness for the passenger, and reduced cognitive load for both user roles.
Next, this thesis explores the design space of group navigation techniques in distributed virtual environments. It presents a conceptual framework to systematize the design decisions for group navigation techniques based on Tuckman's model of small-group development and introduces the idea of virtual formation adjustments as part of the navigation process. A quantitative user study demonstrates that the corresponding extension of Multi-Ray Jumping for distributed dyads leads to more efficient travel sequences and reduced workload. The results of a qualitative expert review confirm these findings and provide further insights regarding the complementarity of individual and group navigation in distributed virtual environments.
Then, this thesis investigates the navigation of larger groups of distributed users in the context of guided museum tours and establishes three central requirements for (scalable) group navigation techniques. These should foster the awareness of ongoing navigation activities as well as facilitate the predictability of their consequences for all group members (Comprehensibility), assist the group with avoiding collisions in the virtual environment (Obstacle Avoidance), and support placing the group in a meaningful spatial formation for the joint observation and discussion of objects (View Optimization). The work suggests a new technique to address these requirements and reports on its evaluation in an initial usability study with groups of five to ten (partially simulated) users. The results indicate easy learnability for navigators and high comprehensibility for passengers. Moreover, they also provide valuable insights for the development of group navigation techniques for even larger groups.
Finally, this thesis embeds the previous contributions in a comprehensive literature overview and emphasizes the need to study larger, more heterogeneous, and more diverse group compositions including the related social factors that affect group dynamics.
In summary, the four major research contributions of this thesis are as follows:
- the framing of group navigation as a specific instance of Tuckman's model of small-group development
- the derivation of central requirements for effective group navigation techniques beyond common quality factors known from single-user navigation
- the introduction of virtual formation adjustments during group navigation and their integration into concrete group navigation techniques
- evidence that appropriate pre-travel information and virtual formation adjustments lead to more efficient travel sequences for groups and lower workloads for both navigators and passengers
Overall, the research of this thesis confirms that group navigation techniques are a valuable addition to the portfolio of interaction techniques in multi-user virtual reality systems. The conceptual framework, the derived quality requirements, and the development of novel group navigation techniques provide effective guidance for application developers and inform future research in this area.
Das Ziel der Arbeit besteht in der Entwicklung eines Bemessungskonzeptes auf der Basis nichtlinearer Schnittgrößen für statisch und dynamisch beanspruchte Stahlbetontragwer-ke. Das Konzept geht dabei von einheitlichen Kriterien zur Analyse der Tragfähigkeit und Gebrauchstauglichkeit auf der Grundlage deformationsbasierter Grenzzustandsbetrach-tungen aus. Der deformationsbasierte Grenzzustand ist dadurch charakterisiert, daß ne-ben der statischen und kinematischen Zulässigkeit eines Tragwerkszustandes auch die Einhaltung von definierten Verzerrungs- bzw. Verformungsgrenzwerten gewährleistet ist. Aus Betrachtungen im Kontinuum werden diskrete Modelle zur Lösung von physikalisch und geometrisch nichtlinearen Grenzwiderstandsaufgaben mit und ohne Berücksichtigung von Lastfolgeeffekten abgeleitet. Die numerische Untersetzung basiert auf Methoden der nichtlinearen Optimierung. Auf der Grundlage dieser Berechnungsmodelle wird eine Be-messungskonzeption entwickelt.
Landwirtschaftliche Biogasanlagen leisten mit ca. 9.300 Anlagen und einem Anteil von 5,3% an der Stromerzeugung, einen Beitrag zur Erzeugung Erneuer-barer Energien in Deutschland. Die Optimierung dieser Anlagen fördert die nachhaltige Bereitstellung von Strom, Wärme und BioErdgas.
Das Ergebnis dieser Forschungsarbeit ist die Entwicklung eines mehrmethodi-schen Bewertungsansatzes zur Beschreibung der Qualität der Eingangs-substrate als Teil einer ganzheitlichen Prozessoptimierung. Dies gelingt durch die kombinierte Nutzung klassischer Analysesätze, der Nutzung organolepti-scher Parameter – der humansensorischen Sinnenprüfung – und der Integration von prozess- und substratspezifischem Erfahrungswissen. Anhand von halbtechnischen Versuchen werden Korrelationen und Kausalitäten zwi-schen chemisch-physikalischen, biologischen, organoleptischen und erfahrungsbezogenen Parametern erforscht. Die Entwicklung einer Fallbasis mit Hilfe des Fallbasierten Schließens, einer Form Künstlicher Intelligenz, zeigt das Entwicklungs- und Integrationspotenzial der Automatisierung auf, insbesondere auch im Hinblick auf neue Ansätze z.B. Industrie 4.0. Erste Lösungen zur Bewältigung der identifizierten Herausforderungen der mehrmethodischen Prozessbewertung werden vorgestellt.
Abschließend wird ein Ausblick auf den weiteren Forschungsbedarf gegeben und die Übertragbarkeit des mehrmethodischen Bewertungsansatzes auf andere Anwendungsfelder z.B. Bioabfallbehandlung, Kläranlagen angeregt.
Die fortschreitende Digitalisierung lässt innovative bauprojekt- und unternehmensinterne Workflows sowie Organisationssysteme entstehen. In diesem Zusammenhang ist die digitale Fortentwicklung durch Building Information Modeling [BIM] als Veränderungsprozess zu definieren, der Organisationsstrukturen nachhaltig umformen wird. BIM ist die führende digitale Arbeitsmethodik im Bauwesen, die entwurfs-, ausführungs- und bauprojektbezogenen Belangen gerecht werden kann. Die deutsche Bauwirtschaft ist im Vergleich zu anderen Branchen jedoch als digital rückständig zu betrachten. Sie ist durch einen Markt gekennzeichnet, an dem kleine und mittelständische Unternehmen [KMU] in hoher Zahl vertreten sind. Aufgrund von Anwendungsunkenntnis der kleinen und mittelständischen Unternehmen fehlt der flächendeckende und durchgängige BIM-Einsatz in Projekten. Mit dem Fokus auf dem Bauprojekt als temporärer Organisation adressiert der vorliegende Forschungsschwerpunkt die Schaffung eines realistischen Abbilds erprobter BIM-Anwendungsfälle in Modellprojekten. Herausgearbeitet werden derzeit bestehende BIM-Herausforderungen für Erstanwender, die die durchgängige BIM-Anwendung in Deutschland bisher hemmen.
Die Forschungsarbeit fokussiert sich auf die Evaluation erfolgskritischer Faktoren [ekF] in BIM-Anwendungsfällen [AWF] im Rahmen einer qualitativen Inhaltsanalyse. Die digitale Transformation birgt strukturrelevante Veränderungsdeterminanten für Organisationen durch die BIM-Anwendung und außerdem Herausforderungen, die in der Anwendungsfallforschung betrachtet werden.
Die Zielstellung ist dreiteilig. Ein entwickeltes BIM-Strukturmodell erfasst die aktuelle Richtlinienarbeit sowie Standardisierung und stellt dadurch den Rahmen notwendiger BIM-Strukturen im Bauprojekt auf. Aus dem Strukturmodell ist ein Modell zur Prüfung von Anwendungsfallrisiken abgeleitet worden. Dieses wird auf gezielt recherchierte BIM-Modellprojekte in Deutschland angewendet, um aus den erfolgskritischen Faktoren der darin praktizierten BIM-Anwendungsfälle eine ekF-Risikomatrix abzuleiten. Daraus geht ein unterstützendes BIM-Anwendungsinstrument in Form von BPMN-Abläufen für KMU hervor. Resultierend aus der Verbindung des BIM-Strukturmodels und der Anwendungsfallanalyse wird in den einzelnen Ablaufübersichten eine Risikoverortung je Anwendungsfall kenntlich gemacht. Unternehmen ohne BIM-Anwendungsexpertise in Bauprojektorganisationen erhalten auf diese Weise einen instrumentellen und niederschwelligen Zugang zu BIM, um die kollaborativen und wirtschaftlichen Vorteile der digitalen Arbeitsmethodik nutzen zu können.
Für querkraftbewehrte Elemente aus Porenbeton kann hinsichtlich der Querkrafttragfähigkeit ein gegenüber vergleichbaren Bauteilen aus Normal- oder üblichen Leichtbetonen abweichendes Trag-, Verformungs- und Bruchverhalten festgestellt werden. Bedingt wird dieses Verhalten durch die Interaktion der an der Verbundkonstruktion beteiligten Materialien. Experimentelle Untersuchungen an querkraftbewehrten Elementen aus Porenbeton zeigen, dass die Querkrafttragfähigkeit durch ein lokales Versagen der Verankerungszone der Querkraftbewehrung bedingt wird. Aufgrund der geringen Festigkeit und des spröden Materialverhaltens von Porenbeton ist es nicht möglich, die Querkraftbewehrung durch die Wirkung des kontinuierlichen Verbunds zu realisieren. Ergänzend wird Längs- und Querkraftbewehrung verschweißt. Die Querkrafttragfähigkeit von querkraftbewehrten Elementen aus Porenbeton kann durch Fachwerkmodelle unter Berücksichtigung von Energie- und Deformationsbedingungen abgeleitet werden.
Das Ziel der Arbeit ist, eine mögliche Verbesserung der Güte der Lebensdauervorhersage für Gusseisenwerkstoffe mit Kugelgraphit zu erreichen, wobei die Gießprozesse verschiedener Hersteller berücksichtigt werden.
Im ersten Schritt wurden Probenkörper aus GJS500 und GJS600 von mehreren Gusslieferanten gegossen und daraus Schwingproben erstellt.
Insgesamt wurden Schwingfestigkeitswerte der einzelnen gegossenen Proben sowie der Proben des Bauteils von verschiedenen Gussherstellern weltweit entweder durch direkte Schwingversuche oder durch eine Sammlung von Betriebsfestigkeitsversuchen bestimmt.
Dank der metallografischen Arbeit und Korrelationsanalyse konnten drei wesentliche Parameter zur Bestimmung der lokalen Dauerfestigkeit festgestellt werden: 1. statische Festigkeit, 2. Ferrit- und Perlitanteil der Mikrostrukturen und 3. Kugelgraphitanzahl pro Flächeneinheit.
Basierend auf diesen Erkenntnissen wurde ein neues Festigkeitsverhältnisdiagramm (sogenanntes Sd/Rm-SG-Diagramm) entwickelt.
Diese neue Methodik sollte vor allem ermöglichen, die Bauteildauerfestigkeit auf der Grundlage der gemessenen oder durch eine Gießsimulation vorhersagten lokalen Zugfestigkeitswerte sowie Mikrogefügenstrukturen besser zu prognostizieren.
Mithilfe der Versuche sowie der Gießsimulation ist es gelungen, unterschiedliche Methoden der Lebensdauervorhersage unter Berücksichtigung der Herstellungsprozesse weiterzuentwickeln.
Advances in nanotechnology lead to the development of nano-electro-mechanical systems (NEMS) such as nanomechanical resonators with ultra-high resonant frequencies. The ultra-high-frequency resonators have recently received significant attention for wide-ranging applications such as molecular separation, molecular transportation, ultra-high sensitive sensing, high-frequency signal processing, and biological imaging. It is well known that for micrometer length scale, first-principles technique, the most accurate approach, poses serious limitations for comparisons with experimental studies. For such larger size, classical molecular dynamics (MD) simulations are desirable, which require interatomic potentials. Additionally, a mesoscale method such as the coarse-grained (CG) method is another useful method to support simulations for even larger system sizes.
Furthermore, quasi-two-dimensional (Q2D) materials have attracted intensive research interest due to their many novel properties over the past decades. However, the energy dissipation mechanisms of nanomechanical resonators based on several Q2D materials are still unknown. In this work, the addressed main issues include the development of the CG models for molybdenum disulphide (MoS2), investigation of the mechanism effects on black phosphorus (BP) nanoresonators and the application of graphene nanoresonators. The primary coverage and results of the dissertation are as follows:
Method development. Firstly, a two-dimensional (2D) CG model for single layer MoS2 (SLMoS2) is analytically developed. The Stillinger-Weber (SW) potential for this 2D CG model is further parametrized, in which all SW geometrical parameters are determined analytically according to the equilibrium condition for each individual potential term, while the SW energy parameters are derived analytically based on the valence force field model. Next, the 2D CG model is further simplified to one-dimensional (1D) CG model, which describes the 2D SLMoS2 structure using a 1D chain model. This 1D CG model is applied to investigate the relaxed configuration and the resonant oscillation of the folded SLMoS2. Owning to the simplicity nature of the 1D CG model, the relaxed configuration of the folded SLMoS2 is determined analytically, and the resonant oscillation frequency is derived analytically. Considering the increasing interest in studying the properties of other 2D layered materials, and in particular those in the semiconducting transition metal dichalcogenide class like MoS2, the CG models proposed in current work provide valuable simulation approaches.
Mechanism understanding. Two energy dissipation mechanisms of BP nanoresonators are focused exclusively, i.e. mechanical strain effects and defect effects (including vacancy and oxidation). Vacancy defect is intrinsic damping factor for the quality (Q)-factor, while mechanical strain and oxidation are extrinsic damping factors. Intrinsic dissipation (induced by thermal vibrations) in BP resonators (BPRs) is firstly investigated. Specifically, classical MD simulations are performed to examine the temperature dependence for the Q-factor of the single layer BPR (SLBPR) along the armchair and zigzag directions, where two-step fitting procedure is used to extract the frequency and Q-factor from the kinetic energy time history. The Q-factors of BPRs are evaluated through comparison with those of graphene and MoS2 nanoresonators. Next, effects of mechanical strain, vacancy and oxidation on BP nanoresonators are investigated in turn. Considering the increasing interest in studying the properties of BP, and in particular the lack of theoretical study for the BPRs, the results in current work provide a useful reference.
Application. A novel application for graphene nanoresonators, using them to self-assemble small nanostructures such as water chains, is proposed. All of the underlying physics enabling this phenomenon is elucidated. In particular, by drawing inspiration from macroscale self-assembly using the higher order resonant modes of Chladni plates, classical MD simulations are used to investigate the self-assembly of water molecules using
graphene nanoresonators. An analytic formula for the critical resonant frequency based on the interaction between water molecules and graphene is provided. Furthermore, the properties of the water chains assembled by the graphene nanoresonators are studied.
Das Wissen um den realen Zustand eines Bauprojektes stellt eine entscheidende Kernkompetenz eines steuernden bauausführenden Unternehmens dar. Der bewusste Umgang mit Informationen und deren effiziente Nutzung sind entscheidende Erfolgsfaktoren für die zeit-, kosten- und qualitätsgerechte Realisierung von Bauprojekten.
Obwohl die erforderlichen Erfolgsfaktoren bekannt sind, sind Kosten- und Terminüberschreitungen von Bauprojekten keine Seltenheit – eher das Gegenteil ist der Fall.
Zukunftsweisende Digitalisierungsprojekte aber geben Anlass zu Hoffnung. Ein Beispiel ist der bereits im Dezember 2015 vom Bundesministerium für Verkehr und digitale Infrastruktur ins Leben gerufene Stufenplan Digitales Planen und Bauen. Dieser hat die Aufgabe flächendeckend die Methodik des Building Information Modeling (BIM) im Infrastrukturbereich einzuführen und somit die Digitalisierung in Deutschland zukunftsweisend voranzutreiben,
indem erfolgreiche Bauprojekte mit durchgängigen Informationsflüssen arbeiten. Seither existiert eine Vielzahl an Digitalisierungsprojekten, alle mit gleichen Zielen. Nachweislich
lassen sich hinsichtlich dessen allerdings auch vermehrt Defizite aufzeigen. So ist der
Fortschritt sehr heterogen verteilt und lässt sich für die Branche nicht allgemeingültig festlegen.
Mit einer internationalen Literaturrecherche sowie einer empirischen Studie als Untersuchungsmethode wurde in Form von Interviews mit Fachkundigen der tatsächliche Zustand der Digitalisierungs- und der BIM-Anwendungen im Straßenbau für den
Controllingprozess der Bauleistungsfeststellung untersucht. Die erhobenen Daten wurden
aufbereitet und anschließend softwaregestützt einer inhaltlichen Analyse unterzogen. In
Kombination mit den Ergebnissen der Literaturrecherche wurden notwendige Anforderungen
für den Controllingprozess der Bauleistungsfeststellung erhoben. Auf dieser Grundlage wurde
ein Modell im Sinne der Systemtheorie zur Optimierung der Bauleistungsfeststellung
entwickelt. Gegenstand der vorliegenden Arbeit ist die Integration der modellbasierten Arbeitsweise in die Prozesse der Bauleistungsfeststellung eines Bauunternehmens. Grundlage ist die objektive Auswertung des Fertigstellungsgrades (Baufortschrittes) mittels Luftbildaufnahmen. Deren Auswertung auf Basis eines Algorithmus und die systematische Identifikation des Baufortschrittes integriert in den Prozess der Bauleistungsfeststellung werden zu einem neu entwickelten Gesamtsystem mit dem Ergebnis eines optimierten Modells.
Das entwickelte Modell wurde hinsichtlich Anwendbarkeit und praktischer Relevanz an
ausgewählten Beispielszenarien untersucht und nachgewiesen.
Zum Begriff Illustration scheint ein Missverhältnis zwischen wissenschaftlicher Rezeption und praktischem Gegenstand vorzuliegen. Traditionell bezeichnet der Begriff Illustration ein Bild, das einen textlich vorangestellten Inhalt noch einmal visuell wiederholt und auf diesem Weg in einem Abbild verdoppelt. Traditionelle Illustration benennt also ein sekundäres, explizit von einem anderen Inhalt abhängiges Bild, das auch weggelassen werden könnte, ohne das Inhalt verloren geht. Genutzt wird dieser traditionelle Illustrationsbegriff heute unter anderem in den Forschungsfeldern der Kunstgeschichte, der Bildwissenschaften und der Literaturwissenschaften. Aus der Perpektive der Praxis birgt der traditionelle Illustrationsbegriff ein grundsätzliches Problem in sich. Er versucht, mit einer statischen Definition ein äußerst lebendiges visuelles Phänomen unserer heutigen Zeit zu beschreiben. Professionelle Berufszeichner, die sogenannten Illustratorinnen und Illustratoren, kreieren heute Werke, die mit dem traditionellen Illustrationsbegriff nicht mehr beschreibbar sind. Mehr noch, der traditionelle Illustrationsbegriff macht blind für diese Entwicklungen, die sich deshalb außerhalb des wissenschaftlichen Diskurses abspielen. Die vorliegende Arbeit möchte deshalb einen Blick auf den Zustand zeitgenössischer literarischer Buchillustration werfen, um den Begriff der Illustration in seiner aktuellen Unschärfe zu präzisieren, zu erweitern und somit zu aktualisieren.
A fundamental characteristic of human beings is the desire to start learning at the moment of birth. The rather formal learning process that learners have to deal with in school, on vocational training or in university, is currently subject to fundamental changes. The increasing technologization, overall existing mobile devices, the ubiquitous access to digital information, and students being early adaptors of all these technological innovations require reactions on the part of the educational system.
This study examines such a reaction: The use of mobile learning in higher education.
Examining the subject m-learning first requires an investigation of the educational model e-learning. Many universities already established e-learning as one of their educational segments, providing a wide range of methods to support this kind of teaching.
This study includes an empirical acceptance analysis regarding the general learning behavior of students and their approval of e-learning methods. A survey on the approval of m-learning supplements the results.
Mobile learning is characterized by both the mobility of the communication devices and the users. Both factors lead to new correlations, demonstrate the potential of today's mobile devices and the probability to increase the learning performance.
The dissertation addresses these correlations and the use of mobile devices in the context of m-learning. M-learning and the usage of mobile devices not only require a reflection from a technological point of view. In addition to the technical features of such mobile devices, the usability of their applications plays an important role, especially with regard to the limited display size.
For the purpose of evaluating mobile apps and browser-based applications, various analytical methods are suitable.
The concluding heuristic evaluation points out the vulnerability of an established m-learning application, reveals the need for improvement, and shows an approach to rectify the shortcoming.
Der Film BERLIN – DIE SINFONIE DER GROSSTADT (1927, Walter Ruttman) gilt bis heute als der Sinfonische Dokumentarfilm schlechthin. Er präsentiert nicht nur die Traditionslinien, die ihre Wurzeln in der neuen Sachlichkeit und den ersten Dokumentarfilmtheorien fanden, sondern auch die künstlerische und filmische Vorstellung von Ruttmann. Um den höchsten Grad an Objektivität in der Realitätsdarstellung zu erreichen, hat dieser Film einerseits treu alle theoretischen und ästhetischen Gedanken der neusachlichen Kunst zum ersten Mal filmisch in einem DOKUMENTARFILM dargestellt. Noch dazu drückt der Berlin-Film seinen kulturellen Beitrag mit ausschliesslich filmischen Mitteln aus, also mit rein visuellen Mitteln, oder anders gesagt mit FILMSPRACHE.
Im Gegensatz zur ersten Ankündigung des Films und der Filmliteratur, die den Film als Dokumentarfilm ansehen, ist er in Wirklichkeit einer der ersten innovativen Musikfilme in seinem historischen Kontext, welcher mit der Montage von Wirklichkeitsabbilden autonome Musik zu interpretieren versucht. Seine sachlichen, dokumentarischen Reportage-Bilder ordnen sich der abstrakten Struktur und dem Taktmaß der Musik unter. Als Folge entsteht laut Ruttmann eine VISUELLE SINFONIE, die eigentlich vielmehr eine Vision von Berlin darstellte, als zukünftige industrielle Musterstadt. Mit anderen Worten ist Berlin in diesem Film eine realistische Illusion, aber keineswegs ein reales Bild. Er bildet ein neues Filmgenre, den KUNSTDOKUMENTARFILM, das den Grundprinzipien des Dokumentarfilms nicht folgt.
Dies unterscheidet ihn aber auch von den KÜNSTLERISCHEN DOKUMENTARFILMEN, die einerseits dem Film BERLIN – DIE SINFONIE DER GROSSTADT zwar formalstilistisch und ästhetisch ähneln. Aber im Gegensatz zu ihm erfüllen diese die elementaren Voraussetzungen für einen Dokumentarfilm. Beispiele dafür sind: DER MANN MIT DER KAMERA (1929, Dsiga Vertov), KOYAANISQATSI (1982,Godfry Reggio) und das Remake BERLIN, SINFONIE EINER GROßSTADT (2002, Thomas Schadt).
BERLIN – DIE SINFONIE DER GROSSTADT von Walter Ruttmann stellt nicht nur ein neues Filmgenre dar, er ist auch eine singuläre Erscheinung in der Filmgeschichte. In diesem Sinne spielte er, laut dem Filmkritiker Helmut Korte, eine entscheidende Rolle in der Weiterentwicklung des absoluten Films „als Musterbeispiel für die Möglichkeiten des künstlerisch-dokumentarischen Films“ (Korte 1991: 76).
Diese erste umfassende Monographie über den Architekten, Professor und Museumsmann Manfred Lehmbruck (Paris 1913 – Stuttgart 1992) konzentriert sich neben dem Lebensweg und den theoretischen Arbeiten Lehmbrucks zum Museumsbau auf die drei realisierten Museumsbauten: das Reuchlinhaus Pforzheim, das Wilhelm-Lehmbruck-Museum Duisburg und das Federseemuseum Bad Buchau. Aber auch die drei anderen bedeutenden Gebäudeensembles, die Pausa AG Mössingen, die Berufsschule und das Stadtbad Stuttgart-Feuerbach und der Solitär der Mittelschule in Mössingen, alle fertiggestellt in den Sechziger Jahren des letzten Jahrhunderts, werden ausführlich besprochen. Das umfassende Werkverzeichnis im Anhang zeigt deutlich den Einfluß, den seine Lehrer, allen voran Ludwig Mies van der Rohe, aber auch Heinrich Tessenow, Paul Bonatz und Auguste Perret, auf die Architektursprache Lehmbrucks gehabt haben.
The task-based view of web search implies that retrieval should take the user perspective into account. Going beyond merely retrieving the most relevant result set for the current query, the retrieval system should aim to surface results that are actually useful to the task that motivated the query.
This dissertation explores how retrieval systems can better understand and support their users’ tasks from three main angles: First, we study and quantify search engine user behavior during complex writing tasks, and how task success and behavior are associated in such settings. Second, we investigate search engine queries formulated as questions, and explore patterns in a large query log that may help search engines to better support this increasingly prevalent interaction pattern. Third, we propose a novel approach to reranking the search result lists produced by web search engines, taking into account retrieval axioms that formally specify properties of a good ranking.
Die Dissertation untersucht Ideen von Virtualität im Hinblick auf mobile Medientechnologien. Es verbinden sich eine medienphilosophische und eine technikhistorische Perspektive: Das Virtuelle wird philosophiehistorisch ergründet und damit verbunden die Emergenz von mobilen Medientechnologien wie dem Mobiltelefon rekonstruiert. Zentral ist dabei die Frage, wie sich Weltverständnisse durch mobile Telekommunikation wandeln und wie das Virtuelle bislang im Kontext von Realitätsvorstellungen gedacht wurde.
Nanostructured materials are extensively applied in many fields of material science for new industrial applications, particularly in the automotive, aerospace industry due to their exceptional physical and mechanical properties. Experimental testing of nanomaterials is expensive, timeconsuming,challenging and sometimes unfeasible. Therefore,computational simulations have been employed as alternative method to predict macroscopic material properties. The behavior of polymeric nanocomposites (PNCs) are highly complex.
The origins of macroscopic material properties reside in the properties and interactions taking place on finer scales. It is therefore essential to use multiscale modeling strategy to properly account for all large length and time scales associated with these material systems, which across many orders of magnitude. Numerous multiscale models of PNCs have been established, however, most of them connect only two scales. There are a few multiscale models for PNCs bridging four length scales (nano-, micro-, meso- and macro-scales). In addition, nanomaterials are stochastic in nature and the prediction of macroscopic mechanical properties are influenced by many factors such as fine-scale features. The predicted mechanical properties obtained by traditional approaches significantly deviate from the measured values in experiments due to neglecting uncertainty of material features. This discrepancy is indicated that the effective macroscopic properties of materials are highly sensitive to various sources of uncertainty, such as loading and boundary conditions and material characteristics, etc., while very few stochastic multiscale models for PNCs have been developed. Therefore, it is essential to construct PNC models within the framework of stochastic modeling and quantify the stochastic effect of the input parameters on the macroscopic mechanical properties of those materials.
This study aims to develop computational models at four length scales (nano-, micro-, meso- and macro-scales) and hierarchical upscaling approaches bridging length scales from nano- to macro-scales. A framework for uncertainty quantification (UQ) applied to predict the mechanical properties
of the PNCs in dependence of material features at different scales is studied. Sensitivity and uncertainty analysis are of great helps in quantifying the effect of input parameters, considering both main and interaction effects, on the mechanical properties of the PNCs. To achieve this major
goal, the following tasks are carried out:
At nano-scale, molecular dynamics (MD) were used to investigate deformation mechanism of glassy amorphous polyethylene (PE) in dependence of temperature and strain rate. Steered molecular dynamics (SMD)were also employed to investigate interfacial characteristic of the PNCs.
At mico-scale, we developed an atomistic-based continuum model represented by a representative volume element (RVE) in which the SWNT’s properties and the SWNT/polymer interphase are modeled at nano-scale, the surrounding polymer matrix is modeled by solid elements. Then, a two-parameter model was employed at meso-scale. A hierarchical multiscale approach has been developed to obtain the structure-property relations at one length scale and transfer the effect to the higher length
scales. In particular, we homogenized the RVE into an equivalent fiber.
The equivalent fiber was then employed in a micromechanical analysis (i.e. Mori-Tanaka model) to predict the effective macroscopic properties of the PNC. Furthermore, an averaging homogenization process was also used to obtain the effective stiffness of the PCN at meso-scale.
Stochastic modeling and uncertainty quantification consist of the following ingredients:
- Simple random sampling, Latin hypercube sampling, Sobol’ quasirandom sequences, Iman and Conover’s method (inducing correlation in Latin hypercube sampling) are employed to generate independent and dependent sample data, respectively.
- Surrogate models, such as polynomial regression, moving least squares (MLS), hybrid method combining polynomial regression and MLS, Kriging regression, and penalized spline regression, are employed as an approximation of a mechanical model. The advantage of the surrogate models is the high computational efficiency and robust as they can be constructed from a limited amount of available data.
- Global sensitivity analysis (SA) methods, such as variance-based methods for models with independent and dependent input parameters, Fourier-based techniques for performing variance-based methods and partial derivatives, elementary effects in the context of local SA, are used to quantify the effects of input parameters and their interactions on the mechanical properties of the PNCs. A bootstrap technique is used to assess the robustness of the global SA methods with respect to their performance.
In addition, the probability distribution of mechanical properties are determined by using the probability plot method. The upper and lower bounds of the predicted Young’s modulus according to 95 % prediction intervals were provided.
The above-mentioned methods study on the behaviour of intact materials. Novel numerical methods such as a node-based smoothed extended finite element method (NS-XFEM) and an edge-based smoothed phantom node method (ES-Phantom node) were developed for fracture problems. These methods can be used to account for crack at macro-scale for future works. The predicted mechanical properties were validated and verified. They show good agreement with previous experimental and simulations results.
This dissertation is devoted to the theoretical development and experimental laboratory verification of a new damage localization method: The state projection estimation error (SP2E). This method is based on the subspace identification of mechanical structures, Krein space based H-infinity estimation and oblique projections. To explain method SP2E, several theories are discussed and laboratory experiments have been conducted and analysed.
A fundamental approach of structural dynamics is outlined first by explaining mechanical systems based on first principles. Following that, a fundamentally different approach, subspace identification, is comprehensively explained. While both theories, first principle and subspace identification based mechanical systems, may be seen as widespread methods, barely known and new techniques follow up. Therefore, the indefinite quadratic estimation theory is explained. Based on a Popov function approach, this leads to the Krein space based H-infinity theory. Subsequently, a new method for damage identification, namely SP2E, is proposed. Here, the introduction of a difference process, the analysis by its average process power and the application of oblique projections is discussed in depth.
Finally, the new method is verified in laboratory experiments. Therefore, the identification of a laboratory structure at Leipzig University of Applied Sciences is elaborated. Then structural alterations are experimentally applied, which were localized by SP2E afterwards. In the end four experimental sensitivity studies are shown and discussed. For each measurement series the structural alteration was increased, which was successfully tracked by SP2E. The experimental results are plausible and in accordance with the developed theories. By repeating these experiments, the applicability of SP2E for damage localization is experimentally proven.
Einfluss der Porosität von Beton auf den Ablauf einer schädigenden Alkali-Kieselsäure-Reaktion
(2016)
Der Dissertation liegt die Frage zugrunde, welchen Einfluss die Porosität von Beton auf den Ablauf einer schädigenden AKR hat. Insbesondere soll geklärt werden, ob der Einsatz von Gleitschalungsfertigern – anstelle von klassischen schienengeführten Betondeckenfertigern – und die damit verbundene verringerte Porosität der Betone den Ablauf einer schädigenden AKR begünstigt. Eine verringerte Porosität führt zu einer reduzierten Duktilität des Betons, so dass infolge AKR entstehende Zugspannungen schlechter abgebaut werden können. Weiterhin steht ein geringerer Expansionsraum für das entstehende AKR-Gel zur Verfügung. Diese Faktoren können den Ablauf einer AKR begünstigen. Allerdings können extern anstehende Alkalien schlechter in den Beton mit einer verringerten Porosität eindringen. Ferner wird die Diffusion der Alkalien zu den potenziell reaktiven Gesteinskörnungen verlangsamt.
Zur Beantwortung der aufgeworfenen Frage wird unter Einsatz einer neuartigen Prüfmethodologie und bei variierender Porosität untersucht, welche Schädigungsparameter maßgebend für den Ablauf und die Intensität einer schädigenden AKR sind. Die berücksichtigten Schädigungsparameter sind die mechanischen Eigenschaften des Betons, der zur Verfügung stehende Expansionsraum und die im Beton ablaufenden Transportvorgänge. Um den Einfluss der jeweiligen Schädigungsparameter spezifizieren zu können, gehen die Prüfungen einerseits von einem hohen internen und andererseits von einem hohen externen AKR-Schädigungspotenzial aus. In beiden Fällen erfolgen die Untersuchungen an langsam reagierenden alkaliempfindlichen Gesteinskörnungen. Die unterschiedlichen Porositäten ergeben sich hauptsächlich durch Variation des w/z-Wertes.
Bei dem hohen internen AKR-Schädigungspotenzial stehen die mechanischen Eigenschaften und der Expansionsraum im Vordergrund; außerdem ist der Einfluss der Zugabe eines LP-Bildners zu analysieren. Um ein hohes internes AKR-Schädigungspotenzial zu erreichen, kommt bei der Herstellung der Betonprobekörper ein Zement mit einem hohen Alkaligehalt zum Einsatz. Die Betonprobekörper werden der 40 °C-Nebelkammerlagerung und dem 60 °C-Betonversuch über Wasser unterzogen. Dabei findet eine neue Prüfmethodologie Anwendung, die der kontinuierlichen Messung der Dehnung und der ablaufenden Erhärtungs- und Rissbildungsprozesse dient. Diese Prüfmethodologie umfasst die Messung der Ultraschallgeschwindigkeit, die Schallemissionsanalyse und die µ-3D-Computertomografie.
Hingegen richtet sich der Fokus bei dem hohen externen AKR-Schädigungspotenzial auf die Transportvorgänge. Zur Provokation eines hohen externen AKR-Schädigungspotenzials werden die Probekörper der FIB-Klimawechsellagerung ausgesetzt.
Kein anderes Material hat im 19. Jahrhundert das Design und die Architektur beeinflußt, wie die Kunststoffe. Das Feld der Realisationen und der Projekte des gesamten Kunststoffbaus ist dabei aufgrund der unterschiedlichen Kunststoffarten und somit Ausführungen sehr weitläufig. Daher begrenzt sich diese Untersuchung auf die glasfaserverstärkten Kunststoffe (GFK). Die Glasfasern übertragen die auftretenden Kräfte und werden durch das sie umschließende Harz gebunden. Die GFK sind daher bestens für tragende Bauteile geeignet. Die glasfaserverstärkten Kunststoffe durchliefen in den 1940er bis 1970er Jahren eine für einen Baustoff kurze aber sehr ergiebige Pionierphase. Die umfassende Analyse der drei zu unterscheidenden Perioden setzt sich aus der Untersuchung der wirtschaftlichen, politischen, gesellschaftlichen und kulturellen Beeinflussungen zusammen. Circa 260 unterschiedliche Projekte wurden weltweit aus selbsttragenden / tragenden GFK-Bauteilen realisiert. Diese sind ausführlich innerhalb des Kataloges im Anhang aufgelistet. GFK-Bauten waren nicht allein aufgrund des neuen Materials modern, sondern auch aufgrund ihrer freien Formbarkeit, transluzenten Flächen und auffälligen Farben und den flexiblen Nutzungskonzepten entsprechend einer modernen demokratischen Gesellschaft, die aufgeschlossen und optimistisch der Zukunft gegenübersteht. Die Realisationen, die zum Teil bis heute noch genutzt werden, beweisen den hohen Wissensstand der Pioniere. Die von den Pionieren gesuchte GFK-Architektur war eine sehr vielfältige, die sich nicht auf wenige Formenmerkmale zusammenfassen läßt. Das neue Material ermöglichte es den Architekten, ihre Vorstellungen und Träume von Formen, Gehäusen und Bauten zu realisieren. Die Analyse der Vorgänger und der Inspirationsquellen diese Formenvielfalt sind Grundlage einer objektiven Beurteilung dieser Bauten. Architekten und Bauingenieure suchten ideale Einsatzgebiete und Konstruktionsvarianten für den bis dahin assoziationsfreien Baustoff. Die Nutzungskonzepte: Wohnhaus, Zweithaus, Ausstellung, Spielgerät und die Entwicklung von Gebäudeteilen: Gebäudehülle, Überdachung, Fassade werden im Gesamtzusammenhang und nach der optimalen Verwendbarkeit untersucht. Das Wissen über den Verlauf der Pionierphase der GFK, die damals formulierten Gründe für und wider deren Einsatz und der entwickelten Konstruktionen, Verbindungstechniken und Tragwerke kann einem erneuten Einsatz des Baumateriales nur dienlich sein. Anliegen dieser Dissertation ist es, die GFK als einsatzfähige Werkstoffe innerhalb der Architekturlandschaft wieder einen Platz zu geben. Diese Analyse soll verschüttetes Wissen aufdecken, die in den 1970er Jahren entstandenen Vorurteile sichtbar machen und die glasfaserverstärkten Kunststoffe als das darstellen, was sie sind, leistungsfähige Baustoffe für gekrümmte und gefaltete Konstruktionen.
Tropical coral reefs, one of the world’s oldest ecosystems which support some of the highest levels of biodiversity on the planet, are currently facing an unprecedented ecological crisis during this massive human-activity-induced period of extinction. Hence, tropical reefs symbolically stand for the destructive effects of human activities on nature [4], [5]. Artificial reefs are excellent examples of how architectural design can be combined with ecosystem regeneration [6], [7], [8]. However, to work at the interface between the artificial and the complex and temporal nature of natural systems presents a challenge, i.a. in respect to the B-rep modelling legacy of computational modelling.
The presented doctorate investigates strategies on how to apply digital practice to realise what is an essential bulwark to retain reefs in impossibly challenging times. Beyond the main question of integrating computational modelling and high precision monitoring strategies in artificial coral reef design, this doctorate explores techniques, methods, and linking frameworks to support future research and practice in ecology led design contexts.
Considering the many existing approaches for artificial coral reefs design, one finds they often fall short in precisely understanding the relationships between architectural and ecological aspects (e.g. how a surface design and material composition can foster coral larvae settlement, or structural three-dimensionality enhance biodiversity) and lack an integrated underwater (UW) monitoring process. Such a process is necessary in order to gather knowledge about the ecosystem and make it available for design, and to learn whether artificial structures contribute to reef regeneration or rather harm the coral reef ecosystem.
For the research, empirical experimental methods were applied: Algorithmic coral reef design, high precision UW monitoring, computational modelling and simulation, and validated through parallel real-world physical experimentation – two Artificial Reef Prototypes (ARPs) in Gili Trawangan, Indonesia (2012–today). Multiple discrete methods and sub techniques were developed in seventeen computational experiments and applied in a way in which many are cross valid and integrated in an overall framework that is offered as a significant contribution to the field. Other main contributions include the Ecosystem-aware design approach, Key Performance Indicators (KPIs) for coral reef design, algorithmic design and fabrication of Biorock cathodes, new high precision UW monitoring strategies, long-term real-world constructed experiments, new digital analysis methods and two new front-end web-based tools for reef design and monitoring reefs. The methodological framework is a finding of the research that has many technical components that were tested and combined in this way for the very first time.
In summary, the thesis responds to the urgency and relevance in preserving marine species in tropical reefs during this massive extinction period by offering a differentiated approach towards artificial coral reefs – demonstrating the feasibility of digitally designing such ‘living architecture’ according to multiple context and performance parameters. It also provides an in-depth critical discussion of computational design and architecture in the context of ecosystem regeneration and Planetary Thinking. In that respect, the thesis functions as both theoretical and practical background for computational design, ecology and marine conservation – not only to foster the design of artificial coral reefs technically but also to provide essential criteria and techniques for conceiving them.
Keywords: Artificial coral reefs, computational modelling, high precision underwater monitoring, ecology in design.
Carl Heinrich Ferdinand Streichhan prägte zwischen 1848 und 1884 als Oberbaudirektor maßgeblich das Baugeschehen im Großherzogtum Sachsen-Weimar-Eisenach. Beauftragt mit für die zweite Hälfte des 19. Jahrhunderts typischen staatlichen Bauaufgaben, hinterließ er als Architekt ein zwar nicht sehr umfängliches, jedoch facettenreiches und zumindest regional bedeutendes Werk. Geprägt wurde seine Baugesinnung durch die dem Schinkel´schen Vorbild und einem spezifischen, selektiven Historismus verpflichtete, sogenannte Berliner Schule, der Streichhan zeit seines Berufslebens eng verbunden blieb. Neben einer Würdigung des Oeuvres fokussiert die Arbeit auf das weitgefächerte Aufgabenspektrum eines leitend im Staatsdienst tätigen „Bautechnikers“, das – wie zeitgenössisch üblich – sowohl konstruktiv planende als auch vielfältige administrative Tätigkeiten, ingenieurtechnische Leistungen ebenso wie baukünstlerische umfasste. Streichhans Bildungsweg, Laufbahn und berufliches Selbstverständnis sind für den Baubeamten des (mittleren) 19. Jahrhunderts ebenso typisch wie schließlich, infolge beschleunigter Wandlungsprozesse ab 1871, nicht mehr zeitgemäß: Im Kontext tiefgreifender Umwälzungen veränderten sich auch die Handlungsfelder der Architekten und die Bedingungen architektonischen Schaffens, wie Streichhans Wirken paradigmatisch belegt.
Im Rahmen der Dissertation ist ein analytisches Berechnungsverfahren zur Ermittlung der Kapazität in lichtsignalgeregelten Zufahrten mit zusätzlichen Aufstellstreifen bei gleichzeitiger Freigabezeit entwickelt worden, dass sich durch folgende Eigenschaften auszeichnet:
a) einfaches Berechnungsverfahren – Ansatz eines einfachen linearen Berechnungsansatzes, der auf den Grundzusammenhängen des Verkehrsablaufs in lichtsignalgeregelten Zufahrten aufbaut,
b) breites Anwendungsgebiet – Berechnungsverfahren kann in Zufahrten mit bis zu zwei zusätzlichen Aufstellstreifen angewendet werden,
c) hohe Genauigkeit – Im Rahmen eines direkten Vergleichs konnte u. a.
gezeigt werden, dass mit dem hergeleiteten analytischen Berechnungsverfahren genauere Kapazitätswerte ermittelt werden können, als mit dem Berechnungsverfahren nach HBS 2015.