Professur Angewandte Mathematik
Refine
Document Type
- Conference Proceeding (18)
- Doctoral Thesis (7)
- Article (5)
- Bachelor Thesis (3)
- Master's Thesis (2)
- Habilitation (1)
Institute
- Professur Angewandte Mathematik (36)
- Institut für Strukturmechanik (ISM) (1)
- Professur Baubetrieb und Bauverfahren (1)
- Professur Baustatik und Bauteilfestigkeit (1)
- Professur Computer Vision in Engineering (1)
- Professur Informatik im Bauwesen (1)
- Professur Stahlbau (1)
- Professur Stochastik und Optimierung (1)
Keywords
- Computerunterstütztes Verfahren (18)
- Angewandte Mathematik (14)
- Angewandte Informatik (13)
- Architektur <Informatik> (9)
- Building Information Modeling (8)
- Data, information and knowledge modeling in civil engineering; Function theoretic methods and PDE in engineering sciences; Mathematical methods for (robotics and) computer vision; Numerical modeling in engineering; Optimization in engineering applications (7)
- CAD (6)
- Computer Science Models in Engineering; Multiscale and Multiphysical Models; Scientific Computing (3)
- Mathematik (3)
- Modellierung (3)
Within the scheduling of construction projects, different, partly conflicting objectives have to be considered. The specification of an efficient construction schedule is a challenging task, which leads to a NP-hard multi-criteria optimization problem. In the past decades, so-called metaheuristics have been developed for scheduling problems to find near-optimal solutions in reasonable time. This paper presents a Simulated Annealing concept to determine near-optimal construction schedules. Simulated Annealing is a well-known metaheuristic optimization approach for solving complex combinatorial problems. To enable dealing with several optimization objectives the Pareto optimization concept is applied. Thus, the optimization result is a set of Pareto-optimal schedules, which can be analyzed for selecting exactly one practicable and reasonable schedule. A flexible constraint-based simulation approach is used to generate possible neighboring solutions very quickly during the optimization process. The essential aspects of the developed Pareto Simulated Annealing concept are presented in detail.
Das Hauptziel der vorliegenden Arbeit war es, eine stetige Kopplung zwischen der ananlytischen und numerischen Lösung von Randwertaufgaben mit Singularitäten zu realisieren. Durch die inter-polationsbasierte gekoppelte Methode kann eine globale C0 Stetigkeit erzielt werden. Für diesen Zweck wird ein spezielle finite Element (Kopplungselement) verwendet, das die Stetigkeit der Lösung sowohl mit dem analytischen Element als auch mit den normalen CST Elementen gewährleistet.
Die interpolationsbasierte gekoppelte Methode ist zwar für beliebige Knotenanzahl auf dem Interface ΓAD anwendbar, aber es konnte durch die Untersuchung von der Interpolationsmatrix und numerische Simulationen festgestellt werden, dass sie schlecht konditioniert ist. Um das Problem mit den numerischen Instabilitäten zu bewältigen, wurde eine approximationsbasierte Kopplungsmethode entwickelt und untersucht. Die Stabilität dieser Methode wurde anschließend anhand der Untersuchung von der Gramschen Matrix des verwendeten Basissystems auf zwei Intervallen [−π,π] und [−2π,2π] beurteilt. Die Gramsche Matrix auf dem Intervall [−2π,2π] hat einen günstigeren Konditionszahl in der Abhängigkeit von der Anzahl der Kopplungsknoten auf dem Interface aufgewiesen. Um die dazu gehörigen numerischen Instabilitäten ausschließen zu können wird das Basissystem mit Hilfe vom Gram-Schmidtschen Orthogonalisierungsverfahren auf beiden Intervallen orthogonalisiert. Das orthogonale Basissystem lässt sich auf dem Intervall [−2π,2π] mit expliziten Formeln schreiben. Die Methode des konsistentes Sampling, die häufig in der Nachrichtentechnik verwendet wird, wurde zur Realisierung von der approximationsbasierten Kopplung herangezogen. Eine Beschränkung dieser Methode ist es, dass die Anzahl der Sampling-Basisfunktionen muss gleich der Anzahl der Wiederherstellungsbasisfunktionen sein. Das hat dazu geführt, dass das eingeführt Basissys-tem (mit 2 n Basisfunktionen) nur mit n Basisfunktion verwendet werden kann.
Zur Lösung diese Problems wurde ein alternatives Basissystems (Variante 2) vorgestellt. Für die Verwendung dieses Basissystems ist aber eine Transformationsmatrix M nötig und bei der Orthogonalisierung des Basissystems auf dem Intervall [−π,π] kann die Herleitung von dieser Matrix kompliziert und aufwendig sein. Die Formfunktionen wurden anschließend für die beiden Varianten hergeleitet und grafisch (für n = 5) dargestellt und wurde gezeigt, dass diese Funktionen die Anforderungen an den Formfunktionen erfüllen und können somit für die FE- Approximation verwendet werden.
Anhand numerischer Simulationen, die mit der Variante 1 (mit Orthogonalisierung auf dem Intervall [−2π,2π]) durchgeführt wurden, wurden die grundlegenden Fragen (Beispielsweise: Stetigkeit der Verformungen auf dem Interface ΓAD, Spannungen auf dem analytischen Gebiet) über-
prüft.
Für eine beherrschbare Koordination und Durchführung von Planungsaufgaben in Bauprojekten wird der Planungsprozess zunehmend in formalisierten Modellen – Prozessmodellen – beschrieben. Die Produktmodellforschung ihrerseits widmet sich der Speicherung von Planungsdaten in Form von objektorientierten Modellen im Rechner. Hauptaugenmerk sind dabei die Wahrung der Konsistenz und die Modellierung von Abhängigkeiten innerhalb dieses Planungsmaterials. Der Bezug zu den Akteuren der Planung wird nicht direkt hergestellt. Ein formal beschriebener Planungsprozesses kann in der Praxis noch nicht derart realisiert werden, dass ein Zugriff auf Einzelobjekte des Planungsprozesses gewährleistet ist. Bestehende Planungsunterstützungs- und Workflowmanagement-Systeme abstrahieren und ordnen das Planungsmaterial nach wie vor auf Dateiebene. Der vorliegende Artikel beschreibt eine Methode für die geeignete Verbindung von formalisierten Prozessmodellen in der Bauplanung mit den Einzelobjekten, die in den modellorientierten Objektmengen kodiert sind. Dabei wird die Zugehörigkeit bestimmter Objekte zu Plänen und Dokumenten (zum Zwecke des Datenaustauschs) nicht länger durch die physische Zuordnung zu Dateien festgelegt. Es wird ein formales Beschreibungsmittel vorgestellt, welches die entsprechende Teilmengenbildung aus der Gesamtheit der Planungsobjekte ermöglicht. Für die bisherigen Formen des Datenaustausches werden aus den Objektmodellen der Planung Teilmengen herausgelöst und physikalisch zwischen den Planern transportiert. Das neue Beschreibungsmittel hingegen erlaubt es, die Bildungsvorschrift für Objektteilmengen statt der Mengen selbst zwischen den Planern auszutauschen. Der Zugriff auf die konkreten Objekte findet dann direkt modellbasiert statt.
Im Mittelpunkt der Dissertation steht die Theorie der Differenzenpotentiale, die eng mit der klassischen Potentialtheorie verbunden ist. Vorgestellt wird eine Methode zur Lösung von Randwertproblemen, die nicht auf der Diskretisierung einer Randintegralgleichung beruht, sondern von der Übertragung des Problems in ein Differenzenrandwertproblem ausgeht. Das diskrete Randwertproblem wird mit Hilfe einer Randreduktionsmethode auf eine Randoperatorgleichung transformiert, die detaillierter zu untersuchen ist. Voraussetzung für den Aufbau der Theorie ist die Existenz diskreter Fundamentallösungen. Die Definition der Differenzenpotentiale wird von Ryabenkij übernommen. Seine Herangehensweise führt jedoch zu überbestimmten linearen Gleichungssystemen auf dem Rand. Durch die Aufspaltung des Randpotentials in ein diskretes Einfach- und Doppelschichtpotential wird diese Schwierigkeit in der Dissertation überwunden. Bewiesen werden Eindeutigkeits- und Lösbarkeitsaussagen für Differenzenrandwertprobleme. Das onvergenzverhalten der diskreten Potentiale wird im Kapitel 3 untersucht. Im Kapitel 4 werden numerische Resultate vorgestellt.
Sensor faults can affect the dependability and the accuracy of structural health monitoring (SHM) systems. Recent studies demonstrate that artificial neural networks can be used to detect sensor faults. In this paper, decentralized artificial neural networks (ANNs) are applied for autonomous sensor fault detection. On each sensor node of a wireless SHM system, an ANN is implemented to measure and to process structural response data. Structural response data is predicted by each sensor node based on correlations between adjacent sensor nodes and on redundancies inherent in the SHM system. Evaluating the deviations (or residuals) between measured and predicted data, sensor faults are autonomously detected by the wireless sensor nodes in a fully decentralized manner. A prototype SHM system implemented in this study, which is capable of decentralized autonomous sensor fault detection, is validated in laboratory experiments through simulated sensor faults. Several topologies and modes of operation of the embedded ANNs are investigated with respect to the dependability and the accuracy of the fault detection approach. In conclusion, the prototype SHM system is able to accurately detect sensor faults, demonstrating that neural networks, processing decentralized structural response data, facilitate autonomous fault detection, thus increasing the dependability and the accuracy of structural health monitoring systems.
A central issue for the autonomous navigation of mobile robots is to map unknown environments while simultaneously estimating its position within this map. This chicken-eggproblem is known as simultaneous localization and mapping (SLAM). Asctec’s quadrotor Pelican is a powerful and flexible research UAS (unmanned aircraft system) which enables the development of new real-time on-board algorithms for SLAM as well as autonomous navigation. The relative UAS pose estimation for SLAM, usually based on low-cost sensors like inertial measurement units (IMU) and barometers, is known to be affected by high drift rates. In order to significantly reduce these effects, we incorporate additional independent pose estimation techniques using exteroceptive sensors. In this article we present first pose estimation results using a stereo camera setup as well as a laser range finder, individually. Even though these methods fail in few certain configurations we demonstrate their effectiveness and value for the reduction of IMU drift rates and give an outlook for further works towards SLAM.
Geotechnical constructions are sophisticated structures due to the non-linear soil behaviour and the complex soil-structure interaction, which entails great exigencies on the liable engineer during the design process. The process can be schematised as a difficult and, depending on the opportunities and skills of the processor more or less innovative, creative and heuristic search for one or a multiple of defined objectives under given boundary conditions. Wholistic approaches including numerical optimisation which support the constructing engineer in this task do not currently exist. Abstract problem formulation is not state of the art; commonly parameter studies are bounded by computational effort. Thereby potential regarding cost effectiveness, construction time, load capacity and/or serviceability are often used insufficiently. This paper describes systematic approaches for comprehensive optimisation of selected geotechnical constructions like combined pile raft foundations and quay wall structures. Several optimisation paradigms like the mono- and the multi-objective optimisation are demonstrated and their use for a more efficient design concerning various intentions is shown in example. The optimisation is implemented by using Evolutionary Algorithms. The applicability to geotechnical real world problems including nonlinearities, discontinuities and multi-modalities is shown. The routines are adapted to common problems and coupled with conventional analysis procedures as well as with numerical calculation software based on the finite element method. Numerical optimisation of geotechnical design using efficient algorithms is able to deliver highly effective solutions after investing more effort into the parameterization of the problem. Obtained results can be used for realizing different constructions near the stability limit, visualizing the sensitivity regarding the construction parameters or simply procuring more effective solutions.
The quaternionic operator calculus can be applied very elegantly to solve many important boundary value problems arising in fluid dynamics and electrodynamics in an analytic way. In order to set up fully explicit solutions. In order to apply the quaternionic operator calculus to solve these types of boundary value problems fully explicitly, one has to evaluate two types of integral operators: the Teodorescu operator and the quaternionic Bergman projector. While the integral kernel of the Teodorescu transform is universal for all domains, the kernel function of the Bergman projector, called the Bergman kernel, depends on the geometry of the domain. Recently the theory of quaternionic holomorphic multiperiodic functions and automorphic forms provided new impulses to set up explicit representation formulas for large classes of hyperbolic polyhedron type domains. These include block shaped domains, wedge shaped domains (with or without additional rectangular restrictions) and circular symmetric finite and infinite cylinders as particular subcases. In this talk we want to give an overview over the recent developments in this direction.
Stapelprobleme treten in der Praxis in vielfältiger Form auf. So finden sich Stapelprobleme in einer großen Fülle von Variationen im Logistikbereich, aber auch im Bauwesen. Zunächst wird das klassische Turm von Hanoi Problem kurz vorgestellt. Dieses Problem wird als Stapelproblem formuliert. Weiterhin werden verzweigte Stapelproblem untersucht: Ein gegebener Stapel -- bestehend aus den Elementen v der Menge V -- soll an anderer Stelle in einer vorgeschriebenen, veränderten Struktur wieder aufgebaut werden. Dazu stehen Hilfsstapelplätze zur Verfügung. Die Optimierung dieses Problems hinsichtlich der Anzahl der benötigten Hilfsstapelplätze ist NP-vollständig. Es werden Erfahrungen mit einem Branch-and-Bound Algorithmus zur Lösung des Problems vorgestellt sowie ein heuristischer Algorithmus diskutiert. Schließlich werden verzweigte Stapelprobleme betrachtet, bei denen keine eineindeutige Zuordnung mehr von Elementen des Ausgangsstapels zu verfügbaren Positionen im Zielstapel existiert. Hier ist schon die Bestimmung einer günstigsten Zuordnung in bezug auf die Anzahl benötigter Hilfsstapelplätze NP-schwer.