Filtern
Dokumenttyp
- Konferenzveröffentlichung (132)
- Dissertation (15)
- Artikel (Wissenschaftlicher) (7)
- Masterarbeit (7)
- Bericht (4)
- Diplomarbeit (3)
- Preprint (3)
- Buch (Monographie) (1)
- Teil eines Buches (Kapitel) (1)
Institut
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (93)
- Institut für Strukturmechanik (ISM) (16)
- Professur Baubetrieb und Bauverfahren (10)
- Professur Angewandte Mathematik (6)
- Institut für Europäische Urbanistik (5)
- Junior-Professur Augmented Reality (5)
- Professur Stahlbau (5)
- Institut für Konstruktiven Ingenieurbau (IKI) (4)
- Professur Informatik in der Architektur (4)
- Professur Computergestütztes kooperatives Arbeiten (3)
Schlagworte
Erscheinungsjahr
- 2006 (173) (entfernen)
Advanced finite elements are proposed for the mechanical analysis of heterogeneous materials. The approximation quality of these finite elements can be controlled by a variable order of B-spline shape functions. An element-based formulation is developed such that the finite element problem can iteratively be solved without storing a global stiffness matrix. This memory saving allows for an essential increase of problem size. The heterogeneous material is modelled by projection onto a uniform, orthogonal grid of elements. Conventional, strictly grid-based finite element models show severe oscillating defects in the stress solutions at material interfaces. This problem is cured by the extension to multiphase finite elements. This concept enables to define a heterogeneous material distribution within the finite element. This is possible by a variable number of integration points to each of which individual material properties can be assigned. Based on an interpolation of material properties at nodes and further smooth interpolation within the finite elements, a continuous material function is established. With both, continuous B-spline shape function and continuous material function, also the stress solution will be continuous in the domain. The inaccuracy implied by the continuous material field is by far less defective than the prior oscillating behaviour of stresses. One- and two-dimensional numerical examples are presented.
In the final decades many scientists were occupied intensively with the change of materials during a process and their mathematical descriptions. The extensive and extensive analyses were supported by the advanced computer science. A mathematical description of the phase transformation is a condition for a realistic FE simulation of the state of microstructure. It is possible to simulate the temperature and stress field also in complex construction based on the state of microstructure. In the last years a great number of mathematical models were expanded to describe the transformation between different phases. For the development of the models for transformation kinetics it is practical to subdivide into isothermal and non-isothermal processes according to the thermal conditions. Some models for the description of the transformation with non-isothermal processes represent extensions for isothermal of processes. A part of parameters for the describing equations can be derived from the time-temperature-transformation diagrams in the literature. Furthermore the two possibilities of transformation are considered by different models - diffusion controlled and not diffusion controlled. The material-specific characteristics can be simulated during the transformation for each individual phase in a realistic FE analyses. Also new materials can be simulated after a modification of the parameters in the describing equations for the phase transformation. The effects in the temperature and stress field are a substantial reason for the investigation of the phase transformation during the welding and TIG-dressing processes.
Durch die Betrachtung des Produktions-Prozesses als zentrales Transformationselement wird die Struktur der Bauproduktion realitätsnah gefasst. Die Integration der prozessorientierten Kostendefinition setzt relevante Kostenparameter und Produktionsfaktoren so in Beziehung, dass sie im Einklang mit der realen Kostenstruktur und Kostendynamik einer Baustelle stehen. Die Beziehung zwischen Bauzeit und Kosten wird direkt erfasst und ausgewertet. Der hohen Dynamik der Bauproduktion zwischen kapazitätsbeschränkten Einsatzmitteln und Produktionsprozessen wurde durch das Poolmodell und der Simulation als Berechnungsmethode Rechnung getragen. Eine einfache Modellierung von sich zyklusartig wiederholenden Arbeitsvorgängen (Taktplanung) ist möglich. Die Taktbildung vollzieht sich bei der Simulation durch Kapazitätsbeschränkungen ohne Zutun des Benutzers. Durch eine Optimierungsmethode kann automatisiert nach der kostengünstigsten oder zeitlich schnellsten Produktionsvariante gesucht werden
We show a close relation between the Schrödinger equation and the conductivity equation to a Vekua equation of a special form. Under quite general conditions we propose an algorithm for explicit construction of pseudoanalytic positive formal powers for the Vekua equation that as a consequence gives us a complete system of solutions for the Schrödinger and the conductivity equations. Besides the construction of complete systems of exact solutions for the above mentioned second order equations and the Dirac equation, we discuss some other applications of pseudoanalytic function theory.
A new approach to the non-linear analysis of cross-sections loaded by normal forces and bending moments is presented in the paper. The mechanical model is based on the LAGRANGE principle of minimum of total potential energy. Deformations, stresses and limit load parameters are obtained by solving a non-linear optimisation problem. The mathematical model is independent of the specifics of material. In addition to the stress strain relation and the specific strain energy W(ε) two further functions F(ε) and Φ(ε) are introduced to describe the material behaviour. Thus cracks in concrete, non-linearity of material etc. can be taken into account without basic modification of the numerical algorithm. For polygonal cross-sections the GAUSS' integral theorem is used. Numerical solutions of the non-linear optimisation problems can be found by application of standard software. Thus the analysis of reinforced concrete cross-sections or more general composite cross-sections with non-linear behaviour of material is as simple as in the case of linear elasticity. The application of the method is demonstrated for polygonal cross-sections. Pre-stresses or pre-strains can easily be included in the mathematical model.
The presented method for an physically non-linear analysis of stresses and deformations of composite cross-sections and members based on energy principles and their transformation to non-linear optimisation problems. From the LAGRANGE principle of minimum of total potential energy a kinematic formulation of the mechanical problem can be developed, which has the general advantage that pre-deformations excited by shrinkage, temperature, residual deformations after unloading et al., can be considered directly. Thus the non-linear analysis of composite cross-sections with layers of different mechanical properties and different preloading becomes possible and cracks in concrete, stiffness degradation and other specifics of the material behaviour can be taken into account without cardinal modification of the mathematical model. The impact of local defects on the bearing capacity of an entire element can also be analysed in this principle way. Standard computational systems for mathematical optimisation or general programs for spreadsheet analysis enable an uncomplicated implementation of the developed models and an effective non-linear analysis for composite cross-sections and elements.
Moderne Büroarchitektur mit Räumen in Leichtbauweise und großen transparenten Fassa-denanteilen verschärft im Zusammenwirken mit hohen internen Lasten die Problematik der sommerlichen Überhitzung in Gebäuden. Phasenübergangsmaterialien (PCM: phase change materials) stellen eine interessante Möglichkeit dar, sommerliche Überhitzung in Gebäuden ohne aufwändige Anlagentechnik wie beispielsweise Klimaanlagen zu reduzieren. Der thermische Komfort in Räumen, die mit einem PCM-Putz ausgestattet sind, kann signifikant erhöht werden. Die Arbeit untersucht Anwendungsmöglichkeiten und Optimierungspotential eines PCM-Putzes auf experimentelle und numerische Weise. Zur Untersuchung des PCM-Putzes wurden materialtechnische und experimentelle sowie numerische und numerisch-analytische Methoden eingesetzt. Die Kenntnis der thermischen Parameter des PCM-Putzes ist unablässig für die Berechnung der möglichen Temperaturreduktionen. Zur Bestimmung der Latentwärme, des qualitativen Schmelz- und Erstarrungsprozesses sowie des Temperaturintervalls, in dem der Phasenübergang stattfindet, wurden Messungen mit einem Differential Scanning Calorimeter (DSC) durchgeführt. Für die experimentelle Untersuchung des PCM-Putzes wurden zwei identische Testräume in Leichtbauweise erstellt. Die Räume wurden im Verifikationsobjekt „Eiermannbau“ des Sonderforschungsbereiches SFB 524 der Bauhaus-Universität Weimar gemessen. Nach der Überprüfung, dass sich beide Räume thermisch gleich verhalten, wurde ein Raum mit dem PCM-Putz und der zweite Raum mit einem vergleichbaren Innenputz ohne PCM verputzt. Thermoelemente zur Temperaturmessung im Bauteil, an der Oberfläche und zur Raumlufttemperaturbestimmung wurden angebracht und mit einer Messwerterfassungsanlage verbunden. Der Verlauf der Außenlufttemperatur und die Globalstrahlung am Standort der Versuchsräume wurden aufgezeichnet, um einen Klimadatensatz zu erstellen. Für die Berechnung der Temperaturverteilung in einem PCM-Bauteil mit kontinuierlichem Phasenübergang existiert keine geschlossene analytische Lösung. Daher wurde ein numerischer Ansatz gewählt, bei dem der Phasenübergang im Temperaturbereich T1 bis T2 mit Hilfe einer temperaturabhängigen Wärmekapazität c(T) innerhalb der erweiterten Fou-rier’schen Wärmeleitungsgleichung dargestellt wird. Die Funktion c(T) wird auf Basis der DSC-Messungen bestimmt. Die Modellierung erfolgte mit einem Finite-Differenzen-Verfahren auf Grundlage der Fourier’schen Wärmeleitungsgleichung. Im Rahmen der Arbeit wurde ein PCM-Modul entwickelt, das in ein Gebäudesimulationsprogramm implementiert wurde. Mit dem neuen Modul lassen sich sowohl die Temperaturverläufe in einem PCM-Bauteil wie auch seine Wechselwirkung mit dem Raumklima darstellen. Eine Validierung des entwickelten PCM-Moduls anhand von zahlreichen experimentellen Daten der Versuchsräume wurde für das PCM-Modul erfolgreich durchgeführt. Sommerliche Überhitzungsstunden können durch PCM in Wand- und Deckenelementen deutlich reduziert werden. Der PCM-Putz eignet sich vor allem für Anwendungen in Leichtbauten wie z.B. moderne Büroräume. In Räumen, in denen bereits eine ausreichende thermische Masse vorhanden ist, ist die Temperaturreduktion durch PCM nur gering. Kann das PCM während der Nachtstunden nicht erstarren, erschöpft sich seine Fähigkeit zur Latentwärmespeicherung. Erhöhte Nachtlüftung führt bei entsprechend niedrigen Außentemperaturen zu höherem Wärmeübergang und kann damit zur besseren Entladung des PCM beitragen. Im Rahmen der Dissertation konnten Aussagen zur idealen Phasenübergangstemperatur in Abhängigkeit des verwendeten Materials und der Schichtdicke getroffen werden. Die Reduktion der Oberflächentemperaturen, die sich bei Einsatz eines PCM-Putzes unter geeigneten Randbedingungen ergibt, beträgt 2.0 - 3.5 K für eine Putzschicht von 1 cm und 3.0 - 5.0 K für eine Putzschicht von 3 cm. Diese Werte wurden sowohl numerisch als auch durch experimentelle Untersuchungen ermittelt. Die Reduktion der Lufttemperaturen aufgrund einer Konditionierung des Raumes mit PCM-Putz beträgt bei geeigneten thermischen Verhältnissen ca. 1.0 - 2.5 K für eine Putzschicht von 1 cm und 2.0 - 3.0 K für eine Putzschicht von 3 cm. Die operative Temperatur als wichtiger Komfortparameter kann durch den Einsatz des PCM-Putzes um bis zu 4 K gesenkt werden. Damit lässt sich mit Hilfe eines PCM-Putzes die thermische Behaglichkeit in einem Raum deutlich erhöhen.
Auf der Basis der Literaturrecherche wird in dieser Arbeit eine 5-lagige MAG-geschweißte Stumpfnaht an austenitisch-ferritischen Stahl X2CrNiMoN22-5-3 (Duplex-Stahl 1.4462) mit dem FE-Programm „SYSWELD®“ simuliert. Die Berech-nungen der Temperaturfelder werden unter der Berücksichtigung sowohl von tempe-raturunabhängigen als auch temperaturabhängigen thermophysikalischen Material-eigenschaften am drei-dimensionalen und zwei-dimensionalen Modell durchgeführt. Die berechneten Temperatur-Zeit-Verläufe und Gefügeumwandlungen beim MAG-Schweißen der Stumpfnaht werden hinsichtlich der Einflüsse und Veränderun-gen analysiert und die ermittelten Abkühlzeiten t12/8 werden für jede Schweißlage bewertet. Anschließend werden die Berechnungen des Eigenspannungszustandes für einzelne Schweißlagen untersucht.
Die Diplomarbeit leistet einen Betrag zur numerischen Untersuchung des Verzuges eines Feinkornbaustahles beim MAG-Schweißen. Ziel dabei war es, Informationen zu dem schweißbedingten Verzug beeinflussenden Größen zusammenzustellen, Angaben zu möglichen Berechnungsformeln des an einer T-Stoßverbindung durch das Schweißen entstehenden Winkelverzuges des Gurtes zu recherchieren und die Grundlagen für eine Verzugsberechnung mit Hilfe der Finite-Element-Methode darzustellen. Das Hauptinteresse lag dabei jedoch auf den durch das Schweißen von Kehlnähten entstehenden Winkelverzuges des Gurtes an T-Stoßverbindungen. Dieser wurde mit Hilfe numerischer Berechnungen untersucht. Dabei wurden die Einflüsse, welche geometrischen, werkstofflichen oder verfahrensbedingten Ursprungs seien können, betrachtet.
Ausgehend von den fundierten Erfahrungen, die für das Schweißen von verschiedensten Metallen vorliegen, wird an der Professur Stahlbau der Bauhaus-Universität Weimar ein neuartiges Verfahren zum CO2-Laserstrahlschweißen von Quarzglas numerisch untersucht. Dabei kommt die kommerzielle FE-Software SYSWELD® zum Einsatz. Die erforderlichen Versuche werden in Zusammenarbeit mit dem Institut für Fügetechnik und Werkstoffprüfung GmbH aus Jena realisiert. Die numerische Analyse wird eingesetzt, um geeignete Prozessparameter zu bestimmen und deren Auswirkungen auf die transienten thermischen und mechanischen Vorgänge, die während des Schweißvorgangs ablaufen abzubilden. Um die aus der Simulation erhaltenen Aussagen zu überprüfen, ist es erforderlich, das Berechnungsmodell mittels Daten aus Versuchsschweißungen zu kalibrieren. Dabei sind die verwendeten Materialmodelle sowie die der Simulation zugrunde gelegten Materialkennwerte zu validieren. Es stehen verschiedene rheologische Berechnungsmodelle zur Auswahl, die die viskosen Materialeigenschaften des Glases abbilden. Dabei werden die drei mechanischen Grundelemente, die HOOKEsche Feder, der NEWTONsche Dämpfungszylinder und das ST.-VENANT-Element miteinander kombiniert. Die Möglichkeit, thermische und mechanische Vorgänge innerhalb des Glases während des Schweißvorgangs und nach vollständiger Abkühlung, vorhersagen zu können, gestattet es den Schweißvorgang über eine Optimierung der Verfahrensparameter gezielt dahingehend zu beeinflussen, die Wirtschaftlichkeit des Schweißverfahrens zu verbessern, und ein zuverlässiges Schweißergebnis zu erhalten. Dabei können auch nur unter hohem experimentellen Aufwand durchführbare Versuche simuliert werden, um eine Vorhersage zu treffen, ob es zweckmäßig ist, den Versuch auch in der Praxis zu fahren. Dies führt zu einer Reduzierung des experimentellen Aufwandes und damit zu einer Verkürzung des Entwicklungszeitraumes für das angestrebte Verfahren.
ON THE NAVIER-STOKES EQUATION WITH FREE CONVECTION IN STRIP DOMAINS AND 3D TRIANGULAR CHANNELS
(2006)
The Navier-Stokes equations and related ones can be treated very elegantly with the quaternionic operator calculus developed in a series of works by K. Guerlebeck, W. Sproeossig and others. This study will be extended in this paper. In order to apply the quaternionic operator calculus to solve these types of boundary value problems fully explicitly, one basically needs to evaluate two types of integral operators: the Teodorescu operator and the quaternionic Bergman projector. While the integral kernel of the Teodorescu transform is universal for all domains, the kernel function of the Bergman projector, called the Bergman kernel, depends on the geometry of the domain. With special variants of quaternionic holomorphic multiperiodic functions we obtain explicit formulas for three dimensional parallel plate channels, rectangular block domains and regular triangular channels. The explicit knowledge of the integral kernels makes it then possible to evaluate the operator equations in order to determine the solutions of the boundary value problem explicitly.
In many branches companies often lose the visibility of their human and technical resources of their field service. On the one hand the people in the fieldservice are often free like kings on the other hand they do not take part of the daily communication in the central office and suffer under the lacking involvement in the decisions inside the central office. The result is inefficiency. Reproaches in both directions follow. With the radio systems and then mobile phones the ditch began to dry up. But the solutions are far from being productive.
This paper deals with the development of a new multi-objective evolution strategy in combination with an integrated pollution-load and water-quality model. The optimization algorithm combines the advantages of the Non-Dominated Sorting Genetic Algorithm and Self-Adaptive Evolution Strategies. The identification of a good spread of solutions on the pareto-optimum front and the optimization of a large number of decision variables equally demands numerous simulation runs. In addition, statements with regard to the frequency of critical concentrations and peak discharges require continuous long-term simulations. Therefore, a fast operating integrated simulation model is needed providing the required precision of the results. For this purpose, a hydrological deterministic pollution-load model has been coupled with a river water-quality and a rainfall-runoff model. Wastewater treatment plants are simulated in a simplified way. The functionality of the optimization and simulation tool has been validated by analyzing a real catchment area including sewer system, WWTP, water body and natural river basin. For the optimization/rehabilitation of the urban drainage system, both innovative and approved measures have been examined and used as decision variables. As objective functions, investment costs and river water quality criteria have been used.
In civil engineering it is very difficult and often expensive to excite constructions such as bridges and buildings with an impulse hammer or shaker. This problem can be avoided with the output-only method as special feature of stochastic system identification. The permanently existing ambient noise (e.g. wind, traffic, waves) is sufficient to excite the structures in their operational conditions. The output-only method is able to estimate the observable part of a state-space-model which contains the dynamic characteristics of the measured mechanical system. Because of the assumption that the ambient excitation is white there is no requirement to measure the input. Another advantage of the output-only method is the possibility to get high detailed models by a special method, called polyreference setup. To pretend the availability of a much larger set of sensors the data from varying sensor locations will be collected. Several successive data sets are recorded with sensors at different locations (moving sensors) and fixed locations (reference sensors). The covariance functions of the reference sensors are bases to normalize the moving sensors. The result of the following subspace-based system identification is a high detailed black-box-model that contains the weighting function including the well-known dynamic parameters eigenfrequencies and mode shapes of the mechanical system. Emphasis of this lecture is the presentation of an extensive damage detection experiment. A 53-year old prestressed concrete tied-arch-bridge in Hünxe (Germany) was deconstructed in 2005. Preliminary numerous vibration measurements were accomplished. The first experiment for system modification was an additional support near the bridge bearing of one main girder. During a further experiment one hanger from one tied arch was cut through as an induced damage. Some first outcomes of the described experiments will be presented.
Traffic simulation is a valuable tool for the design and evaluation of road networks. Over the years, the level of detail to which urban and freeway traffic can be simulated has increased steadily, shifting from a merely qualitative macroscopic perspective to a very detailed microscopic view, where the behavior of individual vehicles is emulated realistically. With the improvement of behavioral models, however, the computational complexity has also steadily increased, as more and more aspects of real-life traffic have to be considered by the simulation environment. Despite the constant increase in computing power of modern personal computers, microscopic simulation stays computationally expensive, limiting the maximum network size than can be simulated on a single-processor computer in reasonable time. Parallelization can distribute the computing load from a single computer system to a cluster of several computing nodes. To this end, the exisiting simulation framework had to be adapted to allow for a distributed approach. As the simulation is ultimately targeted to be executed in real-time, incorporating real traffic data, only a spatial partition of the simulation was considered, meaning the road network has to be partitioned into subnets of comparable complexity, to ensure a homogenous load balancing. The partition process must also ensure, that the division between subnets does only occur in regions, where no strong interaction between the separated road segments occurs (i.e. not in the direct vicinity of junctions). In this paper, we describe a new microscopic reasoning voting strategy, and discuss in how far the increasing computational costs of these more complex behaviors lend themselves to a parallelized approach. We show the parallel architecture employed, the communication between computing units using MPIJava, and the benefits and pitfalls of adapting a single computer application to be used on a multi-node computing cluster.