Refine
Document Type
- Conference Proceeding (132)
- Doctoral Thesis (15)
- Article (7)
- Master's Thesis (7)
- Report (4)
- Diploma Thesis (3)
- Preprint (3)
- Book (1)
- Part of a Book (1)
Institute
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (93)
- Institut für Strukturmechanik (ISM) (16)
- Professur Baubetrieb und Bauverfahren (10)
- Professur Angewandte Mathematik (6)
- Institut für Europäische Urbanistik (5)
- Junior-Professur Augmented Reality (5)
- Professur Stahlbau (5)
- Institut für Konstruktiven Ingenieurbau (IKI) (4)
- Professur Informatik in der Architektur (4)
- Professur Computergestütztes kooperatives Arbeiten (3)
Keywords
Year of publication
- 2006 (173) (remove)
The paper proposes a new method for general 3D measurement and 3D point reconstruction. Looking at its features, the method explicitly aims at practical applications. These features especially cover low technical expenses and minimal user interaction, a clear problem separation into steps that are solved by simple mathematical methods (direct, stable and optimal with respect to least error squares), and scalability. The method expects the internal and radial distortion parameters of the used camera(s) as inputs, and a plane quadrangle with known geometry within the scene. At first, for each single picture the 3D position of the reference quadrangle (with respect to each camera coordinate frame) is calculated. These 3D reconstructions of the reference quadrangle are then used to yield the relative external parameters of each camera regarding the first one. With known external parameters, triangulation is finally possible. The differences from other known procedures are outlined, paying attention to the stable mathematical methods (no usage of nonlinear optimization) and the low user interaction with good results at the same time.
Die Bauaufgaben der Zukunft liegen in der Auseinandersetzung mit bestehender Architektur. Die planerische Herausforderung besteht im Verzicht auf den Neubau durch die Umnutzung und den Umbau existenter Gebäude. Umnutzung und Umbau sind Werterhaltungsstrategien, die den Lebenszyklus eines Gebäudes als integralen Bestandteil der Planung betrachten und deren Ziel es ist, ungenutzte Bestandsgebäude durch keine oder wenige bauliche Eingriffe so zu verändern, dass sie einer Weiternutzung zugeführt werden können. Die Umnutzung unterliegt der Prämisse, dass an den Gebäuden keine baulichen Veränderungen vorgenommen werden, wohingegen der Umbau bauliche Eingriffe gestattet. Als Alternative zum Neubau ist der Erfolg beider Strategien entscheidend davon abhängig, dass der Architekt schon zu Beginn der Planung zu der Entscheidung gelangt, ob sich ein Gebäude unter Anwendung einer der beiden Strategien weiternutzen lässt. Diese Entscheidung wird vom Architekten in der Praxis durch einen Vergleich des Soll-Zustands (Raumprogramm) mit dem Ist-Zustand (Bestandsgrundriss) des Gebäudes getroffen. Die Analyse und Bewertung des Bestandes erfolgt in dieser frühen Phase der Planung in Form von Vorentwurfsskizzen, welche die organisatorischen oder baulichen Veränderungen der Gebäudegrundrisse im Falle einer Weiternutzung darstellen. In dieser Arbeit wird die Hypothese aufgestellt, dass der Vergleich des Raumprogramms mit dem Gebäudegrundriss im Wesentlichen eine kombinatorische Problemstellung darstellt. Unter dieser Annahme wird untersucht, ob durch den Einsatz von Optimierungsverfahren in der Grundrissplanung Lösungen für Umbau- und Umnutzungsaufgaben automatisiert erzeugt werden können. Ziel ist es, durch den computergestützten Einsatz dieser Verfahren zu plausiblen Planungslösungen, die dem Architekten als Grundlage für die weitere Bearbeitung der Planung dienen, zu gelangen.
Summer overheating in buildings is a common problem, especially in office buildings with large glazed facades, high internal loads and low thermal mass. Phase change materials (PCM) that undergo a phase transition in the temperature range of thermal comfort can add thermal mass without increasing the structural load of the building. The investigated PCM were micro-encapsulated and mixed into gypsum plaster. The experiments showed a reduction of indoor-temperature of up to 4 K when using a 3 cm layer of PCM-plaster with micro-encapsulated paraffin. The measurement results could validate a numerical model that is based on a temperature dependent function for heat capacity. Thermal building simulation showed that a 3 cm layer of PCM-plaster can help to fulfil German regulations concerning heat protection of buildings in summer for most office rooms.
Traffic simulation is a valuable tool for the design and evaluation of road networks. Over the years, the level of detail to which urban and freeway traffic can be simulated has increased steadily, shifting from a merely qualitative macroscopic perspective to a very detailed microscopic view, where the behavior of individual vehicles is emulated realistically. With the improvement of behavioral models, however, the computational complexity has also steadily increased, as more and more aspects of real-life traffic have to be considered by the simulation environment. Despite the constant increase in computing power of modern personal computers, microscopic simulation stays computationally expensive, limiting the maximum network size than can be simulated on a single-processor computer in reasonable time. Parallelization can distribute the computing load from a single computer system to a cluster of several computing nodes. To this end, the exisiting simulation framework had to be adapted to allow for a distributed approach. As the simulation is ultimately targeted to be executed in real-time, incorporating real traffic data, only a spatial partition of the simulation was considered, meaning the road network has to be partitioned into subnets of comparable complexity, to ensure a homogenous load balancing. The partition process must also ensure, that the division between subnets does only occur in regions, where no strong interaction between the separated road segments occurs (i.e. not in the direct vicinity of junctions). In this paper, we describe a new microscopic reasoning voting strategy, and discuss in how far the increasing computational costs of these more complex behaviors lend themselves to a parallelized approach. We show the parallel architecture employed, the communication between computing units using MPIJava, and the benefits and pitfalls of adapting a single computer application to be used on a multi-node computing cluster.
In civil engineering it is very difficult and often expensive to excite constructions such as bridges and buildings with an impulse hammer or shaker. This problem can be avoided with the output-only method as special feature of stochastic system identification. The permanently existing ambient noise (e.g. wind, traffic, waves) is sufficient to excite the structures in their operational conditions. The output-only method is able to estimate the observable part of a state-space-model which contains the dynamic characteristics of the measured mechanical system. Because of the assumption that the ambient excitation is white there is no requirement to measure the input. Another advantage of the output-only method is the possibility to get high detailed models by a special method, called polyreference setup. To pretend the availability of a much larger set of sensors the data from varying sensor locations will be collected. Several successive data sets are recorded with sensors at different locations (moving sensors) and fixed locations (reference sensors). The covariance functions of the reference sensors are bases to normalize the moving sensors. The result of the following subspace-based system identification is a high detailed black-box-model that contains the weighting function including the well-known dynamic parameters eigenfrequencies and mode shapes of the mechanical system. Emphasis of this lecture is the presentation of an extensive damage detection experiment. A 53-year old prestressed concrete tied-arch-bridge in Hünxe (Germany) was deconstructed in 2005. Preliminary numerous vibration measurements were accomplished. The first experiment for system modification was an additional support near the bridge bearing of one main girder. During a further experiment one hanger from one tied arch was cut through as an induced damage. Some first outcomes of the described experiments will be presented.
This paper deals with the development of a new multi-objective evolution strategy in combination with an integrated pollution-load and water-quality model. The optimization algorithm combines the advantages of the Non-Dominated Sorting Genetic Algorithm and Self-Adaptive Evolution Strategies. The identification of a good spread of solutions on the pareto-optimum front and the optimization of a large number of decision variables equally demands numerous simulation runs. In addition, statements with regard to the frequency of critical concentrations and peak discharges require continuous long-term simulations. Therefore, a fast operating integrated simulation model is needed providing the required precision of the results. For this purpose, a hydrological deterministic pollution-load model has been coupled with a river water-quality and a rainfall-runoff model. Wastewater treatment plants are simulated in a simplified way. The functionality of the optimization and simulation tool has been validated by analyzing a real catchment area including sewer system, WWTP, water body and natural river basin. For the optimization/rehabilitation of the urban drainage system, both innovative and approved measures have been examined and used as decision variables. As objective functions, investment costs and river water quality criteria have been used.
In many branches companies often lose the visibility of their human and technical resources of their field service. On the one hand the people in the fieldservice are often free like kings on the other hand they do not take part of the daily communication in the central office and suffer under the lacking involvement in the decisions inside the central office. The result is inefficiency. Reproaches in both directions follow. With the radio systems and then mobile phones the ditch began to dry up. But the solutions are far from being productive.
ON THE NAVIER-STOKES EQUATION WITH FREE CONVECTION IN STRIP DOMAINS AND 3D TRIANGULAR CHANNELS
(2006)
The Navier-Stokes equations and related ones can be treated very elegantly with the quaternionic operator calculus developed in a series of works by K. Guerlebeck, W. Sproeossig and others. This study will be extended in this paper. In order to apply the quaternionic operator calculus to solve these types of boundary value problems fully explicitly, one basically needs to evaluate two types of integral operators: the Teodorescu operator and the quaternionic Bergman projector. While the integral kernel of the Teodorescu transform is universal for all domains, the kernel function of the Bergman projector, called the Bergman kernel, depends on the geometry of the domain. With special variants of quaternionic holomorphic multiperiodic functions we obtain explicit formulas for three dimensional parallel plate channels, rectangular block domains and regular triangular channels. The explicit knowledge of the integral kernels makes it then possible to evaluate the operator equations in order to determine the solutions of the boundary value problem explicitly.
Ausgehend von den fundierten Erfahrungen, die für das Schweißen von verschiedensten Metallen vorliegen, wird an der Professur Stahlbau der Bauhaus-Universität Weimar ein neuartiges Verfahren zum CO2-Laserstrahlschweißen von Quarzglas numerisch untersucht. Dabei kommt die kommerzielle FE-Software SYSWELD® zum Einsatz. Die erforderlichen Versuche werden in Zusammenarbeit mit dem Institut für Fügetechnik und Werkstoffprüfung GmbH aus Jena realisiert. Die numerische Analyse wird eingesetzt, um geeignete Prozessparameter zu bestimmen und deren Auswirkungen auf die transienten thermischen und mechanischen Vorgänge, die während des Schweißvorgangs ablaufen abzubilden. Um die aus der Simulation erhaltenen Aussagen zu überprüfen, ist es erforderlich, das Berechnungsmodell mittels Daten aus Versuchsschweißungen zu kalibrieren. Dabei sind die verwendeten Materialmodelle sowie die der Simulation zugrunde gelegten Materialkennwerte zu validieren. Es stehen verschiedene rheologische Berechnungsmodelle zur Auswahl, die die viskosen Materialeigenschaften des Glases abbilden. Dabei werden die drei mechanischen Grundelemente, die HOOKEsche Feder, der NEWTONsche Dämpfungszylinder und das ST.-VENANT-Element miteinander kombiniert. Die Möglichkeit, thermische und mechanische Vorgänge innerhalb des Glases während des Schweißvorgangs und nach vollständiger Abkühlung, vorhersagen zu können, gestattet es den Schweißvorgang über eine Optimierung der Verfahrensparameter gezielt dahingehend zu beeinflussen, die Wirtschaftlichkeit des Schweißverfahrens zu verbessern, und ein zuverlässiges Schweißergebnis zu erhalten. Dabei können auch nur unter hohem experimentellen Aufwand durchführbare Versuche simuliert werden, um eine Vorhersage zu treffen, ob es zweckmäßig ist, den Versuch auch in der Praxis zu fahren. Dies führt zu einer Reduzierung des experimentellen Aufwandes und damit zu einer Verkürzung des Entwicklungszeitraumes für das angestrebte Verfahren.
Die Diplomarbeit leistet einen Betrag zur numerischen Untersuchung des Verzuges eines Feinkornbaustahles beim MAG-Schweißen. Ziel dabei war es, Informationen zu dem schweißbedingten Verzug beeinflussenden Größen zusammenzustellen, Angaben zu möglichen Berechnungsformeln des an einer T-Stoßverbindung durch das Schweißen entstehenden Winkelverzuges des Gurtes zu recherchieren und die Grundlagen für eine Verzugsberechnung mit Hilfe der Finite-Element-Methode darzustellen. Das Hauptinteresse lag dabei jedoch auf den durch das Schweißen von Kehlnähten entstehenden Winkelverzuges des Gurtes an T-Stoßverbindungen. Dieser wurde mit Hilfe numerischer Berechnungen untersucht. Dabei wurden die Einflüsse, welche geometrischen, werkstofflichen oder verfahrensbedingten Ursprungs seien können, betrachtet.
Auf der Basis der Literaturrecherche wird in dieser Arbeit eine 5-lagige MAG-geschweißte Stumpfnaht an austenitisch-ferritischen Stahl X2CrNiMoN22-5-3 (Duplex-Stahl 1.4462) mit dem FE-Programm „SYSWELD®“ simuliert. Die Berech-nungen der Temperaturfelder werden unter der Berücksichtigung sowohl von tempe-raturunabhängigen als auch temperaturabhängigen thermophysikalischen Material-eigenschaften am drei-dimensionalen und zwei-dimensionalen Modell durchgeführt. Die berechneten Temperatur-Zeit-Verläufe und Gefügeumwandlungen beim MAG-Schweißen der Stumpfnaht werden hinsichtlich der Einflüsse und Veränderun-gen analysiert und die ermittelten Abkühlzeiten t12/8 werden für jede Schweißlage bewertet. Anschließend werden die Berechnungen des Eigenspannungszustandes für einzelne Schweißlagen untersucht.
Moderne Büroarchitektur mit Räumen in Leichtbauweise und großen transparenten Fassa-denanteilen verschärft im Zusammenwirken mit hohen internen Lasten die Problematik der sommerlichen Überhitzung in Gebäuden. Phasenübergangsmaterialien (PCM: phase change materials) stellen eine interessante Möglichkeit dar, sommerliche Überhitzung in Gebäuden ohne aufwändige Anlagentechnik wie beispielsweise Klimaanlagen zu reduzieren. Der thermische Komfort in Räumen, die mit einem PCM-Putz ausgestattet sind, kann signifikant erhöht werden. Die Arbeit untersucht Anwendungsmöglichkeiten und Optimierungspotential eines PCM-Putzes auf experimentelle und numerische Weise. Zur Untersuchung des PCM-Putzes wurden materialtechnische und experimentelle sowie numerische und numerisch-analytische Methoden eingesetzt. Die Kenntnis der thermischen Parameter des PCM-Putzes ist unablässig für die Berechnung der möglichen Temperaturreduktionen. Zur Bestimmung der Latentwärme, des qualitativen Schmelz- und Erstarrungsprozesses sowie des Temperaturintervalls, in dem der Phasenübergang stattfindet, wurden Messungen mit einem Differential Scanning Calorimeter (DSC) durchgeführt. Für die experimentelle Untersuchung des PCM-Putzes wurden zwei identische Testräume in Leichtbauweise erstellt. Die Räume wurden im Verifikationsobjekt „Eiermannbau“ des Sonderforschungsbereiches SFB 524 der Bauhaus-Universität Weimar gemessen. Nach der Überprüfung, dass sich beide Räume thermisch gleich verhalten, wurde ein Raum mit dem PCM-Putz und der zweite Raum mit einem vergleichbaren Innenputz ohne PCM verputzt. Thermoelemente zur Temperaturmessung im Bauteil, an der Oberfläche und zur Raumlufttemperaturbestimmung wurden angebracht und mit einer Messwerterfassungsanlage verbunden. Der Verlauf der Außenlufttemperatur und die Globalstrahlung am Standort der Versuchsräume wurden aufgezeichnet, um einen Klimadatensatz zu erstellen. Für die Berechnung der Temperaturverteilung in einem PCM-Bauteil mit kontinuierlichem Phasenübergang existiert keine geschlossene analytische Lösung. Daher wurde ein numerischer Ansatz gewählt, bei dem der Phasenübergang im Temperaturbereich T1 bis T2 mit Hilfe einer temperaturabhängigen Wärmekapazität c(T) innerhalb der erweiterten Fou-rier’schen Wärmeleitungsgleichung dargestellt wird. Die Funktion c(T) wird auf Basis der DSC-Messungen bestimmt. Die Modellierung erfolgte mit einem Finite-Differenzen-Verfahren auf Grundlage der Fourier’schen Wärmeleitungsgleichung. Im Rahmen der Arbeit wurde ein PCM-Modul entwickelt, das in ein Gebäudesimulationsprogramm implementiert wurde. Mit dem neuen Modul lassen sich sowohl die Temperaturverläufe in einem PCM-Bauteil wie auch seine Wechselwirkung mit dem Raumklima darstellen. Eine Validierung des entwickelten PCM-Moduls anhand von zahlreichen experimentellen Daten der Versuchsräume wurde für das PCM-Modul erfolgreich durchgeführt. Sommerliche Überhitzungsstunden können durch PCM in Wand- und Deckenelementen deutlich reduziert werden. Der PCM-Putz eignet sich vor allem für Anwendungen in Leichtbauten wie z.B. moderne Büroräume. In Räumen, in denen bereits eine ausreichende thermische Masse vorhanden ist, ist die Temperaturreduktion durch PCM nur gering. Kann das PCM während der Nachtstunden nicht erstarren, erschöpft sich seine Fähigkeit zur Latentwärmespeicherung. Erhöhte Nachtlüftung führt bei entsprechend niedrigen Außentemperaturen zu höherem Wärmeübergang und kann damit zur besseren Entladung des PCM beitragen. Im Rahmen der Dissertation konnten Aussagen zur idealen Phasenübergangstemperatur in Abhängigkeit des verwendeten Materials und der Schichtdicke getroffen werden. Die Reduktion der Oberflächentemperaturen, die sich bei Einsatz eines PCM-Putzes unter geeigneten Randbedingungen ergibt, beträgt 2.0 - 3.5 K für eine Putzschicht von 1 cm und 3.0 - 5.0 K für eine Putzschicht von 3 cm. Diese Werte wurden sowohl numerisch als auch durch experimentelle Untersuchungen ermittelt. Die Reduktion der Lufttemperaturen aufgrund einer Konditionierung des Raumes mit PCM-Putz beträgt bei geeigneten thermischen Verhältnissen ca. 1.0 - 2.5 K für eine Putzschicht von 1 cm und 2.0 - 3.0 K für eine Putzschicht von 3 cm. Die operative Temperatur als wichtiger Komfortparameter kann durch den Einsatz des PCM-Putzes um bis zu 4 K gesenkt werden. Damit lässt sich mit Hilfe eines PCM-Putzes die thermische Behaglichkeit in einem Raum deutlich erhöhen.
The presented method for an physically non-linear analysis of stresses and deformations of composite cross-sections and members based on energy principles and their transformation to non-linear optimisation problems. From the LAGRANGE principle of minimum of total potential energy a kinematic formulation of the mechanical problem can be developed, which has the general advantage that pre-deformations excited by shrinkage, temperature, residual deformations after unloading et al., can be considered directly. Thus the non-linear analysis of composite cross-sections with layers of different mechanical properties and different preloading becomes possible and cracks in concrete, stiffness degradation and other specifics of the material behaviour can be taken into account without cardinal modification of the mathematical model. The impact of local defects on the bearing capacity of an entire element can also be analysed in this principle way. Standard computational systems for mathematical optimisation or general programs for spreadsheet analysis enable an uncomplicated implementation of the developed models and an effective non-linear analysis for composite cross-sections and elements.
A new approach to the non-linear analysis of cross-sections loaded by normal forces and bending moments is presented in the paper. The mechanical model is based on the LAGRANGE principle of minimum of total potential energy. Deformations, stresses and limit load parameters are obtained by solving a non-linear optimisation problem. The mathematical model is independent of the specifics of material. In addition to the stress strain relation and the specific strain energy W(ε) two further functions F(ε) and Φ(ε) are introduced to describe the material behaviour. Thus cracks in concrete, non-linearity of material etc. can be taken into account without basic modification of the numerical algorithm. For polygonal cross-sections the GAUSS' integral theorem is used. Numerical solutions of the non-linear optimisation problems can be found by application of standard software. Thus the analysis of reinforced concrete cross-sections or more general composite cross-sections with non-linear behaviour of material is as simple as in the case of linear elasticity. The application of the method is demonstrated for polygonal cross-sections. Pre-stresses or pre-strains can easily be included in the mathematical model.
We show a close relation between the Schrödinger equation and the conductivity equation to a Vekua equation of a special form. Under quite general conditions we propose an algorithm for explicit construction of pseudoanalytic positive formal powers for the Vekua equation that as a consequence gives us a complete system of solutions for the Schrödinger and the conductivity equations. Besides the construction of complete systems of exact solutions for the above mentioned second order equations and the Dirac equation, we discuss some other applications of pseudoanalytic function theory.
Durch die Betrachtung des Produktions-Prozesses als zentrales Transformationselement wird die Struktur der Bauproduktion realitätsnah gefasst. Die Integration der prozessorientierten Kostendefinition setzt relevante Kostenparameter und Produktionsfaktoren so in Beziehung, dass sie im Einklang mit der realen Kostenstruktur und Kostendynamik einer Baustelle stehen. Die Beziehung zwischen Bauzeit und Kosten wird direkt erfasst und ausgewertet. Der hohen Dynamik der Bauproduktion zwischen kapazitätsbeschränkten Einsatzmitteln und Produktionsprozessen wurde durch das Poolmodell und der Simulation als Berechnungsmethode Rechnung getragen. Eine einfache Modellierung von sich zyklusartig wiederholenden Arbeitsvorgängen (Taktplanung) ist möglich. Die Taktbildung vollzieht sich bei der Simulation durch Kapazitätsbeschränkungen ohne Zutun des Benutzers. Durch eine Optimierungsmethode kann automatisiert nach der kostengünstigsten oder zeitlich schnellsten Produktionsvariante gesucht werden
In the final decades many scientists were occupied intensively with the change of materials during a process and their mathematical descriptions. The extensive and extensive analyses were supported by the advanced computer science. A mathematical description of the phase transformation is a condition for a realistic FE simulation of the state of microstructure. It is possible to simulate the temperature and stress field also in complex construction based on the state of microstructure. In the last years a great number of mathematical models were expanded to describe the transformation between different phases. For the development of the models for transformation kinetics it is practical to subdivide into isothermal and non-isothermal processes according to the thermal conditions. Some models for the description of the transformation with non-isothermal processes represent extensions for isothermal of processes. A part of parameters for the describing equations can be derived from the time-temperature-transformation diagrams in the literature. Furthermore the two possibilities of transformation are considered by different models - diffusion controlled and not diffusion controlled. The material-specific characteristics can be simulated during the transformation for each individual phase in a realistic FE analyses. Also new materials can be simulated after a modification of the parameters in the describing equations for the phase transformation. The effects in the temperature and stress field are a substantial reason for the investigation of the phase transformation during the welding and TIG-dressing processes.
Advanced finite elements are proposed for the mechanical analysis of heterogeneous materials. The approximation quality of these finite elements can be controlled by a variable order of B-spline shape functions. An element-based formulation is developed such that the finite element problem can iteratively be solved without storing a global stiffness matrix. This memory saving allows for an essential increase of problem size. The heterogeneous material is modelled by projection onto a uniform, orthogonal grid of elements. Conventional, strictly grid-based finite element models show severe oscillating defects in the stress solutions at material interfaces. This problem is cured by the extension to multiphase finite elements. This concept enables to define a heterogeneous material distribution within the finite element. This is possible by a variable number of integration points to each of which individual material properties can be assigned. Based on an interpolation of material properties at nodes and further smooth interpolation within the finite elements, a continuous material function is established. With both, continuous B-spline shape function and continuous material function, also the stress solution will be continuous in the domain. The inaccuracy implied by the continuous material field is by far less defective than the prior oscillating behaviour of stresses. One- and two-dimensional numerical examples are presented.
Requires for reliability and durability of structures and their elements with simultaneous material economy have stimulated improvement of constitutive equations for description of elasto-plastic deformation processes. This has led to the development of phenomenological modelling of complex phenomena of irreversible deformation including history-dependent and rate-dependent effects. During the last several decades many works have been devoted to the development of elasto-plastic models, in order to better predict the material behavior under combined variable thermo-mechanical loading. The increase of accuracy of stress analysis and safety factors for complex structures with the help of modern finite-element packages (ABAQUS, ANSYS, COSMOS, LS-DYNA, MSC.MARC, MSC.NASTRAN, PERMAS and other) can be provided only by use of complex and special variants of plasticity theories, which are adequate for the considered loading conditions and based on authentic information about properties of materials. The areas of application of the various theories (models) are as a rule unknown to the users of finite-element packages at the existing variety loading condition sin machine-building designs. At the moment a universal theory of inelasticity is absent and even the most accomplished theories can not guarantee adequate description of deformation processes for arbitrary structure under wide range of loading programs. The classifier of materials, loading conditions, effects (phenomena) and list of basic experiments are developed by the authors. Use of these classifiers for an establishment of hierarchy of models is a first step for introduction of the multimodel analysis into computational practice. The set of the classic and modern inelasticity theories is considered, so that they are applicable for stress analysis of structures under complex loading programs. Among them there are plastic flow theories with linear and nonlinear isotropic and kinematic hardening, multisurface theories, endochronic theory, holonomic theory, rheologic models, theory of elasto-plastic processes, slip theory, physical theories (single crystal and polycrystalline models) and others. The classification of materials provides rearranging by a degree of homogeneous, chemical composition, level of strength and plasticity, behavior under cyclic loading, anisotropy of properties at initial condition, anisotropy of properties during deformation process, structural stability. The classification of loading conditions takes into consideration proportional and non-proportional loading, temperature range, combination of cyclic and monotonous loading, one-axial, two-axial and complex stress state, curvature of strain path, presence of stress concentrators and level of strain gradient. A unified general form of constitutive equations is presented for all used material models based upon the concept of internal state variables. The wide range of mentioned above inelastic material models has been implemented into finite element program PANTOCRATOR developed by authors (see for details www.pantocrator.narod.ru). Application possibility of different material models is considered both for material element and for complex structures subjected to complex non-proportional loading.
A fast solver method called the multigrid preconditioned conjugate gradient method is proposed for the mechanical analysis of heterogeneous materials on the mesoscale. Even small samples of a heterogeneous material such as concrete show a complex geometry of different phases. These materials can be modelled by projection onto a uniform, orthogonal grid of elements. As one major problem the possible resolution of the concrete specimen is generally restricted due to (a) computation times and even more critical (b) memory demand. Iterative solvers can be based on a local element-based formulation while orthogonal grids consist of geometrical identical elements. The element-based formulation is short and transparent, and therefore efficient in implementation. A variation of the material properties in elements or integration points is possible. The multigrid method is a fast iterative solver method, where ideally the computational effort only increases linear with problem size. This is an optimal property which is almost reached in the implementation presented here. In fact no other method is known which scales better than linear. Therefore the multigrid method gains in importance the larger the problem becomes. But for heterogeneous models with very large ratios of Young's moduli the multigrid method considerably slows down by a constant factor. Such large ratios occur in certain heterogeneous solids, as well as in the damage analysis of solids. As solution to this problem the multigrid preconditioned conjugate gradient method is proposed. A benchmark highlights the multigrid preconditioned conjugate gradient method as the method of choice for very large ratio's of Young's modulus. A proposed modified multigrid cycle shows good results, in the application as stand-alone solver or as preconditioner.
Monitoring und Bewertung sind Hauptaufgaben im Management bzw. der Revitalisierung von Bauwerken. Unterschiedliche Verfahren können bei der Akquisition der erforderlichen geometrischen Information, wie z. B. Größe oder Verformung eines Gebäudes, eingesetzt werden. Da das Potenzial der digitalen Fotografie kontinuierlich wächst, stellt die Industriephotogrammetrie heute eine bedeutende Alternative zu den klassischen Verfahren wie Dehnmessstreifen oder anderen taktilen Sensoren dar. Moderne Industriephotogrammetrie erfasst die Bilder mittels digitaler Systeme. Dies bedeutet, dass die Information digitaler Bilder mit Hilfe der digitalen Bildverarbeitung untersucht werden muss, um die Bildkoordinaten der Messpunkte zu erhalten. Eine der Aufgaben der Bildverarbeitung für photogrammetrische Zwecke besteht somit darin, den Mittelpunkt von kreisförmigen Marken zu lokalisieren. Die modernen Operatoren liefern Subpixelgenauigkeit für die Koordinaten des Punktes. Das optische Messverfahren der Industriephotogrammetrie erfordert hinsichtlich der Hardware in erster Linie hochauflösende digitale Kameras. Dabei lassen sich die Kameras in Videokameras, HighSpeed-Kameras, intelligente Kameras sowie so genannte Consumer und Professionelle Kameras unterscheiden. Die geometrische Auflösung digitaler HighEnd-Kameras liegt heute bei über 10 Megapixel. In punkto Datentransfer zum Rechner sind verschiedene Standards am Markt verfügbar, z. B. USB2.0, GigE-Vision, CameraLink oder Firewire. Die Wahl des Standards hängt immer von der spezifischen Aufgabenstellung ab, da keine der Techniken eine führende Position einnimmt. Die moderne Photogrammetrie bietet viele neue Möglichkeiten für das Monitoring und die Bewertung von Bauwerken. Sie kann ein-, zwei-, drei- oder vierdimensionale Informationen liefern, falls erforderlich auch in Echtzeit. Als berührungsloses Messverfahren ist der Einsatz der Photogrammetrie noch möglich, wenn die taktilen Sensoren z. B. aufgrund ihres Platzbedarfes nicht mehr eingesetzt werden können. Hochauflösende Videokameras erlauben es, selbst dynamische Untersuchungen mit großer Präzision durchzuführen.
The mathematical and technical foundations of optimization have been developed to a large extent. In the design of buildings, however, optimization is rarely applied because of insufficient adaptation of this method to the needs of building design. The use of design optimization requires the consideration of all relevant objectives in an interactive and multidisciplinary process. Disciplines such as structural, light, and thermal engineering, architecture, and economics impose various objectives on the design. A good solution calls for a compromise between these often contradictory objectives. This presentation outlines a method for the application of Multidisciplinary Design Optimization (MDO) as a tool for the designing of buildings. An optimization model is established considering the fact that in building design the non-numerical aspects are of major importance than in other engineering disciplines. A component-based decomposition enables the designer to manage the non-numerical aspects in an interactive design optimization process. A façade example demonstrates a way how the different disciplines interact and how the components integrate the disciplines in one optimization model. In this grid-based façade example, the materials switch between a discrete number of materials and construction types. For light and thermal engineering, architecture, and economics, analysis functions calculate the performance; utility functions serve as an important means for the evaluation since not every increase or decrease of a physical value improves the design. For experimental purposes, a genetic algorithm applied to the exemplary model demonstrates the use of optimization in this design case. A component-based representation first serves to manage non-numerical characteristics such as aesthetics. Furthermore, it complies with usual fabrication methods in building design and with object-oriented data handling in CAD. Therefore, components provide an important basis for an interactive MDO process in building design.
Die Arbeit beinhaltet die Planungsgrundlage (Modellgesetze)und Herstellung (Modellbau) eines physikalischen Modells eines Flußabschnittes in den Grenzen seiner hydraulischen Wirkung. Ziel der Untersuchungen ist die Ertüchtigung derim Modell dargestellten Hochwasserschutzanlagen unter vorgegebenen Auflagen. Es werden Modelluntersuchungen durchgeführt, die zur Erfassung der Wasserstände bei verschiedenen Durchflüssen dienen. Die dafür eingesetzte Messtechnik wird dokumentiert. Die Messdaten werden hinsichtlich Messgenauigkeit und Messfehlerbehaftung untersucht, um die Ergebnisse im Vergleich mit einem numerischen Modell aufzubereiten.
MODELLING THE PLASTIC HINGE IN THE STATICALLY INDETERMINABLE REINFORCED CONCRETE BAR ELEMENTS
(2006)
The paper presents the example numerical model to calculate the reinforced concrete bar structures. Usually applied methods of structure dimensioning do not include the case of plastic hinges occurrence under the limit load of construction. The model represented by A. Borcz is based on the differential equation of deflection line of the beam and it includes the effects of rearrangement of the internal forces and reological effects. The experimental parameters obtained in earlier investigations describe effects resulting from the rise of plastic hinges in the proposed equation.
Subject of the paper is the realisation of a model based efficiency control system for PV generators using a simulation model. A standard 2-diodes model of PV generator is base of the ColSim model, which is implemented in ANSI C code for flexible code exporting. The algorithm is based on discretisized U-I characteristics, which allows the calculation of string topologies witch parallel and serial PV cells and modules. Shadowing effects can be modelled down to cell configuration using polar horizon definitions. The simulation model was ported to a real time environment, to calculate the efficiency of a PV system. Embedded System technology allows the networked operation and the integration of standard I/O devices. Futher work focus on the adaption of shadowing routine, which will be adapted to get the environment conditions from the real operation.
MODEL OF TRAM LINE OPERATION
(2006)
From passenger's perspective punctuality is one of the most important features of trams operations. Unfortunately in most cases this feature is only insufficiently fulfilled. In this paper we present a simulation model for trams operation with special focus on punctuality. The aim is to get a helpful tool for designing time-tables and for analyzing the effects by changing priorities for trams in traffic lights respectively the kind of track separation. A realization of trams operations is assumed to be a sequence of running times between successive stops and times spent by tram at the stops. In this paper the running time is modeled by the sum of its mean value and a zero-mean random variable. With the help of multiple regression we find out that the average running time is a function depending on the length of the sections and the number of intersections. The random component is modeled by a sum of two independent zero-mean random variables. One of these variables describes the disturbance caused by the process of waiting at an intersection and the other the disturbance caused by the process of driving. The time spent at a stop is assumed to be a random variable, too. Its distribution is estimated from given measurements of these stop times for different tram lines in Kraków. Finally a special case of the introduced model is considered and numerical results are presented. This paper is involved with CIVITAS-CARAVEL project: "Clean and better transport in cites". The project has received research funding from the Community's Sixth Framework Programme. The paper reflects only the author's views and the Community is not liable for any use that may be made of the information contained therein.
In diesem Beitrag wird eine mobile Software-Komponente zur Vor-Ort-Unterstützung von Bauwerksprüfungen gemäß DIN 1076 „Ingenieurbauwerke im Zuge von Strassen und Wegen, Überwachung und Prüfung“ vorgestellt, welche sich im praktischen Einsatz bei der Hochbahn AG Hamburg befindet. Mit Hilfe dieses Werkzeugs kann die Aktivität am Bauwerk in den gesamten softwaregestützten Geschäftsprozess der auwerksinstandhaltung integriert und somit die Bearbeitungszeit einer Bauwerksprüfung von der Vorbereitung bis zur Prüfbericht-Erstellung reduziert werden. Die Technologie des Mobile Computing wird unter Berücksichtigung spezieller fachlicher Randbedingungen, wie z.B. dem Einsatzort unter freiem Himmel, erläutert und es werden Methoden zur effizienten Datenerfassung mit Stift und Sprache vorgestellt und bewertet. Ferner wird die Einschränkung der Hardware durch die geringere Größe der Endgeräte, die sich durch die Bedingung der Mobilität ergibt, untersucht.
Due to economical, technical or political reasons all over the world about 100 nuclear power plants have been disconnected until today. All these power stations are still waiting for their complete dismantling which, considering one reactor, causes cost of up to one Bil. Euros and lasts up to 15 years. In our contribution we present a resource-constrained project scheduling approach minimizing the total discounted cost of dismantling a nuclear power plant. A project of dismantling a nuclear power plant can be subdivided into a number of disassembling activities. The execution of these activities requires time and scarce resources like manpower, special equipment or storage facilities for the contaminated material arising from the dismantling. Moreover, we have to regard several minimum and maximum time lags (temporal constraints) between the start times of the different activities. Finally, each disassembling activity can be processed in two alternative execution modes, which lead to different disbursements and determine the resource requirements of the considered activity. The optimization problem is to determine a start time and an execution mode for each activity, such that the discounted cost of the project is minimum, and neither the temporal constraints are violated nor the activities' resource requirements exceed the availability of any scarce resource at any point in time. In our contribution we introduce an appropriate multi-mode project scheduling model with minimum and maximum time lags as well as renewable and cumulative resources for the described optimization problem. Furthermore, we show that the considered optimization problem is NP-hard in the strong sense. For small problem instances, optimal solutions can be gained from a relaxation based enumeration approach which is incorporated into a branch and bound algorithm. In order to be able to solve large problem instances, we also propose a truncated version of the devised branch and bound algorithm.
The paper is a proposal of calculation of internal forces and dislocations in the reinforced concrete beams before and after cracking. For the ideally elastic bars transfer matrix proposed by Rakowski was applied. The effects associated with cracking were introduced by means of the Borcz's theory in the spectrally way. Numerical example was shown. The presented attitude also enables to calculate dynamic problems and those connected with the stability of the compressed and bending cracked beams and columns.
Für die Optimierung eines bereits bestehenden Prozesses, z.B. im Hinblick auf den maximal möglichen Durchsatz bei gleich bleibender Qualität der Pyrolyseprodukte oder für die Einstellung der Betriebsparameter bei einem unbekannten Einsatzstoff, kann ein mathematisches Modell eine erste Abschätzung für die Einstellung betrieblicher Parameter, wie z.B. Temperaturprofile im Gas und Feststoff, geben. Darüber hinaus kann man mit einem Modell für neu zu konzipierende Anlagen konstruktive Parameter ermitteln oder überprüfen. In dem hier dargestellten vereinfachten Modellansatz werden u. a. die Umsatzvorgänge für ein Partikelkollektiv mit Hilfe von Summenparametern aus Untersuchungen an einer Thermowaage und ergänzend im Drehrohr ermittelt. Das Prozessmodell basiert auf einem Reaktormodell, das das Verweilzeitverhalten des Einsatzstoffes im Reaktor beschreibt und einem Basismodell, bestehend aus Massen- und Energiebilanzen für Solid und Gas sowie Ansätzen zur Trocknung und zum Umsatz. Im Hinblick auf die Verfügbarkeit von stoffspezifischen Daten von Abfällen sind insbesondere zur Berechnung des Verweilzeitverhaltens und des Umsatzes im Heißbetrieb vereinfachende Ansätze durch die Bildung von Summenparametern hilfreich. Das Prozessmodell wurde schrittweise validiert: Zunächst wurde in Kaltversuchen ein Summenparameter, der u.a. die unbekannten Reibungsverhältnisse im Drehrohr berücksichtigt, durch Vergleich von Experiment und Rechnung für Sand ermittelt. Für heterogene Abfallgemische kann dieser Materialfaktor zwar für Kaltversuche bestimmt werden (soweit dies für Abfälle möglich ist), im Heißbetrieb ändern sich jedoch alle wesentlichen Stoffparameter wie Partikeldurchmesser, Schüttdichte und Schüttwinkel sowie die Reibungsverhältnisse. Für diesen Fall wird der Materialfaktor zu Eins gesetzt und die wesentlichen Stoffgrößen umsatzabhängig modelliert. Dazu ist die Kenntnis der Schüttdichten, statischen Schüttwinkel und mittleren Partikeldurchmesser vom Abfall und Koks aus dem Abfall notwendig. Die mit diesen Stoffdaten berechnete Verweilzeit wurde in einem Heißversuch bei der Pyrolyse von Brennstoff aus Müll- (BRAM) Pellets mit einem Fehler von ca. 20 % erreicht. Das Basismodell wurde zunächst ohne Umsatz an Messergebnisse mit Sand im Drehrohr unter Variation von Temperaturen und Massenstrom angepasst bevor mit diesem Modell die Pyrolyse von einem homogenen Einsatzstoff (Polyethylen mit Sand) im Drehrohr berechnet wurde. Hier konnte bereits gezeigt werden, dass mit diesem vereinfachten Modellansatz gute Ergebnisse beim Vergleich von Modell und Experiment erzielt werden können. Im nächsten Schritt wurde der Sand angefeuchtet, um die Teilmodelle der Trocknung unterhalb und bei Siedetemperatur zu validieren. Die Mess- und Modellierungsergebnisse stimmen gut miteinander überein. Für ein Abfallgemisch aus BRAM-Pellets konnte der Verlauf der Solidtemperaturen unter der Berücksichtigung variabler Stoffwerte des Solids und eines Verschmutzungsfaktors, der den Belag des Drehrohres mit anklebendem Pellets bis zur Verkokung berücksichtigt, gut wiedergegeben werden. Die Gastemperaturen können in erster Näherung ausreichend genau durch das mathematische Modell beschrieben werden. Mit diesem vereinfachten mathematischen Modellansatz steht nun ein Hilfsmittel zur Auslegung und Optimierung von indirekt beheizten Drehrohren zur Verfügung, um bei einem neuen Einsatzstoff mit Daten aus experimentellen Basisuntersuchungen, die Temperaturverläufe im Feststoff und Gas sowie die Gaszusammensetzung in Abhängigkeit der wesentlichen Einflussgrößen abzuschätzen.
The paper contains a description of dynamic effects in the silo wall during the outflow of a stored material. The work allows for determining the danger of construction damage due to resonant vibrations and is of practical importance by determining the influence of cyclic pressures and vibro–creeping during prolonged use of a silo. The paper was devised as a result of tests on silo walls in semi-technical scale. The model is generally applicable and allows for identification of parameters in real- size silos as well.
At the 16th IKM Bock, Falcão and Gürlebeck presented examples of the application of some specially developed Maple-Software in hypercomplex analysis. Other papers of those authors continued this work and showed the efficiency of such tools for concrete numerical calculations as well as for numerical experiments, supporting the detection of new relationships and even theorems in a highly technical theoretical work. The mentioned software has been developed mainly for the use on mapping problems in the Euclidean spaces of dimension 3 and 4 by means of Bergman kernel methods (BKM), which are related to monogenic functions as solutions of generalized Cauchy-Riemann equations with respect to the Euclidean metric (Riesz system). The developed procedures concerning generalized powers of totally regular variables and the corresponding homogeneous polynomials basically rely on results and conventions introduced in the paper "Power series representation for monogenic functions in Rm+1 based on a permutational product", Complex Variables, 15, No.3, 181-191 (1990) by H. Malonek. Since 1992 H. Leutwiler, S. L. Eriksson and others developed in a number of papers a modified Clifford analysis and, particularly, a modified quaternionic analysis. The modification mainly consists in considering generalized Cauchy-Riemann equations with respect to a hyperbolic metric in a half space. The aim of this contribution is to show how through a change of the basic combinatorial relations used in the modified quaternionic analysis the aforementioned Maple-software (that has been recently published on CD-Rom as integrated part of the text book "Funktionentheorie in der Ebene und im Raum" by K. Gürlebeck, K. Habetha, and W. Sprössig, in the series "Grundstudium Mathematik" of Birkhäuser Verlag, 2006) can directly be used for numerical calculations in the modified theory.
This paper presents results of applying Fuzzy Inference System for estimation of the number of potential Park and Ride users. Usually it is difficult to evaluate the number of users because it depends on human factor and data in the considered system are uncertain. In such situation the traditional mathematical approaches can not take into consideration rough data. Therefore a fuzzy approach can be applied in this case. A fuzzy methodology is treated as a proper way to describe choice of mode of transport, and especially that uncertainty accompanied of choosing process has rather fuzzy character. The proposed approach is based on the Mamdani Fuzzy Inference System and for calculation there is used Matlab software with Fuzzy Logic Toolbox. Mamdani model requires, as an input data, knowledge of the shape of membership function. These functions can be calibrated taking into consideration results of questionnaires conducted among users of Park and Ride system. Due to lack of representative sample of users, one has decided to use results of experts' questionnaires as a input data for calibration the shape of membership functions. Describing factor will be generalized cost of the trip for different modes of transport. Proposed approach consists of two main stages: modeling of share of public/private transport trips and Multimodal model estimating number of Park and Ride users. Verification of presented methodology is treated as an indirect proof. Proposed approach can be applied for estimation of bi-modal split. Then the results are compared with traditional approaches based on logit functions. Comparable results of proposed fuzzy approach with traditional logit models can be treated as a confirmation of chosen methodology.
Die Liquiditätsplanung von Bauunternehmen XE "Liquiditätsplanung" gilt als ein wesentliches Steuerungs-, Kontroll- sowie Informationsinstrument für interne und externe Adressaten und übt eine Entscheidungsunterstützungsfunktion aus. Da die einzelnen Bauprojekte einen wesentlichen Anteil an den Gesamtkosten des Unternehmens ausmachen, besitzen diese auch einen erheblichen Einfluß auf die Liquidität und die Zahlungsfähigkeit der Bauunternehmung. Dem folgend ist es in der Baupraxis eine übliche Verfahrensweise, die Liquiditätsplanung zuerst projektbezogen zu erstellen und anschließend auf Unternehmensebene zu verdichten. Ziel der Ausführungen ist es, die Zusammenhänge von Arbeitskalkulation XE "Arbeitskalkulation" , Ergebnisrechnung XE "Ergebnisrechnung" und Finanzrechnung XE "Finanzrechnung" in Form eines deterministischen XE "Erklärungsmodells" Planungsmodells auf Projektebene darzustellen. Hierbei soll das Verständnis und die Bedeutung der Verknüpfungen zwischen dem technisch-orientierten Bauablauf und dessen Darstellung im Rechnungs- und Finanzwesen herausgestellt werden. Die Vorgänge aus der Bauabwicklung, das heißt die Abarbeitung der Bauleistungsverzeichnispositionen und deren zeitliche Darstellung in einem Bauzeitenplan sind periodisiert in Größen der Betriebsbuchhaltung (Leistung, Kosten) zu transformieren und anschließend in der Finanzrechnung (Einzahlungen., Auszahlungen) nach Kreditoren und Debitoren aufzuschlüsseln.
LIFETIME-ORIENTED OPTIMIZATION OF BRIDGE TIE RODS EXPOSED TO VORTEX-INDUCED ACROSS-WIND VIBRATIONS
(2006)
In recent years, damages in welded connections plates of vertical tie rods of several arched steel bridges have been reported. These damages are due to fatigue caused by wind-induced vibrations. In the present study, such phenomena are examined, and the corresponding lifetime of a reference bridge in Münster-Hiltrup, Germany, is estimated, based on the actual shape of the connection plate. Also, the results obtained are compared to the expected lifetime of a connection plate, whose geometry has been optimized separately. The structural optimization, focussing on the shape of the cut at the hanger ends, has been carried out using evolution strategies. The oscillation amplitudes have been computed by means of the Newmark-Wilson time-step method, using an appropriate load model, which has been validated by on-site experiments on the selected reference bridge. Corresponding stress-amplitudes are evaluated by multiplying the oscillation amplitudes with a stress concentration factor. This factor has been computed on the basis of a finite element model of the system "hanger-welding-connection plate", applying solid elements, according to the notch stress approach. The damage estimation takes into account the stochastics of the exciting wind process, as well as the stochastics of the material parameters (fatigue strength) given in terms of Woehler-curves. The shape optimization results in a substantial increase of the estimated hanger lifetime. The comparison of the lifetimes of the bulk plate and of the welding revealed that, in the optimized structure, the welding, being the most sensitive part in the original structure, shows much more resistance against potential damages than the bulk material.
Optimum technological solutions must take into account the entire life cycle of structures including design procedures as well as quality assurance, inspection, maintenance, and repair strategies. Unfortunately, current design standards do not provide a satisfactory basis to ensure expected structural lifetimes. The latter may vary from only a few years for temporary structures to over a century for bridges, water dams or nuclear repositories. Consistent scientific concepts are urgently required to cover this wide spectrum of lifetimes in structural design and maintenance. This was a motivation for a group of scientists at the Ruhr-University Bochum (RUB) to start a special research program supported by the German Research Foundation (DFG) within the Cooperative Research Center SFB 398 since 1996. Institutes of the University Wuppertal and of the University Essen-Duisburg joined the research group. The goal of the Center is to study sources of damage and deterioration in materials and structures, to develop consistent models and simulation methods, to predict structural lifetimes and finally to integrate this predictions into new lifetime-oriented design strategies.
Research activities in our center are organised in three Project Groups as follows:
- Modelling of lifetime effects
- Methods for lifetime-oriented structural analyses
- Future lifespan-oriented design strategies.
Die Arbeit beschäftigt sich mit der Entstehung eines ökonomischen Kraftmaßes am Beispiel der Maschine von Marly im Zeitraum von ca. 1680 bis 1840. Die Leitthese der Dissertation besagt, dass vom 17. zum 19. Jahrhundert eine grundlegende Transformation des Maschinenbegriffs stattfand, die als Übergang vom Substanzbegriff zum Funktionsbegriff der Maschine bezeichnet werden kann. Im 17. Jahrhundert wurden mechanische Apparate als in sich geschlossene, selbstbezügliche Strukturen aufgefasst. Als anschaulich erfahrbare Objekte konnten sie als Bildgeber dienen, die mittels des Verfahrens der Strukturanalogie Erklärungsmuster für verschiedenste Phänomene (Körper, Staat, Welt) boten. Demzufolge galten sie als selbstevident: sie waren erklärend und mussten selbst nicht erklärt werden. Ihr etwaiger Zweck und ihre Einbettung in gesellschaftliche Zusammenhänge spielten dabei keine Rolle. Wie anhand der Beschreibungen und Darstellungen aus jener Zeit nachgewiesen werden kann, wurde die Maschine von Marly innerhalb dieser Episteme als architektonisches Objekt wahrgenommen, bei dem vor allem das Zusammenspiel der einzelnen Elemente Aufmerksamkeit erregte. Wie andere Maschinen auch stand sie unter dem Primat der Sichtbarkeit. Man war davon überzeugt, dass die Eigenschaften einer Maschine von der strukturellen Anordnung ihrer Bauteile abhingen und glaubte, ihre Qualität an ihrer Gestalt ablesen zu können. Ab der Mitte des 18. Jahrhunderts tauchte die Maschine von Marly in den Schriften physiokratischer Autoren auf. Zuerst diente sie dort als Beispiel für die Verschwendungssucht Louis’ XIV. und als Metapher für eine schlechte Einrichtung des Staates. Doch zunehmend begann man, sie auch in ihrer Faktizität als technisch-politisches Objekt zu begreifen. Man kritisierte ihre aktuelle Nutzung und schlug andere Möglichkeiten ihrer Verwendung vor, etwa die Bewässerung von Feldern oder die städtische Trinkwasserversorgung. Damit war die Maschine von Marly nicht länger ein Modell für die Einrichtung des Staates, das nur am Maßstab der immanenten Perfektion beurteilt werden konnte. Vielmehr war sie nun ein Instrument der Regierung, das sich als Teil eines staatlich verfassten Gemeinwesens verantworten musste. Als solches wurde sie auch zu einem bevorzugten Gegenstand aufklärerischer Reformprojekte. Das zeigt sich besonders deutlich am Wettbewerb, den die Pariser Akademie der Wissenschaften 1784-1786 organisiert hatte und der Vorschläge zur Verbesserung oder Ersetzung der Maschine von Marly zum Gegenstand hatte. Die Auswertung der mehr als 100 eingereichten Projekte und Memoranden ermöglicht einen einzigartigen Blick auf die Hoffnungen und Wünsche, die Ende des 18. Jahrhunderts an die Erfindung technischer Geräte gekoppelt waren. Um 1800 kann man die allmähliche Entstehung eines Funktionsbegriffs der Maschine bemerken. Lazare Carnots Essai sur les machines en général, der eine in der Sprache der Algebra artikulierte Definition der Maschine beinhaltete, trug maßgeblich dazu bei, die Anschaulichkeit zugunsten eines operativen Symbolismus zu delegitimieren. Erst dadurch war die Formulierung eines Effizienzkalküls möglich. Ergänzt wurde diese Formalisierung durch den Diskurs der Industrialisierung, in dem technische Apparate zunehmend als Produktionsmittel verstanden wurden. Die Maschine von Marly war ein wichtiger Schauplatz für die Entstehung eines ökonomischen Kraftmaßes. Nicht nur wurden dort Experimente mit verschiedenen Messinstrumenten (Dynamometern) durchgeführt, auch diente sie Joseph Montgolfier als Beispiel um zu beweisen, dass Kraft als Geldwert ausgedrückt werden könne. In den ersten Jahrzehnten des 19. Jahrhundert wurden Maschinen schließlich relational als Positionen innerhalb eines nationalen Produktionssystems definiert. Sie galten als Krafttransformatoren, bei denen ein bestimmter Input von ‚force motrice’ einen entsprechenden Output von ‚travail utile’ ergeben würde. Ihre vornehmlichste Aufgabe war die möglichst effiziente Ausnutzung der Kraftressourcen. Den vorläufigen Endpunkt erreichte die Entstehung des ökonomischen Kraftmaßes um 1830 mit der Formulierung des Begriffs der ‚mechanischen Arbeit’.
Die effektive Kooperation aller beteiligten Fachplaner im Bauplanungsprozess ist die Voraussetzung für wirtschaftliches und qualitativ hochwertiges Bauen. Bauprojektorganisationen bestehen in der Regel aus zahlreichen unabhängigen Planungspartnern, die örtlich verteilt spezifische Planungsaufgaben bearbeiten und die Ergebnisse in Teilproduktmodellen ablegen. Da Planungsprozesse im Bauwesen stark arbeitsteilig ablaufen, sind die Teilproduktmodelle der einzelnen Fachplanungen in hohem Maße voneinander abhängig. Ziel des hier vorgestellten Ansatzes ist die Integration der Teilproduktmodelle der Gebäudeplanung in einem netzwerkbasierten Modellverbund am Beispiel der Brandschutzplanung. Im Beitrag werden die Probleme der Verteiltheit und insbesondere der semantischen Heterogenität der involvierten Teilproduktmodelle betrachtet. Der verteilte Zugriff wird mithilfe mobiler Software-Agenten realisiert. Die Agenten können sich dabei frei im netzwerkbasierten Planungsverbund bewegen und agieren als Vertreter der Fachplaner. Das Problem der semantischen Heterogenität der Teilproduktmodelle wird auf der Basis von Ontologien gelöst. Dazu werden erstens Domänenontologien entwickelt, die Objekte der realen Welt einer abgeschlossenen Domäne, hier des Brandschutzes, abbilden. Zweitens werden Applikationsontologien entwickelt, die die einzelnen proprietären Datenhaltungen (im Sinne von Teilproduktmodellen) der jeweiligen Fachplanungen repräsentieren. Beide Ontologien werden mit einem regelbasierten Ansatz verknüpft. Im vorgestellten Anwendungsfall Brandschutz dient die Domänenontologie als einheitliche Schnittstelle für den Zugriff auf die verteilten Modelle und abstrahiert dabei von deren Datenbankspezifika und proprietären Schemata. Mithilfe von mobilen Agenten und semantischen Technologien kann so eine Plattform zur Verfügung gestellt werden, die erstens die dynamische Integration von Ressourcen in den Planungsverbund erlaubt und zweitens auf deren Basis unabhängig von der Verteiltheit und Heterogenität der eingebundenen Ressourcen ingenieurgerechte Verarbeitungsmethoden realisiert werden können.
Für eine beherrschbare Koordination und Durchführung von Planungsaufgaben in Bauprojekten wird der Planungsprozess zunehmend in formalisierten Modellen – Prozessmodellen – beschrieben. Die Produktmodellforschung ihrerseits widmet sich der Speicherung von Planungsdaten in Form von objektorientierten Modellen im Rechner. Hauptaugenmerk sind dabei die Wahrung der Konsistenz und die Modellierung von Abhängigkeiten innerhalb dieses Planungsmaterials. Der Bezug zu den Akteuren der Planung wird nicht direkt hergestellt. Ein formal beschriebener Planungsprozesses kann in der Praxis noch nicht derart realisiert werden, dass ein Zugriff auf Einzelobjekte des Planungsprozesses gewährleistet ist. Bestehende Planungsunterstützungs- und Workflowmanagement-Systeme abstrahieren und ordnen das Planungsmaterial nach wie vor auf Dateiebene. Der vorliegende Artikel beschreibt eine Methode für die geeignete Verbindung von formalisierten Prozessmodellen in der Bauplanung mit den Einzelobjekten, die in den modellorientierten Objektmengen kodiert sind. Dabei wird die Zugehörigkeit bestimmter Objekte zu Plänen und Dokumenten (zum Zwecke des Datenaustauschs) nicht länger durch die physische Zuordnung zu Dateien festgelegt. Es wird ein formales Beschreibungsmittel vorgestellt, welches die entsprechende Teilmengenbildung aus der Gesamtheit der Planungsobjekte ermöglicht. Für die bisherigen Formen des Datenaustausches werden aus den Objektmodellen der Planung Teilmengen herausgelöst und physikalisch zwischen den Planern transportiert. Das neue Beschreibungsmittel hingegen erlaubt es, die Bildungsvorschrift für Objektteilmengen statt der Mengen selbst zwischen den Planern auszutauschen. Der Zugriff auf die konkreten Objekte findet dann direkt modellbasiert statt.
In this study we introduce a concept of discrete Laplacian on the plane lattice and consider its iteration dynamical system. At first we discuss some basic properties on the dynamical system to be proved. Next making their computer simulations, we show that we can realize the following phenomena quite well:(1) The crystal of waters (2) The designs of carpets, embroideries (3) The time change of the numbers of families of extinct animals, and (4) The echo systems of life things. Hence we may expect that we can understand the evolutions and self organizations by use of the dynamical systems. Here we want to make a stress on the following fact: Although several well known chaotic dynamical systems can describe chaotic phenomena, they have difficulties in the descriptions of the evolutions and self organizations.
The present study was designed to investigate the underlying factors determining the visual impressions of design-patterns that have complex textures. Design-patterns produced by "the dynamical system defined by iterations of discrete Laplacians on the plane lattice" were adopted as stimuli because they were not only complex, but also defined mathematically. In the experiment, 21 graduate and undergraduate students sorted 102 design-patterns into several groups by visual impressions. Those 102 patterns were classified into 12 categories by the cluster analysis. The results showed that the regularity of pattern was a most efficient factor for determining visual impressions of design-pattern, and there were some correspondence between visual impressions and mathematical variables of design-pattern. Especially, the visual impressions were influenced greatly by the neighborhood, and less influenced by steps of iterations.
The design and application of high performance materials demands extensive knowledge of the materials damage behavior, which significantly depends on the meso- and microstructural complexity. Numerical simulations of crack growth on multiple length scales are promising tools to understand the damage phenomena in complex materials. In polycrystalline materials it has been observed that the grain boundary decohesion is one important mechanism that leads to micro crack initiation. Following this observation the paper presents a polycrystal mesoscale model consisting of grains with orthotropic material behavior and cohesive interfaces along grain boundaries, which is able to reproduce the crack initiation and propagation along grain boundaries in polycrystalline materials. With respect to the importance of modeling the geometry of the grain structure an advanced Voronoi algorithm is proposed to generate realistic polycrystalline material structures based on measured grain size distribution. The polycrystal model is applied to investigate the crack initiation and propagation in statically loaded representative volume elements of aluminum on the mesoscale without the necessity of initial damage definition. Future research work is planned to include the mesoscale model into a multiscale model for the damage analysis in polycrystalline materials.
In this paper we evaluate 2D models for soil-water characteristic curve (SWCC), that incorporate the hysteretic nature of the relationship between volumetric water content θ and suction ψ. The models are based on nonlinear least squares estimation of the experimental data for sand. To estimate the dependent variable θ the proposed models include two independent variables, suction and sensors reading position (depth d in the column test). The variable d represents not only the position where suction and water content are measured but also the initial suction distribution before each of the hydraulic loading test phases. Due to this the proposed 2D regression models acquire the advantage that they: (a) can be applied for prediction of θ for any position along the column and (b) give the functional form for the scanning curves.