Refine
Document Type
- Article (1015)
- Conference Proceeding (857)
- Doctoral Thesis (494)
- Master's Thesis (115)
- Part of a Book (50)
- Book (45)
- Report (43)
- Periodical (28)
- Preprint (27)
- Bachelor Thesis (22)
Institute
- Professur Theorie und Geschichte der modernen Architektur (493)
- Professur Informatik im Bauwesen (484)
- Institut für Strukturmechanik (ISM) (346)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (201)
- Professur Baubetrieb und Bauverfahren (145)
- Institut für Europäische Urbanistik (71)
- Professur Bauphysik (53)
- Professur Stochastik und Optimierung (46)
- Graduiertenkolleg 1462 (42)
- F. A. Finger-Institut für Baustoffkunde (FIB) (38)
Keywords
- Weimar (446)
- Bauhaus-Kolloquium (442)
- Angewandte Mathematik (331)
- Computerunterstütztes Verfahren (289)
- Architektur (247)
- Architektur <Informatik> (201)
- Strukturmechanik (189)
- CAD (184)
- Angewandte Informatik (155)
- Bauhaus (125)
This paper presents a novel numerical procedure based on the combination of an edge-based smoothed finite element (ES-FEM) with a phantom-node method for 2D linear elastic fracture mechanics. In the standard phantom-node method, the cracks are formulated by adding phantom nodes, and the cracked element is replaced by two new superimposed elements. This approach is quite simple to implement into existing explicit finite element programs. The shape functions associated with discontinuous elements are similar to those of the standard finite elements, which leads to certain simplification with implementing in the existing codes. The phantom-node method allows modeling discontinuities at an arbitrary location in the mesh. The ES-FEM model owns a close-to-exact stiffness that is much softer than lower-order finite element methods (FEM). Taking advantage of both the ES-FEM and the phantom-node method, we introduce an edge-based strain smoothing technique for the phantom-node method. Numerical results show that the proposed method achieves high accuracy compared with the extended finite element method (XFEM) and other reference solutions.
The proceedings at hand are the result of the International Master Course Module: "Nonlinear Analysis of Structures: Wind Induced Vibrations" held at the Faculty of Civil Engineering at Bauhaus-University Weimar, Germany in the summer semester 2019 (April - August). This material summarizes the results of the project work done throughout the semester, provides an overview of the topic, as well as impressions from the accompanying programme.
Wind Engineering is a particular field of Civil Engineering that evaluates the resistance of structures caused by wind loads. Bridges, high-rise buildings, chimneys and telecommunication towers might be susceptible to wind vibrations due to their increased flexibility, therefore a special design is carried for this aspect. Advancement in technology and scientific studies permit us doing research at small scale for more accurate analyses. Therefore scaled models of real structures are built and tested for various construction scenarios. These models are placed in wind tunnels where experiments are conducted to determine parameters such as: critical wind speeds for bridge decks, static wind coefficients and forces for buildings or bridges. The objective of the course was to offer insight to the students into the assessment of long-span cable-supported bridges and high-rise buildings under wind excitation. The participating students worked in interdisciplinary teams to increase their knowledge in the understanding and influences on the behaviour of wind-sensitive structures.
Die Dissertation untersucht Ideen von Virtualität im Hinblick auf mobile Medientechnologien. Es verbinden sich eine medienphilosophische und eine technikhistorische Perspektive: Das Virtuelle wird philosophiehistorisch ergründet und damit verbunden die Emergenz von mobilen Medientechnologien wie dem Mobiltelefon rekonstruiert. Zentral ist dabei die Frage, wie sich Weltverständnisse durch mobile Telekommunikation wandeln und wie das Virtuelle bislang im Kontext von Realitätsvorstellungen gedacht wurde.
Das Ziel der vorliegenden Diplomarbeit war es, „Untersuchungen hinsichtlich des Einflusses von Phase Change Materials auf die Raumlufttemperatur“ durchzuführen und anschließend die Ergebnisse auszuwerten. Dabei galt es, thermodynamische Grundlagen zu erläutern sowie den derzeitigen Stand der Forschung darzulegen. Dies wurde umfassend bearbeitet, allerdings kann hierbei aufgrund des Umfangs und der Vielfalt im Bereich der internationalen PCM-Forschung kein Anspruch auf Vollständigkeit erhoben werden. Ein Hauptteil dieser Arbeit bestand darin, den Versuchsaufbau der Referenzräume im Eiermann-Bau in Apolda als Grundlage für spätere Messungen detailliert zu beschreiben. Dabei wurde auf die gesamte Messanlage, die eingebrachten PCM sowie auf daraus resultierende physikalische Kenngrößen ausführlich eingegangen. Es galt, geometrische, chemische und physikalische Einflüsse einzuschätzen, aber auch Schwachstellen aufzudecken, um die später folgenden Messreihen exakt auswerten zu können. Als kritisch einzuschätzende Größe fiel dabei besonders das eingebrachte Salzgemisch auf, welches hinsichtlich des Schmelz- und Kristallisationsbereiches als kaum beurteilbar auffiel. Dies konnte auch nach mehreren Untersuchungen, hier ist insbesondere die dynamische Differenzkalorimetrie zu nennen, nicht hinreichend geklärt werden. Basierend auf diesen Erkenntnissen wurden vergleichende Messreihen durchgeführt, welche durch verschiedene Luftwechselraten gestaltet wurden. Im Maximum konnte dabei im PCM-konditionierten Raum eine Reduktion der Temperatur um 6 K erreicht werden. Dabei muss allerdings berücksichtigt werden, dass diese Differenz größtenteils auf die thermische Masse des Salzgemischs zurückgeführt werden kann. Eine abschließende Messung ohne Salzgemisch zeigte, dass aufgrund des latenten Wärmespeichervermögens des PCM-Putzes lediglich eine thermische Differenz von 2 K erreicht werden kann. Hinsichtlich der Luftwechselrate ist anzumerken, dass die erwartete, vergleichsweise zügige Auskühlung trotz Lüftung in der Praxis nicht nachvollzogen werden konnte. Zur Auswertung der gewonnenen Messwerte galt es, das am Lehrstuhl Bauphysik vorhandene mathematische Minimalmodell auf die am Objekt vorhandenen Randbedingungen anzupassen. Aus den Datenwolken der Atmosphärentemperatur sowie der Globalstrahlung mussten Funktionen approximiert werden, da diese äußeren Zwänge einen entscheidenden Einfluss auf den Verlauf der Innenraumtemperatur ausüben. Die Ergebnisse der Berechungen des Temperaturverlaufs können als zufrieden stellend betrachtet werden, jedoch wurde deutlich, dass ein genaues Nachstellen nicht möglich ist. Dies ist vor allem auf die Tatsache zurückzuführen, dass das Minimalmodell lediglich eine Beschreibung der wesentlichen Prozesse mathematisch abbildet. Eine kritische Auseinandersetzung hinsichtlich allgemeiner Standpunkte als auch der Anwendbarkeit auf die Referenzräume wurde abschließend diskutiert.
This study aims to develop an approach to couple a computational fluid dynamics (CFD) solver to the University of California, Berkeley (UCB) thermal comfort model to accurately evaluate thermal comfort. The coupling was made using an iterative JavaScript to automatically transfer data for each individual segment of the human body back and forth between the CFD solver and the UCB model until reaching convergence defined by a stopping criterion. The location from which data are transferred to the UCB model was determined using a new approach based on the temperature difference between subsequent points on the temperature profile curve in the vicinity of the body surface. This approach was used because the microclimate surrounding the human body differs in thickness depending on the body segment and the surrounding environment. To accurately simulate the thermal environment, the numerical model was validated beforehand using experimental data collected in a climate chamber equipped with a thermal manikin. Furthermore, an example of the practical implementations of this coupling is reported in this paper through radiant floor cooling simulation cases, in which overall and local thermal sensation and comfort were investigated using the coupled UCB model.
Occupant needs with regard to residential buildings are not well known due to a lack of representative scientific studies. To improve the lack of data, a large scale study was carried out using a Post Occupancy Evaluation of 1,416 building occupants. Several criteria describing the needs of occupants were evaluated with regard to their subjective level of relevance. Additionally, we investigated the degree to which deficiencies subjectively exist, and the degree to which occupants were able to accept them. From the data obtained, a hierarchy of criteria was created. It was found that building occupants ranked the physiological needs of air quality and thermal comfort the highest. Health hazards such as mould and contaminated building materials were unacceptable for occupants, while other deficiencies were more likely to be tolerated. Occupant satisfaction was also investigated. We found that most occupants can be classified as satisfied, although some differences do exist between different populations. To explain the relationship between the constructs of what we call relevance, acceptance, deficiency and satisfaction, we then created an explanatory model. Using correlation and regression analysis, the validity of the model was then confirmed by applying the collected data. The results of the study are both relevant in shaping further research and in providing guidance on how to maximize tenant satisfaction in real estate management.
Overheating is a major problem in many modern buildings due to the utilization of lightweight constructions with low heat storing capacity. A possible answer to this problem is the emplacement of phase change materials (PCM), thereby increasing the thermal mass of a building. These materials change their state of aggregation within a defined temperature range. Useful PCM for buildings show a phase transition from solid to liquid and vice versa. The thermal mass of the materials is increased by the latent heat. A modified gypsum plaster and a salt mixture were chosen as two materials for the study of their impact on room temperature reduction. For realistic investigations, test rooms were erected where measurements were carried out under different conditions such as temporary air change, alternate internal heat gains or clouding. The experimental data was finally reproduced by dint of a mathematical model.
The human body is surrounded by a micro‐climate which results from its convective release of heat. In this study, the air temperature and flow velocity of this micro‐climate were measured in a climate chamber at various room temperatures, using a thermal manikin simulating the heat release of the human being. Different techniques (Particle Streak Tracking, thermography, anemometry, and thermistors) were used for measurement and visualization. The manikin surface temperature was adjusted to the particular indoor climate based on simulations with a thermoregulation model (UCBerkeley Thermal Comfort Model). We found that generally, the micro‐climate is thinner at the lower part of the torso, but expands going up. At the head, there is a relatively thick thermal layer, which results in an ascending plume above the head. However, the micro‐climate shape strongly depends not only on the body segment, but also on boundary conditions: the higher the temperature difference between the surface temperature of the manikin and the air temperature, the faster the air flow in the micro‐climate. Finally, convective heat transfer coefficients strongly increase with falling room temperature, while radiative heat transfer coefficients decrease. The type of body segment strongly influences the convective heat transfer coefficient, while only minimally influencing the radiative heat transfer coefficient.
This paper presents the development of an assessment scheme for a visual qualitative evaluation of nailed connections in existing structures, such as board trusses. In terms of further use and preservation, a quick visual inspection will help to evaluate the quality of a structure regarding its load-bearing capacity and deformation behaviour. Tests of old and new nailed joints in combination with a rating scheme point out the correlation between the load-bearing capacity and condition of a joint. Old joints of comparatively good condition tend to exhibit better results than those of poor condition. Moreover, aged joints are generally more load-bearing than newly assembled ones.
The task-based view of web search implies that retrieval should take the user perspective into account. Going beyond merely retrieving the most relevant result set for the current query, the retrieval system should aim to surface results that are actually useful to the task that motivated the query.
This dissertation explores how retrieval systems can better understand and support their users’ tasks from three main angles: First, we study and quantify search engine user behavior during complex writing tasks, and how task success and behavior are associated in such settings. Second, we investigate search engine queries formulated as questions, and explore patterns in a large query log that may help search engines to better support this increasingly prevalent interaction pattern. Third, we propose a novel approach to reranking the search result lists produced by web search engines, taking into account retrieval axioms that formally specify properties of a good ranking.
We apply keyquery-based taxonomy composition to compute a classification system for the CORE dataset, a shared crawl of about 850,000 scientific papers. Keyquery-based taxonomy composition can be understood as a two-phase hierarchical document clustering technique that utilizes search queries as cluster labels: In a first phase, the document collection is indexed by a reference search engine, and the documents are tagged with the search queries they are relevant—for their so-called keyqueries. In a second phase, a hierarchical clustering is formed from the keyqueries within an iterative process. We use the explicit topic model ESA as document retrieval model in order to index the CORE dataset in the reference search engine. Under the ESA retrieval model, documents are represented as vectors of similarities to Wikipedia articles; a methodology proven to be advantageous for text categorization tasks. Our paper presents the generated taxonomy and reports on quantitative properties such as document coverage and processing requirements.
Water content is a key parameter to monitor in nuclear waste repositories such as the planed underground repository in Bure, France, in the Callovo-Oxfordian (COx) clay formation. High-frequency electromagnetic (HF-EM) measurement techniques, i.e., time or frequency domain reflectometry, offer useful tools for quantitative estimation of water content in porous media. However, despite the efficiency of HF-EM methods, the relationship between water content and dielectric material properties needs to be characterized. Moreover, the high amount of swelling clay in the COx clay leads to dielectric relaxation effects which induce strong dispersion coupled with high absorption of EM waves. Against this background, the dielectric relaxation behavior of the clay rock was studied at frequencies from 1 MHz to 10 GHz with network analyzer technique in combination with coaxial transmission line cells. For this purpose, undisturbed and disturbed clay rock samples were conditioned to achieve a water saturation range from 0.16 to nearly saturation. The relaxation behavior was quantified based on a generalized fractional relaxation model under consideration of an apparent direct current conductivity assuming three relaxation processes: a high-frequency water process and two interface processes which are related to interactions between the aqueous pore solution and mineral particles (adsorbed/hydrated water relaxation, counter ion relaxation and Maxwell-Wagner effects). The frequency-dependent HF-EM properties were further modeled based on a novel hydraulic-mechanical-electromagnetic coupling approach developed for soils. The results show the potential of HF-EM techniques for quantitative monitoring of the hydraulic state in underground repositories in clay formations.
Diese erste umfassende Monographie über den Architekten, Professor und Museumsmann Manfred Lehmbruck (Paris 1913 – Stuttgart 1992) konzentriert sich neben dem Lebensweg und den theoretischen Arbeiten Lehmbrucks zum Museumsbau auf die drei realisierten Museumsbauten: das Reuchlinhaus Pforzheim, das Wilhelm-Lehmbruck-Museum Duisburg und das Federseemuseum Bad Buchau. Aber auch die drei anderen bedeutenden Gebäudeensembles, die Pausa AG Mössingen, die Berufsschule und das Stadtbad Stuttgart-Feuerbach und der Solitär der Mittelschule in Mössingen, alle fertiggestellt in den Sechziger Jahren des letzten Jahrhunderts, werden ausführlich besprochen. Das umfassende Werkverzeichnis im Anhang zeigt deutlich den Einfluß, den seine Lehrer, allen voran Ludwig Mies van der Rohe, aber auch Heinrich Tessenow, Paul Bonatz und Auguste Perret, auf die Architektursprache Lehmbrucks gehabt haben.
Der Film BERLIN – DIE SINFONIE DER GROSSTADT (1927, Walter Ruttman) gilt bis heute als der Sinfonische Dokumentarfilm schlechthin. Er präsentiert nicht nur die Traditionslinien, die ihre Wurzeln in der neuen Sachlichkeit und den ersten Dokumentarfilmtheorien fanden, sondern auch die künstlerische und filmische Vorstellung von Ruttmann. Um den höchsten Grad an Objektivität in der Realitätsdarstellung zu erreichen, hat dieser Film einerseits treu alle theoretischen und ästhetischen Gedanken der neusachlichen Kunst zum ersten Mal filmisch in einem DOKUMENTARFILM dargestellt. Noch dazu drückt der Berlin-Film seinen kulturellen Beitrag mit ausschliesslich filmischen Mitteln aus, also mit rein visuellen Mitteln, oder anders gesagt mit FILMSPRACHE.
Im Gegensatz zur ersten Ankündigung des Films und der Filmliteratur, die den Film als Dokumentarfilm ansehen, ist er in Wirklichkeit einer der ersten innovativen Musikfilme in seinem historischen Kontext, welcher mit der Montage von Wirklichkeitsabbilden autonome Musik zu interpretieren versucht. Seine sachlichen, dokumentarischen Reportage-Bilder ordnen sich der abstrakten Struktur und dem Taktmaß der Musik unter. Als Folge entsteht laut Ruttmann eine VISUELLE SINFONIE, die eigentlich vielmehr eine Vision von Berlin darstellte, als zukünftige industrielle Musterstadt. Mit anderen Worten ist Berlin in diesem Film eine realistische Illusion, aber keineswegs ein reales Bild. Er bildet ein neues Filmgenre, den KUNSTDOKUMENTARFILM, das den Grundprinzipien des Dokumentarfilms nicht folgt.
Dies unterscheidet ihn aber auch von den KÜNSTLERISCHEN DOKUMENTARFILMEN, die einerseits dem Film BERLIN – DIE SINFONIE DER GROSSTADT zwar formalstilistisch und ästhetisch ähneln. Aber im Gegensatz zu ihm erfüllen diese die elementaren Voraussetzungen für einen Dokumentarfilm. Beispiele dafür sind: DER MANN MIT DER KAMERA (1929, Dsiga Vertov), KOYAANISQATSI (1982,Godfry Reggio) und das Remake BERLIN, SINFONIE EINER GROßSTADT (2002, Thomas Schadt).
BERLIN – DIE SINFONIE DER GROSSTADT von Walter Ruttmann stellt nicht nur ein neues Filmgenre dar, er ist auch eine singuläre Erscheinung in der Filmgeschichte. In diesem Sinne spielte er, laut dem Filmkritiker Helmut Korte, eine entscheidende Rolle in der Weiterentwicklung des absoluten Films „als Musterbeispiel für die Möglichkeiten des künstlerisch-dokumentarischen Films“ (Korte 1991: 76).
For analysis and planing of transport networks detailed information concerning travel sequences is required. The paper examines an activity chain model to determine stochastic travel demand which individual generates in order to participate in activity or sequence of activities over the day. The transition from one activity to another depends on the activity participation decision, which is made sequentially and is constrained in space and time. Activity chains derived from travel survey data are used as a base to develop a more realistic model than conventional discrete trip models. Probabilistic concepts and statistical procedures are used to estimate characteristics of travel demand such as the number of daily out-of-home activities and transition probability from one activity to another participated by homogeneous behavioural groups. In addition, the paper compares the model for two different sized towns.
Dezentrale mikrocontrollerbasierende Messtechnik in der in der Leittechnik historischer Gebäude
(2003)
Im Hintergrund stehen historische Bibliotheksgebäude, deren Bestände durch ungünstige klimatische Verhältnisse in den Innenräumen ihrer der Erhaltung gefährdet sind. Damit Maßnahmen der Gebäudeleittechnik geplant werden können, ist die Aufnahme der Umweltgrößen über einen längeren Zeitraum erforderlich. Im speziellen zielen die Maßnahmen auf die Klimatechnik mit ihren Aufgaben der Heizungsregelung, Belüftungsanlagen. Ein Messsystem kann mit dem Mikrocontroller Beck >IPC@CHIP< realisiert werden. Das an der FH Fulda entwickelte Messsystem nimmt im Abstand von drei Minuten Messwerte von Lufttemperatur, Luftfeuchte, Luftdruck und UV-Intensität auf. Sie gelten als beeinflussende Größen der organischen Materialien des Fundus. Die Messwerte werden in einer elektronischen Schaltung vorverarbeitet und einem Mikrocontroller zugeführt. Dieser archiviert die Daten fortlaufend über einen Zeitraum bis zu sieben Jahren. Der Mikrocontroller ist mit seinem internen Flash-Speicher und der Ethernet-Schnittstelle in der Lage, die gesammelten Messwerte als Webserver zur Verfügung zu stellen. Wenn das Messsystem an das Internet angeschlossen wird, können die Klimaverläufe in einem herkömmlichen Internet-Browser dargestellt werden. Dafür wurde mit der Programmiersprache Java eine Visualisierungsoberfläche erstellt. Sie bietet die verschiedensten Möglichkeiten der Datenauswertung. Dazu gehört der Zugriff auf jeden einzelnen Messwert, auf Tages-, Monats- und Jahresmittelwerte und die Errechnung von Minima und Maxima. Der Flash-Speicher wurde auch dazu benutzt, Dokumentation und Bedienhinweise abzulegen, die somit über das Netzwerk abrufbar sind. Das gesamte Messsystem ist in ein Buch integriert und erfasst seit August 2002 die klimatischen Verhältnisse der Herzogin-Anna-Amalia-Bibliothek in Weimar. Nach den erfolgten Langzeitmessungen kann darüber entschieden werden, welchen Beitrag eine Gebäudeleittechnik mit integrierter Klimaregelung zur Werterhaltung der Gegenstände leisten kann.
For the dynamic behavior of lightweight structures like thin shells and membranes exposed to fluid flow the interaction between the two fields is often essential. Computational fluid-structure interaction provides a tool to predict this interaction and complement or eventually replace expensive experiments. Partitioned analyses techniques enjoy great popularity for the numerical simulation of these interactions. This is due to their computational superiority over simultaneous, i.e. fully coupled monolithic approaches, as they allow the independent use of suitable discretization methods and modular analysis software. We use, for the fluid, GLS stabilized finite elements on a moving domain based on the incompressible instationary Navier-Stokes equations, where the formulation guarantees geometric conservation on the deforming domain. The structure is discretized by nonlinear, three-dimensional shell elements.
Commonly used sequential staggered coupling schemes may exhibit instabilities due to the so-called artificial added mass effect. As best remedy to this problem subiterations should be invoked to guarantee kinematic and dynamic continuity across the fluid-structure interface. Since iterative coupling algorithms are computationally very costly, their convergence rate is very decisive for their usability. To ensure and accelerate the convergence of this iteration the updates of the interface position are relaxed. The time dependent, 'optimal' relaxation parameter is determined automatically without any user-input via exploiting a gradient method or applying an Aitken iteration scheme.
A fundamental characteristic of human beings is the desire to start learning at the moment of birth. The rather formal learning process that learners have to deal with in school, on vocational training or in university, is currently subject to fundamental changes. The increasing technologization, overall existing mobile devices, the ubiquitous access to digital information, and students being early adaptors of all these technological innovations require reactions on the part of the educational system.
This study examines such a reaction: The use of mobile learning in higher education.
Examining the subject m-learning first requires an investigation of the educational model e-learning. Many universities already established e-learning as one of their educational segments, providing a wide range of methods to support this kind of teaching.
This study includes an empirical acceptance analysis regarding the general learning behavior of students and their approval of e-learning methods. A survey on the approval of m-learning supplements the results.
Mobile learning is characterized by both the mobility of the communication devices and the users. Both factors lead to new correlations, demonstrate the potential of today's mobile devices and the probability to increase the learning performance.
The dissertation addresses these correlations and the use of mobile devices in the context of m-learning. M-learning and the usage of mobile devices not only require a reflection from a technological point of view. In addition to the technical features of such mobile devices, the usability of their applications plays an important role, especially with regard to the limited display size.
For the purpose of evaluating mobile apps and browser-based applications, various analytical methods are suitable.
The concluding heuristic evaluation points out the vulnerability of an established m-learning application, reveals the need for improvement, and shows an approach to rectify the shortcoming.
Zum Begriff Illustration scheint ein Missverhältnis zwischen wissenschaftlicher Rezeption und praktischem Gegenstand vorzuliegen. Traditionell bezeichnet der Begriff Illustration ein Bild, das einen textlich vorangestellten Inhalt noch einmal visuell wiederholt und auf diesem Weg in einem Abbild verdoppelt. Traditionelle Illustration benennt also ein sekundäres, explizit von einem anderen Inhalt abhängiges Bild, das auch weggelassen werden könnte, ohne das Inhalt verloren geht. Genutzt wird dieser traditionelle Illustrationsbegriff heute unter anderem in den Forschungsfeldern der Kunstgeschichte, der Bildwissenschaften und der Literaturwissenschaften. Aus der Perpektive der Praxis birgt der traditionelle Illustrationsbegriff ein grundsätzliches Problem in sich. Er versucht, mit einer statischen Definition ein äußerst lebendiges visuelles Phänomen unserer heutigen Zeit zu beschreiben. Professionelle Berufszeichner, die sogenannten Illustratorinnen und Illustratoren, kreieren heute Werke, die mit dem traditionellen Illustrationsbegriff nicht mehr beschreibbar sind. Mehr noch, der traditionelle Illustrationsbegriff macht blind für diese Entwicklungen, die sich deshalb außerhalb des wissenschaftlichen Diskurses abspielen. Die vorliegende Arbeit möchte deshalb einen Blick auf den Zustand zeitgenössischer literarischer Buchillustration werfen, um den Begriff der Illustration in seiner aktuellen Unschärfe zu präzisieren, zu erweitern und somit zu aktualisieren.
Das Wissen um den realen Zustand eines Bauprojektes stellt eine entscheidende Kernkompetenz eines steuernden bauausführenden Unternehmens dar. Der bewusste Umgang mit Informationen und deren effiziente Nutzung sind entscheidende Erfolgsfaktoren für die zeit-, kosten- und qualitätsgerechte Realisierung von Bauprojekten.
Obwohl die erforderlichen Erfolgsfaktoren bekannt sind, sind Kosten- und Terminüberschreitungen von Bauprojekten keine Seltenheit – eher das Gegenteil ist der Fall.
Zukunftsweisende Digitalisierungsprojekte aber geben Anlass zu Hoffnung. Ein Beispiel ist der bereits im Dezember 2015 vom Bundesministerium für Verkehr und digitale Infrastruktur ins Leben gerufene Stufenplan Digitales Planen und Bauen. Dieser hat die Aufgabe flächendeckend die Methodik des Building Information Modeling (BIM) im Infrastrukturbereich einzuführen und somit die Digitalisierung in Deutschland zukunftsweisend voranzutreiben,
indem erfolgreiche Bauprojekte mit durchgängigen Informationsflüssen arbeiten. Seither existiert eine Vielzahl an Digitalisierungsprojekten, alle mit gleichen Zielen. Nachweislich
lassen sich hinsichtlich dessen allerdings auch vermehrt Defizite aufzeigen. So ist der
Fortschritt sehr heterogen verteilt und lässt sich für die Branche nicht allgemeingültig festlegen.
Mit einer internationalen Literaturrecherche sowie einer empirischen Studie als Untersuchungsmethode wurde in Form von Interviews mit Fachkundigen der tatsächliche Zustand der Digitalisierungs- und der BIM-Anwendungen im Straßenbau für den
Controllingprozess der Bauleistungsfeststellung untersucht. Die erhobenen Daten wurden
aufbereitet und anschließend softwaregestützt einer inhaltlichen Analyse unterzogen. In
Kombination mit den Ergebnissen der Literaturrecherche wurden notwendige Anforderungen
für den Controllingprozess der Bauleistungsfeststellung erhoben. Auf dieser Grundlage wurde
ein Modell im Sinne der Systemtheorie zur Optimierung der Bauleistungsfeststellung
entwickelt. Gegenstand der vorliegenden Arbeit ist die Integration der modellbasierten Arbeitsweise in die Prozesse der Bauleistungsfeststellung eines Bauunternehmens. Grundlage ist die objektive Auswertung des Fertigstellungsgrades (Baufortschrittes) mittels Luftbildaufnahmen. Deren Auswertung auf Basis eines Algorithmus und die systematische Identifikation des Baufortschrittes integriert in den Prozess der Bauleistungsfeststellung werden zu einem neu entwickelten Gesamtsystem mit dem Ergebnis eines optimierten Modells.
Das entwickelte Modell wurde hinsichtlich Anwendbarkeit und praktischer Relevanz an
ausgewählten Beispielszenarien untersucht und nachgewiesen.
It has been shown that symmetries of moment functions of stochastic processes play an important role in identification of systems. They provide the group-theoretic method of choice of the model structure and model parameters. In the first stage the group-theoretic analysis of some fundamental concepts of stochastic dynamics: stochastic processes and functional series of Volterra-Wiener type has been undertaken. The analysis of group representations of the moment functions of order m for stochastic processes is the basic, original concept of the work. The following groups: symmetric Sm, special affine SAff(m), general linear GL(n, R), GL(n,C) and their subgroups play the main role in the models. In the second stage the informational entropy has been introduced as a measure of the randomness in the identified models. The group-theoretic approach underlines the unity of the nonlinear system identification and leads to useful engineering results in the range of the second-order (stochastic) theory.
Advances in nanotechnology lead to the development of nano-electro-mechanical systems (NEMS) such as nanomechanical resonators with ultra-high resonant frequencies. The ultra-high-frequency resonators have recently received significant attention for wide-ranging applications such as molecular separation, molecular transportation, ultra-high sensitive sensing, high-frequency signal processing, and biological imaging. It is well known that for micrometer length scale, first-principles technique, the most accurate approach, poses serious limitations for comparisons with experimental studies. For such larger size, classical molecular dynamics (MD) simulations are desirable, which require interatomic potentials. Additionally, a mesoscale method such as the coarse-grained (CG) method is another useful method to support simulations for even larger system sizes.
Furthermore, quasi-two-dimensional (Q2D) materials have attracted intensive research interest due to their many novel properties over the past decades. However, the energy dissipation mechanisms of nanomechanical resonators based on several Q2D materials are still unknown. In this work, the addressed main issues include the development of the CG models for molybdenum disulphide (MoS2), investigation of the mechanism effects on black phosphorus (BP) nanoresonators and the application of graphene nanoresonators. The primary coverage and results of the dissertation are as follows:
Method development. Firstly, a two-dimensional (2D) CG model for single layer MoS2 (SLMoS2) is analytically developed. The Stillinger-Weber (SW) potential for this 2D CG model is further parametrized, in which all SW geometrical parameters are determined analytically according to the equilibrium condition for each individual potential term, while the SW energy parameters are derived analytically based on the valence force field model. Next, the 2D CG model is further simplified to one-dimensional (1D) CG model, which describes the 2D SLMoS2 structure using a 1D chain model. This 1D CG model is applied to investigate the relaxed configuration and the resonant oscillation of the folded SLMoS2. Owning to the simplicity nature of the 1D CG model, the relaxed configuration of the folded SLMoS2 is determined analytically, and the resonant oscillation frequency is derived analytically. Considering the increasing interest in studying the properties of other 2D layered materials, and in particular those in the semiconducting transition metal dichalcogenide class like MoS2, the CG models proposed in current work provide valuable simulation approaches.
Mechanism understanding. Two energy dissipation mechanisms of BP nanoresonators are focused exclusively, i.e. mechanical strain effects and defect effects (including vacancy and oxidation). Vacancy defect is intrinsic damping factor for the quality (Q)-factor, while mechanical strain and oxidation are extrinsic damping factors. Intrinsic dissipation (induced by thermal vibrations) in BP resonators (BPRs) is firstly investigated. Specifically, classical MD simulations are performed to examine the temperature dependence for the Q-factor of the single layer BPR (SLBPR) along the armchair and zigzag directions, where two-step fitting procedure is used to extract the frequency and Q-factor from the kinetic energy time history. The Q-factors of BPRs are evaluated through comparison with those of graphene and MoS2 nanoresonators. Next, effects of mechanical strain, vacancy and oxidation on BP nanoresonators are investigated in turn. Considering the increasing interest in studying the properties of BP, and in particular the lack of theoretical study for the BPRs, the results in current work provide a useful reference.
Application. A novel application for graphene nanoresonators, using them to self-assemble small nanostructures such as water chains, is proposed. All of the underlying physics enabling this phenomenon is elucidated. In particular, by drawing inspiration from macroscale self-assembly using the higher order resonant modes of Chladni plates, classical MD simulations are used to investigate the self-assembly of water molecules using
graphene nanoresonators. An analytic formula for the critical resonant frequency based on the interaction between water molecules and graphene is provided. Furthermore, the properties of the water chains assembled by the graphene nanoresonators are studied.
Das Ziel der Arbeit ist, eine mögliche Verbesserung der Güte der Lebensdauervorhersage für Gusseisenwerkstoffe mit Kugelgraphit zu erreichen, wobei die Gießprozesse verschiedener Hersteller berücksichtigt werden.
Im ersten Schritt wurden Probenkörper aus GJS500 und GJS600 von mehreren Gusslieferanten gegossen und daraus Schwingproben erstellt.
Insgesamt wurden Schwingfestigkeitswerte der einzelnen gegossenen Proben sowie der Proben des Bauteils von verschiedenen Gussherstellern weltweit entweder durch direkte Schwingversuche oder durch eine Sammlung von Betriebsfestigkeitsversuchen bestimmt.
Dank der metallografischen Arbeit und Korrelationsanalyse konnten drei wesentliche Parameter zur Bestimmung der lokalen Dauerfestigkeit festgestellt werden: 1. statische Festigkeit, 2. Ferrit- und Perlitanteil der Mikrostrukturen und 3. Kugelgraphitanzahl pro Flächeneinheit.
Basierend auf diesen Erkenntnissen wurde ein neues Festigkeitsverhältnisdiagramm (sogenanntes Sd/Rm-SG-Diagramm) entwickelt.
Diese neue Methodik sollte vor allem ermöglichen, die Bauteildauerfestigkeit auf der Grundlage der gemessenen oder durch eine Gießsimulation vorhersagten lokalen Zugfestigkeitswerte sowie Mikrogefügenstrukturen besser zu prognostizieren.
Mithilfe der Versuche sowie der Gießsimulation ist es gelungen, unterschiedliche Methoden der Lebensdauervorhersage unter Berücksichtigung der Herstellungsprozesse weiterzuentwickeln.
The Carbon journal is pleased to introduce a themed collection of recent articles in the area of computational carbon nanoscience. This virtual special issue was assembled from previously published Carbon articles by Guest Editors Quan Wang and Behrouz Arash, and can be accessed as a set in the special issue section of the journal website homepage: www.journals.elsevier.com/carbon. The article below by our guest editors serves as an introduction to this virtual special issue, and also a commentary on the growing role of computation as a tool to understand the synthesis and properties of carbon nanoforms and their behavior in composite materials.
The increased implementation of site data capture technologies invariably results in an increase in data warehousing and database technologies to store captured data. However, restricted use of data beyond the initial application could potentially result in a loss of understanding of site processes. This could in turn lead to poor decision making at production, tactical and strategic levels. Concrete usage data have been collected from two piling processes. These data have been analysed and the results highlighted potential improvements that could be made to existing site management and estimating processes. A cost benefit analysis has been used to support decision making at the strategic level where the identified improvements require capital expenditure.
Former achievements for integrated information management have concentrated on interoperability of applications like e.g. CAD, structural analysis or facility management, based on product models introducing additional application independent model layers (core models). In the last years it has become clear, that besides interoperability of autonomous applications, the concurrent processes of model instantiation and evolution have to be modeled, including the relationship to available project resources, persons, legal requirements and communication infrastructure. This paper discusses some basic concepts for an emerging methodology relating the fields of product modeling, project management and workflow systems by elaborating the concept of a process model, which gives a decomposition of the project goals into executable activities. Integrated information management systems should be related to process models to detect pending activities, deadlocks and alternatives of execution. According to the heterogeneous nature of project communication processes, a method for dynamic classification of ad-hoc activities is suggested, that complements predefined highlevel process definitions. In a brief outline of the system architecture, we show how sophisticated information management systems can be broadly made available by using conventional Internet technologies.
Architecture and Air
(2003)
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
Die Architekten, Künstler und Designer des Bauhauses prägten mit neuem gestalterischen Geist eine unverwechselbare Bauhaus-Handschrift. Ausgehend von Weimar schrieben sie sich damit in die Weltkulturgeschichte ein. Nachdem das Bauhaus 1933 dem Nationalsozialismus in Deutschland zum Opfer gefallen war, lebten Idee und Praxis des Bauhauses mit den emigrierenden Lehrern und Schülern im Ausland weiter. Weltweit existieren noch heute Gebäude, Produkte und Kunstwerke, die durch das Bauhaus entstanden sind, von ihm inspiriert wurden oder darauf Bezug nehmen. Mit dem Projekt ImpulsBauhaus versuchen Jens Weber und Andreas Wolter, die weltweite Verbreitung und Einflussnahme des Bauhauses anhand der Beziehungen, Bewegungen und Werke seiner Vertreter bis in die Gegenwart nachvollziehbar zu machen. Das Projekt besteht aus zwei Teilen. Die ImpulsBauhaus-Forschungsplattform ist eine Datenbank, in der Informationen über Bauhaus-Vertreter gesammelt und mithilfe von Analysetools und Visualisierungsinstrumenten ausgewertet werden können. Der zweite Teil besteht aus einer räumlichen Inszenierung der Informationsbestände – der ImpulsBauhaus-Ausstellung. Ausgangspunkt des Projekts ImpulsBauhaus war neben dem kunstwissenschaftlichen Interesse die Frage, wie mit heutigen digitalen Mitteln große Informationsmengen verwaltet, analysiert und visualisiert werden können.
Weiterführende Informationen zum Projekt finden sich auf der Website http://impuls-bauhaus.de, wo auch interessierte Wissenschaftler und Autoren Zugang zur ImpulsBauhaus-Forschungsplattform erhalten.
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Die digitale Unterstützung der Planungsprozesse ist ein aktueller Forschungs- und Arbeitsschwerpunkt der Professur Informatik in der Architektur (InfAR) und der Juniorprofessur Architekturinformatik der Fakultät Architektur an der Bauhaus-Universität Weimar. Verankert in dem DFG Sonderforschungsbereich 524 >Werkzeuge und Konstruktionen für die Revitalisierung von Bauwerken< entstehen Konzepte und Prototypen für eine fachlich orientierte Planungsunterstützung. Als ein Teilaspekt wird in diesem Beitrag gezeigt, wie das Handaufmaß unter Einsatz modernen taktiler Erfassungsmethoden eine ganz neue Bedeutung für die Datenerfassung gewinnen kann. Das Potenzial der verschiedenen Verfahren zur Koordinatenbestimmung mit taktilen Werkzeugen wird evaluiert. Daraus wird eine Strategie entwickelt, die für die unterschiedlichen Notwendigkeiten im Planungsfortschritt den optimierten Einsatz der taktilen Erfassung in Kombination mit klassischen Erfassungsmethoden aufzeigt. Die Realisierbarkeit eines derartigen Konzeptes wird durch Fallstudien und mögliche Ablaufszenarien für einzelne Verfahren nachgewiesen. Durch die Integration taktiler Messverfahren in die Bestandserfassung kann erreicht werden, dass - relevante (Geometrie-) Informationen in ein umfassendes Bauwerksmodell integriert werden können, - die Bauaufnahme wieder im direkten Kontakt zum Bauaufnahmeobjekt erfolgen kann und - die Verfahren so einfach und leicht von allen Beteiligten eingesetzt werden können, um die Bauaufnahme und die Planung wieder miteinander zu verzahnen.
Im Zusammenhang mit der gegenwärtigen Zustandsbewertung und geplanten Sanierung der Dreiturmanlage der St. Severikirche in Erfurt wird eine dynamische Analyse unter Glockenläuten mit Hilfe eines Finite-Elemente-Modells durchgeführt. Mit diesem unter Verwendung des Programms SLang erstellten FE-Modell wird das Schwingungsverhalten der Dreiturmanlage nachgebildet. Dabei dient als Grundlage die zuvor erfolgte Schwingungsmessung. Mit dem angepassten Modell werden schwingungsreduzierende Maßnahmen hinsichtlich ihrer Wirksamkeit untersucht und bewertet. Weiterhin wird an Ersatzsystemen die aktive Schwingungsisolierung mittels Glockenstuhlunterkonstruktion und der Einbau eines passiven Tilgerdämpfers betrachtet.
Objektorientierte Modellierungstechniken werden gegenwärtig vor allem Entwicklern von CAD-Systemen angeboten. Sie erzeugen über die Schritte OO-Modellanalyse und OO-Softwaredesign OO-Programme, die mit ihrer Compilation das durch den Softwareingenieur gefundene Modell festschreiben. Generell, aber insbesondere im Bauwerksdesign, ist dieses Vorgehen unbefriedigend, da hier eine Normung von Modellen nicht gelingt, der Entwurfsprozeß vergleichsweise lang ist und eine Kooperation von Ingenieurgewerken mit verschiedenen Modelldomänen die Regel sind. Darüber hinaus weisen die Modelle in frühen Phasen ein hohes Maß an Unschärfe und Abstraktion auf. CAD-Tools, die diese Phasen unterstützen, benötigen deshalb: statt eines genormten Produktmodells ein einheitliches, kognitiv begründetes Modellstrukturierungsparadigma, für das mit der Objektorientierung eine mögliche Ausprägung gegeben ist, ein explizites, verfügbares Domänenmodell zur fortwährenden Interpretation von Bauwerksmodellen, deskriptive Elemente, die die Interpretation von Objekten und Attributen erleichtern, ein Konzept zur Behandlung von Unschärfe und Abstraktion. Hieraus ergeben sich für die Entwicklung von CAD-Systemen folgende Forderungen : Explizite Verfügbarkeit von Klassenobjekten und deren Erzeugung und Veränderung zur Laufzeit, Vererbung auf Klassen- und Instanzniveau, Erweiterte Attributkonzepte (Facetten), Unterstützung der Aggregation als einer wesentlichen Modellstrukturierungsrelation, Verfügbarkeit von OO-Schnittstellen zum Aufbau von CAD-Systemen aus Tools einerseits, sowie zur Trennung von Modellverwaltung und Modellrepräsentation andererseits. Als ein herausragendes Merkmal des Objektorientierten Paradigmas wird die Anwendungsnähe genannt, da Erscheinungen der behandelten Domäne sich analog in Modellen und Programmen wiederfinden (sollen). Unter der Grundannahme, daß dieses Paradigma auch durch den Anwender zur Erstellung seiner Modellwelten verwendet wird, will FLEXOB eine homogene Umgebung schaffen, die die Modellwelt des Softwareingenieurs zu Analysezwecken dem Anwender zur Verfügung stellt und die die Erweiterung dieser Modellwelt auf deskriptivem Niveau ermöglicht. Das Tool FLEXOB und einige wesentliche Implementationsdetails werden im Beitrag vorgestellt. Es handelt sich bei diesem Tools um eine C++ Klassenbibliothek, die entweder als Objektmodul oder als Windows-DLL verwendet werden kann. Aspekte des Nutzungsregimes solch flexibler Modellverwaltungen werden im Beitrag ebenfalls angespochen.
Für querkraftbewehrte Elemente aus Porenbeton kann hinsichtlich der Querkrafttragfähigkeit ein gegenüber vergleichbaren Bauteilen aus Normal- oder üblichen Leichtbetonen abweichendes Trag-, Verformungs- und Bruchverhalten festgestellt werden. Bedingt wird dieses Verhalten durch die Interaktion der an der Verbundkonstruktion beteiligten Materialien. Experimentelle Untersuchungen an querkraftbewehrten Elementen aus Porenbeton zeigen, dass die Querkrafttragfähigkeit durch ein lokales Versagen der Verankerungszone der Querkraftbewehrung bedingt wird. Aufgrund der geringen Festigkeit und des spröden Materialverhaltens von Porenbeton ist es nicht möglich, die Querkraftbewehrung durch die Wirkung des kontinuierlichen Verbunds zu realisieren. Ergänzend wird Längs- und Querkraftbewehrung verschweißt. Die Querkrafttragfähigkeit von querkraftbewehrten Elementen aus Porenbeton kann durch Fachwerkmodelle unter Berücksichtigung von Energie- und Deformationsbedingungen abgeleitet werden.
In der Gründerzeit der amerikanischen Filmindustrie gab es ein paar Jahre, in denen Hollywood geradezu im Raum schwelgte: in den Weiten der vielfältigen kalifornischen Landschaft und in den stetig wachsenden Ausmaßen der dort gebauten Kulissen, als deren Höhepunkt das Babylon-Set für D. W. Griffiths 'Intolerance' (USA 1916) gelten kann. Noch war das Zelluloid zu lichthungrig und die Scheinwerfer zu schwach, um die Aufnahmen vollständig in den ebenso begrenzten wie kontrollierbaren Innenraum der barackenhaften Filmstudios zu verlegen. Aber auch wenn die technische Entwicklung diesen Schritt bald ermöglichte, stand ihm das Verlangen des jungen Mediums entgegen, seine Eigenständigkeit gegenüber Kammerspielen des Theaters unter Beweis zu stellen. ...
Darlegung aktueller rechtlicher Neuregelungen im Arbeitsschutz (insbes. Betriebssicherheitsverordnung) zur Angleichung der technischen Sicherheitsstandards für Produkte und der sozialen Standards für die Beschäftigten im Zusmmanhang mit dem fortschreitenden Zusammenwachsen der Mitgliedsstaaten der Europäischen.
Online-Lehre im Einsatz
(2003)
Das im Rahmen des vom BMBF geförderten Projektes PORTIKO (Multimediale Lehr- und Lernplattform für den Studiengang Bauingenieurwesen) umfasst 10 Bauingenieurinstitute in Braunschweig und Dresden und das Fernstudium an der TU Dresden. Daneben sind drei Stabsprojekte für Didaktik, Teleteaching und Multimedia-Plattform als Dienstleister und Koordinatoren für die anderen Teilprojekte tätig. An der TU Braunschweig ist das Institut für Baustoffe, Massivbau und Brandschutz unter anderem für die Grundfachausbildung des Massivbau (5. + 6. Semester) und für eine spezielle Vertiefungsrichtung, den Brand- und Katastrophenschutz (7. bis 9. Semester), zuständig. In diesem Beitrag wird zunächst ein Überblick über die verwendete Plattform sowie die eingesetzten Hardware- und Softwaretechniken gegeben. Anschließend wird von ersten Erfahrungen über den Einsatz der Online-Lehre und die daraus gewonnen unterschiedlichen strategischen Ansätze für das weiter Vorgehen nach Projektende im Massivbau und im Brandschutz vorgestellt. Um den Praxisbezug zu vertiefen, wurden in PORTIKO zwei Projektbereiche gebildet, die auf Grund der engen Beziehung zwischen den Fächern gezielt zusammenarbeiten sollen. Dabei handelt es sich um die Bereiche >Virtuelles Haus< und >Virtuelle Infrastruktur<. Am Beispiel des Virtuellen Hauses soll gezeigt werden, wie die einzelnen Fächer mit Hilfe abgestimmter Übungsbeispiele den Studierenden die Notwendigkeit der Teamarbeit und Interaktion verschiedener Disziplinen vor Augen führen. Den Studenten stehen durch die Online-Plattform eine Vielzahl von Möglichkeiten zur Verfügung, z. B. mit Videoclips und Fotos über Versuche und Baustellen angereicherte Skripte, audio-kommentierte Vorlesungsfolien, alte Klausuren mit Musterlösungen, Aufgabenstellungen für Hausübungen, usw.. Den Studierenden können in der Online-Lehre interaktive Anwendungen zur Verfügung gestellt werden, die ein spielerisches Erproben und Beobachten von Parametereinflüssen ermöglichen. Solche interaktiven Übungen werden mit Java, Flash und Authorware erstellt. Hierzu werden Beispiele vorgestellt.
Die fortschreitende Digitalisierung lässt innovative bauprojekt- und unternehmensinterne Workflows sowie Organisationssysteme entstehen. In diesem Zusammenhang ist die digitale Fortentwicklung durch Building Information Modeling [BIM] als Veränderungsprozess zu definieren, der Organisationsstrukturen nachhaltig umformen wird. BIM ist die führende digitale Arbeitsmethodik im Bauwesen, die entwurfs-, ausführungs- und bauprojektbezogenen Belangen gerecht werden kann. Die deutsche Bauwirtschaft ist im Vergleich zu anderen Branchen jedoch als digital rückständig zu betrachten. Sie ist durch einen Markt gekennzeichnet, an dem kleine und mittelständische Unternehmen [KMU] in hoher Zahl vertreten sind. Aufgrund von Anwendungsunkenntnis der kleinen und mittelständischen Unternehmen fehlt der flächendeckende und durchgängige BIM-Einsatz in Projekten. Mit dem Fokus auf dem Bauprojekt als temporärer Organisation adressiert der vorliegende Forschungsschwerpunkt die Schaffung eines realistischen Abbilds erprobter BIM-Anwendungsfälle in Modellprojekten. Herausgearbeitet werden derzeit bestehende BIM-Herausforderungen für Erstanwender, die die durchgängige BIM-Anwendung in Deutschland bisher hemmen.
Die Forschungsarbeit fokussiert sich auf die Evaluation erfolgskritischer Faktoren [ekF] in BIM-Anwendungsfällen [AWF] im Rahmen einer qualitativen Inhaltsanalyse. Die digitale Transformation birgt strukturrelevante Veränderungsdeterminanten für Organisationen durch die BIM-Anwendung und außerdem Herausforderungen, die in der Anwendungsfallforschung betrachtet werden.
Die Zielstellung ist dreiteilig. Ein entwickeltes BIM-Strukturmodell erfasst die aktuelle Richtlinienarbeit sowie Standardisierung und stellt dadurch den Rahmen notwendiger BIM-Strukturen im Bauprojekt auf. Aus dem Strukturmodell ist ein Modell zur Prüfung von Anwendungsfallrisiken abgeleitet worden. Dieses wird auf gezielt recherchierte BIM-Modellprojekte in Deutschland angewendet, um aus den erfolgskritischen Faktoren der darin praktizierten BIM-Anwendungsfälle eine ekF-Risikomatrix abzuleiten. Daraus geht ein unterstützendes BIM-Anwendungsinstrument in Form von BPMN-Abläufen für KMU hervor. Resultierend aus der Verbindung des BIM-Strukturmodels und der Anwendungsfallanalyse wird in den einzelnen Ablaufübersichten eine Risikoverortung je Anwendungsfall kenntlich gemacht. Unternehmen ohne BIM-Anwendungsexpertise in Bauprojektorganisationen erhalten auf diese Weise einen instrumentellen und niederschwelligen Zugang zu BIM, um die kollaborativen und wirtschaftlichen Vorteile der digitalen Arbeitsmethodik nutzen zu können.
Many problems related to data integration in AEC can be better tackled by an approach that takes into account the heterogeneity of tasks, models and applications but does not require continuous consistency of the evolving design data, at each data management operation. Such an approach must incorporate adequate services that can facilitate reintegration of concurrently modified data at reasonably selected coordination points. In this paper we present a set of methods which, used in combination, can achieve that goal. After a description of the principal envisaged cooperative work scenario each of these methods is discussed in detail and current observations drawn from their software realisation are given. Whilst the suggested approach is valid for any EXPRESS-based data model, the practical focus of work has been on facilitating IFC-driven integration.