Refine
Document Type
- Article (1015)
- Conference Proceeding (857)
- Doctoral Thesis (494)
- Master's Thesis (115)
- Part of a Book (50)
- Book (45)
- Report (43)
- Periodical (28)
- Preprint (27)
- Bachelor Thesis (22)
Institute
- Professur Theorie und Geschichte der modernen Architektur (493)
- Professur Informatik im Bauwesen (484)
- Institut für Strukturmechanik (ISM) (346)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (201)
- Professur Baubetrieb und Bauverfahren (145)
- Institut für Europäische Urbanistik (71)
- Professur Bauphysik (53)
- Professur Stochastik und Optimierung (46)
- Graduiertenkolleg 1462 (42)
- F. A. Finger-Institut für Baustoffkunde (FIB) (38)
Keywords
- Weimar (446)
- Bauhaus-Kolloquium (442)
- Angewandte Mathematik (331)
- Computerunterstütztes Verfahren (289)
- Architektur (247)
- Architektur <Informatik> (201)
- Strukturmechanik (189)
- CAD (184)
- Angewandte Informatik (155)
- Bauhaus (125)
Year of publication
- 2004 (220)
- 2003 (197)
- 2006 (173)
- 1997 (165)
- 2015 (125)
- 2020 (123)
- 2010 (114)
- 2008 (112)
- 2005 (106)
- 2012 (105)
- 2000 (100)
- 2022 (94)
- 2011 (91)
- 2021 (88)
- 2013 (85)
- 2014 (85)
- 2016 (70)
- 2019 (65)
- 2023 (65)
- 1987 (63)
- 1990 (60)
- 2017 (58)
- 2018 (58)
- 2007 (53)
- 1983 (49)
- 2009 (49)
- 1979 (36)
- 1976 (29)
- 2001 (24)
- 2002 (24)
- 1993 (23)
- 1999 (18)
- 1992 (16)
- 1998 (7)
- 2024 (4)
- 1995 (1)
Bei der direkten thermische Umwandlung von Gips in Stuckgips entstehen texturierte Halbhydratkristallite von geringer Beständigkeit gegen hygro-mechnische Beanspruchung. Überlässt man diese texturierten Kristallite einer natürlichen Alterung, werden \"Heilungseffekte\" beobachtet, die durch lokale Umkristallisierungsreaktion an Oberflächendefekten erklärt werden können. Die gealterten Stuckgipse sind stabiler gegen hygro-mechanische Beanspruchungen. Durch Besprühung von Gips mit verdünnten wässrigen Salzlösungen vor der Calcivierung entsteht aridisierter Stuck geringer texturiert und damit stabiler gegen hygro-mechanische Beanspruchungen.
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
Interactive visualization based on 3D computer graphics nowadays is an indispensable part of any simulation software used in engineering. Nevertheless, the implementation of such visualization software components is often avoided in research projects because it is a challenging and potentially time consuming task. In this contribution, a novel Java framework for the interactive visualization of engineering models is introduced. It supports the task of implementing engineering visualization software by providing adequate program logic as well as high level classes for the visual representation of entities typical for engineering models. The presented framework is built on top of the open source visualization toolkit VTK. In VTK, a visualization model is established by connecting several filter objects in a so called visualization pipeline. Although designing and implementing a good pipeline layout is demanding, VTK does not support the reuse of pipeline layouts directly. Our framework tailors VTK to engineering applications on two levels. On the first level it adds new – engineering model specific – filter classes to VTK. On the second level, ready made pipeline layouts for certain aspects of engineering models are provided. For instance there is a pipeline class for one-dimensional elements like trusses and beams that is capable of showing the elements along with deformations and member forces. In order to facilitate the implementation of a graphical user interface (GUI) for each pipeline class, there exists a reusable Java Swing GUI component that allows the user to configure the appearance of the visualization model. Because of the flexible structure, the framework can be easily adapted and extended to new problem domains. Currently it is used in (i) an object-oriented p-version finite element code for design optimization, (ii) an agent based monitoring system for dam structures and (iii) the simulation of destruction processes by controlled explosives based on multibody dynamics. Application examples from all three domains illustrates that the approach presented is powerful as well as versatile.
The optimization of continuous structures requires careful attention to discretization errors. Compared to ordinary low order formulation (h-elements) in conjunction with an adaptive mesh refinement in each optimization step, the use of high order finite elements (so called p-elements) has several advantages. However, compared to the h-method a higher order finite element analysis program poses higher demands from a software engineering point of view. In this article the basics of an object oriented higher order finite element system especially tailored to the use in structural optimization is presented. Besides the design of the system, aspects related to the employed implementation language Java are discussed.
Inhaltliche Struktur:
Theoretischer Teil: Um Kulturtechniken des künstlerischen Ausdruckes, und damit den Bezug zwischen Kunst und Medientechnologie zu ergründen, wurde das Verhältnis zwischen dem Betrachter und dem Betrachteten erforscht. Begriffe wie Originalität, Repräsentation, Imitation sowie Aneignung und Rezeption kommen an historischen Beispielen zur Diskussion.
Praktischer Teil: Mit zwei Ausstellungen (Malerei, Installation) wurden verschiedene Modelle des Sehens problematisiert, um kulturelle und historische Variablen zu ermitteln, die visuelle Kultur begründen. Außerdem wurden die Unterschiede zwischen Beobachter und Betrachter/Zuschauer in Ausstellungssituationen hinterfragt.
Kurzfassung:
Medientechnologie hat sich selbst zu einer Kunstform entwickelt. Sie kann Künstler dabei unterstützen, ihre Ideen handwerklich umzusetzen (Beispiel: Camera Obscura) und zu reflektieren. Dabei geht es um mehr als um technische Hilfmittel für den künstlerischen Ausdruck. Wird die Beziehung zwischen Betrachter und Betrachtetem als eine Transaktion gesehen, in der beide Begriffe gleichermaßen aufs Spiel gesetzt werden, dann ist es notwendig eine Visualität zu bestimmen, an der der Betrachter (im Sinne von Jonathan Crary) aktiv teilnimmt. Das Sehen darf nicht als absolute Erfahrung verstanden werden, denn einzeln analysiert – ohne Einbeziehung anderer Sinneswahrnehmungen und deren mediale Erweiterungen – führt es zu keinem adäquaten Verständnis davon, wie Bedeutungen produziert werden. Daraus ergibt sich die Forschungsfrage, wie die künstlerische Reaktion auf die im 19. Jahrhundert aufstrebenden Fotografie die Ausdrucksformen beeinflusste und ob sich die gegenseitige Abhängigkeit von Malerei und Fotografie wissenschaftlich-künstlerisch rekonstruieren lässt.
Die theoretische Referenz für diese Forschung bildeten Theorieansätze nicht der Kunstgeschichte, sondern der „Visual Culture Studies“, konkret: Martin Jay („Scopic Regimes of Modernity“), Jonathan Crary („Techniques of the Observer“) und Rosalind Krauss („Originality“).
Dazu wurde die Rezeption der aufkommenden Fotografie in der künstlerischen Produktion beispielhaft untersucht, wobei mit Eugène Delacroix, Gustave Caillebotte sowie dem künstlerischen Dialog zwischen Henri Matisse und Brassai die Problematik herausgearbeitet wurde, mit der sich die bildende Kunst im Lauf jener Jahrzehnte, in denen die Fotografie sich etabliert hat, konfrontiert sah. Sie war eine medientechnische Neuheit mit älteren Wurzeln und diente der Malerei als Hilfsmittel (Camera Obscura) und hat durch ihr technische Potenzial dennoch das Verständnis von Kunst radikal verändert: sie löste das Ideal einer bestimmten Maltechnik ab, die sich mit dem Verbergen des Pinselstriches verband, und bedeutete in diesem gewissen Sinn das „Ende der Kunst“ (nach Paul Delaroche).
Bis in die heutige Kunstproduktion zieht sich die Frage, was nach dem Ende der Perfektionierung von Reproduktion durch ihre Übernahme mittels medientechnischer Apparatur, die nun selbst zum Ausdruck strebt, überhaupt noch ein „Kunstwerk“ ist oder sein kann. Technisch gestützte Formen der Aneignung und Imitation stellen das klassische Wertemodell der meisterlich ausgeführten Repräsentation von Wirklichkeit in Frage, obwohl „Originalität“ angesichts der Flut von Reproduktionen doch immer noch - oder gerade deswegen - eine Wertschätzung erfährt.
Daher wurden dann auch im künstlerischen Teil verschiedene Modelle des Sehens getestet, um kulturelle und historische Variablen zu ermitteln, die visuelle Kultur beeinflussen und festlegen. Dabei wurde vor allem auch die Rolle der Beobachter reflektiert - die anders als bei Unterhaltungsmedien - in Kunstkontexten eben keine passiven Zuschauer sind. Was den Künstler, und was den Betrachter von Kunst definiert, lässt sich gleichwohl weder auf ein bestimmte Sinnlichkeit noch eine bestimmte Medientechnologie reduzieren.
Wie schon nach dem Aufkommen der Fotografie werden Künstler weiterhin auf der Suche nach neuen Ausdrucksformen sein, um andere Weltwahrnehmungen und neue, andere Perspektiven menschlicher Existenz zu erlangen. Mediale Technologien haben sie dabei immer schon unterstützt. Aus meiner Untersuchung schließe ich, dass neue Technologien Kunst nicht definitv beeinflussen, wohl aber ihren Entstehungsprozess verändern und beeinflussen können. Die Frage, wie das geschieht und welche Effekte es zeitigt, bedarf einer stets erneuerten Verhandlung.
Daraus folgt die Schlussfolgerung, dass man von Künstlern verlangen kann oder sogar muss, sich vor der Wirklichkeit der Technologie nicht zurückzuziehen, sondern sich medientechnische Kompetenzen anzueignen und sich aktiv am Diskurs um neue Technologien zu beteiligen.
A multicriterial statement of the above mentioned problem is presented. It differes from the classical statement of Spanning Tree problem. The quality of solution is estimated by vector objective function which contains weight criteria as well as topological criteria (degree and diameter of tree). Many real processes are not determined yet. And that is why the investigation of the stability is very important. Many errors are connected with calculations. The stability analysis of vector combinatorial problems allows to discover the value of changes in the initial data for which the optimal solution is not changed. Furthermore, the investigation of the stability allows to construct the class of the problems on base of the one problem by means of the parameter variations. Analysis of the problems with belong to this class allows to obtaine axact and adecuate discription of model
Digitale Lesezeichen, Volltextsuche und Multimedia-Inhalte – die Ende des 20. Jahrhunderts durch das Internet ausgelöste Medienrevolution ließ auch das Buch nicht unberührt. Die Verbreitung des World Wide Webs parallel zur rasanten Entwicklung der Computertechnologie ermöglichte die Digitalisierung des Buches und bildete das E-Book als neue Publikationsform heraus. Seit etwa zehn Jahren können Bücher nicht mehr nur gedruckt, sondern auch elektronisch zur Verfügung gestellt werden, was für die Buchbranche und den Leser einige Veränderungen bedeutet. Moderne Lesegeräte, auch E-Reader genannt, erlauben die Speicherung einer ganzen Bibliothek auf einem einzigen mobilen Endgerät. Dabei steht das einzelne E-Book dem gedruckten Buch in seiner Lesequalität in nichts nach und ermöglicht zudem das Einfügen elektronischer Notizen und Lesezeichen, die Volltextsuche nach bestimmten Wörtern und die Verbindung von Text mit Bild, Ton und Video. Dennoch kann das E-Book seit seinem Aufkommen in Deutschland noch keine Erfolgsgeschichte schreiben. Insbesondere hohe Preise für die Lesegeräte halten immer noch viele Leser vom Nutzen der E-Books ab. Zu sehr ist das gedruckte Buch für zahlreiche Menschen noch fester Bestandteil ihres alltäglichen Lebens, als das sie es bereits durch das E-Book austauschen würden. Eine Situation, die einige Fragen aufwirft: Wird sich das EBook als Medium durchsetzen und das gedruckte Buch langfristig ablösen? Kann das EBook neben Zeitung, Radio, Fernsehen und Buch überhaupt als ein neues Medium verstanden werden? Und welche Veränderungen würde die massenhafte Verbreitung elektronischer Bücher mit sich bringen?
Prediction of the groundwater nitrate concentration is of utmost importance for pollution control and water resource management. This research aims to model the spatial groundwater nitrate concentration in the Marvdasht watershed, Iran, based on several artificial intelligence methods of support vector machine (SVM), Cubist, random forest (RF), and Bayesian artificial neural network (Baysia-ANN) machine learning models. For this purpose, 11 independent variables affecting groundwater nitrate changes include elevation, slope, plan curvature, profile curvature, rainfall, piezometric depth, distance from the river, distance from residential, Sodium (Na), Potassium (K), and topographic wetness index (TWI) in the study area were prepared. Nitrate levels were also measured in 67 wells and used as a dependent variable for modeling. Data were divided into two categories of training (70%) and testing (30%) for modeling. The evaluation criteria coefficient of determination (R2), mean absolute error (MAE), root mean square error (RMSE), and Nash–Sutcliffe efficiency (NSE) were used to evaluate the performance of the models used. The results of modeling the susceptibility of groundwater nitrate concentration showed that the RF (R2 = 0.89, RMSE = 4.24, NSE = 0.87) model is better than the other Cubist (R2 = 0.87, RMSE = 5.18, NSE = 0.81), SVM (R2 = 0.74, RMSE = 6.07, NSE = 0.74), Bayesian-ANN (R2 = 0.79, RMSE = 5.91, NSE = 0.75) models. The results of groundwater nitrate concentration zoning in the study area showed that the northern parts of the case study have the highest amount of nitrate, which is higher in these agricultural areas than in other areas. The most important cause of nitrate pollution in these areas is agriculture activities and the use of groundwater to irrigate these crops and the wells close to agricultural areas, which has led to the indiscriminate use of chemical fertilizers by irrigation or rainwater of these fertilizers is washed and penetrates groundwater and pollutes the aquifer.
This study aims to evaluate a new approach in modeling gully erosion susceptibility (GES) based on a deep learning neural network (DLNN) model and an ensemble particle swarm optimization (PSO) algorithm with DLNN (PSO-DLNN), comparing these approaches with common artificial neural network (ANN) and support vector machine (SVM) models in Shirahan watershed, Iran. For this purpose, 13 independent variables affecting GES in the study area, namely, altitude, slope, aspect, plan curvature, profile curvature, drainage density, distance from a river, land use, soil, lithology, rainfall, stream power index (SPI), and topographic wetness index (TWI), were prepared. A total of 132 gully erosion locations were identified during field visits. To implement the proposed model, the dataset was divided into the two categories of training (70%) and testing (30%). The results indicate that the area under the curve (AUC) value from receiver operating characteristic (ROC) considering the testing datasets of PSO-DLNN is 0.89, which indicates superb accuracy. The rest of the models are associated with optimal accuracy and have similar results to the PSO-DLNN model; the AUC values from ROC of DLNN, SVM, and ANN for the testing datasets are 0.87, 0.85, and 0.84, respectively. The efficiency of the proposed model in terms of prediction of GES was increased. Therefore, it can be concluded that the DLNN model and its ensemble with the PSO algorithm can be used as a novel and practical method to predict gully erosion susceptibility, which can help planners and managers to manage and reduce the risk of this phenomenon.
Piping erosion is one form of water erosion that leads to significant changes in the landscape and environmental degradation. In the present study, we evaluated piping erosion modeling in the Zarandieh watershed of Markazi province in Iran based on random forest (RF), support vector machine (SVM), and Bayesian generalized linear models (Bayesian GLM) machine learning algorithms. For this goal, due to the importance of various geo-environmental and soil properties in the evolution and creation of piping erosion, 18 variables were considered for modeling the piping erosion susceptibility in the Zarandieh watershed. A total of 152 points of piping erosion were recognized in the study area that were divided into training (70%) and validation (30%) for modeling. The area under curve (AUC) was used to assess the effeciency of the RF, SVM, and Bayesian GLM. Piping erosion susceptibility results indicated that all three RF, SVM, and Bayesian GLM models had high efficiency in the testing step, such as the AUC shown with values of 0.9 for RF, 0.88 for SVM, and 0.87 for Bayesian GLM. Altitude, pH, and bulk density were the variables that had the greatest influence on the piping erosion susceptibility in the Zarandieh watershed. This result indicates that geo-environmental and soil chemical variables are accountable for the expansion of piping erosion in the Zarandieh watershed.
The point collocation method of finite spheres (PCMFS) is used to model the hyperelastic response of soft biological tissue in real time within the framework of virtual surgery simulation. The proper orthogonal decomposition (POD) model order reduction (MOR) technique was used to achieve reduced-order model of the problem, minimizing computational cost. The PCMFS is a physics-based meshfree numerical technique for real-time simulation of surgical procedures where the approximation functions are applied directly on the strong form of the boundary value problem without the need for integration, increasing computational efficiency. Since computational speed has a significant role in simulation of surgical procedures, the proposed technique was able to model realistic nonlinear behavior of organs in real time. Numerical results are shown to demonstrate the effectiveness of the new methodology through a comparison between full and reduced analyses for several nonlinear problems. It is shown that the proposed technique was able to achieve good agreement with the full model; moreover, the computational and data storage costs were significantly reduced.
>CyberCity< ist ein Konzept, das durch ein virtuelles Abbild der räumlichen Realität einer Stadt (Berlin) eine uns bekannte Wahrnehmungsumgebung als Orientierungs- und Navigationserleichterung bereitstellt, um über diesen virtuellen Browser möglichst schnell und anschaulich an eine gewünschte Information zu kommen. Dieses Umgebungsmodell ist auch als Simulationsmodell für die Visualisierung stadträumlicher Beurteilungen neuer Projekte, verkehrstechnischer Massnahmen und ökologischer Belastungen geeignet. Insbesondere ist es als Orientierungsumgebung für die Telepräsenz über die Kommunikationsnetze gedacht, die über die virtuellen Repräsentanten (Avatare) eine besondere gesellschaftliche Brisanz erhält.
The present article aims to provide an overview of the consequences of dynamic soil-structure interaction (SSI) on building structures and the available modelling techniques to resolve SSI problems. The role of SSI has been traditionally considered beneficial to the response of structures. However, contemporary studies and evidence from past earthquakes showed detrimental effects of SSI in certain conditions. An overview of the related investigations and findings is presented and discussed in this article. Additionally, the main approaches to evaluate seismic soil-structure interaction problems with the commonly used modelling techniques and computational methods are highlighted. The strength, limitations, and application cases of each model are also discussed and compared. Moreover, the role of SSI in various design codes and global guidelines is summarized. Finally, the advancements and recent findings on the SSI effects on the seismic response of buildings with different structural systems and foundation types are presented. In addition, with the aim of helping new researchers to improve previous findings, the research gaps and future research tendencies in the SSI field are pointed out.
Poland is not situated in any seismic region of the earth, however there are still areas were underground mining is being conducted. In these areas, so-called 'paraseismic tremors', are very frequent phenomena. In the situation when a building examination is realized in order to define its safety, it is necessary to make a complete analysis, in which an influence of tremors should be included. To decide if a building is able to carry out any dynamic loads or not, it is necessary to compute its dynamic characteristics, i.e. natural frequencies. It is not possible using any standard techniques. After diagnosis a building in situ by an expert, computer techniques together with specialized software for dynamic, static, and strength analyses become a suitable tool. In this paper a special attention was paid to a typical twelve-store WGP (Wroclaw Great Plate) prefabricated building, concerning special type of joints. During dynamic actions these joints have a decisive influence on building's behavior. Paraseismic tremors are especially dangerous for these buildings and can be the reason of pre-failure states. It can be difficult and very expensive to prepare laboratory investigations of the part of a building or of a separate joint; therefore the computer modeling suitable to investigate behavior of such elements and whole buildings under different kinds of loads was used.
Präventive Aufgaben der Sicherheits- und Gesundheitsschutz-Koordination im Facility Management
(2003)
Relation Kosten der Nutzung und Unterhaltung eines Bauwerkes zu den Herstellkosten; Versäumnisse der Planungsphase führen zu Mehraufwand bei Betrieb und Unterhaltung des Bauwerkes; Baumängel aus Sicht des Facility Managements, ganzheitliche Bauerkskonzeptionen, Phasen und Bruchlinien der Projektentwicklung; Anforderungen an den Sicherheits- und Gesundheitsschutz-Koordinator.
Dieser Beitrag versucht, einige Aspekte der individuellen Lebensentwicklung mit den Möglichkeiten wirksamen Arbeitsschutzes zu verknüpfen. Er wirt damit die Frage auf, ob und wie die Sensibilisierung für Sicherheit und Gesundheitsschutz, für vorbeugende Maßnahmen und für die Akzeptanz bei den Betroffenen verbessert werden kann. Was hat Arbeitsschutz mit dem Lebensalter zu tun? Verhalten sich Routiniers im Bauwesen anders als Berufanfänger?
An der Bauhaus-Universität Weimar gibt es vielfältige Antworten auf die Fragen nach der Position der Ingenieurausbildung am Markt und deren praxisnahe Ausrichtung, die bei einem attraktiver gestalteten Studieneinstieg beginnen, sich über ein transparenteres und mit diversen Wechsel- und Abschlussszenarien versehenes Studienmodell fortsetzen, und die schließlich mit einem Spektrum an Ausbildungselementen abgerundet werden, die den Studenten dazu befähigen sollen, kompetenter und nachhaltiger am Berufsmarkt Fuß zu fassen. Der Verfasser hinterfragt die Notwendigkeit neuer Impulse für das Studium, sucht Wege zur Erhöhung der Attraktivität des Einstiegs in das Studium sowie berufs- und praxisorientierten Lernens, stellt das Thüringer Y-Modell eines veränderten Studienablaufs mit der Wahlmöglichkeit zwischen Master- und Diplomabschluss vor.
Nur durch Aufträge entsteht das Potenzial, die hochwertigen und modernen Produkte, Verfahren und Systeme auch erfolgreich und vielfach in die Realität umzusetzen. Deshalb sind auch im traditionellen Bauwesen die Mechanismen des Marketings für die Akquisition zu analysieren und hinterfragt der Verfasser das Bild von Baubetrieben als kompetente Anbieter für alle Phasen des Bauens vom Baustoff bis zur Inbetriebnahme eines schlüsselfertigen Objektes. Systemanbieter bereiten die Basis für eine innovative und vernetzte Arbeitsweise.
Am 25. März 2010 veranstaltete die Professur Baubetrieb und Bauverfahren im Rahmen der jährlich stattfindenden baubetrieblichen Tagungsreihe gemeinsam mit der Arbeitsgruppe „Unikatprozesse“ in der Fachgruppe „Simulation in Produktion und Logistik“ (SPL) im Rahmen der Arbeitsgemeinschaft Simulation – ASIM einen ganztägigen Workshop mit dem Titel: „Modellierung von Prozessen zur Fertigung von Unikaten“. Viele Bauprozesse sind dadurch gekennzeichnet, dass sie Unikatcharakter besitzen. Unikate sind durch prototypische Einmaligkeit, Individualität, vielfältige Randbedingungen, einen geringen Grad an Standardisierung und Wiederholungen gekennzeichnet. Das erschwert die realitätsnahe Modellierung zur Simulation sogenannter Unikatprozesse. Dieser Besonderheit widmet sich die überwiegende Zahl der Tagungsbeiträge, die in diesem Band widergegeben sind.
Building Information Modeling is a powerful tool for the design and for a consistent set of data in a virtual storage. For the application in the phases of realization and on site it needs further development. The paper describes main challenges and main features, which will help the development of software to better service the needs of construction site managers
The development of 3D technologies during the last decades in many different areas, leads us towards the complete 3D representation of planet earth on a high level of detail. On the lowest level we have geographical information systems (GIS) representing the outer layer of our planet as a 3D model. In the meantime these systems do not only give a geographical model but also present additional information like ownership, infrastructure and others that might be of interest for the construction business. In future these systems will serve as basis for virtual environments for planning and simulation of construction sites. In addition to this work is done on the integration of GIS systems with 3D city models in the area of urban planning and thus integration of different levels of detail. This article presents research work on the use of 3D models in construction on the next level of detail below the level of urban planning. The 3D city model is taken as basis for the 3D model of the construction site. In this virtual nD-world a contractor can organize and plan his resources, simulate different variants of construction processes and thus find out the most effective solution for the consideration of costs and time. On the basis of former researches the authors present a new approach for cost estimation and simulation using development technologies from game software.
The paper analyses the application of 3D gaming technologies in the simulation of processes associated with human resources and machinery on construction sites in order to determine process costs. It addresses the problem of detailing in process simulation. The authors outline special boundary conditions for the simulation of cost-relevant resource processes on virtual construction sites. The approach considers different needs for detailing in process simulation during the planning and building phase. For simulation of process costs on a construction site (contractors view) the level of detail has to be set to high. A prototype for determination of process durations (and hereby process costs) developed at the Bauhaus University Weimar is presented as a result of ongoing researches on detailing in process simulation. It shows the method of process cost determination on a high level of detail (game between excavator and truck) through interaction with the virtual environment of the site.
Die Autoren stellen Grundlagen und Methoden zur Erstellung von Ausschreibungen und zur Durchführung der Kalkulation vor, die direkt mit dreidimensionalen Bauteilmodellen arbeiten. Dies trägt dazu bei, den gesamten Lebenszyklus eines Bauwerkes durchgängig über 3-D-Modelle beschreiben zu können. Im ersten Abschnitt werden grundlegende Überlegungen zum Einsatz von PLM/PDM-Technologien im Bauwesen angestellt. Im Anschluß daran wird die herkömmliche Ausschreibungsmethodik analysiert. Die Unterschiede zwischen einem konventionellen Leistungsverzeichnis und einem dreidimensionalen Bauteilkatalog (Objektdatenbank) hinsichtlich der Datenstruktur werden dargestellt. Hieraus abgeleitet werden Methoden und Prozesse bei der Erstellung einer 3-D-Leistungsbeschreibung entwickelt. Dazu wird eine geeignete Benutzer-Schnittstelle eines dreidimensionalen Bauteilkataloges vorgestellt. Schließlich werden praxisrelevante Probleme bei der Verwendung von Bauteilkatalogen erörtert. Ein wesentlicher Baustein ist die Kalkulation. Hier werden Kalkulationsmethoden basierend auf einem zweidimensionalen Leistungsverzeichnis und einem dreidimensionalen Bauteilkatalog miteinander verglichen. Ergänzt wird dies um Lösungen zur Anbindung von elektronischen Marktplätzen an den Bauteilkatalog zum Zweck der Preisbildung. Schließlich wird ein Ausblick gegeben, wie eine Synthese zwischen dreidimensionalem Bauteilkatalog und textlichen Standard-Leistungsbeschreibungen erreicht werden kann.
Der Einsatz von CAD-Applikationen hat die Planungsarbeit im Bauwesen entscheidend verändert. In der Entwurfsplanung sind die Änderungen bereits deutlich erkennbar. Seit der Anwendung von dreidimensionalen Planungswerkzeugen kann der Bauherr das Bauwerk in seiner virtuellen Gesamtheit am Computer betrachten und bewerten. Dies bietet viele Vorteile. So ist der Planer gezwungen alle wesentlichen Details a priori exakt zu planen, wodurch viele Fehler vermieden werden können. Dies bietet insbesondere für Planungen in Baubetrieben, z.B. im Rahmen der Arbeitsvorbereitung, neue Einsatzmöglichkeiten.
Jubiläumsbroschüre zum Tag des Baubetriebs >Prozesssteuerung-Projektleitung-Dienstleistung< am Freitag, dem 7. Juli 2000 in Weimar. Geleitwort des Rektors der Bauhaus-Universität Weimar 45 Jahre technologische Lehre und Forschung in Weimar Bauen im Jahr 2020 – Wohin verändert sich Baubetrieb? Statistische Übersichten
Es gehört zur Tradition der Professur Baubetrieb und Bauverfahren, den Studenten ausführliche Lehrunterlagen in die Hand zu geben, mit deren Hilfe sie sich in dem umfassenden Lehrgebiet orientieren und in der Vorlesung konzentrierter dem Verständnis des Stoffes widmen können. Diese Broschüre ist vor allem Lehrmaterial, das kostengünstig der Rationalisierung des Lehrbetriebes im universitären Bachelorstudium dienen soll. Deshalb waren typografische Kompromisse zugunsten der Wirtschaftlichkeit unausweichlich. Die Ausarbeitung folgt der Logik des zu vermittelnden Wissens, ist aber nicht streng mit Vorlesungsprogramm und -inhalten verknüpft. Einer kurzen Einführung in das Fach „Baubetriebswesen“ folgen die produktionstechnischen Grundlagen anhand der Kernprozesse der Bauproduktion: Erdbau, Betonbau und Montagebau. Auf dieser Basis werden auch die Grundlagen der Baustelleneinrichtung im nächsten Kapitel verständlich. Im Teil „Baubetrieb“ wird schließlich gezeigt, wie die produktionstechnischen Prozesse geordnet, geplant, vertraglich gebunden, in der Ausführung überwacht und abgerechnet werden. Die in allen Kapiteln relevanten personengebundenen Faktoren runden schließlich mit arbeitswissenschaftlichen und arbeitsschutztechnischen Grundlagen diese Einführung in das Baubetriebswesen ab.
Die aktuelle demografische Entwicklung bedingt offensichtlich auch Arbeiten in rauer Umgebung bis zur Rente mit 67, auch auf dem Bau. Das Thema liegt scheinbar nur am Rande des Baubetriebswesens. Doch obwohl es sozialpolitisch determiniert ist, hat es sehr konkret mit Gesundheitsschutz, Arbeitsschutz und Arbeitsgestaltung zu tun. Die fünfte Fachtagung 'Sicherheit auf Baustellen' stellt sich der Diskussion, wie das Rentenalter gesund erreichbar ist, was alle am Arbeitsschutz Beteiligten schon heute und auch in Zukunft dafür tun können, und hinterfragt kritisch, wie realistisch diese pauschale Forderung nach Arbeit bis 67 ist. Forderungen nach schlankeren Strukturen im Staat und das Streben nach Deregulierung haben auch zu Veränderungen in der Arbeitsschutzverwaltung des Freistaates Thüringen geführt, über die das Forum informiert.
The paper introduces a systematic construction management approach, supporting expansion of a specified construction process, both automatically and semi-automatically. Throughout the whole design process, many requirements must be taken into account in order to fulfil demands defined by clients. In implementing those demands into a design concept up to the execution plan, constraints such as site conditions, building code, and legal framework are to be considered. However, complete information, which is needed to make a sound decision, is not yet acquired in the early phase. Decisions are traditionally taken based on experience and assumptions. Due to a vast number of appropriate available solutions, particularly in building projects, it is necessary to make those decisions traceable. This is important in order to be able to reconstruct considerations and assumptions taken, should there be any changes in the future project’s objectives. The research will be carried out by means of building information modelling, where rules deriving from standard logics of construction management knowledge will be applied. The knowledge comprises a comprehensive interaction amongst bidding process, cost-estimation, construction site preparation as well as specific project logistics – which are usually still separately considered. By means of these rules, favourable decision taking regarding prefabrication and in-situ implementation can be justified. Modifications depending on the available information within current design stage will consistently be traceable.
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1996 in Weimar an der Bauhaus-Universität zum Thema: ‚Techno-Fiction. Zur Kritik der technologischen Utopien'
Natural Urban Resilience: Understanding general urban resilience through Addis Ababa’s inner city
(2021)
This dissertation describes the urban actors and spatial practices that contribute to natural urban resilience in Addis Ababa’s inner city. Natural urban resilience is a non-strategical and bottom-up, everyday form of general urban resilience – an urban system’s ability to maintain its essential characteristics under any change. This study gains significance by exposing conceptual gaps in the current un-derstanding of general urban resilience and highlighting its unconvincing applicability to African cities. This study attains further relevance by highlighting the danger of the ongoing large-scale redevelopment of the inner city. The inner city has naturally formed, and its urban memory, spaces, and social cohesion contribute to its primarily low-income population’s resilience. This thesis argues that the inner city’s demolition poses an incalculable risk of maladaptation to future stresses and shocks for Addis Ababa. The city needs a balanced urban discourse that highlights the inner city’s qualities and suggests feasible urban transformation measures. “Natural Urban Resilience” contributes an empirical study to the debate by identifying those aspects of the inner city that contribute to general resilience and identifies feasible action areas. This study develops a qualitative research design for a single case study in Addis Ababa. The data is obtained through expert interviews, interviews with resi-dents, and the analysis of street scene photos, which are abstracted using Grounded Theory. That way, this thesis provides first-time knowledge about who and what generates urban resilience in the inner city of Addis Ababa and how. Furthermore, the study complements existing theories on general urban resilience. It provides a detailed understanding of the change mechanisms in resilience, of which it identifies four: adaptation, upgrading, mitigation, and resistance. It also adapts the adaptive cycle, a widely used concept in resilience thinking, conceptually for urban environments. The study concludes that the inner city’s continued redevelopment poses an incalculable threat to the entire city. Therefore, “Natural urban resilience” recommends carefully weighing any intervention in the inner city to promote Addis Ababa’s overall resilience. This dissertation proposes a pattern language for natural urban resilience to support these efforts and to translate the model of natural urban resilience into practice.
This paper presents initial findings from the empirical analysis of community based social enterprise (SE) and non-profit organisation (NPO) ecosystems in Johannesburg. SEs and NPOs are widely recognised as contributors to the resilience of marginalised urban communities. However, the connection between these organisations , urban governance, and community resilience has not yet been sufficiently understood , particularly in African urban contexts. The 'Resilient Urban Communities' project focuses on Johannesburg as a case study to shed light on this under-researched topic. The key to exploring it is understanding SEs and NPOs as providers of public services, job creators, and promoters of good governance, all of which contribute to community resilience. Using this premise as a starting point, this paper investigates ecosystem conditions with a particular focus on state-civil society partnerships. Empirical data was generated through semi-struc-tured interviews and analysed with a grounded theory approach. Preliminary results of this ongoing research reveal that urban geography is a relevant ecosystem factor for SEs and NPOs from marginalised communities. We also suggest that co-production could be an opportunity for growth within the investigated state-civil society partnership.
Mit der Vergabeverordnung und den neuen Verdingungsordnungen ist zunächst einmal das europäische Vergaberecht in nationales Vergaberecht umgesetzt. Dennoch wirft das neue Vergaberecht Fragen auf, die voraussichtlich gerichtlich entschieden werden. Es werden die Rechtsgrundlagen für das Bauen mit dem europäischen und nationalen Vergaberecht dargestellt. Wesentliche Inhalte des Gesetzes gegen Wettbewerbsbeschränkungen (GWB) und Vergabeverfahren nach GWB, Fragen des Rechtsschutzes werden behandelt.
Due to economical, technical or political reasons all over the world about 100 nuclear power plants have been disconnected until today. All these power stations are still waiting for their complete dismantling which, considering one reactor, causes cost of up to one Bil. Euros and lasts up to 15 years. In our contribution we present a resource-constrained project scheduling approach minimizing the total discounted cost of dismantling a nuclear power plant. A project of dismantling a nuclear power plant can be subdivided into a number of disassembling activities. The execution of these activities requires time and scarce resources like manpower, special equipment or storage facilities for the contaminated material arising from the dismantling. Moreover, we have to regard several minimum and maximum time lags (temporal constraints) between the start times of the different activities. Finally, each disassembling activity can be processed in two alternative execution modes, which lead to different disbursements and determine the resource requirements of the considered activity. The optimization problem is to determine a start time and an execution mode for each activity, such that the discounted cost of the project is minimum, and neither the temporal constraints are violated nor the activities' resource requirements exceed the availability of any scarce resource at any point in time. In our contribution we introduce an appropriate multi-mode project scheduling model with minimum and maximum time lags as well as renewable and cumulative resources for the described optimization problem. Furthermore, we show that the considered optimization problem is NP-hard in the strong sense. For small problem instances, optimal solutions can be gained from a relaxation based enumeration approach which is incorporated into a branch and bound algorithm. In order to be able to solve large problem instances, we also propose a truncated version of the devised branch and bound algorithm.
Die vorliegende Arbeit hatte zum Ziel, für Strecken mit 2+1-Verkehrsführung (Straßentyp RQ 15,5) ein Verfahren zum Nachweis der Verkehrsqualität zu entwickeln. Dabei wurden in einem ersten Schritt zunächst für freie Streckenabschnitte Beziehungen zwischen den Verkehrsstärken (q) und den mittleren Pkw-Reisegeschwindigkeiten (v) ermittelt und darauf aufbauend ein Bemessungsverfahren abgeleitet. In einem zweiten Schritt wurde das Verfahren erweitert, um für den Fall der Einbindung planfreier Knotenpunkte ebenfalls eine Bewertung vornehmen zu können. Bislang standen in Deutschland keine ausreichenden Erkenntnisse über den Zusammenhang zwischen q und v für Strecken mit einem RQ 15,5 zur Verfügung. Eine Literaturanalyse ergab, dass sich frühere Untersuchungen mehrheitlich mit dem Aspekt der Verkehrssicherheit beschäftigten. Somit stellten die eigenen Messungen und die daran anschließende Ergänzung von Daten mit Hilfe einer mikroskopischen Verkehrsflusssimulation den Schwerpunkt der Untersuchung dar. Die empirischen Untersuchungen hatten - verglichen mit q-v-Beziehungen für herkömmliche Landstraßenabschnitte - ein zum Teil deutlich höheres Geschwindigkeitsniveau bei vergleichbaren Verkehrsstärken zum Ergebnis. Darüber hinaus konnten zum Teil wesentlich höhere Überholraten festgestellt werden als bei einbahnig zweistreifigen Streckenabschnitten, bei denen ein Überholen im Gegenverkehr erlaubt ist. Zweifellos tragen auch die zweistreifigen Abschnitte eines RQ 15,5 dazu bei, Fahrzeugpulks aufzulösen. Für die aus mehreren aufeinander folgenden ein- und zweistreifigen Abschnitten bestehenden Untersuchungsstrecken, konnte jedoch insgesamt keine bedeutsame Pulkauflösung festgestellt werden. Dies ist vor allem dadurch begründet, dass die Strecken mit einem einstreifigen Abschnitt endeten. Das Simulationsprogramm LASI2+1 wurde speziell auf die Simulation des Verkehrsablaufs auf einer Strecke mit 2+1-Verkehrsführung abgestimmt. Die Kalibrierung des Modells erfolgte auf Basis von Erkenntnissen lokaler Messungen (insbesondere Zeitlücken und Geschwindigkeitsverteilungen). Im Rahmen der Validierung erfolgte ein Abgleich zwischen den Ergebnissen der Messungen mit den mit LASI2+1 simulierten für jede einzelne nachgebildete Untersuchungsstrecke anhand der Parameter q und v. Mit LASI2+1 wurden zahlreiche Simulationsläufe durchgeführt, bei denen eine Vielzahl von Kombinationen der Streckenparameter sowie der Verkehrszusammensetzung bei einem möglichst breiten Spektrum von Verkehrsbelastungen betrachtet wurden. Die Ergebnisse lagen zunächst in „Punktwolken“ vor, wobei jeweils ein Punkt beschrieben wird durch eine in einem 5-Minuten-Intervall gültige Verkehrsstärke q und der zu diesem Intervall gehörigen mittleren Reisegeschwindigkeit der Pkw v. Zur Darstellung der den Verkehrsablauf beschreibenden Punktwolken wurden verschiedene makroskopische Modelle getestet. Dabei wurden ein- und zweistreifige Abschnitte getrennt voneinander betrachtet. Nach Anwendung mathematischer Verfahren zur Kurvenanpassung ergaben für die einstreifigen Abschnitte Wurzelfunktionen die besten Näherungen zur Beschreibung der Zusammenhänge zwischen q und v. Für die leicht konvexen Ausprägungen in den q-v-Punktwolken der zweistreifigen Abschnitte lieferten lineare Funktionen, die über Verkehrsdichte (k)-Geschwindigkeits-Relationen hergeleitet wurden, die besten Ergebnisse. Mit Hilfe von varianzanalytischen Berechnungen konnten außerdem die Einflüsse der verschiedenen Trassierungsparameter quantifiziert werden. Längsneigung und Schwerverkehrsanteile wurden direkt in den insgesamt zehn q-v-Diagrammen dargestellt. Einflüsse durch die Längen der Teilabschnitte bzw. die Anzahl der Abschnitte wurden über Abminderungen bzw. Erhöhungen der Pkw-Reisegeschwindigkeiten berücksichtigt. Daraus wurden in einem weiteren Schritt Korrekturfaktoren ermittelt. Für den konkreten Fall eines planfreien Knotenpunkttyps im so genannten unkritischen Wechselbereich wurden weitere Einflüsse auf die Pkw-Reisegeschwindigkeit ermittelt, die die Auswirkungen der sich im Knotenpunkt ändernden Verkehrsstärke (nämlich deutlich geringere Geschwindigkeiten gegenüber dem durchgehenden Fahrstreifen) berücksichtigen. Durch die Ergebnisse dieser Arbeit liegen erstmals abgesicherte q-v-Diagramme für freie Strecken mit 2+1-Verkehrsführung einschließlich planfreier Knotenpunkte in unkritischen Wechselbereichen vor, die einen Diskussionsbeitrag für eine Aufnahme in Fortschreibungen der derzeit gültigen Regelwerke darstellen.
While Public-Private Partnership (PPP) is widely adopted across various sectors, it raises a question on its meagre utilisation in the housing sector. This paper, therefore, gauges the perspective of the stakeholders in the building industry towards the application of PPP in various building sectors together with housing. It assesses the performance reliability of PPP for housing by learning possible take-aways from other sectors. The role of key stakeholders in the industry becomes highly responsible for an informed understanding and decision-making. To this end, a two-tier investigation was conducted including surveys and expert interviews, with several stakeholders in the PPP industry in Europe, involving the public sector, private sector, consultants, as well as other community/user representatives.
The survey results demonstrated the success rate with PPPs, major factors important for PPPs such as profitability or end-user acceptability, the prevalent practices and trends in the PPP world, and the majority of support expressed in favour of the suitability of PPP for housing. The interviews added more detailed dimensions to the understanding of the PPP industry, its functioning and enabling the formation of a comprehensive outlook. The results present the perspective, approaches, and experiences of stakeholders over PPP practices, current trends and scenarios and their take on PPP in housing. It shall aid in understanding the challenges prevalent in the PPP approach for implementation in housing and enable the policymakers and industry stakeholders to make provisions for higher uptake to accelerate housing provision.
Die europäische Gegenwartsarchitektur, die sich exemplarisch etwa in Arbeiten von Herzog & deMeuron, Adolf Krischanitz oder Rem Kohlhaas manifestiert, verbindet eine Beziehung zum Gewöhnlichen, Alltäglichen, Banalen. Diese Beziehung ist unklar und problematisch, da üblicherweise Architektur auf der einen Seite und Banalität auf der anderen Seite einander ausschliessende Begriffspaare bezeichnen. Diese Hinwendung der Architektur zum Gewöhnlichen entwickelt sich historisch als ein Modell, welches Gewöhnlichkeit als ethisches Prinzip etabliert, das unabdingbar mit der Entwicklung der Kultur verbunden ist. Besonders im zwanzigsten Jahrhundert werden solcherart einflußreiche Alternativen zu einer Architektur des Besten, Größten und Schönsten vorgestellt. Der Regelfall für die Beurteilung der Beziehungen zwischen Architektur und Banalität ist allerdings die Kritik der Banalität. Hier gibt es zwei hauptsächliche Kritikmuster, nämlich die Kritik von Banalität als Bedeutungslosigkeit und die Kritik der Banalität als Wertlosigkeit. Problematisch ist eine Kritik der Banalität dann, wenn sie objektorientiert argumentiert, anstatt Interpretationsmodelle zu untersuchen, da in Gegenständen keine Bedeutungen liegen, sondern nur Unterschiede, die es dem Betrachter möglich machen, ihnen Bedeutung zuzuschreiben. Genauso wie eine objektorientierte Kritik an Banalität nicht zielführend sein kann, so sind auch Versuche, eine Ästhetik des Banalen zu begründen, fragwürdig. Ein Kunstwerk oder auch Architektur definiert sich nicht über seine Neutralität, sondern über seine Differenz zum Alltäglichen, Gewöhnlichen, Banalen. Eine Wechselwirkung zwischen Architektur und Banalität ist also nur über die Effekte des Gewöhnlichen untersuchbar, da das Gewöhnliche selbst uninterpretiert und unsichtbar bleiben muß. Entscheidend ist letztlich die Frage, auf welche Art Architektur Banalität für ihre Transformationen benützt. Ein Erklärungsmodell ist der Kantsche Begriff des Parergon, der zeigt, wie sich Architektur durch Ränder, das Sekundäre, das Gewöhnliche konstituiert. Das Parergon ist dabei subversiv und sinister, weil es die herkömmliche Einheit der Architektur zerstört. Letztlich also ist die Annäherung der zeitgenössischen Architektur an die Banalität eine subversive Differenzierungsstrategie, mit der durch scheinbare Nähe größtmögliche Distanzierung erreicht wird.
We investigate aspects of tram-network section reliability, which operates as a part of the model of whole city tram-network reliability. Here, one of the main points of interest is the character of the chronological development of the disturbances (namely the differences between time of departure provided in schedule and real time of departure) on subsequent sections during tram line operation. These developments were observed in comprehensive measurements done in Krakow, during one of the main transportation nodes (Rondo Mogilskie) rebuilding. All taken building activities cause big disturbances in tram lines operation with effects extended to neighboring sections. In a second part, the stochastic character of section running time will be analyzed more detailed. There will be taken into consideration sections with only one beginning stop and also with two or three beginning stops located at different streets at an intersection. Possibility of adding results from sections with two beginning stops to one set will be checked with suitable statistical tests which are used to compare the means of the two samples. Section running time may depend on the value of gap between two following trams and from the value of deviation from schedule. This dependence will be described by a multi regression formula. The main measurements were done in the city center of Krakow in two stages: before and after big changes in tramway infrastructure.
MODEL OF TRAM LINE OPERATION
(2006)
From passenger's perspective punctuality is one of the most important features of trams operations. Unfortunately in most cases this feature is only insufficiently fulfilled. In this paper we present a simulation model for trams operation with special focus on punctuality. The aim is to get a helpful tool for designing time-tables and for analyzing the effects by changing priorities for trams in traffic lights respectively the kind of track separation. A realization of trams operations is assumed to be a sequence of running times between successive stops and times spent by tram at the stops. In this paper the running time is modeled by the sum of its mean value and a zero-mean random variable. With the help of multiple regression we find out that the average running time is a function depending on the length of the sections and the number of intersections. The random component is modeled by a sum of two independent zero-mean random variables. One of these variables describes the disturbance caused by the process of waiting at an intersection and the other the disturbance caused by the process of driving. The time spent at a stop is assumed to be a random variable, too. Its distribution is estimated from given measurements of these stop times for different tram lines in Kraków. Finally a special case of the introduced model is considered and numerical results are presented. This paper is involved with CIVITAS-CARAVEL project: "Clean and better transport in cites". The project has received research funding from the Community's Sixth Framework Programme. The paper reflects only the author's views and the Community is not liable for any use that may be made of the information contained therein.
The ride of the tram along the line, defined by a time-table, consists of the travel time between the subsequent sections and the time spent by tram on the stops. In the paper, statistical data collected in the city of Krakow is presented and evaluated. In polish conditions, for trams the time spent on stops makes up the remarkable amount of 30 % of the total time of tram line operation. Moreover, this time is characterized by large variability. The time spent by tram on a stop consists of alighting and boarding time and time lost by tram on stop after alighting and boarding time ending, but before departure. Alighting and boarding time itself usually depends on the random number of alighting and boarding passengers and also on the number of passengers which are inside the vehicle. However, the time spent by tram on stop after alighting and boarding time ending is an effect of certain random events, mainly because of impossibility of departure from stop, caused by lack of priorities for public transport vehicles. The main focus of the talk lies on the description and the modelling of these effects. This paper is involved with CIVITAS-CARAVEL project: "Clean and better transport in cites". The project has received research funding from the Community's Sixth Framework Programme. The paper reflects only the author's views and the Community is not liable for any use that may be made of the information contained therein.
From passenger’s perspective, punctuality is one of the most important features of tram route operation. We present a stochastic simulation model with special focus on determining important factors of influence. The statistical analysis bases on large samples (sample size is nearly 2000) accumulated from comprehensive measurements on eight tram routes in Cracow. For the simulation, we are not only interested in average values but also in stochastic characteristics like the variance and other properties of the distribution. A realization of trams operations is assumed to be a sequence of running times between successive stops and times spent by tram at the stops divided in passengers alighting and boarding times and times waiting for possibility of departure . The running time depends on the kind of track separation including the priorities in traffic lights, the length of the section and the number of intersections. For every type of section, a linear mixed regression model describes the average running time and its variance as functions of the length of the section and the number of intersections. The regression coefficients are estimated by the iterative re-weighted least square method. Alighting and boarding time mainly depends on type of vehicle, number of passengers alighting and boarding and occupancy of vehicle. For the distribution of the time waiting for possibility of departure suitable distributions like Gamma distribution and Lognormal distribution are fitted.
Zur Kontaktsituation zwischen mineralischen Basiserdstoffen und geosynthetischen Filterelementen
(1998)
Zur Tragwerksanalyse bzw. zu Tragfähigkeits- und Bemessungsaufgaben dienen Betrachtungen an ausgewählten Querschnitten der Tragelemente. Besonders interessieren Normalspannungs- und Dehnungsverteilungen sowie Grenzbeanspruchungsniveaus und Grenzkapazitäten am Querschnitt. Die statische Wirksamkeit von Verbundquerschnitten basiert auf Verbundwirkung zwischen Querschnittsanteilen unterschiedlicher Materialeigenschaften (z.B. Verbundbau) oder unterschiedlicher Zeitpunkte ihrer statischen Mitwirkung (z.B. nachträgliche Querschnittsergänzungen). Hierbei kommt es häufig zu Fehlinterpretationen des prinzipiellen Tragverhaltens. In der vorliegenden Arbeit werden numerische Berechnungsmodelle zur Querschnittsanalyse vorgestellt und das Tabellenkalkulationsprogramm MS EXCEL zur Lösung der iterativen Berechnungsalgorithmen genutzt. Betrachtet werden Querschnitte üblicher Konstruktionen des Massiv-, Stahl- und Verbundbaus (Baustahl-Beton) unter ein- oder zweiachsiger Biegebeanspruchung und Normalkraft. Zur annähernden Erfassung des realen Tragverhaltens zu ausgewählten Zeitpunkten sind nichtlineare Spannungs-Dehnungs-Beziehungen der Materialien, Vordeformationen von einzelnen Querschnittsanteilen, nachträgliche Ergänzungen zu neuen statisch wirksamen Verbundquerschnitten sowie Rissbildungsmodelle im Beton berücksichtigt. Die im Rahmen dieser Arbeit entstandene programmtechnische Umsetzung „VerbQ“ (auf Basis von MS EXCEL und MS VISUAL BASIC) wurde anhand von Beispielrechnungen vorgestellt und erläutert.
Die Arbeit beschäftigt sich mit der komplexen Aufgabe Stadtstrukturen mit einem Simulationsmodell im Rechner erzeugen zu können. Dafür wird ein Vierebenenmodell als Untermodellebene eingeführt, um mit allgemeinen Informationen, Parzellierung, Gebäuden und Optimierung der Struktur arbeiten zu können.
The idea about a simulation program to support urban planning is explained: Four different, clearly defined developing paths can be calculated for the rebuilding of a shrinking town. Aided by self-organization principles, a complex system can be created. The dynamics based on the action patterns of single actors, whose behaviour is cyclically depends on the generated structure. Global influences, which control the development, can be divided at a spatial, socioeconomic, and organizational-juridical level. The simulation model should offer conclusions on new planning strategies, especially in the context of the creation process of rebuilding measures. An example of a transportation system is shown by means of prototypes for the visualisation of the dynamic development process.
Die Arbeit befaßt sich mit varianzmindernden Verfahren zur Monte Carlo Simulation von stochastischen Prozessen, zum Zweck der Zuverlässigkeitsbeurteilung von Baukonstruktionen mit nichtlinearem Systemverhalten. Kap. 2 ist eine Literaturstudie zu varianzmindernden Monte Carlo Methoden. In Kap. 3 wird die Spektrale Darstellung eines stationären, skalaren Gauß - Prozesses hergeleitet. Auf dieser Grundlage werden verschiedene Simulationsmodelle diskutiert. Das in Kap. 4 entwickelte varianzmindernde Simulationsverfahren basiert auf der Spektralen Darstellung. Nach einer ersten Pilotsimulation werden die Frequenzen für die Einführung zufälliger Amplituden bestimmt und deren Parameter angepaßt. Der zweite Lauf erfolgt mit diesen Parametern nach dem Prinzip des Importance Sampling. Das Verfahren wird in Kap. 5 für eine Brücke unter Erdbebenbelastung angewendet. Die Brücke ist mit sog. Hysteretic Devices zur Energiedissipation ausgerüstet. Es werden einerseits die Genauigkeit und Effizienz des Simulationsverfahrens, andererseits die Leistungsfähigkeit der Hysteretic Devices zur Erdbebenertüchtigung von Bauwerken demonstriert.
The spread of breathing air when playing wind instruments and singing was investigated and visualized using two methods: (1) schlieren imaging with a schlieren mirror and (2) background-oriented schlieren (BOS). These methods visualize airflow by visualizing density gradients in transparent media. The playing of professional woodwind and brass instrument players, as well as professional classical trained singers were investigated to estimate the spread distances of the breathing air. For a better comparison and consistent measurement series, a single high note, a single low note, and an extract of a musical piece were investigated. Additionally, anemometry was used to determine the velocity of the spreading breathing air and the extent to which it was quantifiable. The results showed that the ejected airflow from the examined instruments and singers did not exceed a spreading range of 1.2 m into the room. However, differences in the various instruments have to be considered to assess properly the spread of the breathing air. The findings discussed below help to estimate the risk of cross-infection for wind instrument players and singers and to develop efficacious safety precautions, which is essential during critical health periods such as the current COVID-19 pandemic.
This article focuses on further developments of the background-oriented schlieren (BOS) technique to visualize convective indoor air flow, which is usually defined by very small density gradients. Since the light rays deflect when passing through fluids with different densities, BOS can detect the resulting refractive index gradients as integration along a line of sight. In this paper, the BOS technique is used to yield a two-dimensional visualization of small density gradients. The novelty of the described method is the implementation of a highly sensitive BOS setup to visualize the ascending thermal plume from a heated thermal manikin with temperature differences of minimum 1 K. To guarantee steady boundary conditions, the thermal manikin was seated in a climate laboratory. For the experimental investigations, a high-resolution DLSR camera was used capturing a large field of view with sufficient detail accuracy. Several parameters such as various backgrounds, focal lengths, room air temperatures, and distances between the object of investigation, camera, and structured background were tested to find the most suitable parameters to visualize convective indoor air flow. Besides these measurements, this paper presents the analyzing method using cross-correlation algorithms and finally the results of visualizing the convective indoor air flow with BOS. The highly sensitive BOS setup presented in this article complements the commonly used invasive methods that highly influence weak air flows.
Modern immersive telepresence systems enable people at different locations to meet in virtual environments using realistic three-dimensional representations of their bodies. For the realization of such a three-dimensional version of a video conferencing system, each user is continuously recorded in 3D. These 3D recordings are exchanged over the network between remote sites. At each site, the remote recordings of the users, referred to as 3D video avatars, are seamlessly integrated into a shared virtual scenery and displayed in stereoscopic 3D for each user from his or her perspective.
This thesis reports on algorithmic and technical contributions to modern immersive telepresence systems and presents the design, implementation and evaluation of the first immersive group-to-group telepresence system in which each user is represented as realistic life-size 3D video avatar. The system enabled two remote user groups to meet and collaborate in a consistent shared virtual environment. The system relied on novel methods for the precise calibration and registration of color- and depth- sensors (RGBD) into the coordinate system of the application as well as an advanced distributed processing pipeline that reconstructs realistic 3D video avatars in real-time. During the course of this thesis, the calibration of 3D capturing systems was greatly improved. While the first development focused on precisely calibrating individual RGBD-sensors, the second stage presents a new method for calibrating and registering multiple color and depth sensors at a very high precision throughout a large 3D capturing volume. This method was further refined by a novel automatic optimization process that significantly speeds up the manual operation and yields similarly high accuracy. A core benefit of the new calibration method is its high runtime efficiency by directly mapping from raw depth sensor measurements into an application coordinate system and to the coordinates of its associated color sensor. As a result, the calibration method is an efficient solution in terms of precision and applicability in virtual reality and immersive telepresence applications. In addition to the core contributions, the results of two case studies which address 3D reconstruction and data streaming lead to the final conclusion of this thesis and to directions of future work in the rapidly advancing field of immersive telepresence research.
In modernen Gebäuden nimmt die Komplexität der Heizungstechnik ständig zu. Damit wird es auch immer schwieriger, ein ökologisch und ökonomisch vernünftiges Zusammenspiel der Komponenten zu gewährleisten. Die Vernetzung der verschiedenen Komponenten eines Heizsystems mittels Netzwerktechnik aus der EDV soll helfen, die Energieeffizienz zu erhöhen. Embedded Systems und Mikrocontroller fungieren als Regler für die Teilsysteme. Durch Kommunikation untereinander sollen sie ihr Regelverhalten aneinander anpassen. Eine Internetanbindung ermöglicht die Nutzung weiterer Informationen für die Betriebsführung. Außerdem kann der Internetanschluss für die Fernwartung der Anlage genutzt werden. Mit kleinen, im Webbrowser eines Rechners ausgeführten Java-Programmen, sogenannten Applets, können die Betriebszustände von Heizsystemen in Echtzeit visualisiert werden. Durch das Aufzeichnen von Betriebsdaten wird deren Analyse ermöglicht.
Die Dissertation erschließt der deutschen Forschung die derzeit weltweit vergebenen nationalen Umweltzeichen. Dabei steht nicht der politische Kontext, sondern die gestalterisch-formale und inhaltliche Standortbestimmung, Analyse und Interpretation der Zeichenfamilie im Vordergrund. Teil I der Arbeit unterwirft den Untersuchungsgegenstand einer semiotischen Analyse nach Umberto Eco und diskutiert die Umweltzeichen im Kontext von graphischen Zeichen, Markenzeichen, Piktogrammen und Emblemen. Ein kurzer Abriss der Geschichte von Natur- und Welt-, d.h. Globusdarstellungen lotet den Bildervorrat aus, auf den zur Darstellung von 'Umwelt' zurückgegriffen werden kann. Das Umweltzeichen-Design, so zeigt sich, arbeitet mit den rhetorischen Figuren des pars pro toto bzw. des totum pro parte, um die kulturelle Einheit von /Umwelt/ und /Umweltschutz/ graphisch zu fassen. Teil II, der Hauptteil der Arbeit, besteht aus der ikonographischen Analyse und ikonologischen Interpretation aller nationalen Umweltzeichen gemäß Theorie und Methode von Aby Warburg und Erwin Panofsky. In 30 Kapiteln werden für jedes Zeichen Informationen zu Design und Designer/in, Entstehungsjahr, Abbildungsvorschriften und Intentionen der Vergabeinstitutionen zusammengestellt und die Vor-Bilder und Hintergründe zu einer ikonographisch-ikonologischen Deutung zusammengetragen. Insbesondere für die in der Arbeit detaillierter analysierten Zeichen aus Deutschland, Japan, Kanada, den USA, Österreich und Skandinavien ermöglicht die Untersuchung tiefe Einsichten in die Kulturgeschichte des jeweiligen Vergabelandes. Erkenntnisinteresse der Arbeit ist für jedes einzelne Zeichen die Entschlüsselung des (inter)kulturellen Bildgedächtnisses zum Thema /Umweltschutz/ vor dem Hintergrund der Herkunftskultur und ihrer nationalen Mythen. Farbgebung und Zeichenbildungsstrategien zeigen beim Untersuchungsgegenstand den Verzicht auf Signalement und Originalität. Neue nationale Umweltzeichen werden mehr und mehr aus dem Bildervorrat bestehender Umweltzeichen geschaffen. Die synchrone Vernetzung der Zeichen tritt gegenüber der diachronen Verankerung im Bildervorrat der Herkunftskultur immer stärker in den Vordergrund. Obwohl international einheitliche Gestaltungsrichtlinien fehlen, entsteht so eine globale Zeichentradition. Angesichts insbesondere des Designs und Re-Designs asiatischer Zeichen drängt sich abschließend die Frage auf, ob die eigentliche Zielgruppe der nationalen Umweltzeichen noch der einheimische Konsument ist oder ob – insbesondere in den Schwellenländern – die nationalen Umweltzeichenprogramme zum außenpolitischen Instrumentarium geworden sind, mit dem man sich in der Staatengemeinschaft positioniert.
Experimente lernen, Techniken tauschen. Ein spekulatives Handbuch
Das spekulative Handbuch bietet vielfältige Techniken für ein radikales Lernen und Vermitteln. Es umfasst konkrete Anleitungen, Erfahrungen und theoretische Überlegungen. Die Texte beteiligen sich an der Konzeption einer Vermittlung, die das gemeinsame Experimentieren (wieder) einführt.
Im Seminarraum, in Workshops, auf Festivals, in Fluren, Parks und der Stadt finden Lernen und Verlernen statt. Texte und Anleitungen u. a. zu: Filmessays, Collagen, Banküberfällen, der Universität der Toten, wildem Schreiben, konzeptuellem speed Dating, neurodiversem Lernen, Format-Denken, dem Theater der Sorge, dem Schreiblabor, dem Körperstreik.
Das Fahrrad ist ein Medium sozialer Veränderung. Seine vielfältigen utopischen Potenziale ergeben sich nicht zuletzt aus seinen ebenso vielfältigen und häufig übersehenen medialen Qualitäten: Es vermittelt, es verbindet, es übersetzt; es modifiziert Wahrnehmung und Organisation von Raum und Zeit, von Körpern und von Sozialität. Umgekehrt kann auch das medienwissenschaftliche Denken fahrradmedial verändert werden. Das Fahrrad ist nicht nur Medium des sozialen und ökologischen Wandels: Radfahren eröffnet Perspektiven, verändert Räume, lässt neue Relationen entstehen und teilt Handlungsmacht neu auf.
Fahrradutopien denkt vom Fahrrad aus und ergänzt dabei bestehende Ansätze zur Mobilitätsforschung um medienkulturwissenschaftliche Perspektiven. Die Beiträge verbinden Medienwissenschaften und Forschungen zu Fahrradaktivismus mit der Liebe zum Radfahren. Fokussiert werden Fahrradfilme und -vlogs, Verkehr und Infrastrukturen, Virtuelle Realität und Fahrrad, Fahrradkollektive und Fahrradfeminismus.
Experimente lernen, Techniken tauschen
Ein spekulatives Handbuch
Das spekulative Handbuch bietet vielfältige Techniken für ein radikales Lernen und Vermitteln. Es umfasst konkrete Anleitungen, Erfahrungen und theoretische Überlegungen. Die Texte beteiligen sich an der Konzeption einer Vermittlung, die das gemeinsame Experimentieren (wieder) einführt.
Im Seminarraum, in Workshops, auf Festivals, in Fluren, Parks und der Stadt finden Lernen und Verlernen statt. Texte und Anleitungen u. a. zu: Filmessays, Collagen, Banküberfällen, der Universität der Toten, wildem Schreiben, konzeptuellem speed Dating, neurodiversem Lernen, Format-Denken, dem Theater der Sorge, dem Schreiblabor, dem Körperstreik.
Die Bauhausstraße 11 war in der NS-Zeit Sitz von zahlreichen Institutionen der Gesundheitspolitik. Jetzt ist das Gebäude zum Gegenstand eines Forschungsprojektes geworden, in Zukunft wird auch vor Ort an seine Einbindung in nationalsozialistische Verbrechen erinnert. Dieses Buch dokumentiert und reflektiert die Erinnerungsarbeit auf dem Campus der Bauhaus-Universität Weimar und darüber hinaus. Anhand der interdisziplinären Beiträge wird das Gebäude in der heutigen Bauhausstraße 11 räumlich in Weimar und Thüringen, erinnerungspolitisch aber in einer seit Jahrzehnten erkämpften Landschaft des Gedenkens an nationalsozialistische Verbrechen verortet.
Der Planungsprozess im Konstruktiven Ingenieurbau ist gekennzeichnet durch drei sich zyklisch wiederholende Phasen: die Phase der Aufgabenverteilung, die Phase der parallelen Bearbeitung mit entsprechenden Abstimmungen und die Phase der Zusammenführung der Ergebnisse. Die verfügbare Planungssoftware unterstützt überwiegend nur die Bearbeitung in der zweiten Phase und den Austausch der Datenbestände durch Dokumente. Gegenstand der Arbeit ist die Entwicklung einer Systemarchitektur, die in ihrem Grundsatz alle Phasen der verteilten Bearbeitung und unterschiedliche Arten der Kooperation (asynchron, parallel, wechselseitig) berücksichtigt und bestehende Anwendungen integriert. Das gemeinsame Arbeitsmaterial der Beteiligten wird nicht als Dokumentmenge, sondern als Menge von Objekt- und Elementversionen und deren Beziehungen abstrahiert. Elemente erweitern Objekte um applikationsunabhängige Eigenschaften (Features). Für die Bearbeitung einer Aufgabe werden Teilmengen auf Basis der Features gebildet, für deren Elemente neue Versionen abgeleitet und in einen privaten Arbeitsbereich geladen werden. Die Bearbeitung wird auf Operationen zurückgeführt, mit denen das gemeinsame Arbeitsmaterial konsistent zu halten ist. Die Systemarchitektur wird formal mit Mitteln der Mathematik beschrieben, verfügbare Technologie beschrieben und deren Einsatz in einem Umsetzungskonzept dargestellt. Das Umsetzungskonzept wird pilothaft implementiert. Dies erfolgt in der Umgebung des Internet in der Sprache Java unter Verwendung eines Versionsverwaltungswerkzeuges und relationalen Datenbanken.
Die verteilte Bearbeitung gemeinsamer Produktmodelle ist im Bauwesen Gegenstand der aktuellen Forschung. Der vorgestellte Lösungsansatz bewegt sich in einem Spannungsfeld: Zum einen sollen die zu bearbeitenden Teilmengen des Produktmodells sehr flexibel durch die Planer zu bilden sein, zum anderen müssen Revisions- und Freigabestände dauerhaft und unveränderlich definiert werden. In einer versionierten Umgebung mit vielen Abhängigkeiten sind diese Anforderungen schwierig zu erfüllen. Der vorgestellte Lösungsansatz zeigt die Bildung von Revisions- und Freigabeständen, ohne die flexible verteilte Bearbeitung einzuschränken. Die Freigabestände müssen bestimmte Eigenschaften erfüllen: Es darf beispielsweise nur eine Version eines Objekts enthalten sein und es müssen die Bindungen zu anderen Objektversionen in einer konsistenten Weise berücksichtigt werden. Es wird eine mathematische Beschreibung gewählt, die auf der Mengenlehre und der Graphentheorie basiert.
The synchronous distributed processing of common source code in the software development process is supported by well proven methods. The planning process has similarities with the software development process. However, there are no consistent and similarly successful methods for applications in construction projects. A new approach is proposed in this contribution.
Es wird die Geschichte des Spannbetons im Brückenbau wiedergegeben. Hierzu wird unter anderem ein Normenvergleich zum Thema Spannbeton aufgestellt. Desweiteren wird erläutert, was die Grundlagen für die Nachrechnung bestehender Brücken sind. Für die Brücke über die Saale bei Jena-Kunitz wird ein Beprobungskonzept mit zerstörenden Prüfungen erstellt. Die erhaltenen Proben sollen in Labortests weiter untersucht werden. Die durch die Beprobung entstehenden Schädigungen sollen zu weiteren Messungen an der Brücke genutzt werden. Die Schädigungszustände werden statisch nachgewiesen. Zum Schluss werden Hinweise für den geplanten Abriss der Brücke gegeben.
For decades in Germany, historical research on dictatorial urban design in the first half of the 20th century focused on the National Socialist period. Studies on the urban design practices of other dictatorships remained an exception. This has changed. Meanwhile, the urban production practices of the Mussolini, Stalin, Salazar, Hitler and Franco dictatorships have become the subject of comprehensive research projects. Recently, a research group that studies dictatorial urban design in 20th century Europe has emerged at the Bauhaus-Institut für Geschichte und Theorie der Architektur und der Planung. The group is already able to refer to various research results.
Part of the research group’s self-conception is the assumption that the urban design practices of the named dictatorships can only be properly understood from a European perspective. The dictatorships influenced one another substantially. Furthermore, the specificities of the practices of each dictatorship can only be discerned if one can compare them to those of the other dictatorships. This approach requires strict adherence to the research methods of planning history and urban design theory. Meanwhile, these methods must be opened
to include those of general historical studies.
With this symposium, the research group aims to further qualify this European perspective. The aim is to pursue an inventory of the various national historiographies on the topic of “urban design and dictatorship”. This inventory should offer an overview on the general national level of historical research on urban design as well as on the level of particular urban design projects, persons or topics.
The symposium took place in Weimar, November 21-22, 2013. It was organized by Harald Bodenschatz, Piero Sassi and Max Welch Guerra and funded by the DAAD (German Academic Exchange Service).
Viele Unternehmen haben es geschafft sich erfolgreich außerhalb ihres Heimatmarktes zu positionieren. Mit der Liberalisierung der Märkte, gemeinsamen Wirtschaftsräumen und digitaler Technologie wird dies immer einfacher. Die Herausforderungen sind nicht mehr die Landesgrenzen, Währungen oder unterschiedliche Stromspannungen. Es sind die kulturellen Unterschiede und erfolgreiche Mitbewerber aus der ganzen Welt.
Kulturelle Unterschiede spielen eine wichtige Rolle in einem komplexen System aus technischen,
wirtschaftlichen, nutzerbezogenen und ästhetischen Komponenten, die sich kontinuierlich
verändern. Darüber hinaus existiert ein komplexes System an gelernten Symbolen, die in unterschiedlichen Kulturkreisen unterschiedliche Bedeutung und Beachtung finden.
Augenscheinlich stellen sich hier einige Fragen: Wie komme ich als Unternehmen an Informationen über diese unbekannten Märkte, und wie passe ich mein Portfolio, meine Dienstleistungen, meine Kommunikation und meine »Touchpoints« an?
Wir stellen uns zusätzlich die Frage, ob die Designer ebenfalls in diese Prozesse involviert
sind? Welche Erwartungen werden an das Design in den kommenden Jahren gestellt? Wie unterschiedlich sind die Vorgehensweisen in kleinen, mittleren und großen Unternehmen? Welche neuen Design Aktivitäten entstehen bei diesen globalen Prozessen?
Eins scheint relativ klar zu sein: Große Unternehmen investieren massiv in Gestaltung und Designkompetenz: Sie kaufen sich in Designbüros ein, investieren in die Design Management Ausbildung ihrer Mitarbeiter und nehmen an immer mehr Designawards teil. Wir richten in dieser Studie den Fokus auf kleine, mittlere, große und sehr große Unternehmen um ihre Erfolgsmuster im »GlobalDesign « herauszuarbeiten.
SEEING HISTORY - THE AUGMENTED ARCHIVE erforscht – in Theorie und Praxis – die Medialitäten des Archivs in Zeiten des Übergangs vom Speichermedium hin zum Modus des Übertragens. Am Beispiel Ägyptens seit den politischen Umwälzungen 2011 wird ein neues Archivsystem entwickelt, das mit Hilfe von Augmented Reality Technologie - d.h. der virtuellen Erweiterung des Realraums von mobiler Videotechnik durch Metainformationen - das umfassendste bestehende Videoarchiv zur ägyptischen Revolution im Stadtraum Kairos per GPS-Kodierung zur Verfügung stellt.
Identifying cable force with vibration-based methods has become widely used in engineering practice due to simplicity of application. The string taut theory provides a simple definition of the relationship between natural frequencies and the tension force of a cable. However, this theory assumes a perfectly flexible non-sagging cable pinned at its ends. These assumptions do not reflect all cases, especially when the cable is short, under low tension forces or the supports are partially flexible. Extradosed bridges, which are distinguished from cable-stayed bridges by their low pylon height, have shorter cables. Therefore the application of the conventional string taut theory to identify cable forces on extradosed bridge cables might be inadequate to identify cable forces.
In this work, numerical modelling of an extradosed bridge cable saddled on a circular deviator at pylon is conducted. The model is validated with the catenary analytical solution and its static and dynamic behaviours are studied. The effect of a saddle support is found to positively affect the cable stiffness by geometric means; longer saddle radius increases the cable stiffness by suppressing the deformations near the saddle. Further, accounting the effects of bending stiffness in the numerical model by using beam elements show considerable deviation from models with truss elements (i.e. zero bending stiffness). This deviation is manifested when comparing the static and dynamic properties. This motivates a more thorough study of bending stiffness effects on short cables.
Bending stiffness effects are studied using two rods connected with several springs along their length. Under bending moments, the springs resist the rods' relative axial displacement by the springs' transverse component. This concept is used to identify bending stiffness values by utilizing the parallel axis theorem to quantify ratios of the second moment of area. These ratios are calculated based on the setup of the springs (e.g. number of springs per unit length, transverse stiffness, etc...). The numerical model based on this concept agrees well with the theoretical values computed using upper and lower bounds of the parallel axis theorem.
The proposed concept of quantifying ratios of the second moment of area using springs as connection between cable rods is applied on an actual extradosed bridge geometry. The model is examined by comparison to the previously validated global numerical model. The two models showed good correlation under various changing parameters. This allowed further study of the effects of stick/slip behaviour between cable rods on an actual bridge geometry.
Es gibt keine Kreativität ohne Obliteration – also ohne Überschreiben und Entwerten oder Vergessen und Vernichten. Johannes Bennke setzt erstmals die Obliteration ins Zentrum der Medienphilosophie und deckt im Anschluss an Emmanuel Levinas in ihr etwas bildlich Negatives auf. Als Differenzfigur erlangt die Obliteration gestalterische Sprengkraft sowie ethische und epistemologische Relevanz. Über Bildkonjunktionen als genuine Methode der Bildwissenschaft entsteht so eine Theorie der Kunst und eine Philosophie des Medialen nach Levinas, die sedimentierte Wissensformen erschüttert und im Zeichen eines Lebens mit Anderen erneuert.
Für eine Abschätzung des Heizwärmebedarfs von Gebäuden und Quartieren können thermisch-energetische Simulationen eingesetzt werden. Grundlage dieser Simulationen sind geometrische und physikalische Gebäudemodelle. Die Erstellung des geometrischen Modells erfolgt in der Regel auf Basis von Bauplänen oder Vor-Ort-Begehungen, was mit einem großen Recherche- und Modellierungsaufwand verbunden ist. Spätere bauliche Veränderungen des Gebäudes müssen häufig manuell in das Modell eingearbeitet werden, was den Arbeitsaufwand zusätzlich erhöht. Das physikalische Modell stellt die Menge an Parametern und Randbedingungen dar, welche durch Materialeigenschaften, Lage und Umgebungs-einflüsse gegeben sind. Die Verknüpfung beider Modelle wird innerhalb der entsprechenden Simulations-software realisiert und ist meist nicht in andere Softwareprodukte überführbar. Mithilfe des Building Information Modeling (BIM) können Simulationsdaten sowohl konsistent gespeichert als auch über Schnittstellen mit entsprechenden Anwendungen ausgetauscht werden. Hierfür wird eine Methode vorgestellt, die thermisch-energetische Simulationen auf Basis des standardisierten Übergabe-formats Industry Foundation Classes (IFC) inklusive anschließender Auswertungen ermöglicht. Dabei werden geometrische und physikalische Parameter direkt aus einem über den gesamten Lebenszyklus aktuellen Gebäudemodell extrahiert und an die Simulation übergeben. Dies beschleunigt den Simulations-prozess hinsichtlich der Gebäudemodellierung und nach späteren baulichen Veränderungen. Die erarbeite-te Methode beruht hierbei auf einfachen Modellierungskonventionen bei der Erstellung des Bauwerksinformationsmodells und stellt eine vollständige Übertragbarkeit der Eingangs- und Ausgangswerte sicher.
Thermal building simulation based on BIM-models. Thermal energetic simulations are used for the estimation of the heating demand of buildings and districts. These simulations are based on building models containing geometrical and physical information. The creation of geometrical models is usually based on existing construction plans or in situ assessments which demand a comparatively big effort of investigation and modeling. Alterations, which are later applied to the structure, request manual changes of the related model, which increases the effort additionally. The physical model represents the total amount of parameters and boundary conditions that are influenced by material properties, location and environmental influences on the building. The link between both models is realized within the correspondent simulation soft-ware and is usually not transferable to other software products. By Applying Building Information Modeling (BIM) simulation data is stored consistently and an exchange to other software is enabled. Therefore, a method which allows a thermal energetic simulation based on the exchange format Industry Foundation Classes (IFC) including an evaluation is presented. All geometrical and physical information are extracted directly from the building model that is kept up-to-date during its life cycle and transferred to the simulation. This accelerates the simulation process regarding the geometrical modeling and adjustments after later changes of the building. The developed method is based on simple conventions for the creation of the building model and ensures a complete transfer of all simulation data.
Für eine Abschätzung des Heizwärmebedarfs von Gebäuden und Quartieren können thermisch-energetische Simulationen eingesetzt werden. Grundlage dieser Simulationen sind geometrische und physikalische Gebäudemodelle. Die Erstellung des geometrischen Modells erfolgt in der Regel auf Basis von Bauplänen oder Vor-Ort-Begehungen, was mit einem großen Recherche- und Modellierungsaufwand verbunden ist. Spätere bauliche Veränderungen des Gebäudes müssen häufig manuell in das Modell eingearbeitet werden, was den Arbeitsaufwand zusätzlich erhöht. Das physikalische Modell stellt die Menge an Parametern und Randbedingungen dar, welche durch Materialeigenschaften, Lage und Umgebungs-einflüsse gegeben sind. Die Verknüpfung beider Modelle wird innerhalb der entsprechenden Simulations-software realisiert und ist meist nicht in andere Softwareprodukte überführbar.
Mithilfe des Building Information Modeling (BIM) können Simulationsdaten sowohl konsistent gespeichert als auch über Schnittstellen mit entsprechenden Anwendungen ausgetauscht werden. Hierfür wird eine Methode vorgestellt, die thermisch-energetische Simulationen auf Basis des standardisierten Übergabe-formats Industry Foundation Classes (IFC) inklusive anschließender Auswertungen ermöglicht. Dabei werden geometrische und physikalische Parameter direkt aus einem über den gesamten Lebenszyklus aktuellen Gebäudemodell extrahiert und an die Simulation übergeben. Dies beschleunigt den Simulations-prozess hinsichtlich der Gebäudemodellierung und nach späteren baulichen Veränderungen. Die erarbeite-te Methode beruht hierbei auf einfachen Modellierungskonventionen bei der Erstellung des Bauwerksinformationsmodells und stellt eine vollständige Übertragbarkeit der Eingangs- und Ausgangswerte sicher.
Thermal building simulation based on BIM-models. Thermal energetic simulations are used for the estimation of the heating demand of buildings and districts. These simulations are based on building models containing geometrical and physical information. The creation of geometrical models is usually based on existing construction plans or in situ assessments which demand a comparatively big effort of investigation and modeling. Alterations, which are later applied to the structure, request manual changes of the related model, which increases the effort additionally. The physical model represents the total amount of parameters and boundary conditions that are influenced by material properties, location and environmental influences on the building. The link between both models is realized within the correspondent simulation soft-ware and is usually not transferable to other software products.
By Applying Building Information Modeling (BIM) simulation data is stored consistently and an exchange to other software is enabled. Therefore, a method which allows a thermal energetic simulation based on the exchange format Industry Foundation Classes (IFC) including an evaluation is presented. All geometrical and physical information are extracted directly from the building model that is kept up-to-date during its life cycle and transferred to the simulation. This accelerates the simulation process regarding the geometrical modeling and adjustments after later changes of the building. The developed method is based on simple conventions for the creation of the building model and ensures a complete transfer of all simulation data.
Practical examples show that the improvement in cost flow and total amount of money spend in construction and further use may be cut significantly. The calculation is based on spreadsheets calculation, very easy to develop on most PC´s now a days. Construction works, are a field where the evaluation of Cash Flow can be and should be applied. Decisions about cash flow in construction are decisions with long-term impact and long-term memory. Mistakes from the distant past have a massive impact on situations in the present and into the far economic future of economic activities. Two approaches exist. The Just-in-Time (JIT) approach and life cycle costs (LCC) approach. The calculation example shows the dynamic results for the production speed in opposition to stable flow of production in duration of activities. More sophisticated rescheduling in optimal solution might bring in return extra profit. In the technologies and organizational processes for industrial buildings, railways and road reconstruction, public utilities and housing developments there are assembly procedures that are very appropriate for the given purpose, complicated research-, development-, innovation-projects are all very good aspects of these kinds of applications. The investors of large investments and all public invested money may be spent more efficiently if an optimisation speed-strategy can be calculated.
The contribution presents a model that is able to simulate construction duration and cost for a building project. This model predicts set of expected project costs and duration schedule depending on input parameters such as production speed, scope of work, time schedule, bonding conditions and maximum and minimum deviations from scope of work and production speed. The simulation model is able to calculate, on the basis of input level of probability, the adequate construction cost and time duration of a project. The reciprocal view attends to finding out the adequate level of probability for construction cost and activity durations. Among interpretive outputs of the application software belongs the compilation of a presumed dynamic progress chart. This progress chart represents the expected scenario of development of a building project with the mapping of potential time dislocations for particular activities. The calculation of a presumed dynamic progress chart is based on an algorithm, which calculates mean values as a partial result of the simulated building project. Construction cost and time models are, in many ways, useful tools in project management. Clients are able to make proper decisions about the time and cost schedules of their investments. Consequently, building contractors are able to schedule predicted project cost and duration before any decision is finalized.
Die Sicherung der Wettbewerbsfähigkeit im Bereich des Bauwesens, insbesondere kleinerer und mittelständischer Betriebe erfordert ein aktives Handeln als Antwort auf die sich ändernde Wettbewerbssituation. Einen wesentlichen Wettbewerbsvorteil können kleine unternehmerische Einheiten durch höhere Flexibilität, schnelle Reaktion auf Kundenwünsche oder aktuelle Situationen auf der Baustelle und Marktnähe erreichen. Dazu ist es nötig, die Informations- und Kommunikationsströme durch Einsatz standardisierter und kostengünstiger Hard- und Software wie z.B. Handhelds zu unterstützen und insbesondere die existierenden Hindernisse im Informationsfluss zwischen Baustelle und Büro zu beseitigen. Am Beispiel der Projekte >IuK - SystemBau< und >eSharing< wird eine Einführungsstrategie für >Mobile Computing< in kleinen unternehmerischen Einheiten des Bauwesens (KMU) basierend auf einer umfangreichen Anforderungsanalyse vorgestellt. Folgende Aspekte sollen beschrieben werden: durchgängiger Einsatz der Technik unter Beachtung der verschiedenen Qualifikationsniveaus, Einführungsunterstützung durch Schulungen, Prozessanalyse und mögliche Integration in bestehende Software-Umgebungen sowie Feldtests.
Detailuntersuchungen an Tragwerken führen bei FE-Berechnungen immer wieder auf das Problem einer geeigneten Netzgestaltung. Während in weiten Bereichen ein grobes Netz ausreicht, muß an kritischen Stellen ein sehr feines Netz gewählt werden, um gerade dort hinreichend genaue Ergebnisse zu erhalten. Bei der Realisierung lokaler Netzverdichtungen stellt die Gestaltung des Übergangs vom groben zum feinen Netz das Hauptproblem dar. Im Beitrag wird hierzu eine Familie von FE-Übergangselementen vorgestellt, mit denen sich eine voll-kompatible Kopplung von wenigen großen Elementen mit vielen kleinen Elementen bereits über nur eine Stufe erzielen läßt. Diese neu entwickelten sogenannten pNh-Elemente ermöglichen an einer oder mehreren Seiten den Anschluß von N kleineren Elementen (Elementseiten für h-Verfeinerung). Das wird durch N stückweise definierte Ansatzfunktionen an den entsprechenden Seiten erreicht, wobei die Teilung nicht äquidistant sein braucht. Darüber hinaus ist es möglich, Elemente unterschiedlichen Polynomgrades p an den Standardseiten und den Verfeinerungsseiten anzuschließen. Der praktische Einsatz der Übergangselemente setzt geeignete automatische oder halbautomatische Netzgeneratoren voraus, die diese Elemente einbeziehen. Im Rahmen einer substrukturorientierten Modellierung läßt sich dies besonders günstig realisieren. Im Beitrag wird gezeigt, wie durch Zerlegung des Gesamtmodells in Bereiche mit grobem Netz, mit Übergangsnetz und mit feinem Netz, eine effektive Generierung der Netzverdichtungen zu erreichen ist. An einem praktischen Beispiel aus dem Bauingenieurwesen werden die Vorteile des vorgestellten Übergangselementkonzeptes umfassend demonstriert.
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Vor dem Hintergrund des gesellschaftlichen Wandels sieht sich die Verkehrsforschung mit neuen Anforderungen an die Konzeption, Anpassung, Anwendung usw. von statistischen Ansätzen zur Analyse des Aktivitäten-(Verkehrs-)verhaltens konfrontiert, um auf Basis empirischer Daten adäquat Zusammenhänge der Verkehrsentstehung zu erforschen. Ausgehend von der musterorientierten Perspektive - das heißt Untersuchungsgegenstand sind chronologische Abfolgen von Ortsveränderungen und Tätigkeiten in Form von Wege-Aktivitätenmustern - besteht das Ziel einer möglichst realitätsnahen Abbildung und Erklärung von individuellen Unterschieden im Raum-Zeit-Verhalten. Neu bzw. kaum etabliert sind in diesem Kontext der eigens konzipierte Multimethodenansatz sowie die Optimal Matching Technik, die erweiterte Abbildungseigenschaften zur Distanzmessung zwischen Wege-Aktivitätenmustern aufweist. Erkannt werden durch jene Methode gleiche Tätigkeiten bzw. Ortsveränderungen, die zeitlich an unterschiedlichen Stellen der zu vergleichenden Muster angeordnet sind sowie identische Subsequenzen. Zielführend in der Datenanalyse ist nachstehende Abfolge von Verfahren: Die Klassifikation von Wege-Aktivitätenmustern zur Reduktionen deren immenser Komplexität gelingt durch Einsatz der Optimal Matching Technik. Diese quantifiziert (Un-)ähnlichkeiten zwischen Wege-Aktivitätenmustern („Abstandsmessung“) unterschiedlicher Personen oder zu vergleichender Zeitabschnitte einer Person. Die dadurch berechnete Distanzmatrix bildet den Ausgangspunkt des clusteranalytischen Fusions-algorithmus, dessen Aufgabe die Zusammenfassung der Wege-Aktivitätenmuster ist (explorative Stufe). Die Anwendung eines multinomialen Logit-Modells ermöglicht auf Individualebene die Vorhersage der Affinität zu Wege-Aktivitätenmuster-Typen anhand von Merkmalswerten identifizierter Erklärungsgrößen der Personen, des Haushaltes usw. (induktive Stufe). Im Gegensatz zu einschlägigen Forschungsarbeiten zeichnet sich die gewählte Untersuchungsstrategie durch die Objektivität des Vorgehens aus, da eine a-priori Bildung von Personen-kategorien nicht notwendig ist. Ebenso grenzt die Berücksichtigung der zufälligen und nicht-erklärbaren Verhaltensvariabilität durch das Wahrscheinlichkeitsprinzip des gewählten Logit-Modells das eigene Vorgehen von anderen Untersuchungen ab. Aufgrund der weitgehend ungeklärten Anwendungsgrundlagen der Optimal Matching Technik befasst sich die vorliegende Arbeit zunächst mit dessen inhaltlicher Ausrichtung am Untersuchungsgegenstand. Die Anpassung der festzulegenden Aufwandswerte, welche für die benötigten Aktionen angesetzt werden, um ein Wege-Aktivitätenmuster in ein anderes zu transformieren, erfolgt mit Hilfe einer empirisch Abschätzung, die weit über ein argumentatives Vorgehen hinausgeht. Der ermittelte Sequenzabstand inkludiert dabei die operationsspezifische Distanz bei Übergängen zwischen den konstituierenden Zuständen der zu vergleichenden Wege-Aktivitätenmuster („Zustandsähnlichkeit“). Abstandsmaß für die qualitativen Zustände ist dabei die ermittelte Priorität von wege- und tätigkeitenbezogenen Handlungen. Die Relevanz einer Ausrichtung belegt auch die durchgeführte Sensitivitätsanalyse: Das Ausmaß der Empfindlichkeit der Optimal Matching Technik ist insbesondere gegenüber der Festlegung der Aufwandswerte beträchtlich. Um die Analysepotenziale des Multimethodenansatzes zu demonstrieren, werden exemplarisch interpersonelle Unterschiede im wöchentlichen Aktivitäten-(Verkehrs-)verhaltens (Datenbasis: deutsches Mobilitätspanel) analysiert. Ergebnis der Klassifikation (explorative Analysestufe) ist eine auf den ersten Blick inhaltlich stichhaltige Wege-Aktivitätenmuster-Typologie charakteristischer Wochenabläufe des Aktivitäten-(Verkehrs-)verhaltens: Unterschiedliche Arten, zeitlicher Umfang und zeitliche Lage der Haupt-aktivitäten, unterschiedliche Verkehrsverhaltensweisen sowie unterschiedliche clusterspezifische Tag zu Tag Rhythmen, Gleichförmigkeiten, Schwankungen usw. des Raum-Zeit-Verhaltens kennzeichnen die Wege-Aktivitätenmuster-Typen. Die Abbildungs-eigenschaften der Optimal-Matching Technik zeichnen sich in den erstellten Clustern nur teilweise ab: Während die Zustandselementkomposition - augenscheinlich betrachtet - passabel durch die Wege-Aktivitätenmuster-Typologie abgebildet wird, bleibt ungewiss, ob und inwieweit dies für die Abfolgeähnlichkeit gilt. Aus dem induktiven Analyseschritt geht hervor: Alter, Geschlecht, Verfügbarkeit einer ÖPNV-Zeitkarte, Führerscheinbesitz und mit herausragender Bedeutung der Erwerbsstatus signalisieren als maßgebende Erklärungsgrößen eine Trennwirkung. Überdies zeigt das Gesamtbild der ermittelten Wirkungsrichtungen und Effektstärken überzeugende Erklärungszusammenhänge auf. Damit ist ein Nachweis der Praktikabilität des eigens konzipierten Multimethodenansatzes unter Verwendung der Optimal Matching Technik zur musterorientierten Analyse des Raum-Zeit-Verhaltens erbracht.
Norbert Wieners >Cybernetics> von 1948 geht aus von einem Vergleich zählender, durchmusternder Astronomie mit der neuen, statistikbasierten Meteorologie. Das Buch beginnt mit der ersten Strophe von >Weißt du vieviel Sternlein stehen<. ... Dieses Liedchen ist ein interessantes Thema für die Philosophie und die Geschichte der Wissenschaft, indem es zwei Wissenschaften nebeneinander stellt, die einerseits sich beide mit der Beobachtung des Himmels über uns beschäftigen, andererseits aber beinahe in jeder Beziehung höchst gegensätzlich sind. Die Astronomie ist die älteste der Wissenschaften, während die Meteorologie zu den jüngsten zählt, die erst anfangen, den Namen zu verdienen. ...
Mitigating Risks of Corruption in Construction: A theoretical rationale for BIM adoption in Ethiopia
(2021)
This PhD thesis sets out to investigate the potentials of Building Information Modeling (BIM) to mitigate risks of corruption in the Ethiopian public construction sector. The wide-ranging capabilities and promises of BIM have led to the strong perception among researchers and practitioners that it is an indispensable technology. Consequently, it has become the frequent subject of science and research. Meanwhile, many countries, especially the developed ones, have committed themselves to applying the technology extensively. Increasing productivity is the most common and frequently cited reason for that.
However, both technology developers and adopters are oblivious to the potentials of BIM in addressing critical challenges in the construction sector, such as corruption. This particularly would be significant in developing countries like Ethiopia, where its problems and effects are acute. Studies reveal that bribery and corruption have long pervaded the construction industry worldwide. The complex and fragmented nature of the sector provides an environment for corruption. The Ethiopian construction sector is not immune from this epidemic reality. In fact, it is regarded as one of the most vulnerable sectors owing to varying socio-economic and political factors. Since 2015, Ethiopia has started adopting BIM, yet without clear goals and strategies. As a result, the potential of BIM for combating concrete problems of the sector remains untapped. To this end, this dissertation does pioneering work by showing how collaboration and coordination features of the technology contribute to minimizing the opportunities for corruption. Tracing loopholes, otherwise, would remain complex and ineffective in the traditional documentation processes.
Proceeding from this anticipation, this thesis brings up two primary questions: what are areas and risks of corruption in case of the Ethiopian public construction projects; and how could BIM be leveraged to mitigate these risks? To tackle these and other secondary questions, the research employs a mixed-method approach. The selected main research strategies are Survey, Grounded Theory (GT) and Archival Study. First, the author disseminates an online questionnaire among Ethiopian construction engineering professionals to pinpoint areas of vulnerability to corruption. 155 responses are compiled and scrutinized quantitatively. Then, a semi-structured in-depth interview is conducted with 20 senior professionals, primarily to comprehend opportunities for and risks of corruption in those identified highly vulnerable project stages and decision points. At the same time, open interviews (consultations) are held with 14 informants to be aware of state of the construction documentation, BIM and loopholes for corruption in the country. Consequently, these qualitative data are analyzed utilizing the principles of GT, heat/risk mapping and Social Network Analysis (SNA). The risk mapping assists the researcher in the course of prioritizing corruption risks; whilst through SNA, methodically, it is feasible to identify key actors/stakeholders in the corruption venture. Based on the generated research data, the author constructs a [substantive] grounded theory around the elements of corruption in the Ethiopian public construction sector. This theory, later, guides the subsequent strategic proposition of BIM. Finally, 85 public construction related cases are also analyzed systematically to substantiate and confirm previous findings.
By ways of these multiple research endeavors that is based, first and foremost, on the triangulation of qualitative and quantitative data analysis, the author conveys a number of key findings. First, estimations, tender document preparation and evaluation, construction material as well as quality control and additional work orders are found to be the most vulnerable stages in the design, tendering and construction phases respectively. Second, middle management personnel of contractors and clients, aided by brokers, play most critical roles in corrupt transactions within the prevalent corruption network. Third, grand corruption persists in the sector, attributed to the fact that top management and higher officials entertain their overriding power, supported by the lack of project audits and accountability. Contrarily, individuals at operation level utilize intentional and unintentional 'errors’ as an opportunity for corruption.
In light of these findings, two conceptual BIM-based risk mitigation strategies are prescribed: active and passive automation of project audits; and the monitoring of project information throughout projects’ value chain. These propositions are made in reliance on BIM’s present dimensional capabilities and the promises of Integrated Project Delivery (IPD). Moreover, BIM’s synchronous potentials with other technologies such as Information and Communication Technology (ICT), and Radio Frequency technologies are topics which received a treatment. All these arguments form the basis for the main thesis of this dissertation, that BIM is able to mitigate corruption risks in the Ethiopian public construction sector. The discourse on the skepticisms about BIM that would stem from the complex nature of corruption and strategic as well as technological limitations of BIM is also illuminated and complemented by this work. Thus, the thesis uncovers possible research gaps and lays the foundation for further studies.