Refine
Document Type
- Article (1015)
- Conference Proceeding (857)
- Doctoral Thesis (494)
- Master's Thesis (115)
- Part of a Book (50)
- Book (45)
- Report (43)
- Periodical (28)
- Preprint (27)
- Bachelor Thesis (22)
Institute
- Professur Theorie und Geschichte der modernen Architektur (493)
- Professur Informatik im Bauwesen (484)
- Institut für Strukturmechanik (ISM) (346)
- In Zusammenarbeit mit der Bauhaus-Universität Weimar (201)
- Professur Baubetrieb und Bauverfahren (145)
- Institut für Europäische Urbanistik (71)
- Professur Bauphysik (53)
- Professur Stochastik und Optimierung (46)
- Graduiertenkolleg 1462 (42)
- F. A. Finger-Institut für Baustoffkunde (FIB) (38)
- Professur Informatik in der Architektur (37)
- Professur Angewandte Mathematik (36)
- Professur Denkmalpflege und Baugeschichte (29)
- Professur Sozialwissenschaftliche Stadtforschung (29)
- Junior-Professur Computational Architecture (28)
- Junior-Professur Augmented Reality (27)
- Promotionsstudiengang Kunst und Design-Freie Kunst-Medienkunst (Ph.D) (27)
- Professur Bauchemie und Polymere Werkstoffe (25)
- Professur Grundbau (24)
- Universitätsbibliothek (24)
- An-Institute (21)
- Professur Betriebswirtschaftslehre im Bauwesen (21)
- Professur Medienphilosophie (21)
- Institut für Konstruktiven Ingenieurbau (IKI) (20)
- Junior-Professur Bildtheorie (18)
- Professur Modellierung und Simulation - Konstruktion (17)
- Professur Raumplanung und Raumforschung (17)
- Professur Stahlbau (16)
- Bauhaus-Institut für zukunftsweisende Infrastruktursysteme (b.is) (15)
- Professur Baumechanik (15)
- Bauhaus-Institut für Geschichte und Theorie der Architektur und Planung (14)
- Professur Baustatik und Bauteilfestigkeit (14)
- Junior-Professur Organisation und vernetzte Medien (13)
- Professur Bodenmechanik (13)
- Professur Content Management und Webtechnologien (13)
- Professur Massivbau I (12)
- Professur Verkehrsplanung und Verkehrstechnik (12)
- Professur Werkstoffe des Bauens (12)
- Materialforschungs- und -prüfanstalt an der Bauhaus-Universität (11)
- Professur Holz- und Mauerwerksbau (11)
- Professur Siedlungswasserwirtschaft (11)
- Professur Computergestütztes kooperatives Arbeiten (10)
- Professur Stahl- und Hybridbau (10)
- Geschichte und Theorie der Visuellen Kommunikation (9)
- Hochschule für Musik FRANZ LISZT (9)
- Professur Allgemeine Baustoffkunde (9)
- Professur Systeme der Virtuellen Realität (9)
- Professur Tragwerkslehre (9)
- bauhaus.institut für experimentelle Architektur (9)
- Professur Entwerfen und Architekturtheorie (8)
- Professur Medienmanagement (8)
- Professur Soziologie und Sozialgeschichte der Stadt (8)
- Medienkunst/Mediengestaltung (7)
- Professur Geschichte und Theorie künstlicher Welten (7)
- Professur Informations- und Wissensverarbeitung (7)
- Professur Modellierung und Simulation - Mechanik (7)
- Professur Verkehrsbau (7)
- Professur Baumanagement und Bauwirtschaft (6)
- Professur Geschichte und Theorie der Kulturtechniken (6)
- Freie Kunst (5)
- Juniorprofessur Urban Energy Systems (5)
- Professur Massivbau II (5)
- Professur Medieninformatik (5)
- Professur Mediensicherheit (5)
- DFG-Graduiertenkolleg 2227 "Identität und Erbe" (4)
- Geschichte und Theorie der Kunst (4)
- Professur Experimentelle Konstruktions- und Materialanalyse (4)
- Professur Intelligentes Technisches Design (4)
- Professur Stadtplanung (4)
- Professur Strömungsmechanik (4)
- Professur Wasserbau (4)
- Institut für Bauinformatik, Mathematik und Bauphysik (IBMB) (3)
- Junior-Professur Komplexe Tragwerke (3)
- Juniorprofessur Simulation und Experiment (3)
- Professur Abfallwirtschaft (3)
- Professur Aufbereitung von Baustoffen und Wiederverwertung (3)
- Professur Bauaufnahme und Baudenkmalpflege (3)
- Professur Bauformenlehre (3)
- Professur Bauklimatik (3)
- Professur Biotechnologie in der Ressourcenwirtschaft (3)
- Professur Computer Vision in Engineering (3)
- Professur Entwerfen und Innenraumgestaltung (3)
- Professur Interface Design (3)
- Professur Marketing und Medien (3)
- Professur Planung von Ingenieurbauten (3)
- Professur Verkehrssystemplanung (3)
- Weiterbildender Studiengang Wasser und Umwelt (3)
- Zentrale Einrichtungen, Büro des Präsidenten, Dezernate (3)
- Erdbebenzentrum (2)
- Fakultät Architektur und Urbanistik (2)
- Fakultät Kunst und Gestaltung (2)
- Geschichte und Theorie des Design (2)
- Graduiertenkolleg Medienanthropologie (GRAMA) (2)
- Institut Geotechnik Weimar (2)
- Juniorprofessur Biotechnologie in der Abfallwirtschaft (2)
- Kompetenzzentrum Medienanthropologie (KOMA) (2)
- Produktdesign (2)
- Professur Entwerfen und Baugestaltung (2)
- Professur Entwerfen und Baukonstruktion (2)
- Professur Konstruktives Entwerfen und Tragwerkslehre (2)
- Professur Mediensoziologie (2)
- Visuelle Kommunikation (2)
- Architekturgeschichte (1)
- Arts and Research (1)
- Dozentur Film- und Medienwissenschaft (1)
- Fachbereich Medieninformatik (1)
- Fachbereich Medienwissenschaft (1)
- Gropius-Professur (1)
- Gründerwerkstatt neudeli (1)
- Instructional Design - Didaktik medialer Lernumgebungen (1)
- Internationales Kolleg für Kulturtechnikforschung und Medienphilosophie (IKKM) (1)
- Junior-Professur Architekturheorie (1)
- Junior-Professur Europäische Medienkultur (1)
- Junior-Professur Geschichte und Theorie der Bildmedien (1)
- Junior-Professur Psychophysiologie und Wahrnehmung (1)
- Junior-Professur Usability (1)
- Juniorprofessur CAD in der Bauinformatik (1)
- Juniorprofessur Polymere Bindemittel und Baustoffe im Bauwesen (1)
- Lucia Verlag (1)
- Professur Darstellungsmethodik (1)
- Professur Datenbanken und Kommunikationssysteme (1)
- Professur Entwerfen und Industriebau (1)
- Professur Entwerfen und Städtebau I (1)
- Professur Entwerfen und Tragwerkskonstruktion (1)
- Professur Entwerfen und ländliches Bauen (1)
- Professur Gebäudetechnik (1)
- Professur Geotechnik (1)
- Professur Graphische Datenverarbeitung (1)
- Professur Human-Computer Interaction (1)
- Professur Immobilienwirtschaft und -management (1)
- Professur Kulturgeschichte der Moderne (1)
- Professur Medienwissenschaft (1)
- Professur Verfahren und Umwelt (1)
- Professur Vernetzte Medien (1)
- Professur Wahrnehmungslehre, Geschichte und Theorie der Kommunikation und der Medien (1)
- Professur für Kultur- und Mediensoziologie (1)
- Professur für Philosophie und Ästhetik (1)
- Theorie und Geschichte des Design (1)
- Universitätsentwicklung (1)
Keywords
- Weimar (446)
- Bauhaus-Kolloquium (442)
- Angewandte Mathematik (331)
- Computerunterstütztes Verfahren (289)
- Architektur (247)
- Architektur <Informatik> (201)
- Strukturmechanik (189)
- CAD (184)
- Angewandte Informatik (155)
- Bauhaus (125)
Dieser Beitrag versucht, einige Aspekte der individuellen Lebensentwicklung mit den Möglichkeiten wirksamen Arbeitsschutzes zu verknüpfen. Er wirt damit die Frage auf, ob und wie die Sensibilisierung für Sicherheit und Gesundheitsschutz, für vorbeugende Maßnahmen und für die Akzeptanz bei den Betroffenen verbessert werden kann. Was hat Arbeitsschutz mit dem Lebensalter zu tun? Verhalten sich Routiniers im Bauwesen anders als Berufanfänger?
An der Bauhaus-Universität Weimar gibt es vielfältige Antworten auf die Fragen nach der Position der Ingenieurausbildung am Markt und deren praxisnahe Ausrichtung, die bei einem attraktiver gestalteten Studieneinstieg beginnen, sich über ein transparenteres und mit diversen Wechsel- und Abschlussszenarien versehenes Studienmodell fortsetzen, und die schließlich mit einem Spektrum an Ausbildungselementen abgerundet werden, die den Studenten dazu befähigen sollen, kompetenter und nachhaltiger am Berufsmarkt Fuß zu fassen. Der Verfasser hinterfragt die Notwendigkeit neuer Impulse für das Studium, sucht Wege zur Erhöhung der Attraktivität des Einstiegs in das Studium sowie berufs- und praxisorientierten Lernens, stellt das Thüringer Y-Modell eines veränderten Studienablaufs mit der Wahlmöglichkeit zwischen Master- und Diplomabschluss vor.
Nur durch Aufträge entsteht das Potenzial, die hochwertigen und modernen Produkte, Verfahren und Systeme auch erfolgreich und vielfach in die Realität umzusetzen. Deshalb sind auch im traditionellen Bauwesen die Mechanismen des Marketings für die Akquisition zu analysieren und hinterfragt der Verfasser das Bild von Baubetrieben als kompetente Anbieter für alle Phasen des Bauens vom Baustoff bis zur Inbetriebnahme eines schlüsselfertigen Objektes. Systemanbieter bereiten die Basis für eine innovative und vernetzte Arbeitsweise.
Am 25. März 2010 veranstaltete die Professur Baubetrieb und Bauverfahren im Rahmen der jährlich stattfindenden baubetrieblichen Tagungsreihe gemeinsam mit der Arbeitsgruppe „Unikatprozesse“ in der Fachgruppe „Simulation in Produktion und Logistik“ (SPL) im Rahmen der Arbeitsgemeinschaft Simulation – ASIM einen ganztägigen Workshop mit dem Titel: „Modellierung von Prozessen zur Fertigung von Unikaten“. Viele Bauprozesse sind dadurch gekennzeichnet, dass sie Unikatcharakter besitzen. Unikate sind durch prototypische Einmaligkeit, Individualität, vielfältige Randbedingungen, einen geringen Grad an Standardisierung und Wiederholungen gekennzeichnet. Das erschwert die realitätsnahe Modellierung zur Simulation sogenannter Unikatprozesse. Dieser Besonderheit widmet sich die überwiegende Zahl der Tagungsbeiträge, die in diesem Band widergegeben sind.
Building Information Modeling is a powerful tool for the design and for a consistent set of data in a virtual storage. For the application in the phases of realization and on site it needs further development. The paper describes main challenges and main features, which will help the development of software to better service the needs of construction site managers
Poland is not situated in any seismic region of the earth, however there are still areas were underground mining is being conducted. In these areas, so-called 'paraseismic tremors', are very frequent phenomena. In the situation when a building examination is realized in order to define its safety, it is necessary to make a complete analysis, in which an influence of tremors should be included. To decide if a building is able to carry out any dynamic loads or not, it is necessary to compute its dynamic characteristics, i.e. natural frequencies. It is not possible using any standard techniques. After diagnosis a building in situ by an expert, computer techniques together with specialized software for dynamic, static, and strength analyses become a suitable tool. In this paper a special attention was paid to a typical twelve-store WGP (Wroclaw Great Plate) prefabricated building, concerning special type of joints. During dynamic actions these joints have a decisive influence on building's behavior. Paraseismic tremors are especially dangerous for these buildings and can be the reason of pre-failure states. It can be difficult and very expensive to prepare laboratory investigations of the part of a building or of a separate joint; therefore the computer modeling suitable to investigate behavior of such elements and whole buildings under different kinds of loads was used.
The present article aims to provide an overview of the consequences of dynamic soil-structure interaction (SSI) on building structures and the available modelling techniques to resolve SSI problems. The role of SSI has been traditionally considered beneficial to the response of structures. However, contemporary studies and evidence from past earthquakes showed detrimental effects of SSI in certain conditions. An overview of the related investigations and findings is presented and discussed in this article. Additionally, the main approaches to evaluate seismic soil-structure interaction problems with the commonly used modelling techniques and computational methods are highlighted. The strength, limitations, and application cases of each model are also discussed and compared. Moreover, the role of SSI in various design codes and global guidelines is summarized. Finally, the advancements and recent findings on the SSI effects on the seismic response of buildings with different structural systems and foundation types are presented. In addition, with the aim of helping new researchers to improve previous findings, the research gaps and future research tendencies in the SSI field are pointed out.
>CyberCity< ist ein Konzept, das durch ein virtuelles Abbild der räumlichen Realität einer Stadt (Berlin) eine uns bekannte Wahrnehmungsumgebung als Orientierungs- und Navigationserleichterung bereitstellt, um über diesen virtuellen Browser möglichst schnell und anschaulich an eine gewünschte Information zu kommen. Dieses Umgebungsmodell ist auch als Simulationsmodell für die Visualisierung stadträumlicher Beurteilungen neuer Projekte, verkehrstechnischer Massnahmen und ökologischer Belastungen geeignet. Insbesondere ist es als Orientierungsumgebung für die Telepräsenz über die Kommunikationsnetze gedacht, die über die virtuellen Repräsentanten (Avatare) eine besondere gesellschaftliche Brisanz erhält.
The point collocation method of finite spheres (PCMFS) is used to model the hyperelastic response of soft biological tissue in real time within the framework of virtual surgery simulation. The proper orthogonal decomposition (POD) model order reduction (MOR) technique was used to achieve reduced-order model of the problem, minimizing computational cost. The PCMFS is a physics-based meshfree numerical technique for real-time simulation of surgical procedures where the approximation functions are applied directly on the strong form of the boundary value problem without the need for integration, increasing computational efficiency. Since computational speed has a significant role in simulation of surgical procedures, the proposed technique was able to model realistic nonlinear behavior of organs in real time. Numerical results are shown to demonstrate the effectiveness of the new methodology through a comparison between full and reduced analyses for several nonlinear problems. It is shown that the proposed technique was able to achieve good agreement with the full model; moreover, the computational and data storage costs were significantly reduced.
Piping erosion is one form of water erosion that leads to significant changes in the landscape and environmental degradation. In the present study, we evaluated piping erosion modeling in the Zarandieh watershed of Markazi province in Iran based on random forest (RF), support vector machine (SVM), and Bayesian generalized linear models (Bayesian GLM) machine learning algorithms. For this goal, due to the importance of various geo-environmental and soil properties in the evolution and creation of piping erosion, 18 variables were considered for modeling the piping erosion susceptibility in the Zarandieh watershed. A total of 152 points of piping erosion were recognized in the study area that were divided into training (70%) and validation (30%) for modeling. The area under curve (AUC) was used to assess the effeciency of the RF, SVM, and Bayesian GLM. Piping erosion susceptibility results indicated that all three RF, SVM, and Bayesian GLM models had high efficiency in the testing step, such as the AUC shown with values of 0.9 for RF, 0.88 for SVM, and 0.87 for Bayesian GLM. Altitude, pH, and bulk density were the variables that had the greatest influence on the piping erosion susceptibility in the Zarandieh watershed. This result indicates that geo-environmental and soil chemical variables are accountable for the expansion of piping erosion in the Zarandieh watershed.
This study aims to evaluate a new approach in modeling gully erosion susceptibility (GES) based on a deep learning neural network (DLNN) model and an ensemble particle swarm optimization (PSO) algorithm with DLNN (PSO-DLNN), comparing these approaches with common artificial neural network (ANN) and support vector machine (SVM) models in Shirahan watershed, Iran. For this purpose, 13 independent variables affecting GES in the study area, namely, altitude, slope, aspect, plan curvature, profile curvature, drainage density, distance from a river, land use, soil, lithology, rainfall, stream power index (SPI), and topographic wetness index (TWI), were prepared. A total of 132 gully erosion locations were identified during field visits. To implement the proposed model, the dataset was divided into the two categories of training (70%) and testing (30%). The results indicate that the area under the curve (AUC) value from receiver operating characteristic (ROC) considering the testing datasets of PSO-DLNN is 0.89, which indicates superb accuracy. The rest of the models are associated with optimal accuracy and have similar results to the PSO-DLNN model; the AUC values from ROC of DLNN, SVM, and ANN for the testing datasets are 0.87, 0.85, and 0.84, respectively. The efficiency of the proposed model in terms of prediction of GES was increased. Therefore, it can be concluded that the DLNN model and its ensemble with the PSO algorithm can be used as a novel and practical method to predict gully erosion susceptibility, which can help planners and managers to manage and reduce the risk of this phenomenon.
Prediction of the groundwater nitrate concentration is of utmost importance for pollution control and water resource management. This research aims to model the spatial groundwater nitrate concentration in the Marvdasht watershed, Iran, based on several artificial intelligence methods of support vector machine (SVM), Cubist, random forest (RF), and Bayesian artificial neural network (Baysia-ANN) machine learning models. For this purpose, 11 independent variables affecting groundwater nitrate changes include elevation, slope, plan curvature, profile curvature, rainfall, piezometric depth, distance from the river, distance from residential, Sodium (Na), Potassium (K), and topographic wetness index (TWI) in the study area were prepared. Nitrate levels were also measured in 67 wells and used as a dependent variable for modeling. Data were divided into two categories of training (70%) and testing (30%) for modeling. The evaluation criteria coefficient of determination (R2), mean absolute error (MAE), root mean square error (RMSE), and Nash–Sutcliffe efficiency (NSE) were used to evaluate the performance of the models used. The results of modeling the susceptibility of groundwater nitrate concentration showed that the RF (R2 = 0.89, RMSE = 4.24, NSE = 0.87) model is better than the other Cubist (R2 = 0.87, RMSE = 5.18, NSE = 0.81), SVM (R2 = 0.74, RMSE = 6.07, NSE = 0.74), Bayesian-ANN (R2 = 0.79, RMSE = 5.91, NSE = 0.75) models. The results of groundwater nitrate concentration zoning in the study area showed that the northern parts of the case study have the highest amount of nitrate, which is higher in these agricultural areas than in other areas. The most important cause of nitrate pollution in these areas is agriculture activities and the use of groundwater to irrigate these crops and the wells close to agricultural areas, which has led to the indiscriminate use of chemical fertilizers by irrigation or rainwater of these fertilizers is washed and penetrates groundwater and pollutes the aquifer.
Digitale Lesezeichen, Volltextsuche und Multimedia-Inhalte – die Ende des 20. Jahrhunderts durch das Internet ausgelöste Medienrevolution ließ auch das Buch nicht unberührt. Die Verbreitung des World Wide Webs parallel zur rasanten Entwicklung der Computertechnologie ermöglichte die Digitalisierung des Buches und bildete das E-Book als neue Publikationsform heraus. Seit etwa zehn Jahren können Bücher nicht mehr nur gedruckt, sondern auch elektronisch zur Verfügung gestellt werden, was für die Buchbranche und den Leser einige Veränderungen bedeutet. Moderne Lesegeräte, auch E-Reader genannt, erlauben die Speicherung einer ganzen Bibliothek auf einem einzigen mobilen Endgerät. Dabei steht das einzelne E-Book dem gedruckten Buch in seiner Lesequalität in nichts nach und ermöglicht zudem das Einfügen elektronischer Notizen und Lesezeichen, die Volltextsuche nach bestimmten Wörtern und die Verbindung von Text mit Bild, Ton und Video. Dennoch kann das E-Book seit seinem Aufkommen in Deutschland noch keine Erfolgsgeschichte schreiben. Insbesondere hohe Preise für die Lesegeräte halten immer noch viele Leser vom Nutzen der E-Books ab. Zu sehr ist das gedruckte Buch für zahlreiche Menschen noch fester Bestandteil ihres alltäglichen Lebens, als das sie es bereits durch das E-Book austauschen würden. Eine Situation, die einige Fragen aufwirft: Wird sich das EBook als Medium durchsetzen und das gedruckte Buch langfristig ablösen? Kann das EBook neben Zeitung, Radio, Fernsehen und Buch überhaupt als ein neues Medium verstanden werden? Und welche Veränderungen würde die massenhafte Verbreitung elektronischer Bücher mit sich bringen?
A multicriterial statement of the above mentioned problem is presented. It differes from the classical statement of Spanning Tree problem. The quality of solution is estimated by vector objective function which contains weight criteria as well as topological criteria (degree and diameter of tree). Many real processes are not determined yet. And that is why the investigation of the stability is very important. Many errors are connected with calculations. The stability analysis of vector combinatorial problems allows to discover the value of changes in the initial data for which the optimal solution is not changed. Furthermore, the investigation of the stability allows to construct the class of the problems on base of the one problem by means of the parameter variations. Analysis of the problems with belong to this class allows to obtaine axact and adecuate discription of model
Inhaltliche Struktur:
Theoretischer Teil: Um Kulturtechniken des künstlerischen Ausdruckes, und damit den Bezug zwischen Kunst und Medientechnologie zu ergründen, wurde das Verhältnis zwischen dem Betrachter und dem Betrachteten erforscht. Begriffe wie Originalität, Repräsentation, Imitation sowie Aneignung und Rezeption kommen an historischen Beispielen zur Diskussion.
Praktischer Teil: Mit zwei Ausstellungen (Malerei, Installation) wurden verschiedene Modelle des Sehens problematisiert, um kulturelle und historische Variablen zu ermitteln, die visuelle Kultur begründen. Außerdem wurden die Unterschiede zwischen Beobachter und Betrachter/Zuschauer in Ausstellungssituationen hinterfragt.
Kurzfassung:
Medientechnologie hat sich selbst zu einer Kunstform entwickelt. Sie kann Künstler dabei unterstützen, ihre Ideen handwerklich umzusetzen (Beispiel: Camera Obscura) und zu reflektieren. Dabei geht es um mehr als um technische Hilfmittel für den künstlerischen Ausdruck. Wird die Beziehung zwischen Betrachter und Betrachtetem als eine Transaktion gesehen, in der beide Begriffe gleichermaßen aufs Spiel gesetzt werden, dann ist es notwendig eine Visualität zu bestimmen, an der der Betrachter (im Sinne von Jonathan Crary) aktiv teilnimmt. Das Sehen darf nicht als absolute Erfahrung verstanden werden, denn einzeln analysiert – ohne Einbeziehung anderer Sinneswahrnehmungen und deren mediale Erweiterungen – führt es zu keinem adäquaten Verständnis davon, wie Bedeutungen produziert werden. Daraus ergibt sich die Forschungsfrage, wie die künstlerische Reaktion auf die im 19. Jahrhundert aufstrebenden Fotografie die Ausdrucksformen beeinflusste und ob sich die gegenseitige Abhängigkeit von Malerei und Fotografie wissenschaftlich-künstlerisch rekonstruieren lässt.
Die theoretische Referenz für diese Forschung bildeten Theorieansätze nicht der Kunstgeschichte, sondern der „Visual Culture Studies“, konkret: Martin Jay („Scopic Regimes of Modernity“), Jonathan Crary („Techniques of the Observer“) und Rosalind Krauss („Originality“).
Dazu wurde die Rezeption der aufkommenden Fotografie in der künstlerischen Produktion beispielhaft untersucht, wobei mit Eugène Delacroix, Gustave Caillebotte sowie dem künstlerischen Dialog zwischen Henri Matisse und Brassai die Problematik herausgearbeitet wurde, mit der sich die bildende Kunst im Lauf jener Jahrzehnte, in denen die Fotografie sich etabliert hat, konfrontiert sah. Sie war eine medientechnische Neuheit mit älteren Wurzeln und diente der Malerei als Hilfsmittel (Camera Obscura) und hat durch ihr technische Potenzial dennoch das Verständnis von Kunst radikal verändert: sie löste das Ideal einer bestimmten Maltechnik ab, die sich mit dem Verbergen des Pinselstriches verband, und bedeutete in diesem gewissen Sinn das „Ende der Kunst“ (nach Paul Delaroche).
Bis in die heutige Kunstproduktion zieht sich die Frage, was nach dem Ende der Perfektionierung von Reproduktion durch ihre Übernahme mittels medientechnischer Apparatur, die nun selbst zum Ausdruck strebt, überhaupt noch ein „Kunstwerk“ ist oder sein kann. Technisch gestützte Formen der Aneignung und Imitation stellen das klassische Wertemodell der meisterlich ausgeführten Repräsentation von Wirklichkeit in Frage, obwohl „Originalität“ angesichts der Flut von Reproduktionen doch immer noch - oder gerade deswegen - eine Wertschätzung erfährt.
Daher wurden dann auch im künstlerischen Teil verschiedene Modelle des Sehens getestet, um kulturelle und historische Variablen zu ermitteln, die visuelle Kultur beeinflussen und festlegen. Dabei wurde vor allem auch die Rolle der Beobachter reflektiert - die anders als bei Unterhaltungsmedien - in Kunstkontexten eben keine passiven Zuschauer sind. Was den Künstler, und was den Betrachter von Kunst definiert, lässt sich gleichwohl weder auf ein bestimmte Sinnlichkeit noch eine bestimmte Medientechnologie reduzieren.
Wie schon nach dem Aufkommen der Fotografie werden Künstler weiterhin auf der Suche nach neuen Ausdrucksformen sein, um andere Weltwahrnehmungen und neue, andere Perspektiven menschlicher Existenz zu erlangen. Mediale Technologien haben sie dabei immer schon unterstützt. Aus meiner Untersuchung schließe ich, dass neue Technologien Kunst nicht definitv beeinflussen, wohl aber ihren Entstehungsprozess verändern und beeinflussen können. Die Frage, wie das geschieht und welche Effekte es zeitigt, bedarf einer stets erneuerten Verhandlung.
Daraus folgt die Schlussfolgerung, dass man von Künstlern verlangen kann oder sogar muss, sich vor der Wirklichkeit der Technologie nicht zurückzuziehen, sondern sich medientechnische Kompetenzen anzueignen und sich aktiv am Diskurs um neue Technologien zu beteiligen.
Interactive visualization based on 3D computer graphics nowadays is an indispensable part of any simulation software used in engineering. Nevertheless, the implementation of such visualization software components is often avoided in research projects because it is a challenging and potentially time consuming task. In this contribution, a novel Java framework for the interactive visualization of engineering models is introduced. It supports the task of implementing engineering visualization software by providing adequate program logic as well as high level classes for the visual representation of entities typical for engineering models. The presented framework is built on top of the open source visualization toolkit VTK. In VTK, a visualization model is established by connecting several filter objects in a so called visualization pipeline. Although designing and implementing a good pipeline layout is demanding, VTK does not support the reuse of pipeline layouts directly. Our framework tailors VTK to engineering applications on two levels. On the first level it adds new – engineering model specific – filter classes to VTK. On the second level, ready made pipeline layouts for certain aspects of engineering models are provided. For instance there is a pipeline class for one-dimensional elements like trusses and beams that is capable of showing the elements along with deformations and member forces. In order to facilitate the implementation of a graphical user interface (GUI) for each pipeline class, there exists a reusable Java Swing GUI component that allows the user to configure the appearance of the visualization model. Because of the flexible structure, the framework can be easily adapted and extended to new problem domains. Currently it is used in (i) an object-oriented p-version finite element code for design optimization, (ii) an agent based monitoring system for dam structures and (iii) the simulation of destruction processes by controlled explosives based on multibody dynamics. Application examples from all three domains illustrates that the approach presented is powerful as well as versatile.
The optimization of continuous structures requires careful attention to discretization errors. Compared to ordinary low order formulation (h-elements) in conjunction with an adaptive mesh refinement in each optimization step, the use of high order finite elements (so called p-elements) has several advantages. However, compared to the h-method a higher order finite element analysis program poses higher demands from a software engineering point of view. In this article the basics of an object oriented higher order finite element system especially tailored to the use in structural optimization is presented. Besides the design of the system, aspects related to the employed implementation language Java are discussed.
Wissenschaftliches Kolloquium vom 24. bis 27. April 2003 in Weimar an der Bauhaus-Universität zum Thema: ‚MediumArchitektur - Zur Krise der Vermittlung'
Bei der direkten thermische Umwandlung von Gips in Stuckgips entstehen texturierte Halbhydratkristallite von geringer Beständigkeit gegen hygro-mechnische Beanspruchung. Überlässt man diese texturierten Kristallite einer natürlichen Alterung, werden \"Heilungseffekte\" beobachtet, die durch lokale Umkristallisierungsreaktion an Oberflächendefekten erklärt werden können. Die gealterten Stuckgipse sind stabiler gegen hygro-mechanische Beanspruchungen. Durch Besprühung von Gips mit verdünnten wässrigen Salzlösungen vor der Calcivierung entsteht aridisierter Stuck geringer texturiert und damit stabiler gegen hygro-mechanische Beanspruchungen.
Für die weitgehende Nutzung der enthaltenen Nährstoffe in häuslichem Abwasser und die Realisierung des Kreislaufgedankens auch in kommunalen Abwassersystemen ist eine Trennung der Abwasserströme, wie sie vielfach bereist in der industriellen Produktion eingesetzt wird, Vorrausetzung. Die getrennte Erfassung und Sammlung sowie die Nutzung bzw. Behandlung der einzelnen Teilströme weicht von den üblichen Verfahren der bisher praktizierten end-of-pipe-Systeme ab und es gilt nach alternativen Verfahrensmöglichkeiten zu suchen, um die Ziele eines teilstromorientierten Abwasserkonzeptes zu verwirklichen. Im Rahmen dieser Arbeit wird ein anaerobes mesophiles Behandlungsverfahren für den Teilstrom Braunwasser untersucht. Zu diesem Zweck wurden verschieden Versuche mit Faeces mit unterschiedlichen Wassergehalten und in unterschiedlichen Mischungen von Einsatz des Rohsubstrates bis hin zur Zugabe von Urin, Wasser und/oder Impfschlamm untersucht. Während der Versuche in temperierten Reaktoren fand eine Aufzeichnung der Gaserträge der einzelnen Ansätze, der pH-Werte in ausgewählten Ansätzen, der Raumtemperatur und der Substrattemperatur im Reaktor statt. Diese verschiedenen Ansätze sind anhand ihrer Zusammensetzung dargestellt und in den gewonnenen Ergebnissen untereinander und mit denen in der Startliteratur angegebenen Werten verglichen und bewertet. Ziel der anaeroben Behandlung war es, ein stabilisiertes Substrat aus der anaeroben Stufe zu erhalten. Aus den gewonnenen Ergebnissen wird ein Verfahrensvorschlag für eine anaerobe Stabilisierung gemacht.
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Wissenschaftliches Kolloquium vom 27. bis 30. Juni 1989 in Weimar an der Hochschule für Architektur und Bauwesen zum Thema: ‚Produktivkraftentwicklung und Umweltgestaltung. Sozialer und wissenschaftlich-technischer Fortschritt in ihren Auswirkungen auf Architektur und industrielle Formgestaltung in unserer Zeit. Zum 100. Geburtstag von Hannes Meyer'
Current disaster management procedures rely primarily on heuristics which result in their strategies being very cautious and sub-optimum in terms of saving life, minimising damage and returning the building to its normal function. Also effective disaster management demands decentralized, dynamic, flexible, short term and across domain resource sharing, which is not well supported by existing distributing computing infrastructres. The paper proposes a conceptual framework for emergency management in the built environment, using Semantic Grid as an integrating platform for different technologies. The framework supports a distributed network of specialists in built environment, including structural engineers, building technologists, decision analysts etc. It brings together the necessary technology threads, including the Semantic Web (to provide a framework for shared definitions of terms, resources and relationships), Web Services (to provide dynamic discovery and integration) and Grid Computing (for enhanced computational power, high speed access, collaboration and security control) to support rapid formation of virtual teams for disaster management. The proposed framework also make an extensive use of modelling and simulation (both numerical and using visualisations), data mining (to find resources in legacy data sets) and visualisation. It also include a variety of hardware instruments with access to real time data. Furthermore the whole framework is centred on collaborative working by the virtual team. Although focus of this paper is on disaster management, many aspects of the discussed Grid and Visualisation technologies will be useful for any other forms of collaboration. Conclusions are drawn about the possible future impact on the built environment.
As one of its primary objectives, Computer Graphics aims at the simulation of fabrics’ complex reflection behaviour. Characteristic surface reflectance of fabrics, such as highlights, anisotropy or retro-reflection arise the difficulty of synthesizing. This problem can be solved by using Bidirectional Texture Functions (BTFs), a 2D-texture under various light and view direction. But the acquisition of Bidirectional Texture Functions requires an expensive setup and the measurement process is very time-consuming. Moreover, the size of BTF data can range from hundreds of megabytes to several gigabytes, as a large number of high resolution pictures have to be used in any ideal cases. Furthermore, the three-dimensional textured models rendered through BTF rendering method are subject to various types of distortion during acquisition, synthesis, compression, and processing. An appropriate image quality assessment scheme is a useful tool for evaluating image processing algorithms, especially algorithms designed to leave the image visually unchanged. In this contribution, we present and conduct an investigation aimed at locating a robust threshold for downsampling BTF images without loosing perceptual quality. To this end, an experimental study on how decreasing the texture resolution influences perceived quality of the rendered images has been presented and discussed.
Next, two basic improvements to the use of BTFs for rendering are presented: firstly, the study addresses the cost of BTF acquisition by introducing a flexible low-cost step motor setup for BTF acquisition allowing to generate a high quality BTF database taken at user-defined arbitrary angles. Secondly, the number of acquired textures to the perceptual quality of renderings is adapted so that the database size is not overloaded and can fit better in memory when rendered.
Although visual attention is one of the essential attributes of HVS, it is neglected in most existing quality metrics. In this thesis an appropriate objective quality metric based on extracting visual attention regions from images and adequate investigation of the influence of visual attention on perceived image quality assessment, called Visual Attention Based Image Quality Metric (VABIQM), has been proposed. The novel metric indicates that considering visual saliency can offer significant benefits with regard to constructing objective quality metrics to predict the visible quality differences in images rendered by compressed and non-compressed BTFs and also outperforms straightforward existing image quality metrics at detecting perceivable differences.
In der vorliegenden Ph.D.-Arbeit werden die Bereiche Materialität, Objektkultur und Physical Computing adressiert. Der Autor erkennt nun durch die durchlaufene intensive theoretische Betrachtungsweise des Themas Materialität die Bedeutung von Tastsinn und Objektoberflächen für den Alltag des praktizierenden Gestalters und proklamiert eine Wende und Hinwendung der Designpraxis zu den Potenzialen von Materialität und deren Bedeutung für die Akteure. Die Aufgabe der Praxisforschung ist es, eine inklusive Optimierungsmethode des Produktdesigns zu gestalten, mit der Designentwicklungen durch überprüfbare Nutzungsdaten optimiert werden können. Die taktile Pilotmethode ergab auf Basis der Generierung von Nutzerkarten Erkenntnisse über biometrische Werte, individuelle Körpergrößen und unterschiedliche Handhabungsprinzipien.
This study is focused on finite element analysis of a model comprising femur into which a femoral component of a total hip replacement was implanted. The considered prosthesis is fabricated from a functionally graded material (FGM) comprising a layer of a titanium alloy bonded to a layer of hydroxyapatite. The elastic modulus of the FGM was adjusted in the radial, longitudinal, and longitudinal-radial directions by altering the volume fraction gradient exponent. Four cases were studied, involving two different methods of anchoring the prosthesis to the spongy bone and two cases of applied loading. The results revealed that the FG prostheses provoked more SED to the bone. The FG prostheses carried less stress, while more stress was induced to the bone and cement. Meanwhile, less shear interface stress was stimulated to the prosthesis-bone interface in the noncemented FG prostheses. The cement-bone interface carried more stress compared to the prosthesis-cement interface. Stair climbing induced more harmful effects to the implanted femur components compared to the normal walking by causing more stress. Therefore, stress shielding, developed stresses, and interface stresses in the THR components could be adjusted through the controlling stiffness of the FG prosthesis by managing volume fraction gradient exponent.
Welche Zukünfte?
(2017)
This term paper presents a literature review and discusses concepts of the following point: 1- Factors affecting small-strain stiffness in soil; 2- Methods to determine small-strain shear stiffness in laboratory and in-situ; 3- Brief introduction into wave propagation and 4- Bender elements technique to determine shear wave velocity in soil.
The initial shear modulus, Gmax, of soil is an important parameter for a variety of geotechnical design applications. This modulus is typically associated with shear strain levels about 5*10^-3% and below. The critical role of soil stiffness at small-strains in the design and analysis of geotechnical infrastructure is now widely accepted.
Gmax is a key parameter in small-strain dynamic analyses such as those to predict soil behavior or soil-structure interaction during earthquake, explosions, machine or traffic vibration where it is necessary to know how the shear modulus degrades from its small-strain value as the level of shear strain increases. Gmax can be equally important for small-strain cyclic situations such as those caused by wind or wave loading and for small-strain static situations as well. Gmax may also be used as an indirect indication of various soil parameters, as it, in many cases, correlates well to other soil properties such as density and sample disturbance. In recent years, a technique using bender elements was developed to investigate the small-strain shear modulus Gmax.
The objective of this thesis is to study the initial shear stiffness for various sands with different void ratios, densities, grain size distribution under dry and saturated conditions, then to compare empirical equations to predict Gmax and results from other testing devices with results of bender elements from this study.
Biomembranes are selectively permeable barriers that separate the internal components of the cell from its surroundings. They have remarkable mechanical behavior which is characterized by many phenomena, but most noticeably their fluid-like in-plane behavior and solid-like out-of-plane behavior. Vesicles have been studied in the context of discrete models, such as Molecular Dynamics, Monte Carlo methods, Dissipative Particle Dynamics, and Brownian Dynamics. Those methods, however, tend to have high computational costs, which limited their uses for studying atomistic details. In order to broaden the scope of this research, we resort to the continuum models, where the atomistic details of the vesicles are neglected, and the focus shifts to the overall morphological evolution. Under the umbrella of continuum models, vesicles morphology has been studied extensively. However, most of those studies were limited to the mechanical response of vesicles by considering only the bending energy and aiming for the solution by minimizing the total energy of the system. Most of the literature is divided between two geometrical representation methods; the sharp interface methods and the diffusive interface methods. Both of those methods track the boundaries and interfaces implicitly. In this research, we focus our attention on solving two non-trivial problems. In the first one, we study a constrained Willmore problem coupled with an electrical field, and in the second one, we investigate the hydrodynamics of a vesicle doublet suspended in an external viscous fluid flow.
For the first problem, we solve a constrained Willmore problem coupled with an electrical field using isogeometric analysis to study the morphological evolution of vesicles subjected to static electrical fields. The model comprises two phases, the lipid bilayer, and the electrolyte. This two-phase problem is modeled using the phase-field method, which is a subclass of the diffusive interface methods mentioned earlier. The bending, flexoelectric, and dielectric energies of the model are reformulated using the phase-field parameter. A modified Augmented-Lagrangian (ALM) approach was used to satisfy the constraints while maintaining numerical stability and a relatively large time step. This approach guarantees the satisfaction of the constraints at each time step over the entire temporal domain.
In the second problem, we study the hydrodynamics of vesicle doublet suspended in an external viscous fluid flow. Vesicles in this part of the research are also modeled using the phase-field model. The bending energy and energies associated with enforcing the global volume and area are considered. In addition, the local inextensibility condition is ensured by introducing an additional equation to the system. To prevent the vesicles from numerically overlapping, we deploy an interaction energy definition to maintain a short-range repulsion between the vesicles. The fluid flow is modeled using the incompressible Navier-Stokes equations and the vesicle evolution in time is modeled using two advection equations describing the process of advecting each vesicle by the fluid flow. To overcome the velocity-pressure saddle point system, we apply the Residual-Based Variational MultiScale (RBVMS) method to the Navier-Stokes equations and solve the coupled systems using isogeometric analysis. We study vesicle doublet hydrodynamics in shear flow, planar extensional flow, and parabolic flow under various configurations and boundary conditions.
The results reveal several interesting points about the electrodynamics and hydrodynamics responses of single vesicles and vesicle doublets. But first, it can be seen that isogeometric analysis as a numerical tool has the ability to model and solve 4th-order PDEs in a primal variational framework at extreme efficiency and accuracy due to the abilities embedded within the NURBS functions without the need to reduce the order of the PDE by creating an intermediate environment. Refinement whether by knot insertion, order increasing or both is far easier to obtain than traditional mesh-based methods. Given the wide variety of phenomena in natural sciences and engineering that are mathematically modeled by high-order PDEs, the isogeometric analysis is among the most robust methods to address such problems as the basis functions can easily attain high global continuity.
On the applicational side, we study the vesicle morphological evolution based on the electromechanical liquid-crystal model in 3D settings. This model describing the evolution of vesicles is composed of time-dependent, highly nonlinear, high-order PDEs, which are nontrivial to solve. Solving this problem requires robust numerical methods, such as isogeometric analysis. We concluded that the vesicle tends to deform under increasing magnitudes of electric fields from the original sphere shape to an oblate-like shape. This evolution is affected by many factors and requires fine-tuning of several parameters, mainly the regularization parameter which controls the thickness of the diffusive interface width. But it is most affected by the method used for enforcing the constraints. The penalty method in presence of an electrical field tends to lock on the initial phase-field and prevent any evolution while a modified version of the ALM has proven to be sufficiently stable and accurate to let the phase-field evolve while satisfying the constraints over time at each time step. We show additionally the effect of including the flexoelectric nature of the Biomembranes in the computation and how it affects the shape evolution as well as the effect of having different conductivity ratios. All the examples were solved based on a staggered scheme, which reduces the computational cost significantly.
For the second part of the research, we consider vesicle doublet suspended in a shear flow, in a planar extensional flow, and in a parabolic flow. When the vesicle doublet is suspended in a shear flow, it can either slip past each other or slide on top of each other based on the value of the vertical displacement, that is the vertical distance between the center of masses between the two vesicles, and the velocity profile applied. When the vesicle doublet is suspended in a planar extensional flow in a configuration that resembles a junction, the time in which both vesicles separate depends largely on the value of the vertical displacement after displacing as much fluid from between the two vesicles. However, when the vesicles are suspended in a tubular channel with a parabolic fluid flow, they develop a parachute-like shape upon converging towards each other before exiting the computational domain from the predetermined outlets. This shape however is affected largely by the height of the tubular channel in which the vesicle is suspended. The velocity essential boundary conditions are imposed weakly and strongly. The weak implementation of the boundary conditions was used when the velocity profile was defined on the entire boundary, while the strong implementation was used when the velocity profile was defined on a part of the boundary. The strong implementation of the essential boundary conditions was done by selectively applying it to the predetermined set of elements in a parallel-based code. This allowed us to simulate vesicle hydrodynamics in a computational domain with multiple inlets and outlets. We also investigate the hydrodynamics of oblate-like shape vesicles in a parabolic flow. This work has been done in 2D configuration because of the immense computational load resulting from a large number of degrees of freedom, but we are actively seeking to expand it to 3D settings and test a broader set of parameters and geometrical configurations.
This paper describes a couple of new truss structures based on fractal geometry. One is the famous Sierpinski Gasket and another is a fractal triangle derived by means of applying a process forming leaves of a cedar tree using M. F. Barnsley’s contraction mapping theory. Therefore a pair of x-y coordinates of an arbitrary nodal point on the structures are generated easily if IFS(Iterated Function System) codes and a scale of them are specified. Structural members are defined similarly. Thus data for frame analysis can be generated automatically, which is significant if the objective structure has complex configuration. Next analytical results under vertical and wind loadings in Japanese Building Code are shown. Here members are assumed to be timber and to have cross section of 15cm×15cm. Finally authors conclude that geometrically new truss structures were developed and automatic data generation for frame analysis was attained using IFS. Analytical results show they contribute to saving material when compared it with King-post truss.
Housing estates were fundamentally conceived upon state socialist utopia ideas to provide standard housing for citizens. While former state socialist housing estates have been extensively researched in the field of architecture, urban and sociology studies, there is still a gap in identifying how production processes affect morphological changes during the post-socialist era. This thesis compares the processes in the production of the largest housing estates of Marzahn in GDR and Petržalka in Czechoslovakia from 1970 to 1989 through contextual analysis of primary and secondary sources, which include visual maps, diagrams from professional architecture and planning journals, government documents and textbooks, as well as academic journals, books and newspaper articles. Then it discusses how these processes inadvertently created conducive conditions affecting their development in the market economy after 1989. It then interprets the results through application of Actor-Network Theory and Historical Institutionalism, while conceptualising them through David Harvey’s dialectical utopianism theory. Harvey (2000) delineates two types of utopia, one of spatial form and one of process. The former refers to materialised ideals in physical forms whereas the latter refers to the ongoing process of spatializing. The thesis aims to show how the production of Marzahn in GDR was more path dependent on policies established in 1950s and 1960s whereas Petržalka was a product of new Czechoslovakian policies in 1970s, changing aspects of the urban planning process, a manifestation of a more emphatic technocratic thinking on a wider scale. This ultimately influences the trajectories of development after 1989, showing more effects in Petržalka.
Object-Oriented Damage Information Modeling Concepts and Implementation for Bridge Inspection
(2022)
Bridges are designed to last for more than 50 years and consume up to 50% of their life-cycle costs during their operation phase. Several inspections and assessment actions are executed during this period. Bridge and damage information must be gathered, digitized, and exchanged between different stakeholders. Currently, the inspection and assessment practices rely on paper-based data collection and exchange, which is time-consuming and error-prone, and leads to loss of information. Storing and exchanging damage and building information in a digital format may lower costs and errors during inspection and assessment and support future needs, for example, immediate simulations regarding performance assessment, automated maintenance planning, and mixed reality inspections. This study focused on the concept for modeling damage information to support bridge reviews and structural analysis. Starting from the definition of multiple use cases and related requirements, the data model for damage information is defined independently from the subsequent implementation. In the next step, the implementation via an established standard is explained. Functional tests aim to identify problems in the concept and implementation. To show the capability of the final model, two example use cases are illustrated: the inspection review of the entire bridge and a finite-element analysis of a single component. Main results are the definition of necessary damage data, an object-oriented damage model, which supports multiple use cases, and the implementation of the model in a standard. Furthermore, the tests have shown that the standard is suitable to deliver damage information; however, several software programs lack proper implementation of the standard.
In Germany, bridges have an average age of 40 years. A bridge consumes between 0.4% and 2% of its construction cost per year over its entire life cycle. This means that up to 80% of the construction cost are additionally needed for operation, inspection, maintenance, and destruction. Current practices rely either on paperbased inspections or on abstract specialist software. Every application in the inspection and maintenance sector uses its own data model for structures, inspections, defects, and maintenance. Due to this, data and properties have to be transferred manually, otherwise a converter is necessary for every data exchange between two applications. To overcome this issue, an adequate model standard for inspections, damage, and maintenance is necessary. Modern 3D models may serve as a single source of truth, which has been suggested in the Building Information Modeling (BIM) concept. Further, these models offer a clear visualization of the built infrastructure, and improve not only the planning and construction phases, but also the operation phase of construction projects. BIM is established mostly in the Architecture, Engineering, and Construction (AEC) sector to plan and construct new buildings. Currently, BIM does not cover the whole life cycle of a building, especially not inspection and maintenance. Creating damage models needs the building model first, because a defect is dependent on the building component, its properties and material. Hence, a building information model is necessary to obtain meaningful conclusions from damage information. This paper analyzes the requirements, which arise from practice, and the research that has been done in modeling damage and related information for bridges. With a look at damage categories and use cases related to inspection and maintenance, scientific literature is discussed and synthesized. Finally, research gaps and needs are identified and discussed.
Paper-based data acquisition and manual transfer between incompatible software or data formats during inspections of bridges, as done currently, are time-consuming, error-prone, cumbersome, and lead to information loss. A fully digitized workflow using open data formats would reduce data loss, efforts, and the costs of future inspections. On the one hand, existing studies proposed methods to automatize data acquisition and visualization for inspections. These studies lack an open standard to make the gathered data available for other processes. On the other hand, several studies discuss data structures for exchanging damage information among different stakeholders. However, those studies do not cover the process of automatic data acquisition and transfer. This study focuses on a framework that incorporates automatic damage data acquisition, transfer, and a damage information model for data exchange. This enables inspectors to use damage data for subsequent analyses and simulations. The proposed framework shows the potentials for a comprehensive damage information model and related (semi-)automatic data acquisition and processing.
A safe and economic structural design based on the semi-probabilistic concept requires statistically representative safety elements, such as characteristic values, design values, and partial safety factors. Regarding climate loads, the safety levels of current design codes strongly reflect experiences based on former measurements and investigations assuming stationary conditions, i.e. involving constant frequencies and intensities. However, due to climate change, occurrence of corresponding extreme weather events is expected to alter in the future influencing the reliability and safety of structures and their components. Based on established approaches, a systematically refined data-driven methodology for the determination of design parameters considering nonstationarity as well as standardized targets of structural reliability or safety, respectively, is therefore proposed. The presented procedure picks up fundamentals of European standardization and extends them with respect to nonstationarity by applying a shifting time window method. Taking projected snow loads into account, the application of the method is exemplarily demonstrated and various influencing parameters are discussed.
In dieser Arbeit wird eine umfassende Untersuchung der raumakustischen Qualität der Schlosskapelle des Weimarer Residenzschlosses für den Zustand, wie sie zwischen 1658 und 1774 existierte, durchgeführt. Die Schlosskapelle als sakraler Raum innerhalb der Schlossanlage diente der Ausübung religiöser Handlungen und war fester Bestandteil des kulturellen Lebens am Weimarer Hof. Eine wesentliche Bedeutung erlangte sie in diesem Zusammenhang als musikalische Wirkungsstätte Johann Sebastian Bachs. Mit ihrer akustischen Qualität hatte sie einen erheblichen Einfluss auf sein musikalisches Schaffen. Die Untersuchung der raumakustischen Situation stellt damit eine notwendige Grundlage für eine musikwissenschaftliche Einordnung der Schlosskapelle als Aufführungsstätte geistlicher Kompositionen dar. Der raumakustische Zustand der Weimarer Schlosskapelle ist eng mit der baulichen Entwicklung der gesamten Schlossanlage verbunden, die infolge äußerer Einflüsse einem steten Wandel unterlag. Die Umgestaltung der Schlosskapelle zu Beginn des 17. Jahrhunderts erfolgte nach barocken Raumvorstellungen. Einen wesentlichen Einfluss auf die Gestaltung des Innenraumes übte zudem die reformierte Kirche mit ihren liturgischen Anforderungen aus. Die historische Entwicklung der architektonischen Stilepoche sowie der protestantischen Kirche wird in Bezug zu dem akustischen Erscheinungsbild der Schlosskapelle näher untersucht. Ausgehend von der architektonischen Rekonstruktion wird die Raumstruktur der historischen Schlosskapelle in ein Computermodell übertragen, mit dem die Berechnung akustischer Bewertungskriterien möglich ist. Eine ausgiebige Recherche nach verwendeten Materialien und der Ausbildung baulicher Konstruktionen ist dabei die Grundvoraussetzung für aussagekräftige Simulationsergebnisse. Die Wahl der Materialparameter sowie der Einfluss der geometrischen Besonderheiten der Weimarer Schlosskapelle auf die simulierten Schallfeldparameter werden durch die Untersuchung eines Referenzobjektes verifiziert. Dafür werden die akustischen Bewertungskriterien mit einer raumakustischen Messung ermittelt und mit Simulationsergebnissen verglichen. Ein besonderes Interesse bei der Simulation der Schlosskapelle gilt der Nachhallzeit als Charakteristikum der Halligkeit, die in sakralen Gebäuden die auffälligste akustische Raumeigenschaft darstellt. Mit der rekonstruierten Nachhallzeit wird die Schlosskapelle mit barocken Kirchen verglichen und bezüglich ihrer Lage im baustiltypischen Bereich beurteilt. Der Direktschall und die im zeitig folgenden Reflexionen sind bei der raumakustischen Simulation maßgeblicher Gegenstand der Betrachtung. Während der Nachhall das Verschmelzen einzelner Töne zu einem Gesamtklang fördert, ist der Direktschall für die Deutlichkeit von Sprache und der klanglichen Durchsichtigkeit von musikalischen Strukturen verantwortlich. Der Einfluss des Direktschalls wird mit speziellen Energiekriterien beurteilt, mit denen gezielte Aussagen über die akustische Qualität einzelner Platzbereiche möglich sind. Die unterschiedlichen akustischen Anforderungen an die Schlosskapelle bei der jeweiligen Nutzung des Raumes werden mit den Energiekriterien differenziert untersucht und bewertet.
Die Finite-Elemente-Methode entwickelte sich in den letzten beiden Jahrzehnten zu einem wichtigen und mächtigen Werkzeug für Berechnungen im Ingenieurwesen. Waren zu Beginn dieser Entwicklung nur kleine Probleme lösbar, sind mit der heutigen Rechentechnik Systeme mit vielen Tausend Freiheitsgraden berechenbar. Durch diese Entwicklung werden Berechnungen von sehr komplizierten Strukturen möglich. Besonders in der Automobilindustrie kann mit einem solchen Verfahren die Konstruktion von Strukturen verbessert und optimiert werden. Um gute Ergebnisse bei den Berechnungen erzielen zu können müssen Programme entwickelt werden, die entsprechende mathematische Methoden enthalten. Besonders im Maschinenbau, aber auch in anderen Ingenieurbereichen wie dem Bauwesen, werden häufig gekrümmte dünne Schalenstrukturen untersucht. Eine effiziente und logische Konsequenz daraus ist die Nutzung von Schalenelementen innerhalb der FE-Berechnungen. Wird nun noch Wert auf eine realitätsnahe Modellierung gelegt, dann lässt es sich oft nicht vermeiden von der im Bauwesen üblichen Theorie erster Ordnung in eine nichtlineare Berechnungstheorie zu wechseln. Hierfür sind Methoden notwendig, die es vermögen diese Theorie abzubilden. Sollen Schalenstrukturen mit großen Verschiebungen betrachtet werden, ist es notwendig, die linearen Elementformulierungen um die nichtlinearen Ansätze der Strukturmechanik zu erweitern. Die Grundlage dieser Formulierung stellt oft die Lagrange'sche Betrachtungsweise dar, die Berechnungen an Strukturen mit großen Verformungen zulässt. Die Inhalte dieser Formulierung werden in Abschnitt 1.5 dieser Arbeit betrachtet. Räumlich veränderlichen Strukturen, also solche mit großen Verformungen, sind im Allgemeinen mit großen Rotationen verknüpft. Diese Rotationen werden bei Volumenelementen durch die unterschiedliche Verschiebung zweier benachbarter Elementknoten realisiert. Bei der Formulierung von dünnen Schalenelementen wird hingegen die Struktur als gekrümmte Raumfläche betrachtet. Da in Dickenrichtung nur ein Elementknoten zur Verfügung steht, muss die Rotation über eine andere Formulierung in die Berechnung einfließen. Ansätze zu allgemeinen großen Rotationen werden im Kapitel 2 betrachtet und für den Einsatz in einer Elementformulierung vorbereitet. Für die beschriebenen Schalenstrukturen werden häufig vierknotige Elemente genutzt, da mit ihnen Strukturen in einfacher Weise abgebildet werden können. Ein weiterer Vorteil besteht in der sich ergebenden geringen Bandbreite der Elementmatrizen. Diese Elementgruppe besitzt jedoch bei der klassischen isoparametrischen Formulierung einen großen Nachteil, der in der Erzeugung von parasitären Steifigkeitsanteilen besteht. Um dieses Sperrverhalten, was auch als 'Locking' bekannt ist, zu minimieren wurden in der Vergangenheit verschiedene Ansätze entwickelt. Ein sehr effizienter Ansatz zur Minimierung des Transversalschublockings bei bilinearen Schalenelementen stellt das Verfahren der veränderten Verzerrungsverläufe auf Elementebene dar. Dieses Verfahren wird vielfach in der Literatur aufgegriffen und als 'Assumed-Natural-Strain'-Ansatz oder als 'Mixed Interpolation of Tensorial Components' bezeichnet. Dieses Verfahren wird im Abschnitt 1.6 vorgestellt. Das Programmsystem SLang ermöglicht eine Berechnung von Strukturen mittels der Finite-Elemente-Methode. Um mit diesem Programm auch nichtlineare Probleme an Schalentragwerken berechnen zu können, wird im Rahmen dieser Diplomarbeit ein vierknotiges nichtlineares Schalenelement implementiert, das die genannten Ansätze für große Verformungen und finite Rotationen enthält. Für die Vermeidung von Transversalschublocking wird ein ANS-Ansatz in die Formulierung integriert. Das Kapitel 3 beschreibt die Formulierung dieses SHELL4N-Elementes. Dort werden die Elementmatrizen und deren Aufbau ausführlich dargestellt. Einige numerische Berechnungsbeispiele mit diesem neuen Element werden zur Evaluierung im Kapitel 4 dieser Arbeit dargestellt.
The conservation of living heritage sites is a highly complex process. Two factors need careful consideration in order to achieve a balance in the management of such sites: the conservation demands of conservation experts for built heritage and the needs of local people for development of their heritage living space. The complexity of factors involved make for an interesting study of living heritage, taken up by this research in its main case study of the town of Nan in Thailand.
Research into the historical background of Nan and its cultural heritage reveals a living heritage site, which is both unique and diverse. Present day Nan was examined using a variety of analysis tools, which were applied to data from interviews, empirical data, field surveys, and documents, in order to better understand the nature of the living heritage site and changing trends over time. Luang Prabang in Lao PDR, a World Heritage site since 1995, was also selected as a further case study with which to compare Nan’s potential World Heritage status from a point of view of changes to living heritage attributes.
The outcomes of the research indicate the importance of the management of the sites, which can be at risk of losing balance by focusing on one aspect of heritage to the detriment of the other. The conservation perspective, if allowed to dominate, as in Luang Prabang, can cause irreparable damage to the social fabric, where the development needs of the town are not met. This research concludes that a balance of power amongst stakeholders in the collaborative networks managing such sites is vital to sustaining a balance of living heritage attributes.
Heat, gas, and leachate are primary by-products of landfill processes in municipal solid waste landfills. In nuclear waste repository, temperature of the waste also raises due to radioactivity processes. Temperature increase in the repository induces hydro-mechanical processes of its sealing material. Moderate to high temperature is expected to be encountered in the field situation. In this thesis, a study on the thermo-hydro-mechanical behavior of compacted bentonite-sand mixtures which are among the materials proposed to be used as sealing material for landfills and hazardous waste repository is presented. Mixtures of a calcium-type bentonite, Calcigel, and quartz sand were used in this study. Series of tests including suction and swelling pressure measurement, drying-wetting under unconfined and confined conditions were conducted at a moderately high temperature. Tests at room temperature including basic and physico-chemical characterization, microstructure and fabric studies, and osmotic suction were conducted in order to provide insight into understanding the hydro-mechanical processes taking place in the bentonite. The experimental data obtained are presented and compared to the result of the previous tests for the same material performed by other researchers at room temperature. The changes in hydro-mechanical behavior due to elevated temperature were analyzed and discussed based on the suction components of soil which are influenced by temperature. At the end, conclusions concerning the temperature effects on the hydro-mechanical behavior of the materials are drawn and suggestions for future studies are made.
The thesis addresses journalistic, administrative and judicial historical documentation to analyze the links between aridity and geographical imaginaries in the province of Catamarca (Argentina), from a historical point of view. The research aims to contribute to the understanding of the "non-hegemonic" versions of Modernity, its territoriality and the productions of geographic imaginaries that they involve. To provide a broad purpose, it raises as an object of study the ways in which "modern" practices, actors, links, discourses and expectations about the territory are mobilized when they are located in a space in "other" water conditions. those that are intended to "civilize" it.
The general objective of the research is to analyze time-space controversies around water in the city and valley of Catamarca towards 19th and 20th centuries. The specific objectives derived are a) analyzing how various actors are related to waters behavior - in other words, the local water regime – in Catamarca and the meanings built around it. b) to analyze the controversies about the place of Catamarca and its water regime in the local and national geographic imaginary. c) analyze controversies in which the relationships between actors and materialities involved in modernization projects are put into discussion.
These concerns by the experience of the actors and by the historical-spatial imagination of the territory, combined, led to the construction of an interdisciplinary methodology based on tools from anthropology, sociology, geography and history.