Refine
Document Type
- Article (57)
- Doctoral Thesis (26)
- Part of a Book (16)
- Master's Thesis (7)
- Book (4)
- Preprint (3)
- Conference Proceeding (2)
- Habilitation (2)
- Report (2)
- Bachelor Thesis (1)
Institute
- Institut für Strukturmechanik (ISM) (42)
- Junior-Professur Bildtheorie (17)
- Professur Bauphysik (8)
- Professur Sozialwissenschaftliche Stadtforschung (7)
- Junior-Professur Organisation und vernetzte Medien (6)
- Institut für Europäische Urbanistik (5)
- Professur Bauchemie und Polymere Werkstoffe (3)
- Professur Denkmalpflege und Baugeschichte (3)
- Professur Modellierung und Simulation - Konstruktion (3)
- Bauhaus-Institut für zukunftsweisende Infrastruktursysteme (b.is) (2)
Keywords
- OA-Publikationsfonds2020 (27)
- Maschinelles Lernen (17)
- Machine learning (12)
- Künstlerische Forschung (10)
- Erdbeben (7)
- Deep learning (5)
- Theater (5)
- big data (5)
- Medien (4)
- Raumklima (4)
Year of publication
- 2020 (123) (remove)
Prediction of the groundwater nitrate concentration is of utmost importance for pollution control and water resource management. This research aims to model the spatial groundwater nitrate concentration in the Marvdasht watershed, Iran, based on several artificial intelligence methods of support vector machine (SVM), Cubist, random forest (RF), and Bayesian artificial neural network (Baysia-ANN) machine learning models. For this purpose, 11 independent variables affecting groundwater nitrate changes include elevation, slope, plan curvature, profile curvature, rainfall, piezometric depth, distance from the river, distance from residential, Sodium (Na), Potassium (K), and topographic wetness index (TWI) in the study area were prepared. Nitrate levels were also measured in 67 wells and used as a dependent variable for modeling. Data were divided into two categories of training (70%) and testing (30%) for modeling. The evaluation criteria coefficient of determination (R2), mean absolute error (MAE), root mean square error (RMSE), and Nash–Sutcliffe efficiency (NSE) were used to evaluate the performance of the models used. The results of modeling the susceptibility of groundwater nitrate concentration showed that the RF (R2 = 0.89, RMSE = 4.24, NSE = 0.87) model is better than the other Cubist (R2 = 0.87, RMSE = 5.18, NSE = 0.81), SVM (R2 = 0.74, RMSE = 6.07, NSE = 0.74), Bayesian-ANN (R2 = 0.79, RMSE = 5.91, NSE = 0.75) models. The results of groundwater nitrate concentration zoning in the study area showed that the northern parts of the case study have the highest amount of nitrate, which is higher in these agricultural areas than in other areas. The most important cause of nitrate pollution in these areas is agriculture activities and the use of groundwater to irrigate these crops and the wells close to agricultural areas, which has led to the indiscriminate use of chemical fertilizers by irrigation or rainwater of these fertilizers is washed and penetrates groundwater and pollutes the aquifer.
Die im Jahr 2020 in Deutschland praktizierte Siedlungs- und Wohnungspolitik erhält in Anbetracht ihrer Auswirkungen auf die soziale und ökologische Lage einen bitteren Beigeschmack. Arm und Reich triften weiter auseinander und einer zielgerichteten ökologischen Transformation der Art und Weise, wie Stadtentwicklung und Wohnungspolitik gestaltet werden,stehen noch immer historisch und systemisch bedingte Pfadabhängigkeiten im Weg. Diese werden nur durch eine integrierte Betrachtung sozialer und ökonomischer Aspekte sichtbar und deuten auf eine der ursprünglichen Fragen linker Gesellschaftsforschung hin: Die Auseinandersetzung mit dem Verhältnis von Eigentum und Gerechtigkeit.
Im Ergebnis stehen drei wesentliche Befunde: Der Diskurs zum Schutz des Klimas und der Biodiversität berührt direkt die Parameter Dichte, Nutzungsmischung und Flächeninanspruchnahme; zweitens steigt letztere relativ mit erhöhtem, individuell verfügbaren Kapital und insbesondere im selbstgenutztem Eigentum gegenüber Mietwohnungen; und drittens wächst der Eigentumsanteil mit fortschreitender Finanzialisierung des Wohnungsmarktes, sodass das Risiko sozialer und ökologischer Krisen sich verschärft.
When it comes to monitoring of huge structures, main issues are limited time, high costs and how to deal with the big amount of data. In order to reduce and manage them, respectively, methods from the field of optimal design of experiments are useful and supportive. Having optimal experimental designs at hand before conducting any measurements is leading to a highly informative measurement concept, where the sensor positions are optimized according to minimal errors in the structures’ models. For the reduction of computational time a combined approach using Fisher Information Matrix and mean-squared error in a two-step procedure is proposed under the consideration of different error types. The error descriptions contain random/aleatoric and systematic/epistemic portions. Applying this combined approach on a finite element model using artificial acceleration time measurement data with artificially added errors leads to the optimized sensor positions. These findings are compared to results from laboratory experiments on the modeled structure, which is a tower-like structure represented by a hollow pipe as the cantilever beam. Conclusively, the combined approach is leading to a sound experimental design that leads to a good estimate of the structure’s behavior and model parameters without the need of preliminary measurements for model updating.
Experimente lernen, Techniken tauschen. Ein spekulatives Handbuch
Das spekulative Handbuch bietet vielfältige Techniken für ein radikales Lernen und Vermitteln. Es umfasst konkrete Anleitungen, Erfahrungen und theoretische Überlegungen. Die Texte beteiligen sich an der Konzeption einer Vermittlung, die das gemeinsame Experimentieren (wieder) einführt.
Im Seminarraum, in Workshops, auf Festivals, in Fluren, Parks und der Stadt finden Lernen und Verlernen statt. Texte und Anleitungen u. a. zu: Filmessays, Collagen, Banküberfällen, der Universität der Toten, wildem Schreiben, konzeptuellem speed Dating, neurodiversem Lernen, Format-Denken, dem Theater der Sorge, dem Schreiblabor, dem Körperstreik.
Vor dem Hintergrund einer stetig wachsenden Nachfrage an Beton wie auch ambitionierter Reduktionsziele beim in der Zementproduktion anfallenden CO2 gelten calcinierte Tone als derzeit aussichtsreichste technische Neuerung im Bereich nachhaltiger Bindemittelkonzepte. Unter Ausnutzung ihrer Puzzolanität soll ein erheblicher Teil der Klinkerkomponente im Zement ersetzt werden, wobei der zu ihrer Aktivierung notwendige Energiebedarf vergleichsweise niedrig ist. Wesentliche Vorteile der Tone sind ihre weltweit nahezu unbegrenzte Verfügbarkeit sowie der äußerst geringe rohstoffbedingte CO2-Ausstoß während der Calcinierung. Schwierigkeiten auf dem Weg der Umsetzung bestehen allerdings in der Vielseitigkeit des Systems, welches durch eine hohe Varietät der Rohtone und des daraus folgenden thermischen Verhaltens gekennzeichnet ist. Entsprechend schwierig ist die Übertragbarkeit von Erfahrungen mit bereits etablierten calcinierten Tonen wie dem Metakaolin, der sich durch hohe Reinheit, einen aufwendigen Aufbereitungsprozess und eine entsprechend hohe Reaktivität auszeichnet. Ziel der Arbeit ist es daher, den bereits erlangten Kenntnisstand auf andere, wirtschaftlich relevante Tone zu erweitern und deren Eignung für die Anwendung im Beton herauszuarbeiten.
In einem mehrstufigen Arbeitsprogramm wurde untersucht, inwieweit großtechnisch nutzbare Tone aktivierbar sind und welche Eigenschaften sich daraus für Zement und Beton ergeben. Die dabei festgestellte Reihenfolge Kaolinit > Montmorillonit > Illit beschreibt sowohl die Reaktivität der Brennprodukte als auch umgekehrt die Höhe der optimalen Calciniertemperatur. Auch wandelt sich der Charakter der entstandenen Metaphasen in dieser Abfolge von röntgenamorph und hochreaktiv zu glasig und reaktionsträge. Trotz dieser Einordnung konnte selbst mit dem Illit eine mit Steinkohlenflugasche vergleichbare Puzzolanität festgestellt werden. Dies bestätigte sich anschließend in Parameterversuchen, bei denen die Einflüsse von Rohstoffqualität, Calcinierung, Aufbereitung und Zement hinsichtlich der Reaktivitätsausbeute bewertet wurden. Die Bandbreite der erzielbaren Qualitäten ist dabei immens und gipfelt nicht zuletzt in stark unterschiedlichen Wirkungen auf die Festbetoneigenschaften. Hier machte sich vor allem die für Puzzolane typische Porenverfeinerung bemerkbar, sodass viele von Transportvorgängen abhängige Schadmechanismen unterdrückt wurden. Andere Schadex-positionen wie der Frostangriff ließen sich durch Zusatzmaßnahmen wie dem Eintrag von Luftporen beherrschen. Zu bemängeln sind vor allem die schlechte Verarbeitbarkeit kaolinitischer Metatone wie auch die für Puzzolane stark ausgeprägte Carbonatisierungsneigung.
Wesentliches Ergebnis der Arbeit ist, dass auch Tone, die bisher als geringwertig bezüglich des Aktivierungspotentials galten, nutzbare puzzolanische Eigenschaften entwickeln können. So kann selbst ein stark verunreinigter Illit-Ton die Qualität von Flugasche erreichen. Mit stei-gendem Tonmineralgehalt sowie bei Präsens thermisch instabilerer Tonminerale wie Mont-morillonit und Kaolinit erweitert sich das Spektrum nutzbarer Puzzolanitäten bis hin zur hochreaktiven Metakaolin-Qualität. Damit lassen sich gute bis sehr gute Betoneigenschaften erzielen, sodass die Leistungsfähigkeit etablierter Kompositmaterialien erreicht wird. Somit sind die Voraussetzungen für eine umfangreiche Nutzung der erheblichen Tonmengen im Zement und Beton gegeben. Entsprechend können Tone einen effektiven Beitrag zu einer gesteigerten Nachhaltigkeit in der Baustoffproduktion weltweit leisten.
Die Ruine der Barfüßerkirche in Erfurt stellt eine der letzten Erinnerungen an die Zerstörungen der Stadt im Zweiten Weltkrieg dar. Sie wird bis heute temporär und saisonal kulturell genutzt. Im Rahmen eines Studienprojektes im Sommersemester 2019 wurden an der Bauhaus-Universität Weimar, betreut durch die Professur Denkmalpflege und Baugeschichte und unterstützt vom Initiativkreis Barfüßerkirche, Nutzungskonzepte für ein Museum für Mittelalterkunst und für einen Tagungsort untersucht. Der vorliegende Band dokumentiert die 14 studentischen Entwürfe, die für ein Weiterbauen an der Barfüßerkirche entstanden sind.
This article focuses on further developments of the background-oriented schlieren (BOS) technique to visualize convective indoor air flow, which is usually defined by very small density gradients. Since the light rays deflect when passing through fluids with different densities, BOS can detect the resulting refractive index gradients as integration along a line of sight. In this paper, the BOS technique is used to yield a two-dimensional visualization of small density gradients. The novelty of the described method is the implementation of a highly sensitive BOS setup to visualize the ascending thermal plume from a heated thermal manikin with temperature differences of minimum 1 K. To guarantee steady boundary conditions, the thermal manikin was seated in a climate laboratory. For the experimental investigations, a high-resolution DLSR camera was used capturing a large field of view with sufficient detail accuracy. Several parameters such as various backgrounds, focal lengths, room air temperatures, and distances between the object of investigation, camera, and structured background were tested to find the most suitable parameters to visualize convective indoor air flow. Besides these measurements, this paper presents the analyzing method using cross-correlation algorithms and finally the results of visualizing the convective indoor air flow with BOS. The highly sensitive BOS setup presented in this article complements the commonly used invasive methods that highly influence weak air flows.
In dieser Untersuchung wird eine Geschichte von Problemen der Gleichzeitigkeit zwischen Sehen und Hören, beziehungsweise der Synchronität von Bild und Ton, bis zur Entstehung des Tonfilms rekonstruiert. Dabei werden Linien gezogen zwischen diskursiven Konfigurationen und medialen Anordnungen, in denen das Verhältnis von Sehen und Hören oder Bild und Ton als zeitliches erscheint – in denen Sehen und Hören, Bild und Ton zwischen Mannigfaltigkeit und Einheit verschmelzen, auseinanderfallen, interagieren, redundant oder spezifisch werden, einander ergänzen, dominieren, verfehlen verdrängen, aufspalten…
Tonfilm ist in der Kinogeschichte eben nicht nur eine Ergänzung. Vielmehr ähnelt er dem Auftritt eines Gespensts, das das Wissen und die Techniken der Trennung der Sinne schon länger, vielleicht schon immer begleitet hatte. Das Auftreten des Tonfilms ist auch überhaupt früher Anlass eines weitreichenden Diskurses darüber, was Audiovision eigentlich sein könnte und sollte. Noch allgemeiner könnte auch davon gesprochen werden, dass Tonfilm eins der ersten großen Projekte der Konvergenz technischer Medien ist, die heute – besonders angesichts des Computers – als entscheidender Aspekt von Mediengeschichte erscheint.
Die Linien der Probleme von Gleichzeitigkeit/Ungleichzeitigkeit an den Schnittstellen von Wissen, Technik und Ästhetik werden insbesondere durch drei Felder hindurch nachgezeichnet:
1) Die Geschichte von Intermodalität in Bezug auf die Frage nach Gleichzeitigkeit und Ungleichzeitigkeit als Problem und Gegenstand von Wissenschaft seit dem 19. Jahrhundert, vornehmlich in zwei Gebieten: Als Fehlerquelle im astronomischen Observatorium bei der Messung, Feststellung und Vereinheitlichung von Raum und Zeit, die auf individuelle Abweichungen Intermodaler Wahrnehmung verweist und als Problem der „persönlichen Gleichung“ weit über die Astronomie hinaus Karriere macht. Als heiße Zone wahrnehmungspsychologischer Experimente und ihrer Apparate seit der Mitte des 19. Jahrhunderts, die mit dem Konzept der „Komplikation“ Fragen nach einer Synthese der Sinneswahrnehmungen und damit letztlich nach der Selbstgegenwart des Menschen stellt.
2) Eine Technikgeschichte des Problems auditive und visuelle Zeitmedien – wie Phonograph und Film – zu koppeln, zu synchronisieren. Darin eskalieren zwei zeitkritische Relationen: Einerseits zwischen diskreter, intermittierender Bewegung des Films und stetiger, kontinuierlicher Bewegung des Phonographen, andererseits in Bezug darauf, an welcher Stelle – wo und wann – audiovisuelle Gegenwart des Kinos ensteht; oder auch verfehlt wird.
3) Eine Geschichte von Filmtheorie und -ästhetik, in der sich mit der Durchsetzung des Tonfilms um 1930 die Frage stellt, was dieses neue Medium sei und was damit zu tun. Diese Verhandlungen spannen sich zwischen dem formulierten Ziel einer spezifischen Illusion oder Präsenz von Tonfilm durch Synchronität auf der einen Seite und der sich aus dem Verdacht des Betrugs durch Synchronität ergebenden Forderung nach „Asynchronismus“ als kritischer Methode auf der anderen Seite auf.
Ausgehend von der These, dass im 19. Jahrhundert die Sinne aufgeteilt werden, dann wird in diesen Anordnungen an irgendeiner Stelle Heterogenes gleichzeitig passieren. An welcher Stelle? Und was bedeuten diese (Un-)Gleichzeitigkeiten? Was dabei - sehr allgemein gesprochen - auf dem Spiel steht, sind Möglichkeiten einer audiovisuell geteilten – getrennten oder gemeinsamen - Welt und Gegenwart.
Abstract In the first part of this research, the utilization of tuned mass dampers in the vibration control of tall buildings during earthquake excitations is studied. The main issues such as optimizing the parameters of the dampers and studying the effects of frequency content of the target earthquakes are addressed.
Abstract The non-dominated sorting genetic algorithm method is improved by upgrading generic operators, and is utilized to develop a framework for determining the optimum placement and parameters of dampers in tall buildings. A case study is presented in which the optimal placement and properties of dampers are determined for a model of a tall building under different earthquake excitations through computer simulations.
Abstract In the second part, a novel framework for the brain learning-based intelligent seismic control of smart structures is developed. In this approach, a deep neural network learns how to improve structural responses during earthquake excitations using feedback control.
Abstract Reinforcement learning method is improved and utilized to develop a framework for training the deep neural network as an intelligent controller. The efficiency of the developed framework is examined through two case studies including a single-degree-of-freedom system and a high-rise building under different earthquake excitation records.
Abstract The results show that the controller gradually develops an optimum control policy to reduce the vibrations of a structure under an earthquake excitation through a cyclical process of actions and observations.
Abstract It is shown that the controller efficiently improves the structural responses under new earthquake excitations for which it was not trained. Moreover, it is shown that the controller has a stable performance under uncertainties.