Refine
Has Fulltext
- yes (123) (remove)
Document Type
- Article (57)
- Doctoral Thesis (26)
- Part of a Book (16)
- Master's Thesis (7)
- Book (4)
- Preprint (3)
- Conference Proceeding (2)
- Habilitation (2)
- Report (2)
- Bachelor Thesis (1)
Institute
- Institut für Strukturmechanik (ISM) (42)
- Junior-Professur Bildtheorie (17)
- Professur Bauphysik (8)
- Professur Sozialwissenschaftliche Stadtforschung (7)
- Junior-Professur Organisation und vernetzte Medien (6)
- Institut für Europäische Urbanistik (5)
- Professur Bauchemie und Polymere Werkstoffe (3)
- Professur Denkmalpflege und Baugeschichte (3)
- Professur Modellierung und Simulation - Konstruktion (3)
- Bauhaus-Institut für zukunftsweisende Infrastruktursysteme (b.is) (2)
Keywords
- OA-Publikationsfonds2020 (27)
- Maschinelles Lernen (17)
- Machine learning (12)
- Künstlerische Forschung (10)
- Erdbeben (7)
- Deep learning (5)
- Theater (5)
- big data (5)
- Medien (4)
- Raumklima (4)
Year of publication
- 2020 (123) (remove)
The amount of adsorbed styrene acrylate copolymer (SA) particles on cementitious surfaces at the early stage of hydration was quantitatively determined using three different methodological approaches: the depletion method, the visible spectrophotometry (VIS) and the thermo-gravimetry coupled with mass spectrometry (TG–MS). Considering the advantages and disadvantages of each method, including the respectively required sample preparation, the results for four polymer-modified cement pastes, varying in polymer content and cement fineness, were evaluated.
To some extent, significant discrepancies in the adsorption degrees were observed. There is a tendency that significantly lower amounts of adsorbed polymers were identified using TG-MS compared to values determined with the depletion method. Spectrophotometrically generated values were lying in between these extremes. This tendency was found for three of the four cement pastes examined and is originated in sample preparation and methodical limitations.
The main influencing factor is the falsification of the polymer concentration in the liquid phase during centrifugation. Interactions in the interface between sediment and supernatant are the cause. The newly developed method, using TG–MS for the quantification of SA particles, proved to be suitable for dealing with these revealed issues. Here, instead of the fluid phase, the sediment is examined with regard to the polymer content, on which the influence of centrifugation is considerably lower.
Image Analysis Using Human Body Geometry and Size Proportion Science for Action Classification
(2020)
Gestures are one of the basic modes of human communication and are usually used to represent different actions. Automatic recognition of these actions forms the basis for solving more complex problems like human behavior analysis, video surveillance, event detection, and sign language recognition, etc. Action recognition from images is a challenging task as the key information like temporal data, object trajectory, and optical flow are not available in still images. While measuring the size of different regions of the human body i.e., step size, arms span, length of the arm, forearm, and hand, etc., provides valuable clues for identification of the human actions. In this article, a framework for classification of the human actions is presented where humans are detected and localized through faster region-convolutional neural networks followed by morphological image processing techniques. Furthermore, geometric features from human blob are extracted and incorporated into the classification rules for the six human actions i.e., standing, walking, single-hand side wave, single-hand top wave, both hands side wave, and both hands top wave. The performance of the proposed technique has been evaluated using precision, recall, omission error, and commission error. The proposed technique has been comparatively analyzed in terms of overall accuracy with existing approaches showing that it performs well in contrast to its counterparts.
Material properties play a critical role in durable products manufacturing. Estimation of the precise characteristics in different scales requires complex and expensive experimental measurements. Potentially, computational methods can provide a platform to determine the fundamental properties before the final experiment. Multi-scale computational modeling leads to the modeling of the various time, and length scales include nano, micro, meso, and macro scales. These scales can be modeled separately or in correlation with coarser scales. Depend on the interested scales modeling, the right selection of multi-scale methods leads to reliable results and affordable computational cost. The present dissertation deals with the problems in various length and time scales using computational methods include density functional theory (DFT), molecular mechanics (MM), molecular dynamics (MD), and finite element (FE) methods.
Physical and chemical interactions in lower scales determine the coarser scale properties. Particles interaction modeling and exploring fundamental properties are significant challenges of computational science. Downscale modelings need more computational effort due to a large number of interacted atoms/particles. To deal with this problem and bring up a fine-scale (nano) as a coarse-scale (macro) problem, we extended an atomic-continuum framework. The discrete atomic models solve as a continuum problem using the computationally efficient FE method. MM or force field method based on a set of assumptions approximates a solution on the atomic scale. In this method, atoms and bonds model as a harmonic oscillator with a system of mass and springs. The negative gradient of the potential energy equal to the forces on each atom. In this way, each bond's total potential energy includes bonded, and non-bonded energies are simulated as equivalent structural strain energies. Finally, the chemical nature of the atomic bond is modeled as a piezoelectric beam element that solves by the FE method.
Exploring novel materials with unique properties is a demand for various industrial applications. During the last decade, many two-dimensional (2D) materials have been synthesized and shown outstanding properties. Investigation of the probable defects during the formation/fabrication process and studying their strength under severe service life are the critical tasks to explore performance prospects. We studied various defects include nano crack, notch, and point vacancy (Stone-Wales defect) defects employing MD analysis. Classical MD has been used to simulate a considerable amount of molecules at micro-, and meso- scales. Pristine and defective nanosheet structures considered under the uniaxial tensile loading at various temperatures using open-source LAMMPS codes. The results were visualized with the open-source software of OVITO and VMD.
Quantum based first principle calculations have been conducting at electronic scales and known as the most accurate Ab initio methods. However, they are computationally expensive to apply for large systems. We used density functional theory (DFT) to estimate the mechanical and electrochemical response of the 2D materials. Many-body Schrödinger's equation describes the motion and interactions of the solid-state particles. Solid describes as a system of positive nuclei and negative electrons, all electromagnetically interacting with each other, where the wave function theory describes the quantum state of the set of particles. However, dealing with the 3N coordinates of the electrons, nuclei, and N coordinates of the electrons spin components makes the governing equation unsolvable for just a few interacted atoms. Some assumptions and theories like Born Oppenheimer and Hartree-Fock mean-field and Hohenberg-Kohn theories are needed to treat with this equation. First, Born Oppenheimer approximation reduces it to the only electronic coordinates. Then Kohn and Sham, based on Hartree-Fock and Hohenberg-Kohn theories, assumed an equivalent fictitious non-interacting electrons system as an electron density functional such that their ground state energies are equal to a set of interacting electrons. Exchange-correlation energy functionals are responsible for satisfying the equivalency between both systems. The exact form of the exchange-correlation functional is not known. However, there are widely used methods to derive functionals like local density approximation (LDA), Generalized gradient approximation (GGA), and hybrid functionals (e.g., B3LYP). In our study, DFT performed using VASP codes within the GGA/PBE approximation, and visualization/post-processing of the results realized via open-source software of VESTA.
The extensive DFT calculations are conducted 2D nanomaterials prospects as anode/cathode electrode materials for batteries. Metal-ion batteries' performance strongly depends on the design of novel electrode material. Two-dimensional (2D) materials have developed a remarkable interest in using as an electrode in battery cells due to their excellent properties. Desirable battery energy storage systems (BESS) must satisfy the high energy density, safe operation, and efficient production costs. Batteries have been using in electronic devices and provide a solution to the environmental issues and store the discontinuous energies generated from renewable wind or solar power plants. Therefore, exploring optimal electrode materials can improve storage capacity and charging/discharging rates, leading to the design of advanced batteries.
Our results in multiple scales highlight not only the proposed and employed methods' efficiencies but also promising prospect of recently synthesized nanomaterials and their applications as an anode material. In this way, first, a novel approach developed for the modeling of the 1D nanotube as a continuum piezoelectric beam element. The results converged and matched closely with those from experiments and other more complex models. Then mechanical properties of nanosheets estimated and the failure mechanisms results provide a useful guide for further use in prospect applications. Our results indicated a comprehensive and useful vision concerning the mechanical properties of nanosheets with/without defects. Finally, mechanical and electrochemical properties of the several 2D nanomaterials are explored for the first time—their application performance as an anode material illustrates high potentials in manufacturing super-stretchable and ultrahigh-capacity battery energy storage systems (BESS). Our results exhibited better performance in comparison to the available commercial anode materials.
In this paper, an artificial neural network is implemented for the sake of predicting the thermal conductivity ratio of TiO2-Al2O3/water nanofluid. TiO2-Al2O3/water in the role of an innovative type of nanofluid was synthesized by the sol–gel method. The results indicated that 1.5 vol.% of nanofluids enhanced the thermal conductivity by up to 25%. It was shown that the heat transfer coefficient was linearly augmented with increasing nanoparticle concentration, but its variation with temperature was nonlinear. It should be noted that the increase in concentration may cause the particles to agglomerate, and then the thermal conductivity is reduced. The increase in temperature also increases the thermal conductivity, due to an increase in the Brownian motion and collision of particles. In this research, for the sake of predicting the thermal conductivity of TiO2-Al2O3/water nanofluid based on volumetric concentration and temperature functions, an artificial neural network is implemented. In this way, for predicting thermal conductivity, SOM (self-organizing map) and BP-LM (Back Propagation-Levenberq-Marquardt) algorithms were used. Based on the results obtained, these algorithms can be considered as an exceptional tool for predicting thermal conductivity. Additionally, the correlation coefficient values were equal to 0.938 and 0.98 when implementing the SOM and BP-LM algorithms, respectively, which is highly acceptable. View Full-Text
The K-nearest neighbors (KNN) machine learning algorithm is a well-known non-parametric classification method. However, like other traditional data mining methods, applying it on big data comes with computational challenges. Indeed, KNN determines the class of a new sample based on the class of its nearest neighbors; however, identifying the neighbors in a large amount of data imposes a large computational cost so that it is no longer applicable by a single computing machine. One of the proposed techniques to make classification methods applicable on large datasets is pruning. LC-KNN is an improved KNN method which first clusters the data into some smaller partitions using the K-means clustering method; and then applies the KNN for each new sample on the partition which its center is the nearest one. However, because the clusters have different shapes and densities, selection of the appropriate cluster is a challenge. In this paper, an approach has been proposed to improve the pruning phase of the LC-KNN method by taking into account these factors. The proposed approach helps to choose a more appropriate cluster of data for looking for the neighbors, thus, increasing the classification accuracy. The performance of the proposed approach is evaluated on different real datasets. The experimental results show the effectiveness of the proposed approach and its higher classification accuracy and lower time cost in comparison to other recent relevant methods.
Der Forschungsgegenstand dieser Arbeit basiert auf einer phänomenologischen Beobachtung internationaler fotografischer Positionen des Selbstportraits, welche seit den 1960er-Jahren verwandte Inhalte, gleichartige bildästhetische Merkmale und ähnliche Prozesse im fotografischen Herstellungsprozess aufweisen. Gemeinsam haben die in dieser Arbeit besprochenen Künstler*innen, dass sich ihre Bildwerdung am eigenen Körper vollzieht und an einen durch Bewegung gekennzeichneten Handlungsablauf geknüpft ist. Die jeweilige Bildsprache weist eine ephemere Ästhetik aus, in welcher inhaltlich sowohl der physische als auch der philosophisch gemeinte Begriff des (Los-)lassens eine Rolle spielt. Die künstlerischen Positionen, die Gegenstand dieser Ph.D.-Arbeit sind, umfassen Arbeiten von Bas Jan Ader (1942 – 1975), Francesca Woodman (1958 – 1981), Bernhard (1937 – 2011) und Anna Blume (*1937), Antoine d’Agata (*1961) und Tom Pope (*1986).
Im Rahmen der Dissertation wurde ein Toolboxmodell für transdisziplinäres Wasserressourcenmanagement entwickelt. Das Modell liefert den methodischen Rahmen Wasserressourcen nachhaltig und transdisziplinär zu bewirtschaften.
Der Begriff der Nachhaltigkeit und eine Konkretisierung der nachhaltigen Bewirtschaftung globaler Wasserressourcen scheinen unüberschaubar und suggerieren die Forderung nach einer neuen Weltformel. Die globale Bedeutung der Wasserressourcen, die für Regionen spezifischen Besonderheiten des natürlichen Wasserhaushalts und der anthropogenen Nutzung, die Zeitskala und die Kontextualisierung in alle betroffenen und benachbarten Disziplinen deuten auf die Komplexität der Thematik hin. Es wird eine Systematisierung des Planungsprozesses von Wasserressourcen notwendig, anhand derer eine holistische Herangehensweise mit einer Strategieentwicklung für Regionen spezifischer Schwerpunktprobleme erfolgt. Ziel der Arbeit ist die Erarbeitung einer Strategie zur Systematisierung nach diesen Forderungen und die Bereitstellung eines Toolboxmodelles als Planungswerkzeug für das transdisziplinäre Wasserressourcenmanagement.
Das Toolboxmodell stellt den konzeptionellen Rahmen für die Bewirtschaftung von Wasserressourcen mit der Anwendung transdisziplinärer Forschungsmethoden bereit. Wesentliche Herausforderung bei der Anwendung der transdisziplinären Methode sind die Implementierung verschiedener Skalenbereiche, der Umgang mit der Komplexität von Daten, das Bewahren von Transparenz und Objektivität sowie die Ermöglichung eines auf andere Regionen übertragbaren Planungsprozesses.
Die theoretischen Grundlagen naturwissenschaftlicher Forschung zur Nachhaltigkeit haben ihren Ursprung in den biologischen und geographischen Disziplinen. Das Ineinandergreifen naturräumlicher Zusammenhänge und der Einfluss anthropogener Nutzung und technischer Innovationen auf den Naturhaushalt sind Kern der Kausalität übergreifenden Denkens und Verstehens. Mit dem Ansatz des integrierten Wasserressourcenmanagements (IWRM) erfolgt die Berücksichtigung wirtschaftlicher und sozioökonomischer Ziele in den Planungsprozess für ökologisch nachhaltige Wasserwirtschaft. Das Instrument der Wasserrahmenrichtlinie (EU-WRRL) ist auf eine Gewässerökologie ausgerichtete Richtlinie, welche die Integration verschiedener Interessenvertreter in den Planungsprozess vorsieht. Das Konzept der neuartigen Sanitärsysteme basiert auf Stoffflüssen zwischen konkurrierenden Handlungsbereichen, wie Abfall-, Ressourcen- und Landwirtschaft.
Den integrierten Ansätzen fehlt eine übergeordnete gemeinsame Zielstrategie – eine sogenannte Phase Null. Diese Phase Null – das Lernen aller 7 Zusammenfassung 157 relevanten, konkurrierenden und harmonisierenden Handlungsfelder eines Planungshorizontes wird durch eine transdisziplinäre Perspektive ermöglicht. Während bei der integralen Perspektive eine disziplinorientierte Kooperation im Vordergrund steht, verlangt die transdisziplinäre Perspektive nach einer problemorientierten Kooperation zwischen den Interessenvertretern (Werlen 2015). Die bestehenden Konzepte und Richtlinien für das nachhaltige Management von Wasserressourcen sind etabliert und evaluiert. Der Literatur zur Folge ist eine Weiterentwicklung nach der Perspektive der Transdisziplinarität erforderlich. Das Toolboxmodell für integrales Wasserressourcenmanagement entspricht einem Planungstool bestehend aus Werkzeugen für die Anwendung wissenschaftlicher Methoden. Die Zusammenstellung der Methoden/Werkzeuge erfüllt im Rahmen die Methode transdisziplinärer Forschung. Das Werkzeug zum Aufstellen der relevanten Handlungsfelder umfasst die Charakterisierung eines Untersuchungsgebietes und Planungsrahmens, die kausale Verknüpfung des Bewirtschaftungskonzeptes und konkurrierender sowie sich unterstützender Stakeholder. Mit dem Werkzeug der Kontextualisierung und Indikatorenaufstellung wird eine Methode der stufenweisen und von einer Skala unabhängigen Bewertung des Umweltzustandes für die Zielpriorisierung vorgenommen. Damit wird das Toolboxmodell dem Problem der Komplexität und Datenverfügbarkeit gerecht. Anhand der eingesetzten ABC Methode, werden die Bewertungsgrößen differenziert strukturiert auf verschiedene Skalen und Datenressourcen (A=Ersterkennung,B=Zeigerwerte, C=Modell/Index). Die ABC-Methode ermöglicht die Planung bereits mit unsicherer und lückenhafter Datengrundlage, ist jederzeit erweiterbar und bietet somit eine operative Wissensgenerierung während des Gestaltungsprozesses.
Für das Werkzeug zur Bewertung und Priorisierung wird der Algorithmus der Composite Programmierung angewandt. Diese Methode der Mehrfachzielplanung erfüllt den Anspruch der permanenten Erweiterbarkeit und der transparenten und objektiven Entscheidungsfindung. Die Komplexität des transdisziplinären Wasserressourcenmanagements kann durch die Methode der Composite Programmierung systematisiert werden. Das wesentliche Ergebnis der Arbeit stellt die erfolgreiche Erarbeitung und Anwendung des Tool-boxmodells für das transdisziplinäre Wasserressourcenmanagement im Untersuchungsgebiet Stadt Darkhan in der Mongolei dar. Auf Grund seiner besonderen hydrologischen und strukturellen Situa-tion wird die Relevanz eines nachhaltigen Bewirtschaftungskonzeptes deutlich. Im Rahmen des Querschnittsmoduls des MoMo-Projektes wurde eine für das Toolboxmodell geeignete Datengrundlage erarbeitet. Planungsrelevante Handlungsfelder wurden im Rahmen eines Workshops mit verschiedenen Interessenvertretern erarbeitet. Im Ergebnis dessen wurde die Systematik eines Zielbaumes mit Hauptzielen und untergeordneten Teilzielen als Grundlage der Priorisierung nach den holistischen Anspruch der transdisziplinären Forschung aufgestellt. Für die Messbarkeit, in-wieweit Teilziele erreicht sind oder Handlungsbedarf besteht, wurden Indikatoren erarbeitet. Die Indikatoren-Aufstellung erfolgte exemplarisch für das Handlungsfeld Siedlungswasserwirtschaft in allen Skalen des ABC-Systems. Die im BMBF-MoMo Projekt generierte umfassende Datengrundlage ermöglichte die Anwendung und Evaluierung des Toolboxmodells mit unterschiedlichem quantitativem und qualitativem Dateninput. Verschiedene Kombination von A (Ersterkennung), B (Zeigerwerte) und C (Modell/Index) als Grundlage der Priorisierung mit der Compostite Programmierung ermöglichten die Durchführung und Bewertung des transdisziplinären Planungstools. Die er-mittelten Rangfolgen von Teilzielen mit unterschiedlichen Bewertungsvarianten ergaben ähnliche
Tendenzen. Das ist ein Hinweis dafür, dass für die zukünftige Anwendung des Toolboxmodells die operative Wissensgenerierung, d.h. das schrittweise Hinzufügen neu ermittelter, gesicherterer Daten, funktioniert. Eine schwierige Datenverfügbarkeit oder eine noch im Prozess befindliche wissenschaftliche Analyse sollen keine Hindernisse für eine schrittweise und erweiterbare Zielpriorisierung und Maßnahmenplanung sein. Trotz der Komplexität des transdisziplinären Ansatzes wird durch die Anwendung des Toolboxmodells eine effiziente und zielorientierte Handlungspriorisierung ermöglicht. Die Effizienz wird erreicht durch ressourcenschonende und flexible, Ziel fokussierte Datenermittlung. Zeit und Kosten im Planungsprozess können eingespart werden. Die erzielte Priorisierung von letztlich Handlungsempfehlungen erfolgt individuell auf die Eigenart des Untersuchungsgebietes angepasst, was hinsichtlich seiner Wirkung als erfolgsversprechend gilt.
Das Innovationsmanagement von Medienorganisationen unterliegt derzeit erheblichen Veränderungen: Im veränderten Marktumfeld erweisen sich Flexibilität, schnelle Richtungswechsel und Anpassungsfähigkeit als zentral. Darauf muss auch die Medienmanagement-Forschung reagieren: Um die Agilität der gegenwärtigen Unternehmenspraxis valide zu erforschen, ist eine ebenso agile, adaptive Forschung gefordert. Zu diesem Zweck schlägt der Beitrag eine praxistheoretische Perspektive auf das Innovationsmanagement von Medienorganisationen vor. Empirische Forschungsdesigns, die aus einem solchen Zugriff resultieren, werden sowohl hinsichtlich ihrer methodischen Herausforderungen als auch ihres Forschungsprojektmanagements diskutiert. Der Beitrag greift außerdem neue Möglichkeitsräume des wissenschaftlichen Publizierens, des Universitätsmanagements sowie der Forschungsorganisation auf, die praxistheoretisch gegründete, empirische Innovationsforschung in der Medienwirtschaft einfordert.
Der perfekte Bankraub
(2020)
Finanzielle Unabhängigkeit, überleben können, Superheld*in oder Pop-Star sein, Adrenalin-Kick, lebenslange Kompliz*innenschaft und ewige romanti- sche Verbundenheit, Verschwörung, siegreiches Über- listen, Täuschungstechniken – die Fantasien, die sich um die Idee des Bankraubs ranken, sind so verschieden wie die Menschen, die sie haben. Ein Banküberfall ist wahrscheinlich der Traum Vieler, angesichts der zuneh- menden Prekarisierung persönlicher Ökonomien und
– gleichzeitig oder gerade deswegen – ein spektakulari- siertes, fast popkulturelles Ereignis, das in den Medien gut dokumentiert und in unzähligen Filmen illustriert und weitergesponnen wird.
When it comes to monitoring of huge structures, main issues are limited time, high costs and how to deal with the big amount of data. In order to reduce and manage them, respectively, methods from the field of optimal design of experiments are useful and supportive. Having optimal experimental designs at hand before conducting any measurements is leading to a highly informative measurement concept, where the sensor positions are optimized according to minimal errors in the structures’ models. For the reduction of computational time a combined approach using Fisher Information Matrix and mean-squared error in a two-step procedure is proposed under the consideration of different error types. The error descriptions contain random/aleatoric and systematic/epistemic portions. Applying this combined approach on a finite element model using artificial acceleration time measurement data with artificially added errors leads to the optimized sensor positions. These findings are compared to results from laboratory experiments on the modeled structure, which is a tower-like structure represented by a hollow pipe as the cantilever beam. Conclusively, the combined approach is leading to a sound experimental design that leads to a good estimate of the structure’s behavior and model parameters without the need of preliminary measurements for model updating.
Die Mahlung als Zerkleinerungsprozess stellt seit den Anfängen der Menschheit eine der wichtigsten Verarbeitungsformen von Materialien aller Art dar - von der Getreidemahlung, über das Aufschließen von Heilkräutern in Mörsern bis hin zur Herstellung von Tonern für Drucker und Kopierer. Besonders die Zementmahlung ist in modernen Gesellschaften sowohl ein wirtschaftlicher als auch ein ökologischer Faktor. Mehr als zwei Drittel der elektrischen Energie der Zementproduktion werden für Rohmehl- und Klinker- bzw. Kompositmaterialmahlung verbraucht. Dies ist nur ein Grund, warum der Mahlprozess zunehmend in den Fokus vieler Forschungs- und Entwicklungsvorhaben rückt. Die Komplexität der Zementmahlung steigt im zunehmenden Maße an. Die simple „Mahlung auf Zementfeinheit“ ist seit langem obsolet. Zemente werden maßgeschneidert, mit verschiedensten Kombinationsprodukten, getrennt oder gemeinsam, in unterschiedlichen Mahlaggregaten oder mit ganz neuen Ansätzen gefertigt. Darüber hinaus gewinnt auch der Sektor des Baustoffrecyclings, mit allen damit verbundenen Herausforderungen, immer mehr an Bedeutung. Bei der Fragestellung, wie der Mahlprozess einerseits leistungsfähige Produkte erzeugen kann und andererseits die zunehmenden Anforderungen an Nachhaltigkeit erfüllt, steht das Mahlaggregat im Mittelpunkt der Betrachtungen. Dementsprechend gliedert sich, neben einer eingehenden Literaturrecherche zum Wissensstand, die vorliegende Arbeit in zwei übergeordnete Teile:
Im ersten Teil werden Untersuchungen an konventionellen Mahlaggregaten mit in der Zementindustrie verwendeten Kernprodukten wie Portlandzementklinker, Kalkstein, Flugasche und Hüttensand angestellt. Um eine möglichst effektive Mahlung von Zement und Kompositmaterialien zu gewährleisten, ist es wichtig, die Auswirkung von Mühlenparametern zu kennen. Hierfür wurde eine umfangreiche Versuchsmatrix aufgestellt und
abgearbeitet. Das Spektrum der Analysemethoden war ebenfalls umfangreich und wurde sowohl auf die gemahlenen Materialien als auch auf die daraus hergestellten Zemente und Betone angewendet. Es konnte gezeigt werden, dass vor allem die Unterscheidung zwischen Mahlkörpermühlen und mahlkörperlosen Mühlen entscheidenden Einfluss auf die Granulometrie und somit auch auf die Zementperformance hat. Besonders stark wurden die Verarbeitungseigenschaften, insbesondere der Wasseranspruch und damit auch das Porengefüge und schließlich Druckfestigkeiten sowie Dauerhaftigkeitseigenschaften der aus diesen Zementen hergestellten Betone, beeinflusst. Bei Untersuchungen zur gemeinsamen Mahlung von Kalkstein und Klinker führten ungünstige Anreicherungseffekte des gut mahlbaren Kalksteins sowie tonigen Nebenbestandteilen zu einer schlechteren Performance in allen Zementprüfungen.
Der zweite Teil widmet sich der Hochenergiemahlung. Die dahinterstehende Technik wird seit Jahrzehnten in anderen Wirtschaftsbranchen, wie der Pharmazie, Biologie oder auch Lebensmittelindustrie angewendet und ist seit einiger Zeit auch in der Zementforschung anzutreffen. Beispielhaft seien hier die Planeten- und Rührwerkskugelmühle als Vertreter genannt. Neben grundlegenden Untersuchungen an Zementklinker
und konventionellen Kompositmaterialien wie Hüttensand und Kalkstein wurde auch die Haupt-Zementklinkerphase Alit untersucht. Die Hochenergiemahlung von konventionellen Kompositmaterialien generierte zusätzliche Reaktivität bei gleicher Granulometrie gegenüber der herkömmlichen Mahlung. Dies wurde vor allem bei per se reaktivem Zementklinker als auch bei latent-hydraulischem Hüttensand beobachtet. Gemahlene Flugaschen konnten nur im geringen Maße weiter aktiviert werden. Der generelle Einfluss von Oberflächenvergrößerung, Strukturdefekten und Relaxationseffekten eines Mahlproduktes wurden eingehend untersucht und gewichtet. Die Ergebnisse bei der Hochenergiemahlung von Alit zeigten, dass die durch Mahlung eingebrachten Strukturdefekte eine Erhöhung der Reaktivität zur Folge haben. Hierbei konnte festgestellt werden, das maßgeblich Oberflächendefekte, strukturelle (Volumen-)defekte und als Konterpart Selbstheilungseffekte die reaktivitätsbestimmenden Faktoren sind. Weiterhin wurden Versuche zur Mahlung von Altbetonbrechsand durchgeführt. Im Speziellen wurde untersucht, inwieweit eine Rückführung von Altbetonbrechsand, als unverwertbarer Teil des Betonbruchs, in Form eines Zement-Kompositmaterials in den Baustoffkreislauf möglich ist. Die hierfür verwendete Mahltechnik umfasst sowohl konventionelle Mühlen als auch Hochenergiemühlen. Es wurden Kompositzemente mit variiertem Recyclingmaterialanteil hergestellt und auf grundlegende Eigenschaften untersucht. Zur Bewertung der Produktqualität wurde der sogenannte „Aktivierungskoeffizient“ eingeführt. Es stellte sich heraus, dass die Rückführung von Altbetonbrechsand als potentielles Kompositmaterial wesentlich vom Anteil des Zementsteins abhängt. So konnte beispielsweise reiner Zementstein als aufgemahlenes Kompositmaterial eine bessere Performance gegenüber dem mit Gesteinskörnung beaufschlagtem Altbetonbrechsand ausweisen. Bezogen auf die gemessenen Hydratationswärmen und Druckfestigkeiten nahm der Aktivierungskoeffzient mit fallendem Abstraktionsgrad ab. Ebenfalls sank der Aktivierungskoeffizient mit steigendem Substitutionsgrad. Als Vergleich wurden dieselben Materialien in konventionellen Mühlen aufbereitet. Die hier erzielten Ergebnisse können teilweise der Hochenergiemahlung als gleichwertig beurteilt werden. Folglich ist bei der Aktivierung von Recyclingmaterialien weniger die Mahltechnik als der Anteil an aktivierbarem Zementstein ausschlaggebend.
Abstract In the first part of this research, the utilization of tuned mass dampers in the vibration control of tall buildings during earthquake excitations is studied. The main issues such as optimizing the parameters of the dampers and studying the effects of frequency content of the target earthquakes are addressed.
Abstract The non-dominated sorting genetic algorithm method is improved by upgrading generic operators, and is utilized to develop a framework for determining the optimum placement and parameters of dampers in tall buildings. A case study is presented in which the optimal placement and properties of dampers are determined for a model of a tall building under different earthquake excitations through computer simulations.
Abstract In the second part, a novel framework for the brain learning-based intelligent seismic control of smart structures is developed. In this approach, a deep neural network learns how to improve structural responses during earthquake excitations using feedback control.
Abstract Reinforcement learning method is improved and utilized to develop a framework for training the deep neural network as an intelligent controller. The efficiency of the developed framework is examined through two case studies including a single-degree-of-freedom system and a high-rise building under different earthquake excitation records.
Abstract The results show that the controller gradually develops an optimum control policy to reduce the vibrations of a structure under an earthquake excitation through a cyclical process of actions and observations.
Abstract It is shown that the controller efficiently improves the structural responses under new earthquake excitations for which it was not trained. Moreover, it is shown that the controller has a stable performance under uncertainties.
In recent years, substantial attention has been devoted to thermoelastic multifield problems and their numerical analysis. Thermoelasticity is one of the important categories of multifield problems which deals with the effect of mechanical and thermal disturbances on an elastic body. In other words, thermoelasticity encompasses the phenomena that describe the elastic and thermal behavior of solids and their interactions under thermo-mechanical loadings. Since providing an analytical solution for general coupled thermoelasticity problems is mathematically complicated, the development of alternative numerical solution techniques seems essential.
Due to the nature of numerical analysis methods, presence of error in results is inevitable, therefore in any numerical simulation, the main concern is the accuracy of the approximation. There are different error estimation (EE) methods to assess the overall quality of numerical approximation. In many real-life numerical simulations, not only the overall error, but also the local error or error in a particular quantity of interest is of main interest. The error estimation techniques which are developed to evaluate the error in the quantity of interest are known as “goal-oriented” error estimation (GOEE) methods.
This project, for the first time, investigates the classical a posteriori error estimation and goal-oriented a posteriori error estimation in 2D/3D thermoelasticity problems. Generally, the a posteriori error estimation techniques can be categorized into two major branches of recovery-based and residual-based error estimators. In this research, application of both recovery- and residual-based error estimators in thermoelasticity are studied. Moreover, in order to reduce the error in the quantity of interest efficiently and optimally in 2D and 3D thermoelastic problems, goal-oriented adaptive mesh refinement is performed.
As the first application category, the error estimation in classical Thermoelasticity (CTE) is investigated. In the first step, a rh-adaptive thermo-mechanical formulation based on goal-oriented error estimation is proposed.The developed goal-oriented error estimation relies on different stress recovery techniques, i.e., the superconvergent patch recovery (SPR), L2-projection patch recovery (L2-PR), and weighted superconvergent patch recovery (WSPR). Moreover, a new adaptive refinement strategy (ARS) is presented that minimizes the error in a quantity of interest and refines the discretization such that the error is equally distributed in the refined mesh. The method is validated by numerous numerical examples where an analytical solution or reference solution is available.
After investigating error estimation in classical thermoelasticity and evaluating the quality of presented error estimators, we extended the application of the developed goal-oriented error estimation and the associated adaptive refinement technique to the classical fully coupled dynamic thermoelasticity. In this part, we present an adaptive method for coupled dynamic thermoelasticity problems based on goal-oriented error estimation. We use dimensionless variables in the finite element formulation and for the time integration we employ the acceleration-based Newmark-_ method. In this part, the SPR, L2-PR, and WSPR recovery methods are exploited to estimate the error in the quantity of interest (QoI). By using
adaptive refinement in space, the error in the quantity of interest is minimized. Therefore, the discretization is refined such that the error is equally distributed in the refined mesh. We demonstrate the efficiency of this method by numerous numerical examples.
After studying the recovery-based error estimators, we investigated the residual-based error estimation in thermoelasticity. In the last part of this research, we present a 3D adaptive method for thermoelastic problems based on goal-oriented error estimation where the error is measured with respect to a pointwise quantity of interest. We developed a method for a posteriori error estimation and mesh adaptation based on dual weighted residual (DWR) method relying on the duality principles and consisting of an adjoint problem solution. Here, we consider the application of the derived estimator and mesh refinement to two-/three-dimensional (2D/3D) thermo-mechanical multifield problems. In this study, the goal is considered to be given by singular pointwise functions, such as the point value or point value derivative at a specific point of interest (PoI). An adaptive algorithm has been adopted to refine the mesh to minimize the goal in the quantity of interest.
The mesh adaptivity procedure based on the DWR method is performed by adaptive local h-refinement/coarsening with allowed hanging nodes. According to the proposed DWR method, the error contribution of each element is evaluated. In the refinement process, the contribution of each element to the goal error is considered as the mesh refinement criterion.
In this study, we substantiate the accuracy and performance of this method by several numerical examples with available analytical solutions. Here, 2D and 3D problems under thermo-mechanical loadings are considered as benchmark problems. To show how accurately the derived estimator captures the exact error in the evaluation of the pointwise quantity of interest, in all examples, considering the analytical solutions, the goal error effectivity index as a standard measure of the quality of an estimator is calculated. Moreover, in order to demonstrate the efficiency of the proposed method and show the optimal behavior of the employed refinement method, the results of different conventional error estimators and refinement techniques (e.g., global uniform refinement, Kelly, and weighted Kelly techniques) are used for comparison.
A complex artistic research on the theme of cultural heritage and (neo)colonial processes of material and immaterial expropriation. Starting from the encounter with a phonographic relic at the Berliner Phonogramm-Archiv, the artist embarks on a journey to her own roots embodied in the practice of the Afro-Brazilian religion Candomblé. In the form of a theoretical treatise, an archive (photos, diagrams, maps, newspaper clippings, letters, documents), as well as a sound performance in the public space of the city of Weimar, several theoretical and performative elements are brought together in this transmedia artistic research that proposes a true decolonial practice.
Unmanned aircraft systems (UAS) show large potential for the construction industry. Their use in condition assessment has increased significantly, due to technological and computational progress. UAS play a crucial role in developing a digital maintenance strategy for infrastructure, saving cost and effort, while increasing safety and reliability. Part of that strategy are automated visual UAS inspections of the building’s condition. The resulting images can automatically be analyzed to identify and localize damages to the structure that have to be monitored. Further interest in parts of a structure can arise from events like accidents or collisions. Areas of low interest exist, where low resolution monitoring is sufficient.
From different requirements for resolution, different levels of detail can be derived. They require special image acquisition parameters that differ mainly in the distance between camera and structure. Areas with a higher level of detail require a smaller distance to the object, producing more images. This work proposes a multi-scale flight path planning procedure, enabling higher resolution requirements for areas of special interest, while reducing the number of required images to a minimum. Careful selection of the camera positions maintains the complete coverage of the structure, while achieving the required resolution in all areas. The result is an efficient UAS inspection, reducing effort for the maintenance of infrastructure.
This paper reports the formation and structure of fast setting geopolymers activated by using three sodium silicate solutions with different modules (1.6, 2.0 and 2.4) and a berlinite-type aluminum orthophosphate. By varying the concentration of the aluminum orthophosphate, different Si/Al-ratios were established (6, 3 and 2). Reaction kinetics of binders were determined by isothermal calorimetric measurements at 20 °C. X-ray diffraction analysis as well as nuclear magnetic resonance (NMR) measurements were performed on binders to determine differences in structure by varying the alkalinity of the sodium silicate solutions and the Si/Al-ratio. The calorimetric results indicated that the higher the alkalinity of the sodium silicate solution, the higher the solubility and degree of conversion of the aluminum orthophosphate. The results of X-ray diffraction and Rietveldt analysis, as well as the NMR measurements, confirmed the assumption of the calorimetric experiments that first the aluminum orthophosphate was dissolved and then a polycondensation to an amorphous aluminosilicate network occurred. The different amounts of amorphous phases formed as a function of the alkalinity of the sodium silicate solution, indicate that tetrahydroxoaluminate species were formed during the dissolution of the aluminum orthophosphate, which reduce the pH value. This led to no further dissolution of the aluminum orthophosphate, which remained unreacted.
Self-healing materials have recently become more popular due to their capability to autonomously and autogenously repair the damage in cementitious materials. The concept of self-healing gives the damaged material the ability to recover its stiffness. This gives a difference in comparing with a material that is not subjected to healing. Once this material is damaged, it cannot sustain loading due to the stiffness degradation. Numerical modeling of self-healing materials is still in its infancy. Multiple experimental researches were conducted in literature to describe the behavior of self-healing of cementitious materials. However, few numerical investigations were undertaken.
The thesis presents an analytical framework of self-healing and super healing materials based on continuum damage-healing mechanics. Through this framework, we aim to describe the recovery and strengthening of material stiffness and strength. A simple damage healing law is proposed and applied on concrete material. The proposed damage-healing law is based on a new time-dependent healing variable. The damage-healing model is applied on isotropic concrete material at the macroscale under tensile load. Both autonomous and autogenous self-healing mechanisms are simulated under different loading conditions. These two mechanisms are denoted in the present work by coupled and uncoupled self-healing mechanisms, respectively. We assume in the coupled self-healing that the healing occurs at the same time with damage evolution, while we assume in the uncoupled self-healing that the healing occurs when the material is deformed and subjected to a rest period (damage is constant). In order to describe both coupled and uncoupled healing mechanisms, a one-dimensional element is subjected to different types of loading history.
In the same context, derivation of nonlinear self-healing theory is given, and comparison of linear and nonlinear damage-healing models is carried out using both coupled and uncoupled self-healing mechanisms. The nonlinear healing theory includes generalized nonlinear and quadratic healing models. The healing efficiency is studied by varying the values of the healing rest period and the parameter describing the material characteristics. In addition, theoretical formulation of different self-healing variables is presented for both isotropic and anisotropic maerials. The healing variables are defined based on the recovery in elastic modulus, shear modulus, Poisson's ratio, and bulk modulus. The evolution of the healing variable calculated based on cross-section as function of the healing variable calculated based on elastic stiffness is presented in both hypotheses of elastic strain equivalence and elastic energy equivalence. The components of the fourth-rank healing tensor are also obtained in the case of isotropic elasticity, plane stress and plane strain.
Recent research revealed that self-healing presents a crucial solution also for the strengthening of the materials. This new concept has been termed ``Super Healing``. Once the stiffness of the material is recovered, further healing can result as a strengthening material. In the present thesis, new theory of super healing materials is defined in isotropic and anisotropic cases using sound mathematical and mechanical principles which are applied in linear and nonlinear super healing theories. Additionally, the link of the proposed theory with the theory of undamageable materials is outlined. In order to describe the super healing efficiency in linear and nonlinear theories, the ratio of effective stress to nominal stress is calculated as function of the super healing variable. In addition, the hypotheses of elastic strain and elastic energy equivalence are applied. In the same context, new super healing matrix in plane strain is proposed based on continuum damage-healing mechanics.
In the present work, we also focus on numerical modeling of impact behavior of reinforced concrete slabs using the commercial finite element package Abaqus/Explicit. Plain and reinforced concrete slabs of unconfined compressive strength 41 MPa are simulated under impact of ogive-nosed hard projectile. The constitutive material modeling of the concrete and steel reinforcement bars is performed using the Johnson-Holmquist-2 damage and the Johnson-Cook plasticity material models, respectively. Damage diameters and residual velocities obtained by the numerical model are compared with the experimental results and effect of steel reinforcement and projectile diameter is studied.
Das Buch greift die enge Verknüpfung von Industrialisierung und Urbanisierung auf, die in den letzten gut 250 Jahren Europas Städte und ihre Stadtbaugeschichte maßgeblich geprägt hat. Damit stellen sich auch vielfältige Fragen und Aufgaben für die Denkmalpflege.
Die Habilitationsschrift leistet einen Beitrag, um die stadtbaugeschichtlichen und stadtbildprägenden Werte historischer Industriekomplexe zu erkennen und zu erhalten. Wie können wir die industriellen Stadtlandschaften erfassen? Wie gestalten wir Umnutzungen und Konversionen denkmalgerecht und beziehen im Rahmen eines Heritage-Managements Aspekte der nachhaltigen Stadtentwicklung ein?
Das Buch greift die enge Verknüpfung von Industrialisierung und
Urbanisierung auf, die in den letzten gut 250 Jahren Europas Städte und ihre Stadtbaugeschichte maßgeblich geprägt hat. Damit stellen sich auch vielfältige Fragen und Aufgaben für die Denkmalpflege.
Die Habilitationsschrift leistet einen Beitrag, um die stadtbaugeschichtlichen und stadtbildprägenden Werte historischer Industriekomplexe zu erkennen und zu erhalten. Wie können wir die industriellen Stadtlandschaften erfassen? Wie gestalten wir Umnutzungen und Konversionen denkmalgerecht und beziehen im Rahmen eines Heritage-Managements Aspekte der nachhaltigen Stadtentwicklung ein?
Calculating hydrocarbon components solubility of natural gases is known as one of the important issues for operational works in petroleum and chemical engineering. In this work, a novel solubility estimation tool has been proposed for hydrocarbon gases—including methane, ethane, propane, and butane—in aqueous electrolyte solutions based on extreme learning machine (ELM) algorithm. Comparing the ELM outputs with a comprehensive real databank which has 1175 solubility points yielded R-squared values of 0.985 and 0.987 for training and testing phases respectively. Furthermore, the visual comparison of estimated and actual hydrocarbon solubility led to confirm the ability of proposed solubility model. Additionally, sensitivity analysis has been employed on the input variables of model to identify their impacts on hydrocarbon solubility. Such a comprehensive and reliable study can help engineers and scientists to successfully determine the important thermodynamic properties, which are key factors in optimizing and designing different industrial units such as refineries and petrochemical plants.